Apple a decis să retragă temporar funcția sa de inteligență artificială pentru notificările de știri, după ce aceasta a generat titluri eronate, stârnind reacții din partea organizațiilor de știri și a grupurilor pentru libertatea presei.
Într-o mișcare rară, Apple a inversat decizia de a lansa funcția Apple Intelligence, care rezuma notificările de știri, după ce tehnologia a produs rezumate înșelătoare sau complet false ale titlurilor de știri. Joi, Apple a implementat o actualizare de software beta pentru dezvoltatori, dezactivând temporar această funcție pentru titlurile de știri și divertisment, cu intenția de a o îmbunătăți înainte de a o relansa pentru toți utilizatorii.
Compania a declarat că rezumatele Apple Intelligence, la care utilizatorii trebuie să opteze, vor sublinia mai explicit faptul că informațiile au fost produse de AI, semnalând că uneori pot produce rezultate inexacte. Luna trecută, BBC s-a plâns Apple cu privire la tehnologie, după ce aceasta a creat titluri false, inclusiv afirmația că Luigi Mangione, acuzat de crimă în moartea CEO-ului UnitedHealthcare, s-a împușcat. Într-un alt incident, trei articole din New York Times au fost rezumate într-o singură notificare push, afirmând în mod fals că premierul israelian Benjamin Netanyahu a fost arestat.
Un purtător de cuvânt al BBC a declarat pentru CNN că „este esențial ca Apple să abordeze urgent aceste probleme, deoarece acuratețea știrilor noastre este esențială pentru menținerea încrederii. Aceste rezumate AI de la Apple nu reflectă – și în unele cazuri contrazic complet – conținutul original BBC.”
Apoi, funcția bazată pe inteligență artificială a rezumat incorect o notificare de la Washington Post, afirmând în mod fals „Pete Hegseth a fost concediat; Tarifele Trump influențează inflația; Pam Bondi și Marco Rubio au confirmat.” Niciuna dintre aceste afirmații nu era adevărată. Geoffrey Fowler, cronicar de tehnologie al Washington Post, a criticat dur Apple, afirmând că „este extrem de iresponsabil ca Apple să nu dezactiveze rezumatele pentru aplicațiile de știri până când nu se îmbunătățește puțin la acest lucru cu AI.”
Grupurile pentru libertatea presei au evidențiat pericolele pe care le prezintă rezumatele pentru consumatorii care caută informații de încredere. Reporterii Fără Frontiere au numit-o „un pericol pentru dreptul publicului la informații fiabile despre probleme de actualitate”, iar Uniunea Națională a Jurnaliștilor a subliniat că „publicul nu trebuie să fie pus în situația de a ghici exactitatea știrilor pe care le primește.”
Problemele AI și Viitorul
Problemele AI ale Apple nu sunt unice. Alte modele populare, precum ChatGPT, produc adesea „halucinații” încrezătoare. Modelele de limbaj mare, tehnologia din spatele acestor instrumente AI, sunt instruite să răspundă la intrări folosind „un răspuns plauzibil” la solicitări, ceea ce poate duce la informații inexacte. Suresh Venkatasubramanian, profesor la Universitatea Brown, a explicat că „orice răspuns care sună plauzibil, fie că este exact sau faptic sau inventat, este considerat rezonabil de aceste modele.”
La doi ani de la lansarea ChatGPT, halucinațiile AI rămân o problemă. Un studiu din iulie 2024 de la Cornell, Universitatea din Washington și Universitatea din Waterloo a constatat că modelele de inteligență artificială de top încă nu pot fi pe deplin de încredere, având în vedere tendința lor de a inventa informații.
Citeste mai mult:Apple pulls error-prone AI-generated news summaries in its beta iPhone software
Foto: AI