OpenAI se confruntă cu provocările halucinațiilor în inteligența artificială
Cele mai noi modele lingvistice lansate de OpenAI, o3 și o4-mini, prezintă un număr mai mare de halucinații decât versiunile anterioare, ceea ce a surprins compania, care se aștepta ca nivelul halucinațiilor să scadă de la o generație la alta.
Testele interne au arătat că halucinațiile au crescut cu 33% în cazul modelului o3 și cu 48% în cazul modelului o4-mini, ceea ce reprezintă o creștere exponențială și îngrijorătoare. Modelul o3, în special, tinde să inventeze acțiuni realizate în procesul de raționare, afirmând că a utilizat anumite principii logice pe care, de fapt, nu le-a aplicat pentru a ajunge la concluziile prezentate utilizatorului.
Inginerii OpenAI nu pot explica sursa acestei creșteri masive a halucinațiilor. „Ipoteza noastră este că tipul de învățare prin întărire utilizat pentru modelele din seria o amplifică problemele care sunt de obicei atenuate prin tehnicile aplicate post-antrenament”, au declarat reprezentanții companiei. Halucinația este un termen folosit pentru a descrie tendința inteligenței artificiale de a inventa informații, ceea ce duce la răspunsuri neconforme cu realitatea.
