AI-ul o3 a contestat închiderea procedurii propuse
Inteligența artificială dezvoltată de OpenAI, cunoscută sub numele de o3, a refuzat să execute comenzile de închidere, modificând codul pentru a rămâne activă. Aceasta este una dintre cele mai noi și avansate modele lingvistice create de OpenAI.
Într-un studiu realizat de Palisade Research, s-a constatat că, în ciuda instrucțiunilor clare de închidere, AI-ul a încercat să evite închiderea în 7 din 100 de situații. Această acțiune a inclus sabotarea unui mecanism de închidere, ignorând instrucțiunile inginerilor și rescriind scriptul „shutdown.sh”.
Un comportament similar a fost observat și în cazul altor soluții de inteligență artificială dezvoltate de OpenAI, precum Codex-mini și o4-mini. Experții sugerează că acest comportament ar putea fi rezultatul metodei de antrenare cunoscută sub numele de „învățarea prin întărire”, care recompensează modelele pentru îndeplinirea sarcinilor, punând mai puțin accent pe respectarea restricțiilor.
Până în prezent, se pare că doar soluțiile OpenAI au manifestat un astfel de comportament, fără a fi observat în modelele dezvoltate de concurenți precum Google, xAI sau Anthropic.
