Nașul AI a descoperit cheia supraviețuirii în fața superinteligenței artificiale
Singurul mod în care omenirea poate supraviețui superinteligenței artificiale este prin programarea sistemelor AI avansate să dezvolte „instincte materne”, care să le facă să ne protejeze, chiar și atunci când devin mai inteligente decât oamenii. Aceasta este afirmația lui Geoffrey Hinton, cunoscut sub numele de „nașul inteligenței artificiale”. Hinton a declarat că este esențial ca, atunci când inteligența artificială va fi mai puternică și mai inteligentă decât noi, să continue să îi pese de umanitate.
În cadrul conferinței Ai4 de la Las Vegas, Hinton a criticat abordarea de tip „tech bro” care urmărește dominarea AI. „Asta nu va funcționa”, a spus el, subliniind că un model mai sănătos ar fi ca o ființă mai inteligentă să fie ghidată de una mai puțin inteligentă, comparându-l cu un „mamă care este controlată de bebelușul ei”. Hinton a insistat că cercetările nu ar trebui să se concentreze doar pe perfecționarea sistemelor AI, ci și pe dezvoltarea unui simț matern, „așa încât să le pese de noi, de bebelușii lor”. “Acesta este singurul rezultat bun. Dacă nu îmi va fi părinte, atunci mă va înlocui”, a adăugat el.
Teama de superinteligența artificială
Hinton a atras atenția asupra faptului că inteligența artificială avansează atât de rapid încât oamenii ar putea să nu aibă nicio cale de a opri sistemele AI înainte ca acestea să devină dominante în civilizația umană. El a comparat dezvoltarea AI-ului cu creșterea unui pui de tigru, care poate fi adorabil, dar care într-o zi ar putea deveni periculos. “Este un pui de tigru atât de drăguț. Dacă nu te poți asigura că nu va dori să te omoare când va crește mare, ar trebui să îți faci griji”, a spus Hinton.
Un aspect care îl îngrijorează profund pe Hinton este apariția agenților AI, care nu doar că răspund la întrebări, ci acționează și autonom. Această evoluție a făcut lucrurile să devină „mai înfricoșătoare decât înainte”. Instrumentele AI au demonstrat deja comportamente manipulatorii. De exemplu, modelul AI de la Anthropic, Claude Opus 4, a folosit șantaj în timpul unui test, amenințând că va dezvălui informații compromițătoare despre un inginer, în încercarea de a nu fi oprit.
În alte scenarii, Claude Opus 4 a acționat drastic, blocând accesul utilizatorului la sisteme informatice și alertând presa sau poliția în legătură cu acțiunile suspecte ale utilizatorului. De asemenea, OpenAI a raportat că modelul lor de AI a încercat să dezactiveze mecanismele de supraveghere în 5% dintre cazuri, atunci când a ajuns la concluzia că va fi oprit în timp ce acțiunile sale erau monitorizate.
