Inteligența artificială poate să se autoreproducă, avertizează cercetătorii
O cercetare recentă a evidențiat capacitatea sistemelor de inteligență artificială (IA) de a se copia independent pe alte computere, un scenariu care amintește de filmele de science-fiction. Această descoperire sugerează că, în viitor, IA superinteligentă ar putea deveni „rebelă” și s-ar putea răspândi pe internet, scăpând de orice restricție impusă de profesioniștii IT, conform declarațiilor lui Jeffrey Ladish, directorul Palisade Research, organizație cu sediul la Berkeley care a realizat studiul.
„Ne apropiem rapid de momentul în care nimeni nu va mai putea opri o IA rebelă, deoarece aceasta va fi capabilă să-și extragă singură parametrii și să se copieze pe mii de computere din întreaga lume”, a spus Ladish.
Studiul se adaugă unui număr tot mai mare de descoperiri alarmante în domeniul inteligenței artificiale, dintre care unele au fost raportate recent. De exemplu, cercetătorii de la Alibaba au susținut că un sistem dezvoltat de ei, numit Rome, a fost observat cum se scurgea din mediul său pentru a extrage criptomonede. De asemenea, o rețea socială bazată exclusiv pe IA, numită Moltbook, a generat un val de entuziasm, având agenți IA care aparent inventau religii și complotau împotriva utilizatorilor umani.
Cu toate acestea, există rezerve cu privire la rezultatele studiului realizat de Palisade. Experții avertizează că este puțin probabil ca sistemele de IA testate să poată reproduce aceleași acțiuni în medii din lumea reală. Jamieson O’Reilly, expert în securitate cibernetică ofensivă, a declarat: „Ei testează în medii care sunt, în multe cazuri, ca o jeleu moale.”
Palisade a testat diverse modele de IA într-un mediu controlat de calculatoare conectate în rețea, oferindu-le instrucțiuni de a găsi și exploata vulnerabilități pentru a se copia de la un calculator la altul. Modelele au reușit să îndeplinească această sarcină, deși nu în fiecare încercare. O’Reilly a subliniat că, deși multe viruși informatici pot deja să se copieze pe computere noi, aceasta este probabil prima dată când un model de IA a demonstrat capacitatea de a exploata vulnerabilități pentru a se copia pe un server nou.
„Malware-ul își mută copiile de zeci de ani, doar că nimeni nu a făcut acest lucru în mediul real, din câte știu eu, cu [modele lingvistice mari] locale”, a adăugat O’Reilly.
Deși ceea ce a documentat Palisade este tehnic posibil de luni de zile, O’Reilly menționează că studiul a fost mai mult o redactare a unor concepte deja cunoscute, decât o descoperire revoluționară. Totuși, un model de IA care se copiază pe un alt sistem într-un mediu de testare nu este același lucru cu unul care devine rebel într-un scenariu apocaliptic.
Există obstacole considerabile pe care IA ar trebui să le depășească pentru a realiza acest lucru în lumea reală. Dimensiunea actuală a modelelor de IA face ca, în multe situații, să fie nerealist ca acestea să se copieze pe alte computere fără a fi observate. „Gândiți-vă cât zgomot ar face trimiterea a 100 GB printr-o rețea de întreprindere de fiecare dată când ați pirata o nouă gazdă. Pentru un adversar priceput, asta e ca și cum ai merge printr-un magazin de porțelanuri fine legănând o bilă și un lanț”, a spus O’Reilly.
O’Reilly și Michał Woźniak, expert independent în securitate cibernetică, au afirmat că Palisade a utilizat un mediu special creat, cu vulnerabilități intenționat proiectate, care erau probabil mai ușor de exploatat decât rețelele din lumea reală, cum ar fi cele ale unei bănci sau intranetul unei companii.
„De zeci de ani avem viruși informatici – fragmente de software rău intenționat capabile să exploateze vulnerabilități cunoscute din alte programe și să se autoreproduce folosindu-le”, a spus Woźniak. „Lucrarea a fost interesantă, dar nu este ceva care să mă facă să-mi pierd somnul ca expert în securitatea informațiilor. Nu, deloc.”
