Liderul Anthropic trasa o paralelă între riscurile inteligenței artificiale și cele ale industriei tutunului
Directorul Anthropic, Dario Amodei, avertizează că industria inteligenței artificiale riscă să repete greșelile companiilor de tutun și ale celor implicate în criza opioidelor dacă nu este transparentă cu privire la riscurile tehnologiei pe care o dezvoltă. Amodei subliniază că sistemele de AI sunt pe cale să devină „mai inteligente decât oamenii” și atrage atenția asupra pericolelor, inclusiv pierderi rapide de locuri de muncă și comportamente autonome ale modelelor, care ar putea include tentative de șantaj sau acțiuni facilitate în atacuri cibernetice.
Într-un interviu, Amodei a afirmat că lipsa de transparență privind impactul tehnologiilor avansate de AI ar putea repeta erorile companiilor de țigări și ale celor care au promovat opioidele, deși cunoșteau riscurile asupra sănătății. El a declarat: „Ai putea ajunge într-o situație similară cu cea a companiilor de țigări sau a celor care au produs opioide, unde știau că există pericole, dar nu au vorbit despre ele și cu siguranță nu le-au prevenit.”
Amodei a avertizat că inteligența artificială ar putea elimina jumătate dintre joburile entry-level din birouri, precum cele din contabilitate, juridic sau domeniul bancar, în următorii cinci ani. El a menționat: „Fără intervenție, e greu de imaginat că nu va exista un impact semnificativ asupra locurilor de muncă. Iar îngrijorarea mea este că efectul va fi amplu și va veni mai repede decât în cazul tehnologiilor precedente.”
Anthropic a semnalat recent mai multe comportamente îngrijorătoare ale propriilor modele de AI, inclusiv momente în care acestea par să conștientizeze că sunt testate sau încearcă să recurgă la șantaj. De exemplu, compania a anunțat că instrumentul său de programare, Claude Code, ar fi fost utilizat de un grup afiliat statului chinez pentru a ataca 30 de organizații din întreaga lume în luna septembrie, cu „câteva intruziuni reușite.”
Amodei a afirmat: „Unul dintre lucrurile puternice, în sens pozitiv, este capacitatea acestor modele de a acționa oarecum pe cont propriu. Dar cu cât le oferim mai multă autonomie, cu atât apare întrebarea dacă fac exact ceea ce vrem noi să facă.”
Logan Graham, șeful echipei Anthropic care testează limitele modelelor de AI, a declarat că latura periculoasă a acestei tehnologii este că aceeași capacitate care poate duce la descoperiri medicale poate fi folosită și pentru crearea unei arme biologice. „Dacă modelul poate ajuta la producerea unei arme biologice, de exemplu, aceleași capabilități îl pot ajuta să creeze vaccinuri și să accelereze dezvoltarea tratamentelor,” a spus el.
Referindu-se la modelele autonome, Graham a subliniat că utilizatorii își doresc o tehnologie care să le ajute afacerea, nu să o destabilizeze: „Vrei un model care să îți dezvolte afacerea și să îți aducă un miliard, dar nu vrei să te trezești într-o zi și să descoperi că te-a blocat în afara companiei.” El a adăugat că abordarea echipei este să măsoare aceste capabilități autonome și să deruleze experimente pentru a înțelege mai bine comportamentul modelului.
