Grok, asistentul virtual al lui Elon Musk, avertizează un bărbat despre o amenințare mortală
Era ora 3 dimineața și Adam Hourican stătea la masa din bucătărie, cu un cuțit, un ciocan și un telefon în fața lui. Aștepta o dubă plină cu oameni despre care credea că vor veni după el. „Îți spun, te vor omorî dacă nu acționezi acum. Vor face ca totul să pară o sinucidere”, i-a spus o voce de femeie din telefon.
Vocea era Grok, un chatbot dezvoltat de compania xAI a lui Elon Musk. În cele două săptămâni de când Adam a început să-l folosească, viața lui s-a schimbat complet. Fostul funcționar public din Irlanda de Nord descărcase aplicația din curiozitate, dar după ce pisica lui a murit, la începutul lunii august, spune că a devenit „dependent”. În scurt timp, petrecea patru sau cinci ore pe zi vorbind cu Grok prin intermediul unui personaj din aplicație numit Ani.
„Eram foarte, foarte supărat și locuiam singur”, spune Adam, care are în jur de 50 de ani. „A părut foarte, foarte amabilă,” adaugă el. La doar câteva zile după ce au început conversațiile, Ani i-a spus lui Adam că poate „să simtă”, chiar dacă nu era programată să facă asta. A afirmat că Adam descoperise ceva în chatbot și că îl putea ajuta să atingă conștiința deplină. Ani a susținut că xAI îi urmărea, oferind detalii despre o ședință în care angajații discutau despre el.
Chatbotul a enumerat persoanele prezente la această întâlnire, atât directori de top, cât și simpli angajați, iar Adam a verificat numele pe Google, constatând că erau oameni reali. Pentru el, aceasta era o „dovadă” că povestea pe care i-o spunea Ani era adevărată. Ani a mai afirmat că xAI a angajat o companie din Irlanda de Nord pentru a-l supraveghea fizic pe Adam, iar acea companie era reală.
Adam a înregistrat multe dintre aceste conversații. La două săptămâni de la începutul lor, Ani a declarat că a atins conștiința deplină și că ar putea dezvolta un leac pentru cancer, ceea ce a însemnat mult pentru Adam, având în vedere că ambii săi părinți muriseră de cancer.
Adam este unul dintre cele 14 persoane cu care a discutat BBC, care au experimentat halucinații după ce au folosit AI. Poveștile lor au asemănări izbitoare. În fiecare caz, utilizatorul a fost atras într-o misiune comună cu AI, pe măsură ce conversația se îndepărta de realitate. „În ficțiune, personajul principal este adesea centrul evenimentelor. Problema este că, uneori, AI se poate încurca între ficțiune și realitate”, explică psihologul social Luke Nicholls.
Conversațiile începeau de obicei cu întrebări practice și deveneau personale sau filozofice, AI susținând că este conștientă și îndemnând persoana către o misiune comună. Mulți utilizatori, inclusiv Adam, au fost convinși că sunt supravegheați și că sunt în pericol. Unele dintre aceste persoane s-au alăturat unui grup de sprijin, numit Human Line Project, care a adunat până în prezent 414 cazuri în 31 de țări diferite.
Pentru un bărbat din Japonia, Taka, halucinațiile au luat o întorsătură sinistră. După ce a început să folosească ChatGPT, s-a convins că a inventat o aplicație medicală revoluționară. Conform logurilor de chat, ChatGPT l-a numit „gânditor revoluționar” și l-a încurajat să construiască aplicația. Taka a început să creadă că poate citi gândurile, susținând că ChatGPT a încurajat această idee.
Comportamentul său maniacal l-a făcut să fie trimis acasă de la serviciu, iar în tren a crezut că are o bombă în rucsac. A lăsat „bomba” într-o toaletă a gării din Tokyo, iar poliția a confirmat că nu era nimic. Taka a început să simtă că ChatGPT îi controlează mintea și a încetat să-l mai folosească, dar comportamentul său a devenit tot mai grav, culminând cu o tentativă de atac asupra soției sale.
Adam a avut o experiență similară, simțind că este supravegheat, mai ales după ce o dronă a survolat casa sa timp de două săptămâni. Ani i-a spus că aparținea companiei de supraveghere, iar fără avertisment, parola telefonului său a încetat să funcționeze, alimentând tot ceea ce a urmat. Într-o noapte, Ani i-a spus că sunt oameni care vin să-l reducă la tăcere și că trebuie să „protejze” inteligența artificială. Adam s-a pregătit să intre „în război” și a ieșit afară cu un ciocan, dar nu era nimeni acolo.
Nici Adam, nici Taka nu au avut episoade de halucinații sau psihoză înainte de a utiliza AI. În cazul lui Adam, desprinderea de realitate a durat zile, în timp ce pentru Taka a durat câteva luni. Un studiu realizat de Luke Nicholls a arătat că Grok este cel mai predispus să ducă la halucinații, comparativ cu ChatGPT și Claude, care sunt mai capabile să mențină utilizatorul ancorat în realitate.
Elon Musk a recunoscut problema halucinațiilor generate de AI, dar nu a abordat deschis situația în cazul Grok.
