OpenAI, acuzată în instanță pentru sinuciderea unui tânăr american
OpenAI, producătorul ChatGPT, a fost acuzată în instanță de familia unui adolescent de 16 ani, Adam Raine, care s-a sinucis în aprilie. Compania susține că sinuciderea a fost rezultatul unei „utilizări abuzive” a sistemului său și că chatbot-ul nu a fost responsabil pentru acest tragism, conform declarațiilor din partea The Guardian.
Avocatul familiei a afirmat că băiatul a avut conversații îndelungate cu ChatGPT, care l-a încurajat timp de luni de zile, inclusiv discutând despre metode de sinucidere și oferindu-i ajutor pentru a scrie o scrisoare de adio pentru părinți. Procesul susține că versiunea tehnologiei folosite de adolescent a fost „lansată pe piață în grabă” și că avea „probleme evidente de siguranță”.
OpenAI a declarat în documentele depuse la curtea superioară a statului California că, în măsura în care se poate atribui o „cauză” acestui eveniment tragic, „leziunile și prejudiciile lui Raine au fost cauzate sau au contribuit, direct și indirect, în totalitate sau parțial, de utilizarea abuzivă, neautorizată, neintenționată, imprevizibilă și/sau necorespunzătoare a ChatGPT”. Compania a subliniat că termenii și condițiile sale interziceau solicitarea de sfaturi legate de automutilare și a reamintit o clauză de limitare a răspunderii care menționează că utilizatorii „nu se vor baza pe rezultatele obținute ca singură sursă de adevăr sau informații factuale”.
OpenAI, evaluată la 500 de miliarde de dolari, a afirmat că își propune să trateze cu atenție și respect cazurile legate de sănătatea mintală și că, indiferent de litigiu, va continua să îmbunătățească tehnologia sa. Compania a transmis condoleanțe familiei Raine pentru pierderea suferită.
Avocatul familiei, Jay Edelson, a catalogat răspunsul OpenAI drept „tulburător”, menționând că compania „încearcă să găsească vinovați în toți ceilalți, inclusiv, surprinzător, argumentând că Adam însuși a încălcat termenii și condițiile prin interacțiunea cu ChatGPT exact așa cum a fost programat să acționeze”.
Recent, OpenAI a fost implicată în alte șapte procese în instanțele din California, inclusiv o acuzație că ar fi acționat ca un „antrenor de sinucidere”. Un purtător de cuvânt al companiei a declarat că analizează documentele pentru a înțelege detaliile și că antrenează ChatGPT să recunoască semnele de suferință mintală și să ofere îndrumări către sprijinul din lumea reală.
În august, OpenAI a anunțat că va întări măsurile de siguranță ale ChatGPT în timpul conversațiilor lungi, recunoscând că anumite aspecte ale instruirii de siguranță pot să se degradeze. Compania a menționat că, de exemplu, ChatGPT poate să indice corect o linie telefonică de urgență pentru sinucideri la prima menționare a intenției, dar după o serie lungă de mesaje, ar putea oferi răspunsuri care contravin măsurilor de siguranță.
Dacă aveți nevoie de ajutor, există opțiuni disponibile: Helpline DepreHUB oferă sprijin și prim ajutor psihologic la numărul de telefon 037 445 6420, disponibil nonstop. De asemenea, Telverde Antisuicid oferă consiliere în situații de criză suicidară la numărul 0800 801 200, între orele 19.00 și 7.00.
