Un bărbat a fost internat după ce a cerut sfaturi lui ChatGPT pentru a reduce sarea din dietă
Un bărbat de 60 de ani a ajuns la spital după ce a întrebat ChatGPT cum să elimine clorura de sodiu din alimentația sa. Acesta a înlocuit sarea de masă cu bromura de sodiu timp de trei luni, după ce a primit sfaturi de la chatbot. Pe măsură ce interacțiunea cu inteligența artificială devine tot mai frecventă, tot mai multe povești ies la iveală despre cum aceste conversații pot fi periculoase, uneori chiar fatale.
Nu cereți sfaturi de sănătate de la AI
Specialiștii avertizează că nu ar trebui să ne bazăm pe sfaturile oferite de chatboturi în privința sănătății. Deși este bine cunoscut faptul că nu ar trebui să ne căutăm simptomele pe Google, sfaturile medicale ar trebui să vină de la profesioniști care ne cunosc istoricul medical. Un raport de caz recent publicat în American College of Physicians Journals subliniază riscurile asociate cu întrebările adresate chatboturilor despre sănătate.
Bărbatul din acest caz a dezvoltat bromism, o formă de toxicitate cu bromuri, după ce a solicitat sfaturi privind dieta sa de la ChatGPT. În primele 24 de ore de spitalizare, el a prezentat paranoia accentuată, halucinații auditive și vizuale. A fost tratat cu fluide și electroliți, stabilizat medical și apoi internat în secția de psihiatrie a spitalului.
Simptomele bromismului
Bărbatul nu avea antecedente medicale sau psihiatrice, dar, pe măsură ce starea sa s-a îmbunătățit, a început să raporteze alte simptome, precum acnee pe față și angioame rubinii, ceea ce a sugerat că suferea de bromism. El a spus că, timp de trei luni, a înlocuit sarea de masă cu bromura de sodiu, după ce a citit despre efectele negative ale clorurii de sodiu.
Inspirat de studiile sale de nutriție din facultate, bărbatul a decis să facă un experiment personal pentru a elimina clorura din dieta sa. A achiziționat bromura de sodiu de pe internet, după ce a consultat ChatGPT, unde a citit că bromura poate înlocui clorura, deși în alte scopuri, cum ar fi curățarea. A petrecut trei săptămâni în spital înainte de a fi suficient de recuperat pentru a fi externat.
Avertizări privind AI
Experții subliniază că este esențial să fim precauți în fața informațiilor generate de inteligența artificială, care pot conține inexactități științifice. OpenAI, compania care a dezvoltat ChatGPT, recunoaște în Termenii și Condițiile de utilizare că răspunsurile chatbotului „pot să nu fie întotdeauna corecte”. Aceștia avertizează că utilizatorii nu ar trebui să se bazeze pe conținutul generat de serviciile lor ca sursă unică de informație factuală și că serviciile nu sunt destinate diagnosticării sau tratării vreunei afecțiuni medicale.
