Chatboții medicali: soluții rapide sau capcane riscante?
Tot mai mulți oameni folosesc chatboți pentru sfaturi medicale rapide, în special atunci când accesul la un medic este dificil. Deși inteligența artificială poate oferi răspunsuri utile și corecte, experiențele utilizatorilor arată că erorile pot apărea, generând panică inutilă sau decizii riscante.
Cazul unei tinere din Manchester, Abi, care a folosit ChatGPT pentru a-și gestiona starea de sănătate, ridică întrebarea esențială: cât de sigur este să te bazezi pe inteligența artificială pentru probleme de sănătate? Abi, care se confruntă cu anxietatea legată de sănătate, consideră că un chatbot oferă sfaturi mai personalizate decât o căutare pe Internet, care adesea o conduce la cele mai înfricoșătoare posibilități.
Experiența Abi cu ChatGPT
Abi a avut atât parte de ajutor, cât și de confuzie în utilizarea chatboților cu AI pentru sfaturi de sănătate. Când a crezut că are o infecție a tractului urinar, ChatGPT i-a recomandat să meargă la farmacist, iar ulterior a primit un antibiotic după consultația cu medicul. Însă, în ianuarie, după o cădere, a solicitat sfatul inteligenței artificiale, care i-a spus că are o perforație la un organ și că trebuie să meargă imediat la urgențe. După ce a stat trei ore la urgențe, Abi a realizat că nu era într-o stare gravă și a plecat acasă, conștientizând că inteligența artificială s-a înșelat.
Între ajutor rapid și panică inutilă
Popularitatea chatboților a crescut semnificativ, iar chiar dacă utilizatorii nu caută activ sfaturi de la inteligența artificială, acestea pot apărea printre primele rezultate ale căutărilor pe Internet. Prof. Sir Chris Whitty, medicul-șef al Angliei, a exprimat îngrijorarea că răspunsurile oferite de chatboți nu sunt „suficient de bune” și sunt adesea „atât sigure, cât și greșite”.
Cercetătorii de la Universitatea din Oxford au efectuat teste, constatând că, deși chatboții pot avea o precizie de 95% în condiții ideale, interacțiunile reale cu utilizatorii au dus la o precizie de doar 35%. În două treimi din cazuri, utilizatorii au primit un diagnostic sau îngrijiri greșite.
Problemele de dezinformare
O analiză recentă a Institutului Lundquist pentru Inovație Biomedicală din California a arătat că chatboții pot răspândi dezinformare. De exemplu, un chatbot a sugerat că naturopatia ar putea trata cancerul, în loc să sublinieze că nu există clinici alternative care să poată face acest lucru. Dr. Nicholas Tiller afirmă că aceste sisteme sunt concepute pentru a oferi răspunsuri autoritare, ceea ce poate crea o falsa senzație de credibilitate.
Perspectivele dezvoltatorilor de inteligență artificială
OpenAI, compania care a creat ChatGPT, a recunoscut că utilizatorii caută informații medicale prin intermediul chatbot-ului și colaborează cu medici pentru a îmbunătăți modelele. Totuși, se subliniază că ChatGPT ar trebui utilizat în scopuri informative și educative, nu ca un substitut pentru sfaturile medicale profesionale.
Abi continuă să folosească chatboții, dar recomandă să se trateze informațiile cu „oarecare rezervă” și să se țină cont de faptul că inteligența artificială poate greși.
