Atenție, căutători de răspunsuri medicale pe Google! Inteligența artificială ar putea să vă ofere informații înșelătoare.
Google este acuzat că pune oamenii în pericol prin minimizarea avertismentelor de siguranță referitoare la sfaturile medicale generate de inteligența artificială (IA), conform unei investigații realizate de The Guardian. Compania susține că prezentările generale generate de IA, care apar deasupra rezultatelor căutării, îndeamnă utilizatorii să solicite ajutor profesional în loc să se bazeze exclusiv pe informațiile furnizate. Cu toate acestea, avertismentele sunt scrise cu font mic și șters, la finalul conținutului generat, ceea ce duce la o citire insuficientă de către utilizatori.
Investigația arată că funcția Google de rezumare AI Overviews, bazată pe Gemini, nu afișează niciun disclaimer atunci când utilizatorii primesc pentru prima dată sfaturi medicale prin această funcție. Deși Google afirmă că încurajează utilizatorii să apeleze la ajutor specializat, avertismentul că informațiile furnizate de AI Overview au doar scop informativ este disponibil doar dacă utilizatorii solicită sfaturi suplimentare. Chiar și atunci, utilizatorii trebuie să apese pe un buton pentru a vizualiza informațiile suplimentare, iar disclaimerul este prezentat cu un font mai mic și mai puțin vizibil.
Un purtător de cuvânt al Google a declarat că prezentările generale oferite de IA “încurajează oamenii să solicite sfatul unui medic specialist” și că menționează frecvent necesitatea de a căuta asistență medicală în cadrul rezumatului, dar “atunci când este cazul”.
Experți în domeniul IA și-au exprimat îngrijorarea față de aceste concluzii, subliniind că absența avertismentelor atunci când utilizatorii primesc sfaturi medicale poate duce la pericole critice. Un cercetător de la Massachusetts Institute of Technology (MIT) a subliniat că, în ciuda avansului tehnologic, modelele IA pot oferi încă informații greșite sau pot prioritiza satisfacția utilizatorilor în detrimentul acurateței informației.
De asemenea, specialiștii atrag atenția asupra limitării laturii umane, deoarece utilizatorii pot oferi informații incomplete sau pot interpreta greșit simptomele. Un profesor de la Universitatea Queen Mary din Londra a declarat că “problema cu prezentările generale AI defectuoase este de natură structurală” și că responsabilitatea revine Google. El a adăugat că “prezentările generale AI sunt concepute pentru viteză, nu pentru acuratețe”, ceea ce conduce la erori în informațiile medicale, care pot fi periculoase.
În urma unei alte investigații din ianuarie, s-a constatat că sănătatea utilizatorilor era pusă în pericol din cauza informațiilor false și înșelătoare despre sănătate furnizate de Google AI Overviews. Ca urmare, Google a eliminat rezumatele AI pentru anumite căutări medicale, însă nu pentru toate.
