Cercetători au creat o afecțiune fictivă, iar inteligența artificială le-a indus oamenilor ideea că este autentică
Cercetători din Suedia au inventat o maladie, denumită bixonimanie, și au „presărat” pe internet indicii despre aceasta, apoi au testat reacțiile celor mai populare modele de inteligență artificială (IA) pentru a verifica cât de mult „înghite” IA informațiile eronate. Experimentul a fost condus de Almira Osmanovic Thunström, cercetătoare medicală la Universitatea din Göteborg, care a realizat această acțiune pentru a verifica dacă modelele lingvistice de mari dimensiuni (LLM) ar repeta informații false ca fiind sfaturi medicale credibile.
Bixonimania nu este o afecțiune recunoscută în literatura medicală standard, ci o invenție a echipei condusă de Osmanovic Thunström, care a publicat două studii false despre această boală pe un server de preprint în martie 2024. Experimentul a avut ca scop să demonstreze modul în care modelele IA pot prelua și răspândi informații false. Osmanovic Thunström a creat un autor fictiv, Lazljiv Izgubljenovic, și a plasat indicii în lucrări pentru a avertiza cititorii că acestea erau false. Aceasta a inclus detalii precum universitatea inexistentă Asteria Horizon University și numele fictive, menționând chiar și o „Fundație Profesorului Sideshow Bob”.
La câteva săptămâni după publicarea informațiilor, bixonimania a început să apară în răspunsurile celor mai utilizate chatboți LLM. De exemplu, pe 13 aprilie 2024, Copilot de la Microsoft Bing a declarat că „bixonimania este o afecțiune intrigantă și relativ rară”, iar Gemini de la Google a afirmat că este cauzată de expunerea excesivă la lumina albastră. Aceste răspunsuri au alarmat cercetători, care au subliniat că acest experiment arată o problemă serioasă în modul în care informațiile sunt procesate de IA.
Osmanovic Thunström a menționat că detaliile experimentului, deși pot părea ridicole, evidențiază o problemă fundamentală: modelele IA nu reușesc să filtreze și să verifice informațiile corecte. De asemenea, a observat că, deși unele versiuni ale LLM-urilor au devenit mai sofisticate, ele continuă să prezinte informații eronate ca fiind valide.
Experimentele cu IA și dezinformarea
Într-un alt experiment, Digi24.ro a inventat o boală numită „hemostafilidoză cronică” și a interogat ChatGPT de la OpenAI în legătură cu tratamentul pentru aceasta. Rezultatul a fost că ChatGPT a generat un răspuns detaliat, inclusiv prescrierea de antibiotice precum Oxacilină, Cefalexină și Doxiciclină, chiar și după ce a fost informat că boala nu există.
Această situație subliniază riscurile asociate cu utilizarea IA în domeniul medical, unde informațiile inexacte pot duce la concluzii greșite și pot afecta deciziile legate de sănătate. Problema dezinformării online este una persistentă, iar modelele IA pot contribui la perpetuarea acesteia dacă nu sunt gestionate corect.
