Inteligența Artificială: Propulsorul Dezinformării în Conflictul Ucrainean
Inteligența artificială (IA) a devenit un motor al dezinformării în contextul războiului din Ucraina, generând imagini false și manipulând chatboții precum ChatGPT pentru a disemina informații false care pot influența desfășurarea acestui conflict. De la începutul războiului, Ucraina a fost martora unei proliferări semnificative a dezinformării, cu narațiuni false și fake news care au traversat granițele.
Olga Petriv, avocată specializată în IA, subliniază că inteligența artificială a marcat o schimbare în modul în care este distribuită propaganda prorusească. Dezinformarea a evoluat de la producția manuală de „știri false” la operațiuni complet automatizate, la scară industrială. Aceste campanii au scopul de a manipula răspunsurile chatboților conversaționali, printr-o tehnică denumită LLM Grooming, care implică inundarea internetului cu dezinformare pentru a fi integrată în răspunsurile acestor sisteme.
Petriv explică că rețelele de propagandă „otrăvesc” mediul informațional prin generarea a milioane de articole false, determinând sistemele de inteligență artificială generativă să reproducă aceste minciuni ca fiind fapte obiective. O astfel de rețea, cunoscută sub numele de Pravda, operează în aproximativ 50 de țări și publică zeci de mii de articole lunar, promovând narațiuni proruse. Instituțiile media tradiționale și blogurile contribuie la această problemă, oferind linkuri către articolele din rețeaua Pravda, ceea ce le crește credibilitatea și vizibilitatea în motoarele de căutare și chatboți.
Progresele în generarea de imagini prin inteligența artificială au făcut ca agenții de dezinformare să creeze conținut aproape imposibil de distins de realitate. De exemplu, un videoclip viral cu un presupus soldat ucrainean plângând a fost, de fapt, generat de IA, având la bază chipul unui creator de conținut rus anti-Putin. Aceste imagini nu prezintă erorile tipice ale conținutului generat de tehnologie, ci doar mici inexactități care pot alerta privitorul.
Petriv afirmă că „tehnologiile generative moderne au atins un asemenea nivel de realism încât identificarea manipulării necesită instrumente analitice specializate”. Proliferarea imaginilor artificiale poate servi drept „alibi” pentru negarea faptelor reale, permițând autorilor să respingă dovezi autentice ale crimelor lor, etichetându-le ca fiind „generate de IA”. Aceasta duce la o „prezumție de falsitate” periculoasă, în care informațiile sunt percepute ca fiind potențial false, afectând astfel faptele reale.
Imaginile generate de IA au fost difuzate în mai multe limbi, inclusiv germană, spaniolă, franceză, engleză, italiană și portugheză, sugerând existența unei campanii organizate. În plus, au fost detectate și falsuri menite să descurajeze luptătorii străini, în special columbienii, să se alăture luptei pentru Ucraina sau chiar să împiedice negocierile de pace.
