Întunericul deepfake și iluziile inteligenței artificiale
În era nucleară, factorii de decizie și strategii politici au căutat mereu să evite utilizarea accidentală a armelor nucleare. Cu avansul rapid al inteligenței artificiale și al tehnologiei deepfake, riscul declanșării unui război nuclear din cauza informațiilor false a crescut semnificativ, depășind chiar amenințările din timpul Războiului Rece.
Un exemplu istoric relevant este incidentul din 1983, când un sistem de avertizare timpurie al Uniunii Sovietice a semnalat că Statele Unite ar fi lansat un atac nuclear. Acest mesaj ar fi putut provoca un contraatac devastator din partea URSS, dar dezastrul a fost evitat datorită lui Stanislav Petrov, ofițerul sovietic care a realizat că era o alarmă falsă. Dacă ar fi raportat incidentul superiorilor săi, liderii sovietici ar fi putut decide să lanseze arme nucleare asupra Statelor Unite.
Cu dezvoltarea inteligenței artificiale, există riscul ca deciziile legate de utilizarea armelor nucleare să fie preluate de sisteme automate. Statele Unite au implementat măsuri pentru a garanta că oamenii iau decizia finală în privința lansării unui atac nuclear, însă inteligența artificială aduce un alt risc: tehnologia deepfake poate crea sau modifica videoclipuri, imagini și înregistrări audio, generând informații false despre oameni și evenimente.
După invazia Rusiei în Ucraina, un videoclip deepfake l-a arătat pe președintele ucrainean Volodimir Zelenski cerându-le ucrainenilor să depună armele. În 2023, un alt videoclip a indus în eroare oamenii, făcându-i să creadă că președintele rus Vladimir Putin a anunțat o mobilizare totală a forțelor armate. Un singur „deepfake” ar putea convinge un lider de stat cu arme nucleare că a fost lansat un atac preventiv sau ar putea genera alarme false despre mobilizări sau atacuri.
Președintele american Donald Trump a redistribuit videoclipuri deepfake pe rețelele sociale, iar riscul ca astfel de informații false să influențeze deciziile de securitate națională este în creștere. Dacă dezinformarea alimentată de AI ar induce în eroare președintele Statelor Unite, chiar și pentru câteva minute, acest lucru ar putea avea consecințe catastrofale pentru întreaga lume.
Atât forțele nucleare americane, cât și cele rusești sunt pregătite să lanseze un atac imediat ce rachetele inamice sunt detectate. Aceasta înseamnă că liderii celor două țări au la dispoziție doar câteva minute pentru a decide dacă un atac a avut loc sau nu. Dezinformarea generată de AI ar putea provoca crize în lanț, iar sistemele AI folosite pentru a interpreta datele de avertizare timpurie ar putea „halucina” un atac inexistent, similar cu situația lui Petrov din urmă cu patru decenii.
Deepfake-urile online sunt extrem de periculoase. Un lider american ar putea confunda testările rachetelor balistice intercontinentale ale Rusiei cu un atac nuclear sau exercițiile militare ale Chinei cu o amenințare la adresa aliaților din Asia. Administrația Trump a publicat un plan de acțiune AI care preconizează utilizarea agresivă a inteligenței artificiale în cadrul Departamentului Apărării.
Pericolul unui război nuclear este mai mare astăzi decât a fost în ultimele decenii. Rusia a amenințat cu utilizarea armelor nucleare în Ucraina, China își extinde rapid arsenalul nuclear, iar Coreea de Nord este capabilă să lovească Statele Unite cu rachete balistice intercontinentale. În acest context, este esențial ca deciziile privind armele nucleare să fie evaluate de oameni, nu de mașini AI care pot fi influențate de date false sau incomplete, pentru a preveni riscurile informaționale care ar putea conduce la o catastrofă.
