Războiul Inovației: Iranul, câmp de experimentare pentru tehnologia autonomă a Statelor Unite și Israel
În primele 24 de ore ale operațiunii Epic Fury, armata americană a atacat peste 1.000 de ținte în Iran, utilizând inteligența artificială. Cu o rată de 42 de ținte sugerate pe oră, experții și-au exprimat îngrijorarea dacă mașinile au preluat controlul pe câmpul de luptă, din cauza incapacitatii creierului uman de a ține pasul. Aceștia au avansat ideea că inteligența artificială ar fi identificat greșit o școală primară din Minab în prima zi a conflictului, având ca rezultat moartea a 110 copii și a zeci de alte persoane în urma atacurilor cu rachete de croazieră Tomahawk.
Sistemele de inteligență artificială pot procesa cantități enorme de date din diverse surse, inclusiv imagini din satelit și informații de la avioane de supraveghere, pentru a selecta sau respinge ținte. Imaginile istorice din satelit au arătat că școala Shajareh Tayyebeh a fost parte a unui complex militar în trecut, dar a fost separată de acesta printr-un zid timp de cel puțin nouă ani. Imaginile recente au evidențiat picturi murale și un teren de joacă, ridicând întrebări cu privire la utilizarea unor date învechite pentru stabilirea țintelor.
Noah Sylvia, analist la Royal United Services Institute, a declarat că, dacă bombardarea școlii a fost o eroare, este important de stabilit dacă aceasta a fost cauzată de o eroare umană sau de viteza de automatizare a sistemului. Dr. Craig Jones, conferențiar universitar în geografie politică la Universitatea Newcastle, a subliniat că este esențial să se determine măsura în care inteligența artificială a fost implicată în analiza datelor care au dus la identificarea școlii ca țintă militară. El a afirmat că atacul reprezintă un eșec catastrofal al serviciilor de informații, indiferent dacă a fost generat de AI sau de oameni cu asistența AI.
În răspunsul său, Pentagonul a confirmat că ancheta este în curs de desfășurare, în timp ce președintele american Donald Trump a sugerat, fără dovezi, că Iranul sau „altcineva” ar fi putut efectua atacul, deși analiza locului indică utilizarea armelor americane.
Statele Unite și Israel dispun de numeroase sisteme de inteligență artificială în contextul conflictului cu Iranul. Pentagonul dezvoltă proiectul Maven cu ajutorul companiei Palantir, susținută de CIA, din 2018, iar acest software este integrat în toate comandamentele militare americane. În cadrul operațiunii Epic Fury, AI și învățarea automată au fost utilizate pentru țintirea și supravegherea militară. Experții au comparat acest sistem cu o versiune militară a Uber.
În sistemul inteligent Maven este integrat chatbotul Claude al companiei Anthropic, folosit pentru analiza informațiilor, dar nu pentru țintire, conform politicilor stricte ale companiei. Anthony a afirmat că oamenii ar trebui să fie responsabili pentru identificarea potențialelor ținte și pentru luarea deciziilor de atac. De asemenea, administrația Trump a plasat compania pe lista neagră, ceea ce a surprins oficialii de la Washington.
Noah Sylvia a subliniat că amploarea operațiunilor din Orientul Mijlociu este „mult mai dramatică” decât în cazul războiului din Ucraina, unde s-au utilizat alte tipuri de arme. El a menționat că capacitatea de a efectua lovituri asupra unei mari părți din Iran necesită un volum semnificativ mai mare de date și sisteme complexe pentru procesarea acestora.
El a exprimat îngrijorări legate de implementarea rapidă a tehnologiei și de lipsa de expertiză tehnică în rândul personalului. „Când ai un sentiment de urgență, oamenii nu pot ajuta decât într-o anumită măsură. Pe măsură ce războiul se intensifică, va exista o creștere a nivelului de autonomie al unor sisteme”, a adăugat el.
Elke Schwarz, profesor de teorie politică la Universitatea Queen Mary din Londra, a afirmat că sistemele care sugerează mii de ținte pe zi conduc la o „tendință de automatizare”, unde deciziile mașinilor devin autoritatea. Ea a subliniat că 42 de ținte sugerate pe oră reprezintă un număr mare, ceea ce face dificilă evaluarea validității acestora în condițiile în care viteza devine prioritară.
Experții sunt îngrijorați de riscurile pe care le prezintă viitoarele conflicte și avertizează asupra posibilelor derapaje ale misiunii. Schwarz a subliniat că viitoarele sisteme AI ar putea identifica nu doar ținte, ci și comportamente suspecte, ceea ce ar putea duce la atacuri preventive. „Trebuie să presupunem că AI va juca un rol din ce în ce mai important în decizia de a recurge la forță – decizia de a iniția un conflict – și acest lucru este îngrozitor”, a concluzionat ea.
