Războiul în Era Tehnologiei: Impactul Inteligenței Artificiale Militare asupra Dinamicii Conflictuale
Inteligența artificială (AI) poate accelera războiul, iar arhitectura de securitate trebuie să se adapteze în același ritm, dezvoltând o nouă generație de capacități. În absența acestei adaptări, fragilitatea stabilității strategice va crește, mai ales în contextul ciclurilor de decizie rapide generate de tehnologiile de război avansate propulsate de AI. Aceasta este concluzia la care au ajuns experții într-o analiză recentă.
În perioada 4-5 februarie, la A Coruna, Spania, a avut loc summitul REAIM 2026 (Responsible AI in the Military Domain), dedicat utilizării responsabile a inteligenței artificiale în domeniul militar. Summitul a reunit 85 de țări și a fost precedat de întâlniri anterioare la Haga în 2023 și Seul în 2024. La finalul summitului, a fost emisă o declarație cuprinzând 20 de principii cheie, dintre care 35 de țări participante au semnat-o, în timp ce China și SUA nu au aderat la aceste principii.
Principiile incluse în declarație subliniază importanța menținerii responsabilității umane pentru armele bazate pe AI, stabilirea lanțurilor clare de comandă și control, precum și schimbul de informații referitoare la mecanismele naționale de supraveghere. De asemenea, s-a pus accent pe evaluarea riscurilor, testarea cuprinzătoare și instruirea personalului militar.
La summiturile anterioare, multe țări, conduse de SUA, au adoptat un cadru de principii mai flexibil. Totuși, absența semnăturilor din partea superputerilor tehnologice, precum SUA și China, indică dificultățile în stabilirea unui set de norme și principii acceptate la nivel internațional. Această situație este agravată de transformările semnificative pe câmpul de luptă generate de AI, care constituie o amenințare la adresa securității internaționale.
Utilizarea AI în domeniul militar
Utilizarea inteligenței artificiale în domeniul militar acoperă multiple aspecte, inclusiv comandă și control, sprijin în luarea deciziilor, război electronic, apărare antirachetă și vehicule aeriene, terestre și navale fără pilot. AI devine un element esențial în scenarii care depășesc capacitățile cognitive umane sau necesită analiza rapidă a seturilor de date complexe. Aceasta transformă războiul într-o dimensiune care depășește percepția și reacția umană, definind un nou tip de război, denumit „hiper-război”, în care deciziile se pot lua în câteva milisecunde.
Este crucial să se considere controlul uman dintr-o perspectivă mai largă, nu doar ca un simplu „deget care apasă pe trăgaci”. Primul pas ar fi proiectarea controlului uman ca o componentă semnificativă în toate etapele procesului de utilizare a AI, asigurând astfel responsabilitatea etică și juridică sub controlul uman. De asemenea, este necesară dezvoltarea de filtre și bariere pentru a preveni interacțiunile negative între sistemele gestionate de AI și escaladarea conflictelor.
Gestionarea riscurilor în inteligența artificială militară
Un alt aspect esențial al gestionării riscurilor de securitate în inteligența artificială militară este asigurarea și integritatea algoritmilor și seturilor de date. Măsuri precum prevenirea contaminării seturilor de date, identificarea momentelor în care algoritmii AI nu pot lua decizii complet autonome și monitorizarea acestora sunt vitale. Cu toate acestea, absența unui consens global în privința AI militare îngreunează adoptarea de măsuri etice, legale și normative.
Deficitul de încredere la nivel internațional este amplificat de atractivitatea capacităților oferite de inteligența artificială militară, iar preocupările legate de drepturile omului și confidențialitatea datelor devin secundare în fața eficienței crescute a AI în operațiunile militare. De asemenea, utilizarea AI a devenit un subiect de dezbatere și negociere în politica internațională.
Reglementarea inteligenței artificiale
Este esențial să ne întrebăm cum putem determina dacă un software sau un algoritm AI este sigur sau „uman”. Se propune crearea unei structuri similare cu Agenția Internațională pentru Energie Atomică (AIEA) care să supravegheze utilizarea AI în domeniul militar. Totuși, urmărirea sursei codului este mult mai complicată decât în cazul instalațiilor nucleare. O soluție ar putea fi înființarea „camerelor de control algoritmic”, unde țările să testeze și să verifice sistemele de inteligență artificială fără a dezvălui componentele fundamentale.
Problema principală nu este dacă AI va fi utilizată pe câmpul de luptă, ci cum și de către cine va fi utilizată. Absența semnăturii din partea liderilor tehnologici precum SUA și China în cadrul declarației REAIM 2026 indică faptul că elaborarea normelor în domeniul inteligenței artificiale militare este legată de competiția dintre marile puteri.
Pe termen scurt, stabilirea unui regim universal și obligatoriu pare dificilă. Totuși, pe termen mediu, pot fi implementate măsuri de transparență, dialog tehnic pentru consolidarea încrederii și acorduri restrânse în domenii specifice. La nivel național, instituționalizarea măsurilor precum supravegherea umană, securitatea algoritmică și integritatea datelor este urgentă. Multe dintre riscurile generate de inteligența artificială militară nu provin din utilizarea intenționată, ci din defecte de proiectare, date inexacte și interacțiuni imprevizibile.
În concluzie, inteligența artificială poate accelera războiul, dar arhitectura de securitate trebuie să se adapteze pentru a construi o nouă generație de capacități. Provocarea reală constă în menținerea responsabilității umane și a înțelepciunii politice, asigurând în același timp superioritatea tehnologică. Normele pot rămâne în urmă, dar responsabilitatea finală a umanității nu poate fi amânată, iar măsurile tehnice, legale și etice de astăzi vor modela viitorul ordinii internaționale.
