Anthropic refuză utilizarea necontrolată a inteligenței artificiale de către Armata Americană
Compania americană de inteligență artificială Anthropic a anunțat că nu va ceda presiunilor din partea Pentagonului pentru a permite utilizarea militară nerestricționată a tehnologiei sale. Aceasta se teme că tehnologia ar putea fi folosită pentru supravegherea în masă sau în arme complet autonome.
Directorul executiv al Anthropic, Dario Amodei, a declarat că „utilizarea acestor sisteme pentru supraveghere internă în masă este incompatibilă cu valorile democratice”. El a subliniat că sistemele de inteligență artificială nu sunt încă suficient de fiabile pentru a fi utilizate în alimentarea armelor mortale fără controlul uman final. „Nu vom furniza în mod conștient un produs care pune în pericol combatanții și civilii americani”, a adăugat Amodei.
Anthropic, alături de OpenAI, Google și chatbot-ul Grok al lui Elon Musk, a fost selectată de Pentagon în 2025 să furnizeze modele de inteligență artificială pentru diverse aplicații militare, în cadrul unui contract în valoare de 200 de milioane de dolari. Recent, secretarul Apărării, Pete Hegseth, a dat companiei un ultimatum: să își deschidă tehnologia pentru utilizare într-un „mediu secret” până vineri, la fel cum au făcut și celelalte companii, altfel riscă să piardă contractul cu guvernul.
Oficialii militari au avertizat că, în cazul unei refuzuri, ar putea desemna compania drept un risc în lanțul de aprovizionare sau ar putea invoca Legea producției de apărare pentru a oferi armatei o autoritate mai amplă în utilizarea produselor sale. Amodei a declarat că aceste amenințări nu îi schimbă poziția, menționând că sunt „inerent contradictorii”, deoarece etichetează sistemele Anthropic simultan drept un „risc de securitate” și „esențiale pentru securitatea națională”.
El a subliniat că „Departamentul de Război, nu companiile private, ia decizii militare” și că, în anumite cazuri, inteligența artificială poate submina valorile democratice.
Purtătorul de cuvânt al Pentagonului, Sean Parnell, a declarat că armata „nu are niciun interes în utilizarea inteligenței artificiale pentru supravegherea în masă a americanilor, ceea ce este ilegal, și nici nu vrem să folosim inteligența artificială pentru a dezvolta arme autonome care funcționează fără implicarea umană”. Cu toate acestea, a existat un schimb de replici între Anthropic și Pentagon legat de rachetele balistice intercontinentale, evidențiind sensibilitatea subiectului.
Parnell a avertizat că deschiderea utilizării tehnologiei ar putea pune în pericol operațiuni militare critice, afirmând: „Nu vom permite NICIUNEI companii să dicteze termenii privind modul în care luăm deciziile operaționale”.
În acest context, senatorul democrat Mark Warner a declarat că este „profund tulburat” de rapoartele care sugerează că Pentagonul „lucrează pentru a intimida o companie americană de top”. El a subliniat necesitatea ca Congresul să adopte mecanisme puternice și obligatorii de guvernanță a inteligenței artificiale pentru contexte de securitate națională.
