Întâlnire crucială între secretarul american al apărării și CEO-ul Anthropic
Secretarul american al Apărării, Pete Hegseth, l-a convocat pe Dario Amodei, CEO al start-up-ului de inteligență artificială Anthropic, pentru marți, conform unei declarații a unui oficial. Compania refuză în prezent anumite utilizări ale inteligenței artificiale în scopuri militare și de supraveghere.
Hegseth le-a cerut furnizorilor săi de AI să ridice restricțiile privind utilizarea modelelor lor implicite pentru a extinde posibilele aplicații, atâta timp cât acestea rămân în limitele legalității. Toți furnizorii au fost de acord, inclusiv Anthropic, dar compania a dorit să împiedice utilizarea modelului său de AI, Claude, în două scenarii specifice: supravegherea în masă a populației și automatizarea unui atac letal.
Departamentul Apărării exercită presiune asupra acestor companii și, conform mai multor instituții media americane, a amenințat că va rezilia contractul cu Anthropic sau că va include compania pe lista celor care prezintă „un risc pentru aprovizionare”. Companiile aflate pe această listă se confruntă cu restricții severe asupra contractelor cu administrația SUA, în general aplicabile companiilor ale căror produse ar putea fi folosite în activități ce amenință securitatea națională.
În prezent, pe listă se află doar companii străine, cum ar fi Huawei și Kaspersky. Un purtător de cuvânt al Anthropic a declarat că compania se angajează să sprijine securitatea națională a SUA prin intermediul inteligenței artificiale, menționând „discuții productive și de bună-credință” cu secretarul Apărării.
Conform Axios, Pete Hegseth intenționează să transmită lui Dario Amodei un ultimatum. O rupere a relațiilor ar avea consecințe grave pentru Anthropic, care ar pierde contractul de 200 de milioane de dolari semnat în iunie, dar și alte potențiale contracte. De asemenea, Departamentul Apărării ar suferi, deoarece Claude este singurul model de AI utilizat pentru operațiuni de apărare clasificate.
Fondată în 2021 de foști angajați OpenAI, Anthropic a promovat întotdeauna o abordare etică a inteligenței artificiale. La începutul anului 2026, start-up-ul a publicat un document numit statutul său, care detaliază instrucțiuni date AI-ului Claude pentru a-i controla producția, vizând în special „prevenirea acțiunilor care prezintă pericol necorespunzător”.
