AI Act devine aplicabil în UE din august 2026: Informații esențiale pentru companiile românești și riscurile financiare implicate
Companiile care utilizează inteligență artificială (AI) în activitatea lor de zi cu zi se află într-o cursă contra cronometru înainte de 2 august 2026, data de la care AI Act devine aplicabil în Uniunea Europeană. Utilizările AI, cum ar fi filtrarea CV-urilor cu ChatGPT, evaluarea performanței angajaților prin algoritmi sau chatbots pentru răspunsuri la clienți, le plasează deja pe aceste companii sub incidența noului regulament.
Ce este AI Act și de ce este important?
AI Act este Regulamentul (UE) 2024/1689, adoptat pentru a stabili reguli armonizate privind inteligența artificială în Uniunea Europeană. Acesta a intrat în vigoare la 1 august 2024 și se aplică direct în toate statele membre, inclusiv companiilor din afara UE, dacă sistemele lor AI afectează persoane aflate pe teritoriul Uniunii. Regulamentul se bazează pe o logică bazată pe risc: cu cât un sistem AI poate afecta mai mult viața, siguranța sau drepturile oamenilor, cu atât regulile sunt mai stricte.
AI Act clasifică sistemele de inteligență artificială în mai multe niveluri de risc: sisteme cu risc inacceptabil, care sunt interzise; sisteme cu risc ridicat, supuse unor obligații stricte; și sisteme cu risc limitat sau minim, pentru care cerințele sunt mai reduse.
Obligațiile companiilor și impactul asupra cetățenilor
AI Act nu se aplică doar companiilor care dezvoltă inteligență artificială, ci și celor care o utilizează în activitatea curentă, inclusiv în procese precum recrutarea, evaluarea angajaților, relația cu clienții sau creditarea. De exemplu, CV-urile aplicanților pot fi analizate de un sistem automat, iar performanța angajaților poate fi evaluată prin algoritmi. Aceste utilizări devin din ce în ce mai frecvente și pot influența decizii importante pentru oameni.
Ce se va întâmpla din 2 august 2026?
Din 2 august 2026, devin relevante obligațiile complete pentru multe sisteme AI cu risc ridicat, inclusiv cele utilizate în zona ocupării forței de muncă și a accesului la servicii. Utilizarea AI în procese sensibile nu mai poate fi tratată ca un simplu instrument de eficientizare fără consecințe juridice. Companiile trebuie să știe ce sisteme AI folosesc, cum le folosesc și cine răspunde în caz de probleme.
Transparența devine esențială, iar în anumite situații, oamenii trebuie informați că interacționează cu un sistem AI sau că o decizie este influențată de un algoritm. Este necesară, de asemenea, supravegherea umană, pentru a nu permite sistemelor să ia decizii complet autonome în chestiuni care afectează direct oamenii.
Prevederi și sancțiuni
AI Act vine cu sancțiuni semnificative. Pentru folosirea unor practici interzise, amenzile pot ajunge până la 35 de milioane de euro sau 7% din cifra de afaceri anuală globală. Pentru alte încălcări, plafonul este de până la 15 milioane de euro sau 3%, iar furnizarea de informații incorecte sau înșelătoare poate fi sancționată cu până la 7,5 milioane de euro sau 1%.
Contextul românesc și pregătirea companiilor
În România, Guvernul a adoptat la 12 martie 2026 un memorandum pentru desemnarea autorităților naționale competente pentru aplicarea AI Act. Autoritatea Națională pentru Administrare și Reglementare în Comunicații (ANCOM) a fost desemnată autoritate de supraveghere a pieței, iar alte autorități au atribuții în domeniile financiare și de protecție a datelor. Termenul pentru desemnarea acestor autorități a fost 2 august 2025, ceea ce înseamnă că România a acționat cu întârziere, dar aplicarea regulamentului nu este suspendată.
Companiile din România trebuie să se pregătească imediat. Avocatul Marius Stanciu recomandă trei pași: inventarierea sistemelor AI utilizate, clasificarea acestora în funcție de risc și pregătirea angajaților prin training documentat. Dacă nu pot demonstra conformitatea, companiile riscă sancțiuni semnificative.
