Înșelătorii tehnologice în 2025
Poliția Română a emis o atenționare cu privire la circulația unor videoclipuri false realizate cu ajutorul inteligenței artificiale (AI), folosite de infractori pentru a comite fraude informative, a manipula opinia publică, a distruge reputația unor persoane, a provoca traume emoționale, sau a induce în eroare cu privire la adevăruri științifice. Aceste videoclipuri, cunoscute sub numele de deepfake-uri, sunt promovate pe rețelele de socializare și pot păcăli cetățenii de bună-credință, care cred că interacționează cu celebrități sau experți financiari.
Printre cele mai frecvente metode de operare în 2025 se numără:
Scam-uri de trading și investiții
Videoclipuri deepfake cu oameni de afaceri sau politicieni care recomandă platforme de investiții în crypto sau forex, promițând câștiguri rapide. Victimele sunt direcționate către site-uri false unde își depun economiile, care ajung ulterior la infractori.
Scam-uri caritabile
Deepfake-uri cu copii bolnavi sau celebrități care cer donații urgente, de unde sumele donate ajung direct la infractori prin link-uri false.
Romance scam îmbunătățit cu AI
Infractorii utilizează profiluri false cu imagini și videoclipuri generate de AI pentru a dezvolta relații emoționale cu victimele, cerând ulterior bani pentru diverse „urgente”.
Frauda CEO/CFO
Utilizarea deepfake-urilor în video-call-uri pentru a pretinde că un șef solicită transferuri urgente de bani.
Impersonare celebrități pentru produse false
Deepfake-uri cu celebrități care „oferă gratuit” produse, atrăgând astfel victimele în capcane de înșelăciune.
Statisticile din 2025 arată o creștere alarmantă a tentativelor de fraudă cu deepfake, pierderile financiare globale ridicându-se la zeci de miliarde de dolari anual. De asemenea, au fost create imagini cu persoane fictive care sunt folosite în diverse moduri de operare, inclusiv romance scams și profiluri false de influenceri.
Consecințele utilizării inteligenței artificiale în scopuri ilegale
Utilizarea AI în infracțiuni poate duce la:
- Pierderi financiare directe;
- Traume emoționale;
- Erodarea încrederii în media și instituții;
- Manipulare politică și electorală;
- Distrugerea reputației personale;
- Amenințări la securitatea națională.
Identificarea videoclipurilor deepfake
Poliția Română recomandă următoarele verificări pentru a identifica un videoclip deepfake:
- Verificarea clipitului ochilor;
- Mișcările buzelor și sincronizarea cu sunetul;
- Iluminarea și umbrele;
- Reflexii în ochi și dinți;
- Aspectul mâinilor și degetelor;
- Căutarea artefactelor vizuale;
- Utilizarea căutării inversate de imagini.
Măsuri de protecție și prevenire
Pentru a se proteja de înșelătorii, cetățenii sunt sfătuiți să:
- Verifice sursa informațiilor;
- Nu dea click pe link-uri nesolicitate;
- Nu transfere bani către persoane cunoscute doar online;
- Activeze autentificarea în doi pași pentru conturile importante;
- Raporteze conținutul suspect și să utilizeze extensii de browser pentru detectarea deepfake-urilor.
Dezinformarea și manipularea prin deepfake-uri
Infractorii folosesc deepfake-uri nu doar pentru fraudă, ci și pentru a disemina informații false despre știință. Exemple includ videoclipuri în care „astronauți NASA” afirmă că aselenizarea a fost o farsă sau „oameni de știință” care răspândesc teorii conspiraționiste. Aceste clipuri devin virale pe rețelele sociale, fiind distribuite de conturi cu mulți urmăritori și preluate de diverse instituții media.
Recent, au fost raportate cazuri în care au fost create videoclipuri false cu ofițeri de poliție care induc în eroare cetățenii cu scopul de a-i determina să facă investiții fictive sau să ofere date financiare. Poliția subliniază că aceștia nu vor apela cetățenii prin video și nu vor face recomandări de investiții.
