
Tentativele de fraudă cu deepfake au crescut cu 3.000% în 2023. Inteligența artificială rescrie regulile jocului în materie de infracționalitate, de la escrocherii ieftine cu deepfake și ransomware scris de AI, la furturi de identitate în masă și atacuri cibernetice asupra infrastructurilor critice, în timp ce poliția privește neputincioasă, scrie Digi24.ro.
Această nouă clasă de criminalitate superalimentată de AI pune în pericol vieți și sisteme financiare. Însă pregătirea polițiștilor, legislația și instrumentele de cooperare transfrontalieră nu țin pasul, avertizează experți intervievați de publicație.
Inteligența artificială comercială reduce nivelul de competență și costurile necesare pentru a desfășura atacuri, permițând unor grupări mici să deruleze operațiuni care anterior necesitau resurse demne de un stat.
Hackerii pot folosi AI pentru a fura identități
Infracțiunile pot viza acum simultan milioane de persoane folosind clonarea vocală și preluarea conturilor, în timp ce agențiile locale sunt instruite și finanțate pentru a investiga un singur caz o dată.
AI poate crea automatizări care „forțează intrarea” într-un sistem de milioane de ori pe secundă, ceva imposibil pentru oameni, spune Ian Khan, expert în evoluții tehnologice și impact social. Odată intrați în sistem, hackerii pot folosi AI pentru a fura identități, a manipula acțiuni pe bursă și a provoca haos la uzine de apă, în locuințe inteligente și spitale.
Atacuri executate aproape fără nicio intervenție umană
Atacurile pot veni de oriunde, de peste drum sau de la capătul lumii, spune și expertul Marc Goodman, autor al cărții „Crimele viitorului: În interiorul subteranului digital și lupta pentru lumea noastră conectată”. Voci deepfake pot convinge victimele să trimită bani, iar identitățile furate pot duce la fraudă electorală, pornografie infantilă sau chiar arestări pe nedrept. Scopul: poate fi orice, de la extorcarea de bani până la provocarea de suferință la scară largă.
Hackerii chinezi susținuți de stat au folosit instrumente AI de la Anthropic pentru a automatiza încălcarea securității unor mari companii și guverne străine în timpul unei campanii cibernetice din septembrie, a anunțat compania. „Considerăm că acesta este primul caz documentat de atac cibernetic la scară mare executat fără intervenție umană semnificativă”, a transmis Anthropic.
Care este situația actuală
Tentativele de fraudă cu deepfake au crescut cu 3.000% în 2023, potrivit DeepStrike, o firmă de securitate cibernetică. Pierderile SUA din fraude bazate pe AI generativă sunt estimate să atingă 40 de miliarde de dolari până în 2027, conform Deloitte Center for Financial Services.
AI generativă a accelerat viteza și amploarea fraudelor cu identități sintetice, în special prin sistemele de plăți în timp real, arată Federal Reserve Bank of Boston. În 2024, la nivel global a avut loc câte un atac deepfake la fiecare cinci minute, iar falsificările digitale de documente au crescut cu 244%, potrivit unui raport al Entrust Cybersecurity Institute.
Criminalitatea alimentată de AI îngrijorează și poliția locală
Unele drone controlate de AI ar putea colecta date despre locurile ideale pentru a ascunde cadavre pe drumuri izolate iar robo-câinii ar putea sparge locuințe în viitor. Mașinile piratate ar putea pleca singure către ateliere ilegale, iar AI ar putea indica unui hoț modul optim de a intra într-un vehicul.
Puține academii de poliție îi instruiesc pe cadeți în identificarea infracțiunilor legate de AI sau cibernetică, spun atât Khan, cât și Goodman. Asta lasă responsabilitatea în seama autorităților statale, care au apoi nevoie de cooperare internațională pentru a opri rețelele globale. Totuși, Miami Dade College a anunțat anul acesta că va fi una dintre primele academii de poliție din SUA care va instrui cadeții folosind un asistent AI dedicat, în parteneriat cu compania Truleo, relatează Miami New Times. Organizațiile polițiștilor încurajează agențiile să dezvolte politici și programe de formare pe măsură ce instrumentele de poliție bazate pe AI devin tot mai răspândite.



