Microsoft a lansat săptămâna aceasta un raport de informații despre amenințări care dezvăluie că hackerii integrează din ce în ce mai mult inteligența artificială în fiecare fază a operațiunilor lor, de la recunoaștere și phishing până la dezvoltarea de malware și activități post-compromitere. Compania a descris AI ca fiind un „multiplicator de forță” care reduce barierele tehnice și accelerează execuția pentru atacatori de diferite niveluri de competență.
Grupuri nord-coreene conduc scheme sofisticate bazate pe inteligență artificială
Raportul detaliază modul în care grupurile de amenințare nord-coreene, urmărite sub denumirile Jasper Sleet și Coral Sleet, utilizează inteligența artificială generativă pentru a orchestra scheme elaborate de angajare fictivă care vizează companii occidentale. Actorii din grupul Jasper Sleet folosesc instrumente de inteligență artificială pentru a genera liste de nume adaptate cultural, pentru a personaliza CV-uri false în funcție de anunțurile specifice de locuri de muncă și pentru a redacta comunicări profesionale care să mențină angajarea pe termen lung odată ce sunt angajați, conform CyberScoop.

Microsoft a observat că grupul Jasper Sleet utilizează aplicația de inteligență artificială Faceswap pentru a insera fețele lucrătorilor IT nord-coreeni în documente de identitate furate și pentru a crea fotografii profesionale pentru CV-uri. Grupul a utilizat, de asemenea, tehnologie de modificare a vocii în timpul interviurilor virtuale pentru a-și disimula accentul, permițând operativilor să se dea drept candidați occidentali, a relatat The Guardian.
„Jasper Sleet utilizează inteligența artificială pe tot parcursul procesului de atac pentru a obține angajarea, a menține angajarea și a exploata accesul la scară largă”, a declarat Microsoft.
Între timp, Coral Sleet a demonstrat ceea ce Microsoft a numit „o creștere rapidă a capacităților, determinată de dezvoltarea iterativă asistată de inteligența artificială”, utilizând instrumente de programare bazate pe inteligență artificială pentru a genera și perfecționa componente malware, pentru a crea site-uri web false ale companiilor, pentru a aproviziona infrastructură la distanță și pentru a testa rapid payload-uri. Grupul a reușit, de asemenea, să deblocheze modele lingvistice mari (LLM) pentru a genera cod malițios care ocolește controalele de siguranță integrate, conform postării de blog a Microsoft.
Un tipar în creștere la nivelul industriei
Microsoft a observat primele experimentări ale actorilor de amenințări cu inteligența artificială agentică, unde modelele susțin luarea iterativă a deciziilor și executarea sarcinilor, deși acest lucru nu a fost încă observat la scară largă.
Descoperirile fac ecou unor avertismente similare din partea altor companii majore de tehnologie. Google a raportat în februarie că Grupul său de Informații despre Amenințări a observat actori de amenințări folosind AI pentru a aduna informații, a crea campanii de phishing și a dezvolta malware. Amazon a documentat separat o campanie în care un hacker vorbitoare de limba rusă a folosit servicii de AI generativă pentru a compromite peste 600 de firewall-uri FortiGate din 55 de țări în cinci săptămâni, demonstrând cum AI-ul a permis unui atacator cu abilități limitate să opereze la o scară care anterior necesita o echipă mai mare și mai capabilă.
Microsoft a recomandat organizațiilor să trateze schemele cu lucrători IT alimentați de AI ca pe riscuri din interior și să se concentreze pe detectarea utilizării anormale a credențialelor, consolidarea sistemelor de identitate împotriva phishing-ului și securizarea sistemelor AI care pot deveni ele însele ținte.
Surse:
