Lumea securității cibernetice se confruntă cu o nouă realitate: inteligența artificială a trecut un prag care schimbă fundamental balanța dintre atacatori și apărători. Acest avertisment a apărut cu putere în ultimele două săptămâni, determinat de un document scurs de la Anthropic, date recente de la Microsoft și semnalele de alarmă trase la RSA Conference 2026 din San Francisco.
Modelul Mythos al Anthropic ridică miza
O schiță de postare pe blog de la Anthropic, expusă accidental printr-un depozit de date configurat greșit la sfârșitul lunii trecute și raportată pentru prima dată de Fortune, a dezvăluit că viitorul model de inteligență artificială al companiei — numit Mythos — este „în prezent cu mult înaintea oricărui alt model de AI în ceea ce privește capabilitățile cibernetice”. Documentul avertiza că Mythos „prefigurează un val viitor de modele care pot exploata vulnerabilități în moduri care depășesc cu mult eforturile apărătorilor”.

Anthropic restricționează accesul anticipat la organizațiile axate pe apărare cibernetică, oferindu-le un avantaj pentru a consolida sistemele „împotriva valului iminent de exploatări conduse de AI”, se arată în schiță. De asemenea, compania informează în mod privat oficiali guvernamentali cu privire la potențialul atacurilor cibernetice la scară largă activate de Mythos, conform Axios.
Îngrijorarea nu se limitează la o singură companie. OpenAI a avertizat în decembrie că modelele sale viitoare sunt susceptibile să reprezinte un risc de securitate cibernetică „ridicat” — a doua cea mai severă clasificare din Cadrul său de Pregătire — deoarece modelele demonstrează o capacitate crescândă de a opera autonom pe perioade prelungite, facilitând atacuri prin forță brută și intruziuni complexe, conform Reuters. Într-un raport distribuit mai întâi către Axios, OpenAI a menționat că scorurile modelelor sale în exercițiile de tip capture-the-flag au crescut brusc între lansări.
IA integrată acum în toate etapele ciclului de atac
Blogul de securitate Microsoft a evidențiat modul în care instrumentele de inteligență artificială au fost integrate în fiecare etapă a atacurilor cibernetice, de la recunoaștere până la operațiunile post-compromitere. O analiză conexă Microsoft a menționat că inteligența artificială generativă determină rate de click pe phishing cu 450% mai mari decât campaniile tradiționale, în timp ce kit-urile industrializate de tip adversary-in-the-middle precum Tycoon2FA — asociate cu aproximativ 100.000 de organizații compromise — au extins phishing-ul la zeci de milioane de mesaje lunar.
La RSAC 2026, care s-a încheiat pe 26 martie, Institutul SANS a avertizat că sistemele de inteligență artificială pot acum „să identifice vulnerabilități și să genereze exploit-uri la scară largă, producând potențial sute de exploit-uri zero-day în fiecare săptămână”. Datele Microsoft prezentate la conferință au arătat că timpul de la accesul inițial al atacatorului până la predare s-a redus de la opt ore în 2022 la 22 de secunde în 2025.
Surse:
https://www.axios.com/2026/03/29/claude-mythos-anthropic-cyberattack-ai-agents
Anthropic’s next model could be a ‘watershed moment’ for cybersecurity. Experts say that could also be a concern
