Le vulnerabilità nei software sono sempre esistite, ma oggi l’intelligenza artificiale è in grado di individuarle, e in alcuni casi anche sfruttarle, molto più velocemente rispetto al passato.
Di conseguenza, basare la sicurezza sulla fiducia nel software (ad esempio: “questo programma è sicuro”) non è più sufficiente. Di recente il report Mythos Red Team, sviluppato da Anthropic, ha evidenziato proprio questo punto. Il problema non è solo che l’AI scopre vulnerabilità, ma che non possiamo più “fidarci” del software come una volta.
Mythos Red Team
Il report presenta diversi esempi concreti. Anche in sistemi progettati con la sicurezza come priorità assoluta, come OpenBSD, l’intelligenza artificiale è riuscita a individuare vulnerabilità in grado di mandare completamente offline una macchina, provocando un Denial of Service.
Allo stesso modo, in una libreria estremamente diffusa come FFmpeg, è emerso un errore di memoria rimasto nascosto per anni, nonostante fosse stato sottoposto a milioni di test automatizzati.
Il caso di FreeBSD, in particolare del protocollo NFS, è ancora più significativo: qui l’AI non si è limitata a individuare una falla, ma è stata in grado di costruire un attacco completo capace di ottenere il controllo totale del sistema.
Infine, intervenendo sul Linux kernel, ha dimostrato di saper combinare più tecniche avanzate fino a ottenere privilegi amministrativi, evidenziando un livello di sofisticazione sempre più elevato.
È importante sottolineare che queste vulnerabilità non sono state create dall’AI ma che esistevano già. L’intelligenza artificiale ha semplicemente reso molto più efficiente il processo di scoperta.
Vulnerabilità vs Exploit
Dal report emerge una distinzione chiave:
- Vulnerabilità: un errore o difetto nel codice
- Exploit: un attacco funzionante che sfrutta quella vulnerabilità
Individuare vulnerabilità è complesso, ma sviluppare exploit affidabili lo è ancora di più. Ciò che cambia con Mythos è che questo “gap” si sta riducendo e, in alcuni casi, è già stato colmato.
Il paragone con il fuzzing
Il report propone anche un interessante confronto con il fuzzing, una tecnica automatizzata che individua bug inviando input casuali ai software. Inizialmente, il fuzzing era considerato pericoloso perché poteva essere utilizzato dagli attaccanti. Con il tempo, però, è diventato uno strumento difensivo fondamentale per la sicurezza informatica.
L’intelligenza artificiale sembra destinata a seguire lo stesso percorso, ma con una differenza cruciale: la velocità. Ciò che il fuzzing ha impiegato anni a raggiungere, l’AI potrebbe ottenerlo in pochi mesi.
Verso un nuovo modello di sicurezza
Alla luce di questi cambiamenti, è necessario rivedere l’approccio alla sicurezza. “Questo software è sicuro → mi fido” non va più bene. È necessario usare il nuovo modello “Zero Trust”: “Non mi fido di nulla → verifico tutto”
In pratica, questo significa:
- Monitorare il comportamento dei programmi, non solo la loro firma
- Limitare le azioni che ogni processo può eseguire
- Ridurre i permessi concessi a utenti e applicazioni
Tra le soluzioni che supportano questo approccio:
- ATC (Advanced Threat Control) di Bitdefender che monitora continuamente il comportamento dei processi
- PHASR di Bitdefender che limita dinamicamente le capacità di un software in base all’uso reale
Il messaggio che emerge è piuttosto chiaro, l’intelligenza artificiale non sta introducendo problemi completamente nuovi, ma sta rendendo molto più veloce ed efficiente ciò che già esisteva. In questo scenario, anche gli attacchi informatici sono destinati a diventare più rapidi, meno costosi e quindi accessibili a un numero sempre maggiore di attori.
Di fronte a questa evoluzione, la sicurezza non può più basarsi solo sulla prevenzione. È necessario cambiare prospettiva. Bisogna partire dal presupposto che le vulnerabilità esistano già e progettare sistemi capaci non solo di evitarle, ma soprattutto di contenerne gli effetti e limitarne l’impatto.
Per saperne di più clicca sul link: What Mythos Reveals About Zero Trust’s Scope Problem