La sicurezza degli Agenti AI sta diventando un esigenza importante perché gli AI agent stanno evolvendo con una rapidità impressionante. Non sono più soltanto chatbot che rispondono alle domande, ma sistemi capaci di eseguire azioni concrete, come modificare file, installare software, collegarsi a servizi cloud o gestire workflow digitali. Un chatbot, infatti, è un programma che utilizza l’intelligenza artificiale per simulare una conversazione con una persona, generalmente tramite testo (e talvolta voce). Il suo compito principale è rispondere alle domande o fornire informazioni. Riceve un messaggio dall’utente, interpreta il contenuto e genera una risposta coerente. Gli AI agent, invece, vanno oltre la semplice interazione. Possono prendere decisioni ed eseguire azioni nei sistemi digitali per raggiungere un obiettivo. In altre parole, mentre un chatbot parla con l’utente, un agente AI può anche agire direttamente nei sistemi.
Questo cambiamento segna un passaggio importante. Quando una tecnologia entra nei sistemi aziendali e diventa parte dei processi operativi, smette di essere solo uno strumento sperimentale e diventa infrastruttura, proprio come server, database, API o piattaforme di sicurezza. Naturalmente, questa evoluzione porta con sé anche nuove sfide. Se un agente può eseguire comandi, accedere a file o collegarsi ad altri sistemi, può anche essere sfruttato da un attacco o indotto a compiere azioni dannose. Per questo motivo la sicurezza degli agenti AI sta diventando un tema sempre più centrale.
Gen Agent Trust Hub
Per affrontare questa sfida, Gen Digital, che unisce marchi storici della cybersecurity come Norton, Avast, e AVG, ha progettato il Gen Agent Trust Hub, la piattaforma che serve a controllare e proteggere gli agenti AI mentre eseguono azioni reali, come accedere a dati, email o sistemi. L’iniziativa introduce anche nuovi standard di sicurezza, chiamati AI Agent Safety Standards by Gen, basati su due elementi principali:
▪️AI Agent Runtime Safety Standard (AARTS), che definisce come monitorare, valutare e bloccare azioni potenzialmente rischiose degli agenti mentre sono in esecuzione.
▪️Skill IDs, un sistema che identifica in modo univoco le “skill” (ovvero i componenti o plugin degli agenti) per verificarne autenticità e sicurezza.
L’obiettivo è creare standard condivisi per tutta l’industria, in modo che gli agenti AI possano operare in modo sicuro anche su piattaforme e ambienti diversi.
Man mano che gli agenti AI diventano parte integrante delle infrastrutture digitali, la sicurezza deve evolvere con loro e il progetto di Gen punta proprio a costruire le basi di fiducia per questa nuova era dell’intelligenza artificiale autonoma.