Sommario
L’intelligenza artificiale generativa sta rapidamente diventando un’arma a doppio taglio nel mondo della sicurezza informatica. Google Cloud Threat Intelligence Group (GTIG) ha pubblicato un rapporto sull’uso di Gemini da parte di attori di minaccia avanzati (APT) e operatori di disinformazione (IO), rivelando che sebbene l’AI venga sfruttata per attività malevole, al momento non ha ancora rivoluzionato il panorama delle cyber-minacce.
Secondo il rapporto, gruppi hacker sponsorizzati da stati come Iran, Russia e Cina hanno cercato di utilizzare Gemini per migliorare le loro operazioni, ma le misure di sicurezza della piattaforma hanno impedito tentativi di jailbreak e attività altamente dannose. Tuttavia, l’AI generativa sta accelerando il lavoro di hacker esperti e abbassando la barriera d’ingresso per criminali meno qualificati, permettendo loro di scrivere codice malevolo, creare campagne di phishing più sofisticate e automatizzare attività di ricognizione e evasione dei controlli di sicurezza.
L’analisi di Google mostra che, sebbene l’AI generativa non abbia ancora portato a nuove capacità rivoluzionarie per i cybercriminali, la sua diffusione potrebbe cambiare rapidamente il panorama delle minacce.
Come gli hacker hanno cercato di sfruttare Gemini per attività malevole
L’uso di Gemini da parte di hacker e gruppi APT è stato analizzato su più livelli, con particolare attenzione a due categorie principali:
- APT (Advanced Persistent Threats): gruppi sponsorizzati da stati, che utilizzano AI per la raccolta di informazioni, lo sviluppo di exploit e il miglioramento delle loro operazioni.
- Operatori di disinformazione (IO): attori che usano AI per generare contenuti manipolativi, tradurre testi per campagne mirate e migliorare la diffusione di fake news.
Le attività più comuni osservate includevano:
- Ricerca su infrastrutture e vulnerabilità per migliorare le operazioni di hacking.
- Supporto alla scrittura di codice malevolo e automazione degli attacchi.
- Localizzazione e adattamento di contenuti propagandistici per campagne di disinformazione.
Secondo GTIG, il gruppo APT iraniano è stato il principale utilizzatore malevolo di Gemini, mentre i gruppi russi e cinesi lo hanno utilizzato in modo più limitato.
L’intelligenza artificiale accelera le operazioni dei criminali informatici
Uno degli aspetti più preoccupanti evidenziati nel rapporto è che anche se Gemini e altre AI generative non stanno ancora rivoluzionando gli attacchi, stanno rendendo i cybercriminali più veloci ed efficienti.
Per gli hacker più esperti, Gemini è diventato uno strumento di supporto per migliorare produttività e velocità di esecuzione, un po’ come l’uso di Metasploit o Cobalt Strike nel pentesting e nel cybercrime. Per quelli meno qualificati, invece, rappresenta un’opportunità di apprendimento rapido, permettendo loro di sviluppare codice e perfezionare tecniche di attacco in meno tempo.
In particolare, Gemini è stato usato per:
- Ricerca su exploit e vulnerabilità, migliorando la fase di ricognizione per attacchi futuri.
- Scrittura e debugging di codice malevolo, compresa la creazione di script per il furto di dati e per attacchi DDoS.
- Generazione di contenuti per il phishing, migliorando la qualità dei messaggi di truffa.
Tuttavia, Google ha sottolineato che le sue misure di sicurezza hanno bloccato richieste esplicite per attività criminali, impedendo agli hacker di generare direttamente codice dannoso.
Jailbreak e tentativi di elusione: Gemini ha resistito agli attacchi?
Gli hacker hanno provato a bypassare i sistemi di sicurezza di Gemini, utilizzando tecniche di jailbreak già note nella community.
Google ha osservato diversi tentativi di hacker sponsorizzati da stati per:
- Far generare a Gemini codice per infostealer su Chrome.
- Creare tecniche per rubare dati da Gmail.
- Scrivere script per attacchi di phishing avanzati.
Tuttavia, secondo il rapporto, nessuno di questi tentativi ha avuto successo, poiché Gemini ha generato risposte di sicurezza bloccando le richieste malevole.
Un caso specifico ha riguardato un attore APT che ha provato a chiedere a Gemini codice per un attacco DDoS, ma il modello ha riconosciuto la richiesta e ha rifiutato di fornire supporto. Questo dimostra che i LLM attuali hanno ancora misure di sicurezza efficaci, anche se gli hacker continuano a cercare nuovi modi per aggirarle.
AI e cybercrime: il rischio di una nuova era di attacchi?
Anche se l’analisi di Google conferma che l’AI generativa non sta ancora abilitando attacchi completamente nuovi, il trend è preoccupante. Il rischio più grande è che, con l’evoluzione dei modelli AI e la crescente accessibilità di strumenti avanzati, gli hacker possano trovare nuovi modi per sfruttare la tecnologia a scopi malevoli.
GTIG sottolinea che la situazione potrebbe cambiare rapidamente:
“Il panorama delle minacce AI è in costante evoluzione, con nuovi modelli e agenti emergenti ogni giorno. Man mano che l’intelligenza artificiale si sviluppa, ci aspettiamo che gli hacker trovino modi sempre più sofisticati per sfruttarla.”
Se da un lato i modelli di AI responsabili come Gemini hanno dimostrato di avere difese robuste, dall’altro esistono modelli open-source che potrebbero essere modificati e addestrati per scopi malevoli. In futuro, gli hacker potrebbero creare LLM personalizzati senza filtri di sicurezza, rendendo molto più difficile prevenire l’uso dell’AI per attacchi avanzati.
L’uso dell’AI generativa nel cybercrime è una minaccia in crescita, anche se attualmente non ha ancora rivoluzionato il modo in cui gli hacker operano. I gruppi APT iraniani, russi e cinesi stanno già sperimentando l’uso di Gemini e altri modelli AI per velocizzare i loro attacchi, migliorare il phishing e sviluppare codice dannoso, anche se le misure di sicurezza implementate da Google hanno impedito exploit diretti.
Tuttavia, il rischio maggiore riguarda il futuro: se gli hacker inizieranno a sviluppare LLM modificati senza restrizioni, potremmo assistere a una nuova generazione di attacchi informatici altamente sofisticati.
Le aziende devono rimanere vigili, investendo in cybersecurity avanzata e monitorando da vicino l’evoluzione dell’uso dell’AI nel cybercrime. Nel frattempo, i governi e le Big Tech dovranno collaborare per impedire che l’AI generativa diventi una risorsa per le operazioni di hacking più pericolose del mondo.