Sommario
In una recente intervista con i media, un funzionario dell’FBI ha indicato che i modelli open source gratuiti e personalizzabili stanno diventando sempre più popolari tra gli hacker che cercano di diffondere malware, condurre attacchi di phishing e realizzare altri tipi di truffe.
L’AI potrebbe essere la colpa degli attacchi informatici in aumento
L’AI generativa può aiutare in qualsiasi aspetto di un cyberattacco, grazie alle sue potenti capacità di codifica. Decine di modelli sono stati ora addestrati per aiutare a scrivere e correggere il codice, rendendo lo sviluppo di malware più accessibile anche a chi non aveva le competenze prima.
Strumenti creati dagli hacker
L’FBI e altre organizzazioni hanno visto strumenti utilizzati per creare contenuti, come email di phishing e altri siti web loschi. Inoltre, con il lancio di modelli multimodali come GPT-4, gli hacker sono in grado di creare deepfake convincenti per costringere le vittime a separarsi da informazioni sensibili, pagamenti e altro.
Preoccupazioni per la sicurezza e misure protettive
Nonostante le promesse di collaborare con le aziende per proteggere i cittadini vulnerabili, con suggerimenti come la marcatura dei contenuti AI, molti rimangono preoccupati per lo sviluppo lento delle misure protettive rispetto allo sviluppo molto più rapido degli strumenti AI. Meta ha dichiarato che il suo nuovo strumento di generazione vocale, Voicebox, non dovrebbe essere disponibile senza le necessarie precauzioni.
Impegno volontario da parte delle principali aziende AI
La scorsa settimana, la Casa Bianca ha annunciato quello che ha definito un “impegno volontario” da parte delle principali aziende AI – specificamente, Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI – come parte della sua agenda per un’IA sicura e responsabile.