Meta continua a potenziare l’uso dell’intelligenza artificiale con obiettivi di sicurezza sia sui social media che in ambito nazionale ed infatti l’azienda ha annunciato un nuovo sistema di classificazione basato sull’AI per individuare gli utenti adolescenti su Instagram, minori che falsificano la loro età, iniziando parallelamente una collaborazione con il governo degli Stati Uniti per mettere a disposizione i modelli llama in ambiti di sicurezza nazionale.
AI per la sicurezza dei minori: verifica dell’età su Instagram
A partire dall’inizio del prossimo anno, Meta implementerà un “adult classifier” su Instagram, uno strumento basato sull’intelligenza artificiale progettato per identificare gli utenti con meno di 18 anni che mentono sulla loro età. Questo sistema analizzerà i comportamenti degli utenti, come i profili seguiti e i contenuti con cui interagiscono, senza considerare l’età dichiarata. Gli account sospetti verranno automaticamente impostati con le opzioni di privacy più restrittive per proteggere i minori.
Se un utente tenta di cambiare manualmente la propria età, sarà richiesto un documento d’identità o un video selfie verificato tramite yoti, un partner di Meta già utilizzato per le verifiche d’età su facebook dating. Questo sistema è parte delle misure per rispondere alle crescenti critiche sui rischi legati all’uso dei social media da parte degli adolescenti, al fine di garantire un ambiente digitale più sicuro.
llama per la sicurezza nazionale: collaborazione di Meta con il governo USA
Parallelamente, Meta ha avviato una collaborazione con agenzie governative statunitensi, rendendo i modelli open-source llama accessibili per progetti di sicurezza nazionale. Attraverso partnership con aziende come Amazon, Microsoft e Lockheed Martin, Meta consentirà l’uso di llama per migliorare le operazioni di difesa e sicurezza. Lockheed Martin, ad esempio, intende usare llama per generare codice, mentre Oracle applicherà il modello per l’analisi dei dati di manutenzione aeronautica.

Nonostante una precedente politica che vietava l’uso di llama per progetti militari, Meta ha deciso di fare un’eccezione per gli Stati Uniti, motivando questa scelta come un contributo alla sicurezza nazionale e alla competitività tecnologica americana. Tuttavia, l’utilizzo di AI in ambito difensivo rimane un tema controverso, sollevando questioni etiche e preoccupazioni sui rischi legati a bias e violazioni della privacy.