Sommario
La tecnologia di intelligenza artificiale (IA) viene utilizzata da pedofili per creare e vendere materiale di abuso sessuale su minori che appare incredibilmente realistico, secondo un’indagine condotta dalla BBC e già denunciato in precedenza da Matrice Digitale.
Uso improprio della tecnologia IA
I creatori delle immagini di abuso utilizzano un software di IA chiamato Stable Diffusion, originariamente progettato per generare immagini per l’arte o il design grafico. Questo software permette agli utenti di descrivere qualsiasi immagine che desiderano utilizzando delle parole chiave, e il programma crea l’immagine. Tuttavia, la BBC ha scoperto che viene utilizzato per creare immagini realistiche di abuso sessuale su minori, inclusi neonati e bambini piccoli.
Diffusione e vendita delle immagini
Le immagini di abuso vengono create utilizzando il software IA e poi promosse su piattaforme come Pixiv, un sito giapponese di condivisione di immagini. Questi account contengono collegamenti che indirizzano i clienti alle immagini più esplicite, che possono essere visualizzate dietro pagamento su siti come Patreon. Patreon ha dichiarato di avere una politica di tolleranza zero riguardo a tali immagini sul suo sito.
Reazioni e responsabilità delle piattaforme
Il National Police Chief’s Council del Regno Unito ha dichiarato che è “scandaloso” che alcune piattaforme stiano realizzando “grandi profitti” senza assumersi la “responsabilità morale”. GCHQ, l’agenzia di intelligence e sicurezza del governo, ha risposto al rapporto affermando che i criminali che abusano sessualmente dei minori adottano tutte le tecnologie e alcuni credono che il futuro del materiale di abuso sessuale su minori risieda nei contenuti generati dall’IA.
Impatto e preoccupazioni future
Ian Critchley, responsabile della salvaguardia dei minori presso il National Police Chiefs’ Council, ha avvertito che un pedofilo potrebbe “passare da un pensiero, a immagini sintetiche, all’abuso effettivo di un bambino vivo”. Mentre l’IA continua a svilupparsi rapidamente, emergono domande sui rischi futuri che potrebbe rappresentare per la privacy, i diritti umani e la sicurezza delle persone.