Sommario
Dave Willner, capo della sicurezza e della fiducia di OpenAI, ha deciso di lasciare l’azienda. Questa mossa arriva in un momento in cui l’industria dell’IA affronta un maggiore scrutinio da parte dei responsabili delle politiche in materia di privacy e sicurezza.
La carriera di Willner nel Trust e Safety
Willner ha lavorato nel settore della sicurezza e della fiducia per quasi un decennio. Prima di unirsi a OpenAI, Willner era capo della sicurezza e della fiducia presso la startup di assistenza all’infanzia Otter e ha guidato la politica di fiducia e comunità presso Airbnb.
L’indagine sulla OpenAI
La FTC ha avviato un’indagine su OpenAI la scorsa settimana per determinare se i suoi metodi di raccolta dei dati di addestramento violassero i diritti dei consumatori. La Securities and Exchange Commission ha anche espresso preoccupazione per il fatto che i grandi modelli di IA potrebbero centralizzare i dati e il processo decisionale nel settore finanziario, portando a una sorta di pensiero di gruppo simile agli eventi che hanno preceduto la crisi finanziaria del 2008.
L’impegno di OpenAI, Meta, Microsoft e altri
OpenAI, Meta, Microsoft e altri grandi nomi nello spazio dell’IA hanno firmato un impegno con la Casa Bianca questa settimana per investire in ricerca sulla sicurezza e sulla discriminazione e un nuovo sistema di watermarking per identificare i contenuti generati da IA.
La ricerca di un nuovo leader per la sicurezza e la fiducia
OpenAI ha dichiarato che il direttore tecnico Mira Murati gestirà temporaneamente il team di sicurezza e fiducia e che sarà alla ricerca di un nuovo leader per la sicurezza e la fiducia. “Stiamo cercando un leader con competenze tecniche per far avanzare la nostra missione, concentrandosi sulla progettazione, sviluppo e implementazione di sistemi che garantiscano l’uso sicuro e la crescita scalabile della nostra tecnologia”, ha dichiarato OpenAI in una dichiarazione a The Verge.