Sommario
Tredici ex dipendenti di OpenAI, in una lettera aperta, hanno denunciato la mancanza di garanzie per i whistleblower chi segnala problemi di sicurezza legati all’intelligenza artificiale (IA).
La lettera aperta
La lettera, firmata da tredici ex dipendenti OpenAI (sei dei quali hanno scelto di rimanere anonimi) e sostenuta da Geoffrey Hinton, pioniere dell’intelligenza artificiale precedentemente in forza a Google, sottolinea la necessità per le aziende del settore di adottare principi di apertura nei confronti di critiche e controlli, soprattutto in un momento storico in cui crescono le preoccupazioni sulla sicurezza dell’IA.
Principi per una maggiore trasparenza
In assenza di un efficace controllo governativo, la lettera propone che le aziende del settore IA si impegnino a rispettare principi di critica aperta. Questi principi includono:
- Evitare la creazione e l’applicazione di clausole di non concorrenza che limitino la libertà di parola dei dipendenti
- Garantire un processo “verificabilmente” anonimo per segnalare problemi
- Consentire a dipendenti, attuali e precedenti, di sollevare pubblicamente preoccupazioni
- Impegno a non ritorcere contro i whistleblower (coloro che segnalano irregolarità)
Preoccupazioni e rischi legati all’IA
Gli autori della lettera riconoscono il potenziale positivo dell’IA per la società, ma evidenziano anche i rischi associati, come:
- Radicamento delle disuguaglianze
- Diffusione di manipolazione e disinformazione
- Estinzione umana (come scenario estremo)
Sebbene la preoccupazione per macchine in grado di conquistare il mondo attiri molta attenzione, i problemi più concreti dell’IA odierna riguardano:
- Violazioni del copyright
- Condivisione involontaria di immagini problematiche e illegali
- Capacità di imitare le sembianze delle persone e indurre in errore il pubblico
Protezioni inefficaci per i whistleblower
La lettera sostiene che le attuali tutele per i whistleblower siano “insufficienti” perché principalmente incentrate su attività illegali, trascurando questioni legate all’IA dalla stessa OpenAI che spesso ricadono in zone grigie non ancora regolamentate.
Il Dipartimento del Lavoro degli Stati Uniti specifica che le leggi a tutela dei whistleblower proteggono i lavoratori che segnalano violazioni riguardanti salari, discriminazione, sicurezza, frode e mancato riconoscimento di ferie. Ciò significa che i datori di lavoro non possono licenziare, sospendere, ridurre le ore o declassare i dipendenti che segnalano irregolarità.
“Alcuni di noi temono ragionevolmente ritorsioni, data la storia di tali casi in tutto il settore. Non siamo i primi a incontrare o parlare di questi problemi”, si legge nella lettera.
Mancanza di controlli di sicurezza nell’IA
Le aziende che operano nel campo dell’IA, in particolare OpenAI, sono state criticate per la carente supervisione in materia di sicurezza. Google ha difeso il suo strumento di ricerca basato sull’IA, AI Overviews, nonostante le segnalazioni di risultati pericolosi, seppur divertenti. Anche Microsoft è stata oggetto di polemiche per il suo Copilot Designer, che generava “immagini sessualizzate di donne in scene violente”.
Di recente, diversi ricercatori di OpenAI si sono dimessi dopo lo scioglimento del team “Superalignment”, che si occupava dei rischi a lungo termine dell’IA, e le dimissioni del co-fondatore Ilya Sutskever, che si era fatto portavoce della sicurezza all’interno dell’azienda. Un ex ricercatore, Jan Leike, ha affermato che “la cultura e i processi di sicurezza sono stati messi in secondo piano rispetto a prodotti dal facile appeal” in OpenAI. OpenAI ha attualmente un nuovo team per la sicurezza guidato dal CEO Sam Altman.