Categorie
Tech

OpenAI: consiglio di Amministrazione ha il Veto su AI Rischiose

OpenAI, leader nello sviluppo di intelligenza artificiale, sta espandendo i suoi processi interni di sicurezza per contrastare la minaccia di AI dannose. Un nuovo “gruppo consultivo per la sicurezza” sarà posto al di sopra dei team tecnici e fornirà raccomandazioni alla leadership, mentre al consiglio di amministrazione è stato concesso il potere di veto su decisioni ritenute rischiose.

Nuove Politiche di Sicurezza e Ruolo del Consiglio

Il gruppo consultivo per la sicurezza avrà il compito di esaminare i report tecnici e formulare raccomandazioni, includendo una prospettiva più ampia rispetto ai team tecnici. La leadership di OpenAI prenderà le decisioni finali sul rilascio o meno dei prodotti, ma il consiglio di amministrazione avrà la possibilità di ribaltare queste decisioni.

Annunci

Quadro di Preparazione Aggiornato

OpenAI ha discusso il suo “Quadro di Preparazione” aggiornato, che mira a identificare, analizzare e decidere come affrontare i rischi catastrofici intrinseci ai modelli che stanno sviluppando. Questo include rischi che potrebbero causare danni economici per centinaia di miliardi di dollari o danni gravi a molte persone.

Valutazione e Mitigazione dei Rischi

I modelli in produzione sono governati da un team di “sistemi di sicurezza”, mentre i modelli all’avanguardia in fase di sviluppo sono gestiti dal team di “preparazione”, che cerca di identificare e quantificare i rischi prima del rilascio del modello. Inoltre, c’è il team di “superallineamento”, che lavora su guide teoriche per modelli “superintelligenti”.

I rischi vengono valutati in quattro categorie: cybersecurity, persuasione (ad esempio, disinformazione), autonomia del modello e minacce CBRN (chimiche, biologiche, radiologiche e nucleari). Se un modello viene valutato con un rischio “alto”, non può essere distribuito, e se presenta rischi “critici”, non verrà ulteriormente sviluppato.

Trasparenza e Responsabilità

OpenAI ha promesso di richiedere audit da terze parti indipendenti, ma non ha specificato in dettaglio come verranno gestite le informazioni relative ai rischi critici. La trasparenza e la responsabilità rimangono questioni aperte, in particolare su come il consiglio di amministrazione e la leadership gestiranno le raccomandazioni del gruppo consultivo per la sicurezza.

Exit mobile version