OpenAI: consiglio di Amministrazione ha il Veto su AI Rischiose

da Redazione
0 commenti 2 minuti leggi
ChatGPT di OpenAI

OpenAI, leader nello sviluppo di intelligenza artificiale, sta espandendo i suoi processi interni di sicurezza per contrastare la minaccia di AI dannose. Un nuovo “gruppo consultivo per la sicurezza” sarà posto al di sopra dei team tecnici e fornirà raccomandazioni alla leadership, mentre al consiglio di amministrazione è stato concesso il potere di veto su decisioni ritenute rischiose.

Annunci

Nuove Politiche di Sicurezza e Ruolo del Consiglio

Il gruppo consultivo per la sicurezza avrà il compito di esaminare i report tecnici e formulare raccomandazioni, includendo una prospettiva più ampia rispetto ai team tecnici. La leadership di OpenAI prenderà le decisioni finali sul rilascio o meno dei prodotti, ma il consiglio di amministrazione avrà la possibilità di ribaltare queste decisioni.

Quadro di Preparazione Aggiornato

OpenAI ha discusso il suo “Quadro di Preparazione” aggiornato, che mira a identificare, analizzare e decidere come affrontare i rischi catastrofici intrinseci ai modelli che stanno sviluppando. Questo include rischi che potrebbero causare danni economici per centinaia di miliardi di dollari o danni gravi a molte persone.

Valutazione e Mitigazione dei Rischi

I modelli in produzione sono governati da un team di “sistemi di sicurezza”, mentre i modelli all’avanguardia in fase di sviluppo sono gestiti dal team di “preparazione”, che cerca di identificare e quantificare i rischi prima del rilascio del modello. Inoltre, c’è il team di “superallineamento”, che lavora su guide teoriche per modelli “superintelligenti”.

I rischi vengono valutati in quattro categorie: cybersecurity, persuasione (ad esempio, disinformazione), autonomia del modello e minacce CBRN (chimiche, biologiche, radiologiche e nucleari). Se un modello viene valutato con un rischio “alto”, non può essere distribuito, e se presenta rischi “critici”, non verrà ulteriormente sviluppato.

Trasparenza e Responsabilità

OpenAI ha promesso di richiedere audit da terze parti indipendenti, ma non ha specificato in dettaglio come verranno gestite le informazioni relative ai rischi critici. La trasparenza e la responsabilità rimangono questioni aperte, in particolare su come il consiglio di amministrazione e la leadership gestiranno le raccomandazioni del gruppo consultivo per la sicurezza.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara