Mozilla e il futuro dell’intelligenza artificiale: privacy e responsabilità

da Redazione
0 commenti 2 minuti leggi
Mozilla intelligenza artificiale

Mark Surman, Presidente della Mozilla Foundation, ha recentemente partecipato a un forum con membri del Senato degli Stati Uniti, tra cui il Leader del Senato Schumer e i Senatori Rounds, Heinrich e Young, per discutere due questioni cruciali per il futuro dell’intelligenza artificiale (AI): come proteggere la privacy nell’era dell’AI e come garantire che chi causa danni tramite l’AI possa essere ritenuto responsabile.

Annunci

Il punto di vista unico di Mozilla sull’intelligenza artificiale

Mozilla, che opera sia come fondazione non-profit sia come azienda tecnologica, ha una prospettiva unica nella ricerca di risposte a queste domande. Negli ultimi cinque anni, la fondazione ha esplorato cosa significhi rendere l’AI affidabile e ha annunciato, insieme ad altre nove fondazioni filantropiche, un investimento di 200 milioni di dollari nell’ecosistema dell’AI di fiducia. Come azienda tecnologica, Mozilla sta investendo nell’integrazione dell’AI nei suoi prodotti e ha istituito un proprio laboratorio di ricerca e sviluppo, Mozilla.ai.

L’importanza delle regole vincolanti nell’AI

Con il rapido progresso dell’AI, è fondamentale agire per garantire che i benefici dell’AI siano condivisi in tutta la società e per proteggere le persone dai danni. Le regole vincolanti dovrebbero essere parte di questa azione, e la privacy, l’apertura e la trasparenza dovrebbero essere i principi fondamentali di qualsiasi quadro normativo.

L’open source AI e la concorrenza

L’AI open source è particolarmente minacciata da paure speculative sul suo potenziale abuso. Limitare l’AI open source potrebbe danneggiare la nostra capacità di sfruttarne il potenziale. L’abuso non è un problema dell’AI open source, come dimostrato dal fatto che le tecnologie proprietarie sono altrettanto soggette ad abuso. L’apertura può avere un ruolo significativo nel promuovere la concorrenza nell’AI e nei grandi modelli di linguaggio, come dimostrano organizzazioni come AI2, EleutherAI, Mistral e Mozilla.ai, e permette anche ai governi e ai gruppi di interesse pubblico di valutare la tecnologia e segnalare pregiudizi, difetti di sicurezza e altri problemi, migliorando così la qualità di queste tecnologie e il loro controllo.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara