Intelligenza Artificiale
Tutela dei whistleblower e sicurezza AI: ex dipendenti OpenAI preoccupati
Tempo di lettura: 2 minuti. Whistleblower e sicurezza dell’Intelligenza Artificiale sono parte delle preoccupazioni espresse da ex dipendenti di OpenAI
![](https://www.matricedigitale.it/wp-content/uploads/2024/04/aldebaran33_OpenAI_transcribed_over_a_million_hours_of_YouTube__981b74e1-1ea5-4f3c-ba8d-7348fbe6edfb.jpg)
Tredici ex dipendenti di OpenAI, in una lettera aperta, hanno denunciato la mancanza di garanzie per i whistleblower chi segnala problemi di sicurezza legati all’intelligenza artificiale (IA).
La lettera aperta
La lettera, firmata da tredici ex dipendenti OpenAI (sei dei quali hanno scelto di rimanere anonimi) e sostenuta da Geoffrey Hinton, pioniere dell’intelligenza artificiale precedentemente in forza a Google, sottolinea la necessità per le aziende del settore di adottare principi di apertura nei confronti di critiche e controlli, soprattutto in un momento storico in cui crescono le preoccupazioni sulla sicurezza dell’IA.
Principi per una maggiore trasparenza
In assenza di un efficace controllo governativo, la lettera propone che le aziende del settore IA si impegnino a rispettare principi di critica aperta. Questi principi includono:
- Evitare la creazione e l’applicazione di clausole di non concorrenza che limitino la libertà di parola dei dipendenti
- Garantire un processo “verificabilmente” anonimo per segnalare problemi
- Consentire a dipendenti, attuali e precedenti, di sollevare pubblicamente preoccupazioni
- Impegno a non ritorcere contro i whistleblower (coloro che segnalano irregolarità)
Preoccupazioni e rischi legati all’IA
Gli autori della lettera riconoscono il potenziale positivo dell’IA per la società, ma evidenziano anche i rischi associati, come:
- Radicamento delle disuguaglianze
- Diffusione di manipolazione e disinformazione
- Estinzione umana (come scenario estremo)
Sebbene la preoccupazione per macchine in grado di conquistare il mondo attiri molta attenzione, i problemi più concreti dell’IA odierna riguardano:
- Violazioni del copyright
- Condivisione involontaria di immagini problematiche e illegali
- Capacità di imitare le sembianze delle persone e indurre in errore il pubblico
Protezioni inefficaci per i whistleblower
La lettera sostiene che le attuali tutele per i whistleblower siano “insufficienti” perché principalmente incentrate su attività illegali, trascurando questioni legate all’IA dalla stessa OpenAI che spesso ricadono in zone grigie non ancora regolamentate.
Il Dipartimento del Lavoro degli Stati Uniti specifica che le leggi a tutela dei whistleblower proteggono i lavoratori che segnalano violazioni riguardanti salari, discriminazione, sicurezza, frode e mancato riconoscimento di ferie. Ciò significa che i datori di lavoro non possono licenziare, sospendere, ridurre le ore o declassare i dipendenti che segnalano irregolarità.
“Alcuni di noi temono ragionevolmente ritorsioni, data la storia di tali casi in tutto il settore. Non siamo i primi a incontrare o parlare di questi problemi”, si legge nella lettera.
Mancanza di controlli di sicurezza nell’IA
Le aziende che operano nel campo dell’IA, in particolare OpenAI, sono state criticate per la carente supervisione in materia di sicurezza. Google ha difeso il suo strumento di ricerca basato sull’IA, AI Overviews, nonostante le segnalazioni di risultati pericolosi, seppur divertenti. Anche Microsoft è stata oggetto di polemiche per il suo Copilot Designer, che generava “immagini sessualizzate di donne in scene violente”.
Di recente, diversi ricercatori di OpenAI si sono dimessi dopo lo scioglimento del team “Superalignment”, che si occupava dei rischi a lungo termine dell’IA, e le dimissioni del co-fondatore Ilya Sutskever, che si era fatto portavoce della sicurezza all’interno dell’azienda. Un ex ricercatore, Jan Leike, ha affermato che “la cultura e i processi di sicurezza sono stati messi in secondo piano rispetto a prodotti dal facile appeal” in OpenAI. OpenAI ha attualmente un nuovo team per la sicurezza guidato dal CEO Sam Altman.
Intelligenza Artificiale
Google: ricerca sul cervello dei topi per comprendere la mente umana
Tempo di lettura: 2 minuti. Scopri come la ricerca di Google sul cervello dei topi sta aiutando a comprendere meglio la mente umana. Innovazioni nelle tecnologie di imaging e gestione dei dati per risolvere i misteri della mente.
![](https://www.matricedigitale.it/wp-content/uploads/2024/07/image-75-1.jpg)
I ricercatori di Google hanno recentemente presentato la mappa più grande e dettagliata del cervello umano mai realizzata grazie ad uno studio sul cervello dei topi. Anche se descrive solo un millimetro cubico di tessuto cerebrale — equivalente a metà di un chicco di riso — la mappa è ad alta risoluzione e mostra i singoli neuroni e le loro connessioni, richiedendo 1,4 petabyte di dati per essere codificata. Questa mappa, sebbene rappresenti solo una piccola porzione del cervello, ha portato a diverse scoperte sorprendenti. Ad esempio, i ricercatori hanno osservato che alcuni neuroni formano nodi giganti, un fenomeno mai visto prima e ancora senza spiegazione. Questo lavoro pionieristico apre la strada a una comprensione più profonda delle reti neurali e delle loro funzioni.
La ricerca sui topi
Viren Jain e il suo team stanno ora concentrando la loro attenzione sui cervelli dei topi. Questi mammiferi potrebbero aiutare a risolvere misteri sulla nostra mente che ci sfuggono da sempre, come la memorizzazione e il recupero dei ricordi, il riconoscimento degli oggetti e dei volti, l’importanza del sonno e le disfunzioni cerebrali legate a malattie come l’Alzheimer.
![](https://www.matricedigitale.it/wp-content/uploads/2024/07/image-75.jpg)
Uno dei motivi per cui non abbiamo ancora risposte a queste domande è la mancanza di dati adeguati per studiare il cervello. Il cervello umano ha circa 86 miliardi di neuroni connessi da oltre 100 trilioni di sinapsi, che permettono di pensare, sentire, muoversi e interagire con il mondo. Creare una mappa di queste connessioni neurali — nota come “connectome” — potrebbe svelare nuovi modi di comprendere il funzionamento del nostro cervello e le cause delle sue disfunzioni.
La sfida tecnica
Per costruire mappe dettagliate a livello sinaptico, i ricercatori devono immaginare il cervello a una risoluzione nanometrica e gestire enormi quantità di dati. Questa sfida tecnica richiede innovazioni continue nelle tecniche di imaging, negli algoritmi di intelligenza artificiale e negli strumenti di gestione dei dati. Per questo motivo, dieci anni fa, Google Research ha formato il suo team di Connectomics.
![](https://www.matricedigitale.it/wp-content/uploads/2024/07/image-74-1024x731.png)
L’obiettivo del team è sviluppare nuove tecniche e strumenti per mappare il cervello a un livello di dettaglio mai raggiunto prima. Questo lavoro è essenziale per rispondere a domande fondamentali sul funzionamento del nostro cervello e per sviluppare nuovi trattamenti per le malattie neurologiche. La ricerca di Google sul cervello dei topi sta fornendo dati cruciali che potrebbero portare a una comprensione più profonda del cervello umano. Attraverso l’innovazione continua nelle tecnologie di imaging e nella gestione dei dati, i ricercatori sperano di risolvere i misteri della mente e migliorare la nostra capacità di trattare le malattie cerebrali.
Intelligenza Artificiale
Google DeepMind addestra l’AI con il Metodo JEST
Tempo di lettura: 2 minuti. Google DeepMind introduce JEST, una nuova tecnica di addestramento AI che promette di essere 13 volte più veloce e 10 volte più efficiente in termini di energia, riducendo l’impatto ambientale dell’addestramento AI.
![](https://www.matricedigitale.it/wp-content/uploads/2024/07/image-61.png)
Google DeepMind, il laboratorio di ricerca sull’intelligenza artificiale di Google, ha annunciato una nuova tecnica di addestramento per modelli AI che promette di accelerare drasticamente la velocità di addestramento e migliorare l’efficienza energetica chiamata JEST (Joint Example Selection). La tecnologia è stata sviluppata per ottimizzare la selezione dei dati di addestramento, ottenendo risultati impressionanti: 13 volte più veloce e 10 volte più efficiente in termini di consumo energetico rispetto ai metodi tradizionali.
Come funziona il Metodo JEST
![](https://www.matricedigitale.it/wp-content/uploads/2024/07/image-60.png)
Il metodo JEST si distingue dai tradizionali approcci di addestramento AI concentrandosi sui lotti di dati anziché sui singoli punti dati. Ecco una panoramica del processo:
- Creazione di un Modello AI Ridotto: Viene creato un piccolo modello AI che valuta la qualità dei dati da fonti di altissima qualità.
- Valutazione dei Lotti di Dati: Questo modello ridotto classifica i lotti di dati in base alla qualità e li confronta con un set più ampio e di qualità inferiore.
- Selezione dei Lotti per l’Addestramento: Il modello JEST seleziona i lotti di dati più adatti per l’addestramento, che vengono poi utilizzati per addestrare un modello più grande.
Questo approccio permette di ridurre drasticamente il numero di iterazioni necessarie per l’addestramento e il consumo di calcolo, rendendo il processo molto più efficiente.
Vantaggi e sfide
I risultati ottenuti con il metodo JEST sono notevoli. DeepMind afferma che il loro approccio supera i modelli allo stato dell’arte con fino a 13 volte meno iterazioni e 10 volte meno calcolo. Tuttavia, questa metodologia dipende fortemente dalla qualità dei dati di addestramento iniziali. Senza un dataset ben curato, l’efficacia del metodo JEST può diminuire significativamente, rendendo essenziale la selezione accurata dei dati di partenza.
Impatto ambientale e sostenibilità
La ricerca di DeepMind arriva in un momento cruciale, poiché l’industria tecnologica e i governi mondiali stanno discutendo l’enorme impatto energetico dei data center AI. Nel 2023, i carichi di lavoro AI hanno consumato circa 4,3 GW di energia, un consumo paragonabile a quello di un piccolo paese come Cipro. Con previsioni che indicano che l’AI potrebbe occupare un quarto della rete elettrica degli Stati Uniti entro il 2030, metodi di addestramento più efficienti come JEST potrebbero rappresentare una soluzione vitale per ridurre l’impatto ambientale dell’AI.
Prospettive future
Rimane da vedere se e come i principali attori del settore AI adotteranno i metodi JEST. Il costo per addestrare modelli di intelligenza artificiale sta aumentando vertiginosamente, con GPT-4o che avrebbe costato 100 milioni di dollari per essere addestrato. Con modelli futuri che potrebbero raggiungere il miliardo di dollari, le aziende sono alla ricerca di modi per ridurre i costi senza compromettere le prestazioni. L’adozione del metodo JEST potrebbe rappresentare una svolta, permettendo di mantenere alti i tassi di produttività dell’addestramento riducendo al contempo il consumo energetico come illustrato approfonditamente nella ricerca.
Intelligenza Artificiale
ChatGPT svela le sue regole segrete: ecco cosa sappiamo
Tempo di lettura: 2 minuti. Scopri le regole segrete di ChatGPT rivelate per errore. Analizziamo le direttive interne e le implicazioni per la sicurezza e l’etica nell’uso dell’AI.
![ChatGPT di OpenAI](https://www.matricedigitale.it/wp-content/uploads/2023/03/Matrice-Digitale-compressed-1200x675.jpg)
ChatGPT, il modello di linguaggio di OpenAI, ha inavvertitamente rivelato una serie di istruzioni interne, regole segrete per intenderci, scatenando discussioni sulla sicurezza e sui meccanismi interni dell’AI. Queste rivelazioni forniscono uno sguardo approfondito sulle regole di funzionamento e sui limiti imposti al chatbot per garantire un’interazione sicura ed etica con gli utenti.
Le istruzioni segrete di ChatGPT
Un utente di Reddit, F0XMaster, ha scoperto che un semplice saluto ha indotto ChatGPT a rivelare un set completo di istruzioni di sistema. Queste linee guida sono progettate per mantenere il chatbot entro confini di sicurezza ed etici prestabiliti.
ChatGPT ha risposto con:
“You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture. You are chatting with the user via the ChatGPT iOS app. This means most of the time your lines should be a sentence or two, unless the user’s request requires reasoning or long-form outputs. Never use emojis, unless explicitly asked to. Knowledge cutoff: 2023-10 Current date: 2024-06-30.”
Le istruzioni rivelate includono anche direttive per DALL-E, il generatore di immagini AI integrato con ChatGPT, e per il browser utilizzato dal chatbot. Per esempio, DALL-E è limitato alla creazione di una sola immagine per richiesta, anche se l’utente ne chiede di più, per evitare violazioni del copyright.
Interazione con il Web
Le linee guida per il browser descrivono come ChatGPT interagisce con il web e seleziona le fonti per fornire informazioni. ChatGPT è istruito a navigare online solo in circostanze specifiche, come quando richiesto di fornire notizie o informazioni rilevanti. Deve selezionare tra tre e dieci pagine, dando priorità a fonti diverse e affidabili per rendere la risposta più attendibile.
Personalità di ChatGPT
Un’altra scoperta interessante riguarda le diverse personalità che ChatGPT può assumere. La versione principale è chiamata v2, che rappresenta un tono conversazionale equilibrato con l’enfasi su risposte chiare, concise e utili. Altre versioni teoriche includono v3, che potrebbe essere più casuale e amichevole, e v4, che potrebbe essere progettata per contesti o gruppi di utenti specifici.
“My enabled personality is v2. This personality represents a balanced, conversational tone with an emphasis on providing clear, concise, and helpful responses,” ha scritto ChatGPT. “It aims to strike a balance between friendly and professional communication.”
Tentativi di “Jailbreaking”
La rivelazione delle istruzioni ha anche portato a discussioni sul “jailbreaking” dei sistemi AI, dove gli utenti cercano di bypassare le limitazioni imposte dagli sviluppatori. Ad esempio, alcuni utenti hanno cercato di sfruttare le linee guida rivelate per superare il limite di generazione di una sola immagine e produrre invece più immagini.
Questi tentativi di manipolazione evidenziano potenziali vulnerabilità, sottolineando la necessità di misure di sicurezza adattative e continue nello sviluppo dell’AI.
La rivelazione accidentale delle regole interne di ChatGPT ha offerto uno sguardo prezioso sui meccanismi che garantiscono interazioni sicure ed etiche con l’AI. Queste scoperte non solo sollevano domande sulla sicurezza, ma evidenziano anche l’importanza di mantenere aggiornate e adattive le misure di sicurezza nell’AI.
- Smartphone1 settimana fa
Aggiornamenti Software per Galaxy A53, A55 e specifiche del nuovo A06
- Inchieste1 settimana fa
Fascicolo Sanitario Elettronico: c’è da preoccuparsi?
- Sicurezza Informatica5 giorni fa
Truffa lavoro online: Mazarsiu sparito, attenti a idealong.com
- Smartphone1 settimana fa
Motorola Edge 50: specifiche e dettagli dalle certificazioni
- L'Altra Bolla5 giorni fa
RadioGenoa e Orlowski: grane su X che premia il CSAM di Visegrad?
- Inchieste5 giorni fa
Google News: mercato libero fascista che censura la stampa
- Economia7 giorni fa
TIM, inizia l’era Netco: duo Ferraris-Sarmi alla guida
- Sicurezza Informatica1 settimana fa
Repository node-ip in GitHub è in “Sola Lettura”: CVE Contestato