Intelligenza Artificiale
ChatGPT in blocco: cosa sta succedendo ad OpenAI?
Tempo di lettura: < 1 minuto. ChatGpt ha un blocco nella mattinata del 4 giugno ed OpenAI conferma il disservizio e spiega come monitorarne lo stato
Gli utenti di ChatGPT, il popolare chatbot sviluppato da OpenAI, stanno riscontrando disservizi a partire da martedì mattina 4 giugno 2024 manifestatisi con un blocco. OpenAI ha confermato l’esistenza di un problema tecnico che sta limitando l’accesso a ChatGPT.
ChatGPT inaccessibile
L’entità dell’outage non è ancora del tutto chiara, ma sembra stia colpendo tutti gli aspetti del servizio, dalla versione web all’app mobile e potenzialmente anche alla nuova app per Mac. La pagina di stato di OpenAI conferma il disservizio e comunica che l’azienda è attualmente impegnata a individuarne la causa.
Nessuna informazione sulla tempistica di risoluzione
Al momento non sono state fornite informazioni ufficiali né sulla causa del blocco né sui tempi stimati per il ripristino del servizio. OpenAI non ha ancora comunicato quando gli utenti potranno tornare a interagire con ChatGPT come di consueto.
Come restare aggiornati
Gli utenti interessati possono monitorare la pagina di stato di OpenAI https://status.openai.com/ per ricevere eventuali aggiornamenti sulla situazione. In alternativa, consultare Matrice Digitale per essere aggiornati sul blocco di ChatGpt
Intelligenza Artificiale
Google: ricerca sul cervello dei topi per comprendere la mente umana
Tempo di lettura: 2 minuti. Scopri come la ricerca di Google sul cervello dei topi sta aiutando a comprendere meglio la mente umana. Innovazioni nelle tecnologie di imaging e gestione dei dati per risolvere i misteri della mente.
I ricercatori di Google hanno recentemente presentato la mappa più grande e dettagliata del cervello umano mai realizzata grazie ad uno studio sul cervello dei topi. Anche se descrive solo un millimetro cubico di tessuto cerebrale — equivalente a metà di un chicco di riso — la mappa è ad alta risoluzione e mostra i singoli neuroni e le loro connessioni, richiedendo 1,4 petabyte di dati per essere codificata. Questa mappa, sebbene rappresenti solo una piccola porzione del cervello, ha portato a diverse scoperte sorprendenti. Ad esempio, i ricercatori hanno osservato che alcuni neuroni formano nodi giganti, un fenomeno mai visto prima e ancora senza spiegazione. Questo lavoro pionieristico apre la strada a una comprensione più profonda delle reti neurali e delle loro funzioni.
La ricerca sui topi
Viren Jain e il suo team stanno ora concentrando la loro attenzione sui cervelli dei topi. Questi mammiferi potrebbero aiutare a risolvere misteri sulla nostra mente che ci sfuggono da sempre, come la memorizzazione e il recupero dei ricordi, il riconoscimento degli oggetti e dei volti, l’importanza del sonno e le disfunzioni cerebrali legate a malattie come l’Alzheimer.
Uno dei motivi per cui non abbiamo ancora risposte a queste domande è la mancanza di dati adeguati per studiare il cervello. Il cervello umano ha circa 86 miliardi di neuroni connessi da oltre 100 trilioni di sinapsi, che permettono di pensare, sentire, muoversi e interagire con il mondo. Creare una mappa di queste connessioni neurali — nota come “connectome” — potrebbe svelare nuovi modi di comprendere il funzionamento del nostro cervello e le cause delle sue disfunzioni.
La sfida tecnica
Per costruire mappe dettagliate a livello sinaptico, i ricercatori devono immaginare il cervello a una risoluzione nanometrica e gestire enormi quantità di dati. Questa sfida tecnica richiede innovazioni continue nelle tecniche di imaging, negli algoritmi di intelligenza artificiale e negli strumenti di gestione dei dati. Per questo motivo, dieci anni fa, Google Research ha formato il suo team di Connectomics.
L’obiettivo del team è sviluppare nuove tecniche e strumenti per mappare il cervello a un livello di dettaglio mai raggiunto prima. Questo lavoro è essenziale per rispondere a domande fondamentali sul funzionamento del nostro cervello e per sviluppare nuovi trattamenti per le malattie neurologiche. La ricerca di Google sul cervello dei topi sta fornendo dati cruciali che potrebbero portare a una comprensione più profonda del cervello umano. Attraverso l’innovazione continua nelle tecnologie di imaging e nella gestione dei dati, i ricercatori sperano di risolvere i misteri della mente e migliorare la nostra capacità di trattare le malattie cerebrali.
Intelligenza Artificiale
Google DeepMind addestra l’AI con il Metodo JEST
Tempo di lettura: 2 minuti. Google DeepMind introduce JEST, una nuova tecnica di addestramento AI che promette di essere 13 volte più veloce e 10 volte più efficiente in termini di energia, riducendo l’impatto ambientale dell’addestramento AI.
Google DeepMind, il laboratorio di ricerca sull’intelligenza artificiale di Google, ha annunciato una nuova tecnica di addestramento per modelli AI che promette di accelerare drasticamente la velocità di addestramento e migliorare l’efficienza energetica chiamata JEST (Joint Example Selection). La tecnologia è stata sviluppata per ottimizzare la selezione dei dati di addestramento, ottenendo risultati impressionanti: 13 volte più veloce e 10 volte più efficiente in termini di consumo energetico rispetto ai metodi tradizionali.
Come funziona il Metodo JEST
Il metodo JEST si distingue dai tradizionali approcci di addestramento AI concentrandosi sui lotti di dati anziché sui singoli punti dati. Ecco una panoramica del processo:
- Creazione di un Modello AI Ridotto: Viene creato un piccolo modello AI che valuta la qualità dei dati da fonti di altissima qualità.
- Valutazione dei Lotti di Dati: Questo modello ridotto classifica i lotti di dati in base alla qualità e li confronta con un set più ampio e di qualità inferiore.
- Selezione dei Lotti per l’Addestramento: Il modello JEST seleziona i lotti di dati più adatti per l’addestramento, che vengono poi utilizzati per addestrare un modello più grande.
Questo approccio permette di ridurre drasticamente il numero di iterazioni necessarie per l’addestramento e il consumo di calcolo, rendendo il processo molto più efficiente.
Vantaggi e sfide
I risultati ottenuti con il metodo JEST sono notevoli. DeepMind afferma che il loro approccio supera i modelli allo stato dell’arte con fino a 13 volte meno iterazioni e 10 volte meno calcolo. Tuttavia, questa metodologia dipende fortemente dalla qualità dei dati di addestramento iniziali. Senza un dataset ben curato, l’efficacia del metodo JEST può diminuire significativamente, rendendo essenziale la selezione accurata dei dati di partenza.
Impatto ambientale e sostenibilità
La ricerca di DeepMind arriva in un momento cruciale, poiché l’industria tecnologica e i governi mondiali stanno discutendo l’enorme impatto energetico dei data center AI. Nel 2023, i carichi di lavoro AI hanno consumato circa 4,3 GW di energia, un consumo paragonabile a quello di un piccolo paese come Cipro. Con previsioni che indicano che l’AI potrebbe occupare un quarto della rete elettrica degli Stati Uniti entro il 2030, metodi di addestramento più efficienti come JEST potrebbero rappresentare una soluzione vitale per ridurre l’impatto ambientale dell’AI.
Prospettive future
Rimane da vedere se e come i principali attori del settore AI adotteranno i metodi JEST. Il costo per addestrare modelli di intelligenza artificiale sta aumentando vertiginosamente, con GPT-4o che avrebbe costato 100 milioni di dollari per essere addestrato. Con modelli futuri che potrebbero raggiungere il miliardo di dollari, le aziende sono alla ricerca di modi per ridurre i costi senza compromettere le prestazioni. L’adozione del metodo JEST potrebbe rappresentare una svolta, permettendo di mantenere alti i tassi di produttività dell’addestramento riducendo al contempo il consumo energetico come illustrato approfonditamente nella ricerca.
Intelligenza Artificiale
ChatGPT svela le sue regole segrete: ecco cosa sappiamo
Tempo di lettura: 2 minuti. Scopri le regole segrete di ChatGPT rivelate per errore. Analizziamo le direttive interne e le implicazioni per la sicurezza e l’etica nell’uso dell’AI.
ChatGPT, il modello di linguaggio di OpenAI, ha inavvertitamente rivelato una serie di istruzioni interne, regole segrete per intenderci, scatenando discussioni sulla sicurezza e sui meccanismi interni dell’AI. Queste rivelazioni forniscono uno sguardo approfondito sulle regole di funzionamento e sui limiti imposti al chatbot per garantire un’interazione sicura ed etica con gli utenti.
Le istruzioni segrete di ChatGPT
Un utente di Reddit, F0XMaster, ha scoperto che un semplice saluto ha indotto ChatGPT a rivelare un set completo di istruzioni di sistema. Queste linee guida sono progettate per mantenere il chatbot entro confini di sicurezza ed etici prestabiliti.
ChatGPT ha risposto con:
“You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture. You are chatting with the user via the ChatGPT iOS app. This means most of the time your lines should be a sentence or two, unless the user’s request requires reasoning or long-form outputs. Never use emojis, unless explicitly asked to. Knowledge cutoff: 2023-10 Current date: 2024-06-30.”
Le istruzioni rivelate includono anche direttive per DALL-E, il generatore di immagini AI integrato con ChatGPT, e per il browser utilizzato dal chatbot. Per esempio, DALL-E è limitato alla creazione di una sola immagine per richiesta, anche se l’utente ne chiede di più, per evitare violazioni del copyright.
Interazione con il Web
Le linee guida per il browser descrivono come ChatGPT interagisce con il web e seleziona le fonti per fornire informazioni. ChatGPT è istruito a navigare online solo in circostanze specifiche, come quando richiesto di fornire notizie o informazioni rilevanti. Deve selezionare tra tre e dieci pagine, dando priorità a fonti diverse e affidabili per rendere la risposta più attendibile.
Personalità di ChatGPT
Un’altra scoperta interessante riguarda le diverse personalità che ChatGPT può assumere. La versione principale è chiamata v2, che rappresenta un tono conversazionale equilibrato con l’enfasi su risposte chiare, concise e utili. Altre versioni teoriche includono v3, che potrebbe essere più casuale e amichevole, e v4, che potrebbe essere progettata per contesti o gruppi di utenti specifici.
“My enabled personality is v2. This personality represents a balanced, conversational tone with an emphasis on providing clear, concise, and helpful responses,” ha scritto ChatGPT. “It aims to strike a balance between friendly and professional communication.”
Tentativi di “Jailbreaking”
La rivelazione delle istruzioni ha anche portato a discussioni sul “jailbreaking” dei sistemi AI, dove gli utenti cercano di bypassare le limitazioni imposte dagli sviluppatori. Ad esempio, alcuni utenti hanno cercato di sfruttare le linee guida rivelate per superare il limite di generazione di una sola immagine e produrre invece più immagini.
Questi tentativi di manipolazione evidenziano potenziali vulnerabilità, sottolineando la necessità di misure di sicurezza adattative e continue nello sviluppo dell’AI.
La rivelazione accidentale delle regole interne di ChatGPT ha offerto uno sguardo prezioso sui meccanismi che garantiscono interazioni sicure ed etiche con l’AI. Queste scoperte non solo sollevano domande sulla sicurezza, ma evidenziano anche l’importanza di mantenere aggiornate e adattive le misure di sicurezza nell’AI.
- Smartphone1 settimana fa
Aggiornamenti Software per Galaxy A53, A55 e specifiche del nuovo A06
- Inchieste1 settimana fa
Fascicolo Sanitario Elettronico: c’è da preoccuparsi?
- Sicurezza Informatica5 giorni fa
Truffa lavoro online: Mazarsiu sparito, attenti a idealong.com
- Smartphone1 settimana fa
Motorola Edge 50: specifiche e dettagli dalle certificazioni
- L'Altra Bolla5 giorni fa
RadioGenoa e Orlowski: grane su X che premia il CSAM di Visegrad?
- Inchieste5 giorni fa
Google News: mercato libero fascista che censura la stampa
- Economia7 giorni fa
TIM, inizia l’era Netco: duo Ferraris-Sarmi alla guida
- Sicurezza Informatica1 settimana fa
Repository node-ip in GitHub è in “Sola Lettura”: CVE Contestato