Intelligenza Artificiale
Reti neurali imparano a creare mappe con Minecraft
Un’importante limitazione delle moderne intelligenze artificiali e delle reti neurali è la loro difficoltà nel mapping spaziale e nella navigazione senza una mappa esistente, ma tuttavia, un recente progetto ha superato questo ostacolo utilizzando un algoritmo di codifica predittiva combinato con il gameplay di Minecraft. Questo approccio ha insegnato a una rete neurale come creare mappe spaziali e utilizzare queste mappe per prevedere i frame video successivi, con un errore quadratico medio dello 0,094% tra l’immagine prevista e quella finale.
Risultati della Ricerca
Il progetto, condotto da James Gornet e Matt Thomson del California Institute of Technology (Caltech), dimostra una vera consapevolezza spaziale dell’IA, una caratteristica che manca ancora nei modelli attuali come Sora di OpenAI. I risultati di questa ricerca sono stati pubblicati nel giornale Nature Machine Intelligence.
Dettagli del Progetto
Il paper, intitolato “Automated construction of cognitive maps with visual predictive coding”, descrive in dettaglio il processo utilizzato per raggiungere questi risultati. Il codice sorgente del progetto è stato reso disponibile su GitHub e Zenodo, permettendo ad altri ricercatori e sviluppatori di esplorare e costruire su questi progressi.
Citazioni dei ricercatori
Matt Thomson, uno dei ricercatori, ha spiegato: “Anche i modelli di IA più avanzati non sono ancora veramente intelligenti. Non risolvono i problemi come noi; non possono dimostrare teoremi matematici o generare nuove idee. Pensiamo che sia perché non possono navigare nello spazio concettuale; risolvere problemi complessi è come muoversi attraverso uno spazio di concetti, come navigare. Le IA fanno qualcosa di simile alla memorizzazione meccanica: gli dai un input e ti danno una risposta, ma non sono in grado di sintetizzare idee disparate.“
James Gornet, lo studente laureato che ha guidato il progetto, ha un background in neuroscienze, machine learning, matematica, statistica e biologia presso il Dipartimento di Sistemi Computazionali e Neurali (CNS) di Caltech. Sebbene non abbia rilasciato dichiarazioni sul processo, Thomson ha sottolineato che il CNS è particolarmente adatto per il lavoro di James e che l’obiettivo è imparare anche sul funzionamento del cervello umano, oltre che avanzare l’IA.
Intelligenza Artificiale
L’intelligenza artificiale interpreta lingua dei segni in tempo reale
Tempo di lettura: 2 minuti. L’AI interpreta la lingua dei segni americana con il 98% di accuratezza. Lo studio FAU utilizza MediaPipe e YOLOv8 per un sistema innovativo e accessibile.
Un team di ricercatori della Florida Atlantic University (FAU) ha sviluppato un sistema basato su intelligenza artificiale (AI) in grado di riconoscere con precisione i gesti della lingua dei segni americana (ASL) in tempo reale. Questa innovazione sfrutta tecniche avanzate di computer vision e modelli di deep learning, offrendo una soluzione tecnologica per migliorare la comunicazione tra persone sorde o con difficoltà uditive e il mondo circostante.
L’approccio tecnico: MediaPipe e YOLOv8
Lo studio si concentra sul riconoscimento delle lettere dell’alfabeto ASL utilizzando un dataset personalizzato composto da 29.820 immagini statiche di gesti della mano. Ogni immagine è stata annotata con 21 punti chiave (landmark) usando MediaPipe, un framework di Google dedicato al tracciamento dei movimenti corporei. Questa annotazione dettagliata ha fornito una rappresentazione spaziale accurata della struttura e della posizione della mano.
Questi dati sono stati utilizzati per addestrare YOLOv8, uno dei modelli di deep learning più avanzati per il rilevamento di oggetti, ottimizzando il processo di riconoscimento e classificazione dei gesti.
Bader Alsharif, primo autore della ricerca e candidato al dottorato presso il Dipartimento di Ingegneria Elettrica e Informatica della FAU, ha definito questa integrazione un “approccio innovativo mai esplorato prima, che apre nuove prospettive per applicazioni future.”
Prestazioni del modello e risultati
Il sistema sviluppato ha raggiunto risultati eccezionali, con:
- Accuratezza del 98%,
- Recall del 98%,
- F1 score del 99%,
- Media Average Precision (mAP) del 98%,
- mAP50-95 del 93%.
Questi numeri dimostrano l’efficacia del modello nel catturare anche le più piccole variazioni nei gesti, rendendolo affidabile e robusto in scenari reali.
Secondo Mohammad Ilyas, coautore dello studio e professore alla FAU, il successo è stato reso possibile dalla combinazione di transfer learning, creazione di dataset dettagliati e ottimizzazione dei parametri di apprendimento.
Applicazioni pratiche e prospettive future
Questo sistema ha il potenziale per essere utilizzato in applicazioni pratiche come strumenti di traduzione in tempo reale, migliorando l’accessibilità per la comunità sorda o con difficoltà uditive. Le potenziali aree di applicazione includono:
- Istruzione, per facilitare l’interazione tra studenti sordi e insegnanti.
- Sanità, per garantire una comunicazione più efficace tra pazienti e operatori sanitari.
- Settori sociali, per ridurre le barriere nella vita quotidiana.
Le future ricerche si concentreranno sull’espansione del dataset per includere un numero maggiore di gesti dinamici, migliorando ulteriormente l’accuratezza del modello. Inoltre, gli sforzi si orienteranno verso l’ottimizzazione per dispositivi edge, come smartphone o tablet, garantendo prestazioni in tempo reale anche in ambienti con risorse limitate.
Lo studio condotto dalla Florida Atlantic University rappresenta un importante passo avanti nella creazione di strumenti basati sull’intelligenza artificiale per la traduzione della lingua dei segni americana in tempo reale. Integrando tecnologie avanzate come MediaPipe e YOLOv8, i ricercatori hanno sviluppato un sistema altamente preciso e affidabile, che può migliorare significativamente l’accessibilità e l’inclusività per milioni di persone in tutto il mondo.
Intelligenza Artificiale
OpenAI sotto accusa: Elon Musk e Meta si schierano contro
Tempo di lettura: 3 minuti. Il caso OpenAI-Musk svela le tensioni sulla trasformazione da non-profit a for-profit. Rivelazioni su email e documenti approfondiscono il dibattito etico sull’intelligenza artificiale.
Le recenti rivelazioni di OpenAI gettano nuova luce sulle dinamiche interne che hanno portato alla sua trasformazione in azienda a scopo di lucro, e al ruolo controverso di Elon Musk in questa transizione. Attraverso la pubblicazione di email, documenti e comunicazioni interne, OpenAI ha svelato che Musk, inizialmente uno dei suoi principali sostenitori, aveva proposto cambiamenti strutturali che includessero una componente for-profit già prima della fondazione. Queste informazioni si inseriscono in un quadro legale e morale complesso, che coinvolge anche Microsoft e Meta, e sollevano interrogativi sul futuro dell’intelligenza artificiale e sulla trasparenza delle organizzazioni che la sviluppano.
Le accuse contro Elon Musk
Secondo i documenti rilasciati da OpenAI, Elon Musk avrebbe sostenuto sin dal principio la necessità di includere una struttura for-profit nella fondazione dell’organizzazione. Nel 2017, Musk propose un modello ibrido, con una parte non-profit che guidasse la ricerca e una componente for-profit destinata a capitalizzare i risultati economici. Tuttavia, questa visione includeva anche un elemento controverso: Musk voleva ottenere una quota di maggioranza e diventare il CEO della nuova entità.
Le sue proposte furono respinte dal consiglio di amministrazione di OpenAI, che considerava tale struttura incoerente con la missione originaria dell’organizzazione, focalizzata sull’interesse collettivo e sulla democratizzazione delle tecnologie AI. Musk, di fronte a questa opposizione, rassegnò le dimissioni nel febbraio 2018, sostenendo che il progetto non era più in linea con la sua visione.
Musk e il piano di fusione con Tesla
Uno degli aspetti più sorprendenti emersi dalle comunicazioni interne riguarda la proposta di Elon Musk di fondere OpenAI con Tesla. Musk giustificò questa idea sostenendo che avrebbe garantito la sopravvivenza finanziaria dell’organizzazione e accelerato il suo sviluppo tecnologico, sfruttando le risorse di Tesla per implementare le tecnologie AI nei veicoli autonomi e in altri progetti.
Anche questa proposta fu respinta dal consiglio di amministrazione, che considerava il piano una minaccia per l’indipendenza di OpenAI. Musk, non riuscendo a ottenere il controllo strategico, si allontanò ulteriormente dall’organizzazione e iniziò a progettare la fondazione di una propria azienda di intelligenza artificiale, che sarebbe poi diventata xAI.
La trasformazione di OpenAI in azienda for-profit
Nonostante le dimissioni di Musk, OpenAI ha intrapreso nel 2019 il percorso verso una struttura for-profit, giustificando la decisione con la necessità di attrarre maggiori investimenti per competere con giganti come Google e Amazon. Questo passaggio ha visto l’ingresso di Microsoft come principale partner tecnologico e finanziario, con un accordo che ha garantito all’azienda di Redmond una posizione privilegiata nello sviluppo e nella distribuzione delle tecnologie OpenAI.
Musk ha fortemente criticato questa trasformazione, definendola un tradimento della missione originaria. Tuttavia, i documenti pubblicati da OpenAI sembrano indicare che lo stesso Musk aveva sostenuto in passato un modello simile, minando la credibilità delle sue accuse.
Le implicazioni legali e morali
Le accuse di Elon Musk contro OpenAI e Microsoft si sono tradotte in una battaglia legale che ha avuto molteplici sviluppi. Nel marzo 2023, Musk ha presentato una denuncia per violazione degli accordi contrattuali, sostenendo che l’organizzazione aveva abbandonato i suoi principi fondanti per perseguire profitti. Dopo una serie di ritiri e aggiornamenti delle accuse, Musk ha richiesto nel novembre 2024 un’ingiunzione per bloccare la transizione di OpenAI in azienda for-profit.
OpenAI, dal canto suo, ha respinto queste accuse, pubblicando prove che dimostrano come Musk stesso avesse spinto per un modello a scopo di lucro già nel 2017. L’azienda sostiene che le sue azioni sono in linea con gli obiettivi di sostenibilità e crescita, e che la partnership con Microsoft è stata fondamentale per garantire le risorse necessarie allo sviluppo delle tecnologie AI.
Il contesto etico e l’impatto sull’industria AI
Questo dibattito va oltre le questioni legali e solleva interrogativi più ampi sull’etica delle organizzazioni che sviluppano tecnologie avanzate. La trasformazione di OpenAI in azienda for-profit ha suscitato preoccupazioni nella comunità tecnologica, che teme una concentrazione del potere nelle mani di poche grandi aziende.
In questo contesto, anche Meta ha espresso il suo disappunto, sottolineando i rischi di creare un precedente che potrebbe incentivare altre organizzazioni non-profit a trasformarsi in aziende commerciali dopo aver ricevuto finanziamenti esentasse.
Il caso OpenAI-Musk mette in evidenza la complessità delle decisioni strategiche e le tensioni etiche nell’industria dell’intelligenza artificiale. Mentre OpenAI difende la necessità di attrarre investimenti per sviluppare tecnologie all’avanguardia, le accuse di Musk sollevano dubbi sull’integrità delle motivazioni alla base di queste scelte. Il futuro di OpenAI, e il suo ruolo nell’ecosistema AI globale, rimane un tema di dibattito acceso, con implicazioni che potrebbero ridefinire il rapporto tra innovazione, etica e profitto.
Intelligenza Artificiale
“Black-Box Forgetting”: AI più efficiente e rispettosa della privacy
Tempo di lettura: 2 minuti. Il metodo Black-Box Forgetting consente ai modelli AI di dimenticare informazioni non necessarie, migliorando efficienza e privacy.
I ricercatori della Tokyo University of Science hanno sviluppato un innovativo metodo di “Black-Box Forgetting” che consente di rimuovere selettivamente informazioni non necessarie dai modelli di intelligenza artificiale su larga scala, migliorando l’efficienza e affrontando questioni legate alla privacy. Questa metodologia, applicata a modelli come CLIP, potrebbe rivoluzionare l’utilizzo dell’AI, rendendola più sostenibile e specializzata.
Cos’è il Black-Box Forgetting?
Il Black-Box Forgetting è un processo che permette ai modelli AI di “dimenticare” classi di oggetti inutili, mantenendo la capacità di riconoscere le categorie rilevanti. Ad esempio, in un sistema di guida autonoma, è fondamentale identificare veicoli, pedoni e segnali stradali, mentre categorie come cibo o mobili risultano superflue e possono ridurre la precisione del modello.
Questa tecnica si differenzia dai metodi tradizionali, poiché non richiede accesso ai parametri interni del modello (setting “white-box”). Utilizzando un’ottimizzazione priva di derivati, i ricercatori possono ottimizzare i prompt di input per influenzare il comportamento del modello, eliminando classi specifiche senza alterarne il funzionamento complessivo.
Innovazioni tecniche
La sfida principale dell’approccio era ridurre la complessità computazionale. A questo scopo, il team ha sviluppato un metodo di “Latent Context Sharing”, che decomprime i contesti latenti in unità più piccole, uniche o condivise tra diversi token. Questo approccio ha reso il problema gestibile, ottimizzando i prompt senza compromettere le prestazioni del modello.
Test condotti su dataset di benchmark hanno dimostrato che il metodo può far “dimenticare” fino al 40% delle classi mantenendo alta precisione sulle categorie rimanenti.
Implicazioni pratiche e future
Le applicazioni del Black-Box Forgetting sono molteplici:
- Miglioramento delle performance: i modelli possono essere adattati per compiti specifici, evitando sprechi di risorse computazionali.
- Protezione della privacy: il metodo consente di rimuovere informazioni sensibili dai modelli senza doverli addestrare nuovamente, contribuendo a rispettare il “Diritto all’oblio”, particolarmente rilevante in settori come la sanità e la finanza.
- Prevenzione dei contenuti indesiderati: modelli di generazione di immagini possono essere programmati per evitare la creazione di contenuti non appropriati.
Il Black-Box Forgetting rappresenta un passo avanti significativo nella gestione dei modelli AI su larga scala, rendendoli più adattabili, efficienti e rispettosi delle esigenze etiche e legali. Con potenziali applicazioni che spaziano dalla personalizzazione dei sistemi all’incremento della sicurezza, questa metodologia segna una nuova era nell’evoluzione dell’intelligenza artificiale.
-
Smartphone1 settimana ago
Realme GT 7 Pro vs Motorola Edge 50 Ultra: quale scegliere?
-
Smartphone1 settimana ago
OnePlus 13 vs Google Pixel 9 Pro XL: scegliere o aspettare?
-
Smartphone7 giorni ago
Samsung Galaxy Z Flip 7: il debutto dell’Exynos 2500
-
Smartphone6 giorni ago
Redmi Note 14 Pro+ vs 13 Pro+: quale scegliere?
-
Sicurezza Informatica4 giorni ago
BadBox su IoT, Telegram e Viber: Germania e Russia rischiano
-
Economia7 giorni ago
Controversie e investimenti globali: Apple, Google e TikTok
-
Smartphone2 giorni ago
Galaxy S25 Slim e iPhone 17: nuovi dettagli su produzione e prezzi
-
Sicurezza Informatica1 settimana ago
Microsoft Patch Tuesday dicembre 2024: sicurezza e funzionalità