Intelligenza Artificiale
Honor lancia Eye-Tracking e l’interfaccia cervello-computer
Tempo di lettura: < 1 minuto. Honor lancia la tecnologia di eye-tracking e interfaccia cervello-computer, aprendo nuovi orizzonti per l’accessibilità e l’inclusione tecnologica.
Honor ha annunciato il lancio globale della sua avanzata tecnologia di eye-tracking, inizialmente introdotta in Cina con il Magic6 Pro. A partire dal 27 agosto, questa innovativa funzionalità sarà disponibile su tutti i dispositivi compatibili, inclusi quelli che utilizzano MagicOS 8.0. Questa tecnologia permette agli utenti di controllare i propri dispositivi con gli occhi, aprendo notifiche, app e svolgendo altre attività senza dover toccare lo schermo. Il rollout globale rappresenta un significativo passo avanti nella fruibilità e accessibilità dei dispositivi mobili.
Parallelamente, Honor sta esplorando l’uso della tecnologia di interfaccia cervello-computer (BCI), progettata per aiutare le persone con disabilità a comunicare con i dispositivi utilizzando segnali cerebrali. Questa tecnologia promette di migliorare l’indipendenza e la qualità della vita, offrendo nuovi modi di interazione per chi ha gravi disabilità.
Un esempio ispiratore dell’impatto di queste tecnologie è stato raccontato da BBC Storyworks in un film che mostra come una persona affetta da SLA utilizzi la tecnologia di eye-tracking per comunicare e creare arte e questo dimostra il potenziale rivoluzionario della tecnologia di Honor, scopri su Amazon, nel trasformare vite e promuovere un futuro più inclusivo.
Intelligenza Artificiale
ChatGpt: OpenAI sanzione di 15 milioni da Garante Privacy
Tempo di lettura: 2 minuti. OpenAI dovrà realizzare una campagna informativa di sei mesi e pagare una sanzione di 15 milioni di euro: è il risultato dopo un anno
Il Garante per la protezione dei dati personali ha adottato nei giorni scorsi un provvedimento correttivo ed una relativa sanzione nei confronti di OpenAI in relazione alla gestione del servizio ChatGPT.
Il provvedimento, che accerta le violazioni a suo tempo contestate alla società californiana, arriva all’esito di un’istruttoria avviata nel marzo del 2023 e dopo che l’EDPB (Comitato europeo per la protezione dei dati) ha pubblicato il parere con il quale identifica un approccio comune ad alcune delle più rilevanti questioni relative al trattamento dei dati personali nel contesto della progettazione, sviluppo e distribuzione di servizi basati sull’intelligenza artificiale.
Secondo il Garante la società statunitense, che ha creato e gestisce il chatbot di intelligenza artificiale generativa, oltre a non aver notificato all’Autorità la violazione dei dati subita nel marzo 2023, ha trattato i dati personali degli utenti per addestrare ChatGPT senza aver prima individuato un’adeguata base giuridica e ha violato il principio di trasparenza e i relativi obblighi informativi nei confronti degli utenti. Per di più, OpenAI non ha previsto meccanismi per la verifica dell’età, con il conseguente rischio di esporre i minori di 13 anni a risposte inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.
L’Autorità, con l’obiettivo di garantire innanzitutto un’effettiva trasparenza del trattamento dei dati personali, ha ordinato a OpenAI – utilizzando per la prima volta i nuovi poteri previsti dall’articolo 166 comma 7 del Codice Privacy – di realizzare una campagna di comunicazione istituzionale di 6 mesi su radio, televisione, giornali e Internet.
I contenuti, da concordare con l’Autorità, dovranno promuovere la comprensione e la consapevolezza del pubblico sul funzionamento di ChatGPT, in particolare sulla raccolta dei dati di utenti e non-utenti per l’addestramento dell’intelligenza artificiale generativa e i diritti esercitabili dagli interessati, inclusi quelli di opposizione, rettifica e cancellazione.
Grazie a tale campagna di comunicazione, gli utenti e i non-utenti di ChatGPT dovranno essere sensibilizzati su come opporsi all’addestramento dell’intelligenza artificiale generativa con i propri dati personali e, quindi, essere effettivamente posti nelle condizioni di esercitare i propri diritti ai sensi del GDPR.
Il Garante ha comminato a OpenAI una sanzione di quindici milioni di euro calcolata anche tenendo conto dell’atteggiamento collaborativo della società.
Infine, tenuto conto che la società, nel corso dell’istruttoria, ha stabilito in Irlanda il proprio quartier generale europeo, il Garante – in ottemperanza alla regola del c.d. one stop shop – ha trasmesso gli atti del procedimento all’Autorità di protezione dati irlandese (DPC), divenuta autorità di controllo capofila ai sensi del GDPR, affinché prosegua l’istruttoria in relazione a eventuali violazioni di natura continuativa non esauritesi prima dell’apertura dello stabilimento europeo.
Intelligenza Artificiale
L’intelligenza artificiale: strumenti e trattamenti personalizzati in medicina
Tempo di lettura: 2 minuti. L’intelligenza artificiale trasforma la sanità con il Reinforcement Learning e le QuantNets. Strumenti innovativi per trattamenti personalizzati e analisi avanzate.
La ricerca nel campo dell’intelligenza artificiale (AI) continua a progredire, offrendo soluzioni innovative per la gestione delle cure mediche. Gli studi condotti dalla Weill Cornell Medicine e dalla Rockefeller University esplorano l’uso del Reinforcement Learning (RL) per ottimizzare strategie terapeutiche e di nuove reti neurali adattate per dati strutturati come grafi, aprendo la strada a cure personalizzate.
Reinforcement Learning per la gestione di patologie croniche e psichiatriche
Il Reinforcement Learning è una branca dell’AI che consente a modelli di apprendere decisioni ottimali basate su feedback. Utilizzato per eccellere in giochi come scacchi e Go, il RL potrebbe rivoluzionare il trattamento di malattie croniche e psichiatriche, adattandosi in tempo reale alle condizioni dei pazienti e ai risultati delle cure.
Uno studio recente ha introdotto Episodes of Care (EpiCare), il primo benchmark di RL specifico per la sanità. Testando cinque modelli di RL avanzati, i ricercatori hanno dimostrato che, pur superando i metodi standard di cura, questi modelli richiedono enormi quantità di dati simulati per funzionare, rendendo complesso il loro utilizzo nella pratica clinica. Inoltre, strumenti di valutazione basati su dati storici, come gli Off-Policy Evaluation (OPE), si sono dimostrati inaccurati in scenari sanitari reali.
Dr. Logan Grosenick, che ha guidato lo studio, ha sottolineato l’importanza di EpiCare per sviluppare modelli più affidabili e adattabili alla medicina. Migliorare questi strumenti rappresenta un passo cruciale verso trattamenti personalizzati basati sull’AI.
Reti neurali per analisi di dati strutturati a grafo
In un altro studio presentato alla NeurIPS 2024, il team di Dr. Grosenick ha adattato le Convolutional Neural Networks (CNNs) per analizzare dati strutturati a grafo, come reti cerebrali o genetiche. Le CNN, già fondamentali per il riconoscimento delle immagini, sono state generalizzate per modellare graficamente connessioni complesse.
Questa tecnologia, denominata Quantized Graph Convolutional Networks (QuantNets), permette di analizzare i grafi rappresentati da nodi e collegamenti, come quelli tra regioni cerebrali durante il trattamento di depressione o disturbo ossessivo-compulsivo. Il modello è stato applicato a dati EEG con l’obiettivo di identificare dinamiche di connettività cerebrale, consentendo analisi più dettagliate e personalizzate del trattamento.
Le QuantNets hanno potenziale in diversi campi, dalla modellazione del comportamento animale al tracciamento delle espressioni facciali umane per analisi emotive.
Gli studi della Weill Cornell Medicine dimostrano come l’AI stia avvicinando la sanità a un modello più personalizzato. Sia il Reinforcement Learning per strategie terapeutiche che le reti QuantNets per analisi grafiche sono passi significativi verso cure innovative e adattabili. La ricerca continua a sviluppare strumenti affidabili, con l’obiettivo di migliorare la qualità della vita dei pazienti.
Intelligenza Artificiale
L’intelligenza artificiale interpreta lingua dei segni in tempo reale
Tempo di lettura: 2 minuti. L’AI interpreta la lingua dei segni americana con il 98% di accuratezza. Lo studio FAU utilizza MediaPipe e YOLOv8 per un sistema innovativo e accessibile.
Un team di ricercatori della Florida Atlantic University (FAU) ha sviluppato un sistema basato su intelligenza artificiale (AI) in grado di riconoscere con precisione i gesti della lingua dei segni americana (ASL) in tempo reale. Questa innovazione sfrutta tecniche avanzate di computer vision e modelli di deep learning, offrendo una soluzione tecnologica per migliorare la comunicazione tra persone sorde o con difficoltà uditive e il mondo circostante.
L’approccio tecnico: MediaPipe e YOLOv8
Lo studio si concentra sul riconoscimento delle lettere dell’alfabeto ASL utilizzando un dataset personalizzato composto da 29.820 immagini statiche di gesti della mano. Ogni immagine è stata annotata con 21 punti chiave (landmark) usando MediaPipe, un framework di Google dedicato al tracciamento dei movimenti corporei. Questa annotazione dettagliata ha fornito una rappresentazione spaziale accurata della struttura e della posizione della mano.
Questi dati sono stati utilizzati per addestrare YOLOv8, uno dei modelli di deep learning più avanzati per il rilevamento di oggetti, ottimizzando il processo di riconoscimento e classificazione dei gesti.
Bader Alsharif, primo autore della ricerca e candidato al dottorato presso il Dipartimento di Ingegneria Elettrica e Informatica della FAU, ha definito questa integrazione un “approccio innovativo mai esplorato prima, che apre nuove prospettive per applicazioni future.”
Prestazioni del modello e risultati
Il sistema sviluppato ha raggiunto risultati eccezionali, con:
- Accuratezza del 98%,
- Recall del 98%,
- F1 score del 99%,
- Media Average Precision (mAP) del 98%,
- mAP50-95 del 93%.
Questi numeri dimostrano l’efficacia del modello nel catturare anche le più piccole variazioni nei gesti, rendendolo affidabile e robusto in scenari reali.
Secondo Mohammad Ilyas, coautore dello studio e professore alla FAU, il successo è stato reso possibile dalla combinazione di transfer learning, creazione di dataset dettagliati e ottimizzazione dei parametri di apprendimento.
Applicazioni pratiche e prospettive future
Questo sistema ha il potenziale per essere utilizzato in applicazioni pratiche come strumenti di traduzione in tempo reale, migliorando l’accessibilità per la comunità sorda o con difficoltà uditive. Le potenziali aree di applicazione includono:
- Istruzione, per facilitare l’interazione tra studenti sordi e insegnanti.
- Sanità, per garantire una comunicazione più efficace tra pazienti e operatori sanitari.
- Settori sociali, per ridurre le barriere nella vita quotidiana.
Le future ricerche si concentreranno sull’espansione del dataset per includere un numero maggiore di gesti dinamici, migliorando ulteriormente l’accuratezza del modello. Inoltre, gli sforzi si orienteranno verso l’ottimizzazione per dispositivi edge, come smartphone o tablet, garantendo prestazioni in tempo reale anche in ambienti con risorse limitate.
Lo studio condotto dalla Florida Atlantic University rappresenta un importante passo avanti nella creazione di strumenti basati sull’intelligenza artificiale per la traduzione della lingua dei segni americana in tempo reale. Integrando tecnologie avanzate come MediaPipe e YOLOv8, i ricercatori hanno sviluppato un sistema altamente preciso e affidabile, che può migliorare significativamente l’accessibilità e l’inclusività per milioni di persone in tutto il mondo.
-
Smartphone1 settimana ago
Samsung Galaxy Z Flip 7: il debutto dell’Exynos 2500
-
Smartphone1 settimana ago
Redmi Note 14 Pro+ vs 13 Pro+: quale scegliere?
-
Sicurezza Informatica2 giorni ago
Nvidia, SonicWall e Apache Struts: vulnerabilità critiche e soluzioni
-
Sicurezza Informatica1 settimana ago
Vulnerabilità Cleo: attacchi zero-day e rischi di sicurezza
-
Sicurezza Informatica1 giorno ago
NodeStealer e phishing via Google Calendar: nuove minacce
-
Sicurezza Informatica1 settimana ago
PUMAKIT: analisi del RootKit malware Linux
-
Sicurezza Informatica6 giorni ago
BadBox su IoT, Telegram e Viber: Germania e Russia rischiano
-
Sicurezza Informatica2 giorni ago
HubPhish, targeting politico e vulnerabilità critiche