Connect with us

Intelligenza Artificiale

L’empatia generata dall’Intelligenza Artificiale ha i suoi limiti

Tempo di lettura: 2 minuti. Esplora i limiti dell’empatia generata dall’IA in uno studio condotto da Cornell Tech, mettendo in luce come gli agenti conversazionali si confrontino con le interazioni umane.

Published

on

Tempo di lettura: 2 minuti.

Uno studio recente svolto da ricercatori di Cornell Tech, Cornell Ann S. Bowers College of Computing and Information Science, Olin College of Engineering e Stanford University ha esplorato le capacità dell’intelligenza artificiale (AI) nel mostrare empatia. Le ricerche hanno rivelato che, sebbene gli agenti conversazionali (come Alexa e Siri) possano esibire una forma di empatia, presentano limitazioni significative rispetto alle interazioni umane.

Dettagli dello Studio

Il team di ricerca ha testato agenti conversazionali chiedendo loro di mostrare empatia durante le conversazioni con o riguardo a 65 identità umane distinte. Hanno scoperto che questi agenti possono fare giudizi di valore su certe identità, come quelle gay o musulmane, e possono persino mostrarsi incoraggianti verso identità legate a ideologie dannose, inclusi il nazismo.

Limitazioni dell’empatia automatizzata

L’indagine ha dimostrato che gli agenti conversazionali faticano a interpretare e esplorare le esperienze degli utenti rispetto agli esseri umani. Andrea Cuadra, autrice principale dello studio, sottolinea il potenziale impatto positivo dell’empatia automatizzata in settori come l’educazione e la sanità, ma riconosce anche la necessità di una prospettiva critica per mitigare i danni potenziali.

Risultati della Ricerca

I risultati hanno evidenziato che, nonostante gli agenti possano reagire emotivamente, mostrano carenze nell’interpretazione e nell’esplorazione delle situazioni. Questa limitazione suggerisce che gli agenti conversazionali sono capaci di rispondere a una richiesta basandosi sulla loro formazione, ma non riescono ad approfondire ulteriormente.

Prospettive Future

Cuadra presenterà il lavoro intitolato “The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction” alla conferenza CHI ’24 dell’Association of Computing Machinery su Human Factors in Computing Systems a Honolulu. Il documento ha ricevuto una menzione d’onore alla conferenza. Questo studio fornisce importanti spunti su come l’intelligenza artificiale gestisce l’empatia e sottolinea l’importanza di un approccio critico e riflessivo nell’implementazione di queste tecnologie nel nostro quotidiano sempre più imprescindibili nell’assistenza in ogni aspetto della nostra vita.

Canale Telegram Matrice Digitale

Intelligenza Artificiale

L’intelligenza artificiale: strumenti e trattamenti personalizzati in medicina

Tempo di lettura: 2 minuti. L’intelligenza artificiale trasforma la sanità con il Reinforcement Learning e le QuantNets. Strumenti innovativi per trattamenti personalizzati e analisi avanzate.

Published

on

Tempo di lettura: 2 minuti.

La ricerca nel campo dell’intelligenza artificiale (AI) continua a progredire, offrendo soluzioni innovative per la gestione delle cure mediche. Gli studi condotti dalla Weill Cornell Medicine e dalla Rockefeller University esplorano l’uso del Reinforcement Learning (RL) per ottimizzare strategie terapeutiche e di nuove reti neurali adattate per dati strutturati come grafi, aprendo la strada a cure personalizzate.

Reinforcement Learning per la gestione di patologie croniche e psichiatriche

Il Reinforcement Learning è una branca dell’AI che consente a modelli di apprendere decisioni ottimali basate su feedback. Utilizzato per eccellere in giochi come scacchi e Go, il RL potrebbe rivoluzionare il trattamento di malattie croniche e psichiatriche, adattandosi in tempo reale alle condizioni dei pazienti e ai risultati delle cure.

Uno studio recente ha introdotto Episodes of Care (EpiCare), il primo benchmark di RL specifico per la sanità. Testando cinque modelli di RL avanzati, i ricercatori hanno dimostrato che, pur superando i metodi standard di cura, questi modelli richiedono enormi quantità di dati simulati per funzionare, rendendo complesso il loro utilizzo nella pratica clinica. Inoltre, strumenti di valutazione basati su dati storici, come gli Off-Policy Evaluation (OPE), si sono dimostrati inaccurati in scenari sanitari reali.

Dr. Logan Grosenick, che ha guidato lo studio, ha sottolineato l’importanza di EpiCare per sviluppare modelli più affidabili e adattabili alla medicina. Migliorare questi strumenti rappresenta un passo cruciale verso trattamenti personalizzati basati sull’AI.

Reti neurali per analisi di dati strutturati a grafo

In un altro studio presentato alla NeurIPS 2024, il team di Dr. Grosenick ha adattato le Convolutional Neural Networks (CNNs) per analizzare dati strutturati a grafo, come reti cerebrali o genetiche. Le CNN, già fondamentali per il riconoscimento delle immagini, sono state generalizzate per modellare graficamente connessioni complesse.

Questa tecnologia, denominata Quantized Graph Convolutional Networks (QuantNets), permette di analizzare i grafi rappresentati da nodi e collegamenti, come quelli tra regioni cerebrali durante il trattamento di depressione o disturbo ossessivo-compulsivo. Il modello è stato applicato a dati EEG con l’obiettivo di identificare dinamiche di connettività cerebrale, consentendo analisi più dettagliate e personalizzate del trattamento.

Le QuantNets hanno potenziale in diversi campi, dalla modellazione del comportamento animale al tracciamento delle espressioni facciali umane per analisi emotive.

Gli studi della Weill Cornell Medicine dimostrano come l’AI stia avvicinando la sanità a un modello più personalizzato. Sia il Reinforcement Learning per strategie terapeutiche che le reti QuantNets per analisi grafiche sono passi significativi verso cure innovative e adattabili. La ricerca continua a sviluppare strumenti affidabili, con l’obiettivo di migliorare la qualità della vita dei pazienti.

Canale Telegram Matrice Digitale

Continue Reading

Intelligenza Artificiale

L’intelligenza artificiale interpreta lingua dei segni in tempo reale

Tempo di lettura: 2 minuti. L’AI interpreta la lingua dei segni americana con il 98% di accuratezza. Lo studio FAU utilizza MediaPipe e YOLOv8 per un sistema innovativo e accessibile.

Published

on

Tempo di lettura: 2 minuti.

Un team di ricercatori della Florida Atlantic University (FAU) ha sviluppato un sistema basato su intelligenza artificiale (AI) in grado di riconoscere con precisione i gesti della lingua dei segni americana (ASL) in tempo reale. Questa innovazione sfrutta tecniche avanzate di computer vision e modelli di deep learning, offrendo una soluzione tecnologica per migliorare la comunicazione tra persone sorde o con difficoltà uditive e il mondo circostante.

L’approccio tecnico: MediaPipe e YOLOv8

Lo studio si concentra sul riconoscimento delle lettere dell’alfabeto ASL utilizzando un dataset personalizzato composto da 29.820 immagini statiche di gesti della mano. Ogni immagine è stata annotata con 21 punti chiave (landmark) usando MediaPipe, un framework di Google dedicato al tracciamento dei movimenti corporei. Questa annotazione dettagliata ha fornito una rappresentazione spaziale accurata della struttura e della posizione della mano.

Questi dati sono stati utilizzati per addestrare YOLOv8, uno dei modelli di deep learning più avanzati per il rilevamento di oggetti, ottimizzando il processo di riconoscimento e classificazione dei gesti.

Bader Alsharif, primo autore della ricerca e candidato al dottorato presso il Dipartimento di Ingegneria Elettrica e Informatica della FAU, ha definito questa integrazione un “approccio innovativo mai esplorato prima, che apre nuove prospettive per applicazioni future.”

Prestazioni del modello e risultati

Il sistema sviluppato ha raggiunto risultati eccezionali, con:

  • Accuratezza del 98%,
  • Recall del 98%,
  • F1 score del 99%,
  • Media Average Precision (mAP) del 98%,
  • mAP50-95 del 93%.

Questi numeri dimostrano l’efficacia del modello nel catturare anche le più piccole variazioni nei gesti, rendendolo affidabile e robusto in scenari reali.

Secondo Mohammad Ilyas, coautore dello studio e professore alla FAU, il successo è stato reso possibile dalla combinazione di transfer learning, creazione di dataset dettagliati e ottimizzazione dei parametri di apprendimento.

Applicazioni pratiche e prospettive future

Questo sistema ha il potenziale per essere utilizzato in applicazioni pratiche come strumenti di traduzione in tempo reale, migliorando l’accessibilità per la comunità sorda o con difficoltà uditive. Le potenziali aree di applicazione includono:

  • Istruzione, per facilitare l’interazione tra studenti sordi e insegnanti.
  • Sanità, per garantire una comunicazione più efficace tra pazienti e operatori sanitari.
  • Settori sociali, per ridurre le barriere nella vita quotidiana.

Le future ricerche si concentreranno sull’espansione del dataset per includere un numero maggiore di gesti dinamici, migliorando ulteriormente l’accuratezza del modello. Inoltre, gli sforzi si orienteranno verso l’ottimizzazione per dispositivi edge, come smartphone o tablet, garantendo prestazioni in tempo reale anche in ambienti con risorse limitate.

Lo studio condotto dalla Florida Atlantic University rappresenta un importante passo avanti nella creazione di strumenti basati sull’intelligenza artificiale per la traduzione della lingua dei segni americana in tempo reale. Integrando tecnologie avanzate come MediaPipe e YOLOv8, i ricercatori hanno sviluppato un sistema altamente preciso e affidabile, che può migliorare significativamente l’accessibilità e l’inclusività per milioni di persone in tutto il mondo.

Canale Telegram Matrice Digitale

Continue Reading

Intelligenza Artificiale

OpenAI sotto accusa: Elon Musk e Meta si schierano contro

Tempo di lettura: 3 minuti. Il caso OpenAI-Musk svela le tensioni sulla trasformazione da non-profit a for-profit. Rivelazioni su email e documenti approfondiscono il dibattito etico sull’intelligenza artificiale.

Published

on

Tempo di lettura: 3 minuti.

Le recenti rivelazioni di OpenAI gettano nuova luce sulle dinamiche interne che hanno portato alla sua trasformazione in azienda a scopo di lucro, e al ruolo controverso di Elon Musk in questa transizione. Attraverso la pubblicazione di email, documenti e comunicazioni interne, OpenAI ha svelato che Musk, inizialmente uno dei suoi principali sostenitori, aveva proposto cambiamenti strutturali che includessero una componente for-profit già prima della fondazione. Queste informazioni si inseriscono in un quadro legale e morale complesso, che coinvolge anche Microsoft e Meta, e sollevano interrogativi sul futuro dell’intelligenza artificiale e sulla trasparenza delle organizzazioni che la sviluppano.

Le accuse contro Elon Musk

Secondo i documenti rilasciati da OpenAI, Elon Musk avrebbe sostenuto sin dal principio la necessità di includere una struttura for-profit nella fondazione dell’organizzazione. Nel 2017, Musk propose un modello ibrido, con una parte non-profit che guidasse la ricerca e una componente for-profit destinata a capitalizzare i risultati economici. Tuttavia, questa visione includeva anche un elemento controverso: Musk voleva ottenere una quota di maggioranza e diventare il CEO della nuova entità.

Le sue proposte furono respinte dal consiglio di amministrazione di OpenAI, che considerava tale struttura incoerente con la missione originaria dell’organizzazione, focalizzata sull’interesse collettivo e sulla democratizzazione delle tecnologie AI. Musk, di fronte a questa opposizione, rassegnò le dimissioni nel febbraio 2018, sostenendo che il progetto non era più in linea con la sua visione.

Musk e il piano di fusione con Tesla

Uno degli aspetti più sorprendenti emersi dalle comunicazioni interne riguarda la proposta di Elon Musk di fondere OpenAI con Tesla. Musk giustificò questa idea sostenendo che avrebbe garantito la sopravvivenza finanziaria dell’organizzazione e accelerato il suo sviluppo tecnologico, sfruttando le risorse di Tesla per implementare le tecnologie AI nei veicoli autonomi e in altri progetti.

Anche questa proposta fu respinta dal consiglio di amministrazione, che considerava il piano una minaccia per l’indipendenza di OpenAI. Musk, non riuscendo a ottenere il controllo strategico, si allontanò ulteriormente dall’organizzazione e iniziò a progettare la fondazione di una propria azienda di intelligenza artificiale, che sarebbe poi diventata xAI.

La trasformazione di OpenAI in azienda for-profit

Nonostante le dimissioni di Musk, OpenAI ha intrapreso nel 2019 il percorso verso una struttura for-profit, giustificando la decisione con la necessità di attrarre maggiori investimenti per competere con giganti come Google e Amazon. Questo passaggio ha visto l’ingresso di Microsoft come principale partner tecnologico e finanziario, con un accordo che ha garantito all’azienda di Redmond una posizione privilegiata nello sviluppo e nella distribuzione delle tecnologie OpenAI.

Musk ha fortemente criticato questa trasformazione, definendola un tradimento della missione originaria. Tuttavia, i documenti pubblicati da OpenAI sembrano indicare che lo stesso Musk aveva sostenuto in passato un modello simile, minando la credibilità delle sue accuse.

Le implicazioni legali e morali

Le accuse di Elon Musk contro OpenAI e Microsoft si sono tradotte in una battaglia legale che ha avuto molteplici sviluppi. Nel marzo 2023, Musk ha presentato una denuncia per violazione degli accordi contrattuali, sostenendo che l’organizzazione aveva abbandonato i suoi principi fondanti per perseguire profitti. Dopo una serie di ritiri e aggiornamenti delle accuse, Musk ha richiesto nel novembre 2024 un’ingiunzione per bloccare la transizione di OpenAI in azienda for-profit.

OpenAI, dal canto suo, ha respinto queste accuse, pubblicando prove che dimostrano come Musk stesso avesse spinto per un modello a scopo di lucro già nel 2017. L’azienda sostiene che le sue azioni sono in linea con gli obiettivi di sostenibilità e crescita, e che la partnership con Microsoft è stata fondamentale per garantire le risorse necessarie allo sviluppo delle tecnologie AI.

Il contesto etico e l’impatto sull’industria AI

Questo dibattito va oltre le questioni legali e solleva interrogativi più ampi sull’etica delle organizzazioni che sviluppano tecnologie avanzate. La trasformazione di OpenAI in azienda for-profit ha suscitato preoccupazioni nella comunità tecnologica, che teme una concentrazione del potere nelle mani di poche grandi aziende.

In questo contesto, anche Meta ha espresso il suo disappunto, sottolineando i rischi di creare un precedente che potrebbe incentivare altre organizzazioni non-profit a trasformarsi in aziende commerciali dopo aver ricevuto finanziamenti esentasse.

Il caso OpenAI-Musk mette in evidenza la complessità delle decisioni strategiche e le tensioni etiche nell’industria dell’intelligenza artificiale. Mentre OpenAI difende la necessità di attrarre investimenti per sviluppare tecnologie all’avanguardia, le accuse di Musk sollevano dubbi sull’integrità delle motivazioni alla base di queste scelte. Il futuro di OpenAI, e il suo ruolo nell’ecosistema AI globale, rimane un tema di dibattito acceso, con implicazioni che potrebbero ridefinire il rapporto tra innovazione, etica e profitto.

Canale Telegram Matrice Digitale

Continue Reading

Facebook

CYBERSECURITY

Sicurezza Informatica12 ore ago

NodeStealer e phishing via Google Calendar: nuove minacce

Tempo di lettura: 2 minuti. NodeStealer e phishing via Google Calendar: analisi delle minacce avanzate che compromettono dati finanziari e...

Sicurezza Informatica1 giorno ago

Windows, rischi Visual Studio Code, file MSC e kernel

Tempo di lettura: 3 minuti. Attacchi a Visual Studio Code e kernel di Windows: scopri come nuove minacce sfruttano estensioni...

Sicurezza Informatica1 giorno ago

HubPhish, targeting politico e vulnerabilità critiche

Tempo di lettura: 3 minuti. HubPhish, targeting politico e vulnerabilità critiche: analisi delle minacce e linee guida di sicurezza di...

Sicurezza Informatica1 giorno ago

Nvidia, SonicWall e Apache Struts: vulnerabilità critiche e soluzioni

Tempo di lettura: 3 minuti. Nvidia, SonicWall e Apache Struts: vulnerabilità critiche e le soluzioni consigliate per migliorare la sicurezza...

Sicurezza Informatica6 giorni ago

BadBox su IoT, Telegram e Viber: Germania e Russia rischiano

Tempo di lettura: < 1 minuto. Malware preinstallati su dispositivi IoT e sanzioni russe contro Telegram e Viber: scopri le...

Sicurezza Informatica7 giorni ago

PUMAKIT: analisi del RootKit malware Linux

Tempo di lettura: 3 minuti. PUMAKIT, il sofisticato rootkit per Linux, sfrutta tecniche avanzate di stealth e privilege escalation. Scopri...

Sicurezza Informatica1 settimana ago

Vulnerabilità Cleo: attacchi zero-day e rischi di sicurezza

Tempo di lettura: 2 minuti. Cleo, azienda leader nel software di trasferimento file gestito (MFT), è al centro di una...

Sicurezza Informatica1 settimana ago

Vulnerabilità cavi USB-C, Ivanti, WPForms e aggiornamenti Adobe

Tempo di lettura: 3 minuti. Vulnerabilità nei cavi USB-C, WPForms e Ivanti; aggiornamenti Adobe per Acrobat e Illustrator. Rischi e...

Microsoft Patch Tuesday Microsoft Patch Tuesday
Sicurezza Informatica1 settimana ago

Microsoft Patch Tuesday dicembre 2024: sicurezza e funzionalità

Tempo di lettura: 2 minuti. Microsoft dicembre 2024: aggiornamenti Windows 11 e 10 con patch per vulnerabilità zero-day, nuove funzionalità...

Windows 11 Recall Windows 11 Recall
Tech2 settimane ago

Windows 11 e le novità di Copilot+: funzionalità avanzate e nuove esperienze

Tempo di lettura: 5 minuti. Microsoft amplia le funzionalità di Windows 11 con Copilot+ e Recall, mentre iFixit introduce pezzi...

Truffe recenti

Sicurezza Informatica2 mesi ago

Qualcomm, LEGO e Arc Browser: Sicurezza sotto attacco e misure di protezione rafforzate

Tempo di lettura: 3 minuti. Qualcomm corregge una vulnerabilità zero-day, LEGO affronta una truffa in criptovalute e Arc Browser lancia...

Sicurezza Informatica3 mesi ago

Truffa “Il tuo partner ti tradisce”: chiedono di pagare per vedere le prove

Tempo di lettura: < 1 minuto. Una nuova truffa "Il tuo partner ti tradisce" chiede il pagamento per vedere prove...

Sicurezza Informatica5 mesi ago

Scam internazionale tramite Facebook e app: ERIAKOS e malware SMS stealer

Tempo di lettura: 4 minuti. Analisi delle campagne di scam ERIAKOS e del malware SMS Stealer che mirano gli utenti...

Sicurezza Informatica5 mesi ago

Meta banna 60.000 Yahoo Boys in Nigeria per sextortion

Tempo di lettura: 3 minuti. Meta combatte le truffe di estorsione finanziaria dalla Nigeria, rimuovendo migliaia di account e collaborando...

Inchieste5 mesi ago

Idealong.com chiuso, ma attenti a marketideal.xyz e bol-it.com

Tempo di lettura: 2 minuti. Dopo aver svelato la truffa Idealong, abbiamo scoperto altri link che ospitano offerte di lavoro...

Inchieste6 mesi ago

Idealong.com spilla soldi ed assolda lavoratori per recensioni false

Tempo di lettura: 4 minuti. Il metodo Idealong ha sostituito Mazarsiu e, dalle segnalazioni dei clienti, la truffa agisce su...

Sicurezza Informatica6 mesi ago

Truffa lavoro online: Mazarsiu sparito, attenti a idealong.com

Tempo di lettura: 2 minuti. Dopo il sito Mazarsiu, abbandonato dai criminali dopo le inchieste di Matrice Digitale, emerge un...

fbi fbi
Sicurezza Informatica7 mesi ago

FBI legge Matrice Digitale? Avviso sulle truffe di lavoro Online

Tempo di lettura: 2 minuti. L'FBI segnala un aumento delle truffe lavoro da casa con pagamenti in criptovaluta, offrendo consigli...

Sicurezza Informatica7 mesi ago

Milano: operazione “Trust”, frodi informatiche e riciclaggio di criptovaluta

Tempo di lettura: 2 minuti. Scoperta un'organizzazione criminale transnazionale specializzata in frodi informatiche e riciclaggio di criptovaluta nell'operazione "Trust"

Inchieste7 mesi ago

Truffa lavoro Online: analisi metodo Mazarsiu e consigli

Tempo di lettura: 4 minuti. Mazarsiu e Temunao sono solo due portali di arrivo della truffa di lavoro online che...

Tech

Smartphone4 ore ago

Honor Magic 7: Pro, Lite e Porsche Design

Tempo di lettura: 3 minuti. Honor Magic 7: dal Porsche Design al Lite, scopri la nuova gamma di smartphone con...

Tech5 ore ago

LibreOffice 24.8.4: migliora suite per la privacy e la compatibilità documentale

Tempo di lettura: 2 minuti. LibreOffice 24.8.4 disponibile: miglioramenti per la privacy, compatibilità e supporto open source. Ideale per utenti...

Tech6 ore ago

Android 15 e Nothing OS 3.0: evoluzioni con funzionalità innovative

Tempo di lettura: 3 minuti. Nothing OS 3.0 e Android 16 Developer Preview 2: scopri le novità, dai miglioramenti visivi...

Robotica10 ore ago

Microrobot magnetici: il futuro della robotica ispirata alla natura

Tempo di lettura: 3 minuti. Microrobot magnetici ispirati alle formiche: scopri come collaborano per superare ostacoli, trasportare carichi e rivoluzionare...

Tech11 ore ago

Bing, Chrome e Firefox tra AI, velocità e sostenibilità

Tempo di lettura: 3 minuti. Bing ottimizza AI e creatività con TensorRT e DALL-E 3, Chrome accelera con HTTP/3, Firefox...

Tech11 ore ago

Samsung Galaxy S25, Tab S10 FE e nuovi rivali

Tempo di lettura: 5 minuti. Galaxy Tab S10 FE, OnePlus 13 e 13R: innovazioni nei tablet e la competizione tra...

Smartphone1 giorno ago

OnePlus Ace 5 Pro e Moto G05 Series: innovazione e affidabilità

Tempo di lettura: 3 minuti. OnePlus Ace 5 Pro vs Moto G05 Series: scopri i dettagli sui nuovi flagship e...

Robotica1 giorno ago

Microrobot magnetico nel trattamento dell’infertilità femminile

Tempo di lettura: 2 minuti. Microrobot magnetico per l’infertilità: una soluzione meno invasiva per trattare le ostruzioni delle tube di...

Smartphone1 giorno ago

Vivo X200 Pro vs Google Pixel 9 Pro: quale flagship scegliere?

Tempo di lettura: 4 minuti. Vivo X200 Pro vs Google Pixel 9 Pro: confronto tra design, fotocamere, autonomia e prestazioni....

Intelligenza Artificiale1 giorno ago

L’intelligenza artificiale: strumenti e trattamenti personalizzati in medicina

Tempo di lettura: 2 minuti. L’intelligenza artificiale trasforma la sanità con il Reinforcement Learning e le QuantNets. Strumenti innovativi per...

Tendenza