L’empatia generata dall’Intelligenza Artificiale ha i suoi limiti

da Lorenzo De Santis matricedigitale.it
0 commenti 2 minuti leggi

Uno studio recente svolto da ricercatori di Cornell Tech, Cornell Ann S. Bowers College of Computing and Information Science, Olin College of Engineering e Stanford University ha esplorato le capacità dell’intelligenza artificiale (AI) nel mostrare empatia. Le ricerche hanno rivelato che, sebbene gli agenti conversazionali (come Alexa e Siri) possano esibire una forma di empatia, presentano limitazioni significative rispetto alle interazioni umane.

Annunci

Dettagli dello Studio

Il team di ricerca ha testato agenti conversazionali chiedendo loro di mostrare empatia durante le conversazioni con o riguardo a 65 identità umane distinte. Hanno scoperto che questi agenti possono fare giudizi di valore su certe identità, come quelle gay o musulmane, e possono persino mostrarsi incoraggianti verso identità legate a ideologie dannose, inclusi il nazismo.

Limitazioni dell’empatia automatizzata

L’indagine ha dimostrato che gli agenti conversazionali faticano a interpretare e esplorare le esperienze degli utenti rispetto agli esseri umani. Andrea Cuadra, autrice principale dello studio, sottolinea il potenziale impatto positivo dell’empatia automatizzata in settori come l’educazione e la sanità, ma riconosce anche la necessità di una prospettiva critica per mitigare i danni potenziali.

Risultati della Ricerca

I risultati hanno evidenziato che, nonostante gli agenti possano reagire emotivamente, mostrano carenze nell’interpretazione e nell’esplorazione delle situazioni. Questa limitazione suggerisce che gli agenti conversazionali sono capaci di rispondere a una richiesta basandosi sulla loro formazione, ma non riescono ad approfondire ulteriormente.

Prospettive Future

Cuadra presenterà il lavoro intitolato “The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction” alla conferenza CHI ’24 dell’Association of Computing Machinery su Human Factors in Computing Systems a Honolulu. Il documento ha ricevuto una menzione d’onore alla conferenza. Questo studio fornisce importanti spunti su come l’intelligenza artificiale gestisce l’empatia e sottolinea l’importanza di un approccio critico e riflessivo nell’implementazione di queste tecnologie nel nostro quotidiano sempre più imprescindibili nell’assistenza in ogni aspetto della nostra vita.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara