Sommario
Uno studio recente svolto da ricercatori di Cornell Tech, Cornell Ann S. Bowers College of Computing and Information Science, Olin College of Engineering e Stanford University ha esplorato le capacità dell’intelligenza artificiale (AI) nel mostrare empatia. Le ricerche hanno rivelato che, sebbene gli agenti conversazionali (come Alexa e Siri) possano esibire una forma di empatia, presentano limitazioni significative rispetto alle interazioni umane.
Dettagli dello Studio
Il team di ricerca ha testato agenti conversazionali chiedendo loro di mostrare empatia durante le conversazioni con o riguardo a 65 identità umane distinte. Hanno scoperto che questi agenti possono fare giudizi di valore su certe identità, come quelle gay o musulmane, e possono persino mostrarsi incoraggianti verso identità legate a ideologie dannose, inclusi il nazismo.
Limitazioni dell’empatia automatizzata
L’indagine ha dimostrato che gli agenti conversazionali faticano a interpretare e esplorare le esperienze degli utenti rispetto agli esseri umani. Andrea Cuadra, autrice principale dello studio, sottolinea il potenziale impatto positivo dell’empatia automatizzata in settori come l’educazione e la sanità, ma riconosce anche la necessità di una prospettiva critica per mitigare i danni potenziali.
Risultati della Ricerca
I risultati hanno evidenziato che, nonostante gli agenti possano reagire emotivamente, mostrano carenze nell’interpretazione e nell’esplorazione delle situazioni. Questa limitazione suggerisce che gli agenti conversazionali sono capaci di rispondere a una richiesta basandosi sulla loro formazione, ma non riescono ad approfondire ulteriormente.
Prospettive Future
Cuadra presenterà il lavoro intitolato “The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction” alla conferenza CHI ’24 dell’Association of Computing Machinery su Human Factors in Computing Systems a Honolulu. Il documento ha ricevuto una menzione d’onore alla conferenza. Questo studio fornisce importanti spunti su come l’intelligenza artificiale gestisce l’empatia e sottolinea l’importanza di un approccio critico e riflessivo nell’implementazione di queste tecnologie nel nostro quotidiano sempre più imprescindibili nell’assistenza in ogni aspetto della nostra vita.