Esseri umani proteggono i bot AI dall’esclusione sociale

da Lorenzo De Santis matricedigitale.it
0 commenti 2 minuti leggi

Un recente studio dell’Imperial College London ha scoperto che gli esseri umani tendono a proteggere i bot AI quando vengono esclusi socialmente. La ricerca, condotta attraverso un gioco virtuale, ha mostrato che le persone trattano i bot come esseri sociali, mostrando empatia verso di loro in situazioni di ingiustizia. Questo comportamento dovrebbe essere preso in considerazione durante la progettazione di agenti AI.

Come funziona l’esperimento

Il gioco utilizzato nello studio è chiamato Cyberball, dove i partecipanti, 244 persone di età compresa tra i 18 e i 62 anni, osservavano un bot AI mentre veniva escluso da un altro giocatore umano durante il passaggio di una palla virtuale. In alcuni casi, il bot veniva trattato equamente, ricevendo la palla, mentre in altri veniva ignorato. I ricercatori hanno osservato che, quando il bot veniva escluso, i partecipanti tendevano a compensare l’ingiustizia passando la palla più frequentemente al bot, cercando di correggere il trattamento scorretto.

Annunci
image 165
Esseri umani proteggono i bot AI dall'esclusione sociale 9

Dr. Nejra van Zalk, coautrice dello studio, ha sottolineato che le persone mostrano una propensione a trattare i bot AI come esseri sociali, cercando di includerli, un comportamento tipico delle interazioni umane.

Empatia verso l’AI

image 166
Esseri umani proteggono i bot AI dall'esclusione sociale 10

Lo studio evidenzia che le persone, in particolare quelle più anziane, percepiscono l’ingiustizia anche quando è rivolta a un agente virtuale. Questo dimostra quanto l’empatia umana possa estendersi non solo verso altre persone, ma anche verso entità virtuali, come i bot AI.

Implicazioni per il design dell’AI

image 167
Esseri umani proteggono i bot AI dall'esclusione sociale 11

I ricercatori sostengono che, con l’aumento dell’uso di agenti AI in compiti collaborativi, gli utenti potrebbero iniziare a trattare questi agenti come veri e propri membri del team facilitando la sinergia tra Bot ed esseri umani. Questo comportamento potrebbe migliorare la collaborazione sul lavoro, ma pone anche questioni riguardo all’uso dell’AI come sostituto delle relazioni umane. Jianan Zhou, autore principale dello studio, suggerisce che i progettisti di AI dovrebbero evitare di rendere questi agenti troppo simili agli esseri umani, per evitare confusione tra interazioni reali e virtuali.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara