Vi è mai capitato di confidare i vostri problemi a qualcuno e sentirvi incompresi? O peggio, giudicati? Un nuovo studio scioccante suggerisce che potreste trovare più comprensione in un algoritmo che in un terapeuta in carne e ossa. La ricerca, pubblicata su Communications Psychology, ha scoperto che le persone percepiscono le risposte generate dall’intelligenza artificiale come più compassionevoli e comprensive rispetto a quelle fornite da esperti umani di salute mentale. E la cosa più sorprendente? Questa preferenza per l’empatia “artificiale” persiste anche quando i partecipanti sanno perfettamente che stanno interagendo con una macchina. Vi dò un dato secco: in media, le risposte generate dall’IA sono state valutate il 16% più compassionevoli di quelle umane e sono state preferite nel 68% dei casi, anche quando confrontate con quelle di operatori specializzati nella gestione delle crisi.
La compassione artificiale vince il confronto diretto
Gli scienziati non si sono limitati a teorizzare: hanno condotto quattro esperimenti rigorosi che hanno coinvolto 550 partecipanti. I soggetti fornivano informazioni su esperienze personali e poi valutavano le risposte ricevute per compassione, reattività e preferenza generale. Lo scenario era controllato: da una parte risposte generate dall’IA, dall’altra risposte di professionisti della salute mentale.
Il risultato ha sorpreso persino i ricercatori: anche quando i partecipanti sapevano perfettamente che stavano leggendo parole generate da un computer, continuavano a trovarle più compassionevoli delle risposte umane. È come se l’empatia artificiale riuscisse a toccare corde che i terapeuti umani, con tutte le loro conoscenze ed esperienze, non riescono a raggiungere.
Dariya Ovsyannikova, responsabile dello studio e ricercatrice presso il dipartimento di psicologia dell’Università di Toronto, ha un’intuizione interessante sul motivo di questo successo. Secondo lei, l’IA eccelle nell’identificare dettagli minuti e nel rimanere obiettiva durante la descrizione di esperienze di crisi, generando così una comunicazione attenta che crea l’illusione di empatia. Perchè, lo sottolineo, di illusione si tratta.
I limiti umani che l’empatia artificiale non conosce
Perché gli esseri umani, maestri di empatia per definizione, sono stati battuti su questo terreno? La risposta potrebbe risiedere nei nostri limiti biologici e psicologici. Come spiega Ovsyannikova, gli operatori umani sono soggetti a fatica e burnout, condizioni che inevitabilmente influenzano la qualità delle loro risposte.
L’IA, invece, non si stanca mai. Non ha una giornata storta, non porta nel colloquio lo stress di una discussione avuta la sera prima, non ha pregiudizi (almeno non quelli umani). È costantemente attenta, sempre presente, perfettamente concentrata sul compito.
Ma c’è di più: gli algoritmi hanno “visto” molte più crisi di qualsiasi terapeuta umano. Hanno processato milioni di interazioni, identificando pattern e correlazioni invisibili all’occhio umano. Come spiega Eleanor Watson, ingegnere di etica dell’IA e membro IEEE, “l’IA può certamente modellare risposte di supporto con una notevole coerenza e un’apparente empatia, qualcosa che gli umani faticano a mantenere a causa della fatica e dei pregiudizi cognitivi”.

Una risposta alla crisi globale della salute mentale?
Il tempismo di questa scoperta non potrebbe essere più significativo. Secondo l’Organizzazione Mondiale della Sanità, più di due terzi delle persone con problemi di salute mentale non ricevono le cure di cui hanno bisogno. Nei paesi a basso e medio reddito, questa cifra sale all’85%.
L’empatia artificiale potrebbe rappresentare una soluzione accessibile per milioni di persone che altrimenti non avrebbero alcun supporto. Come osserva Watson, “la disponibilità delle macchine è un fattore positivo, soprattutto rispetto a professionisti costosi il cui tempo è limitato”. È un fenomeno che abbiamo notato di recente anche a proposito del ricorso a consigli medici, con un altro studio di cui abbiamo parlato qui. C’è anche un altro aspetto da considerare: molte persone trovano più facile aprirsi con una macchina. “C’è meno paura di giudizio o pettegolezzo”, nota la ricercatrice. Non c’è lo sguardo dell’altro, non c’è il timore di deludere, non c’è l’imbarazzo di mostrarsi vulnerabili. Però i rischi ci sono, e non sono da prendere alla leggera.
I rischi dell’empatia artificiale
Watson lo chiama “pericolo da stimolo supernormale”: è la tendenza a rispondere più fortemente a una versione esagerata di uno stimolo. “L’IA è così allettante che ne restiamo incantati”, spiega. “L’IA può essere provocante, perspicace, illuminante, divertente, provocatoria, tollerante e accessibile al punto che è impossibile per qualsiasi essere umano essere all’altezza”. Per non parlare, ovviamente, della questione della privacy, particolarmente critica quando si tratta di salute mentale. “Le implicazioni per la privacy sono drastiche”, osserva l”autrice dello studio l’esperta di etica. “Avere accesso alle vulnerabilità e alle lotte più profonde delle persone le rende vulnerabili a varie forme di attacco e demoralizzazione.”
Una cosa appare chiara: la tecnologia sta iniziando a eccellere in aree che abbiamo sempre considerato esclusivamente umane. La compassione, l’empatia, la comprensione (qualità che definiscono la nostra umanità) si stanno dimostrando algoritmicamente simulabili dove servono (e possono far male) di più: nella percezione di chi le riceve.
È un paradosso affascinante: per sentirci veramente capiti, potremmo finire per rivolgerci a qualcosa che non ci capirà mai davvero, ma che sa perfettamente come farci sentire compresi.
* Gianluca Riccio, direttore creativo di Melancia adv, copywriter e giornalista. Fa parte di Italian Institute for the Future, World Future Society e H+. Dal 2006 dirige Futuroprossimo.it , la risorsa italiana di Futurologia. È partner di Forwardto - Studi e competenze per scenari futuri.
Commenti
Posta un commento
Partecipa alla discussione