Da asporto chiave
- Programmi di intelligenza artificiale come Cogito cercano di insegnare agli umani l'empatia nel trattare con i clienti.
- Gli esperti non sono d'accordo sul fatto che sia possibile per una macchina insegnare l'empatia alle persone o se si tratti semplicemente di trovare punti dati.
- Alcuni esperti sono anche preoccupati che insegnare l'empatia AI possa privare l'umanità di quell'emozione.
Immagina di lavorare in un call center e un cliente chiama. Tu rispondi, e subito le cose iniziano ad andare male. Il cliente è arrabbiato e la tensione sale.
Inizi a dire cose di cui potresti pentirti in seguito. All'improvviso, sullo schermo del computer viene visualizzato un messaggio. "Empatia: pensa a come si sente il cliente. Cerca di relazionarti."
Non è una persona reale che ti dice cosa fare. È un messaggio di Cogito, un programma di intelligenza artificiale progettato per aiutare i lavoratori a entrare in empatia con i chiamanti frustrati e aumentare le prestazioni. Cogito è uno di un numero crescente di programmi di intelligenza artificiale che stanno cercando di insegnare l'empatia umana.
C'è un'ovvia ironia qui. Gli scienziati umani hanno cercato per decenni di creare computer più realistici. Ora, le macchine ci dicono come comportarci. Ma il software può davvero insegnarci come essere più empatici? È un problema che potrebbe avere profonde implicazioni quando l'intelligenza artificiale inizia a permeare la vita quotidiana.
AI imita il comportamento umano
Da un punto di vista tecnico, è chiaro che l'IA può raccogliere indizi su come si sentono gli esseri umani e fornire feedback.
"I sistemi di intelligenza artificiale e di apprendimento automatico sono molto bravi a trovare modelli nei dati", ha affermato Adam Poliak, un borsista post-dottorato in informatica al Barnard College, in un'intervista via e-mail.
"Se diamo a un'IA molti esempi di testo empatico, l'IA può scoprire schemi e segnali che evocano o dimostrano empatia."
L'IA può essere programmata per abbattere alcuni dei comportamenti umani che accompagnano l'empatia e ricordare agli umani di eseguirli, ma questo non è insegnare l'empatia.
L'intelligenza artificiale che analizza le reazioni umane può aiutare a colmare il crescente divario tra le persone mentre comunichiamo digitalmente, ha affermato Bret Greenstein, un esperto di intelligenza artificiale presso Cognizant Digital Business, in un'intervista via e-mail.
"Nell'ultimo anno, video, voce e messaggistica in tempo reale sono cresciuti più velocemente di quanto chiunque avrebbe potuto immaginare, e con esso sono arrivate enormi sfide nel creare relazioni veramente empatiche senza spendere effettivamente tempo fisico con le persone, " ha aggiunto.
L'IA può aiutare ad analizzare e valutare caratteristiche come il tono e le emozioni nel parlato, ha detto Greenstein. "Questo può aiutare la persona che riceve le comunicazioni a capire meglio cosa si intendeva e aiuta la persona a 'parlare' mostrando come i messaggi potrebbero essere interpretati", ha aggiunto.
Mentre le aziende si stanno affrettando a incassare software di formazione sull'IA come Cogito, la questione se l'IA possa insegnare l'empatia agli esseri umani rimane aperta. E la risposta potrebbe avere a che fare tanto con la filosofia quanto con la tecnologia.
Ilia Delio è una teologa dell'Università di Villanova il cui lavoro è incentrato sull'intersezione tra fede e scienza. Crede che l'IA possa insegnare l'empatia.
Delio ha sottolineato che un team del MIT ha costruito robot in grado di imitare le emozioni umane come felicità, tristezza e compassione. "Mentre le emozioni robotiche sono programmate, i robot possono interagire con gli umani e quindi stabilire o rafforzare schemi neurali", ha detto.
Può una macchina capire l'empatia?
Gli esperti definiscono almeno tre forme di empatia, tutte implicano la capacità di comprendere e relazionarsi con un' altra persona, ha affermato Karla Erickson, sociologa del Grinnell College in Iowa e autrice del prossimo libro, Messy Humans: A Sociology of Relazioni uomo/macchina, che esplora le nostre relazioni con la tecnologia.
"Relazionarsi non è qualcosa che l'IA può fare ed è la base dell'empatia", ha detto Erickson in un'intervista via e-mail.
"L'IA può essere programmata per abbattere alcuni dei comportamenti umani che accompagnano l'empatia e ricordare agli umani di eseguirli, ma questo non è insegnare l'empatia. Relarsi, specialmente in termini di empatia, richiederebbe all'ascoltatore di avere il contesto necessario per relazionarmi con questo, intendo dire che la 'vita' di un'IA non include la perdita, il desiderio, la speranza, il dolore o la morte."
Tuttavia, gli esperti si scontrano sul fatto che l'IA possa insegnarci a entrare in empatia. Parte del problema è che non tutti sono d'accordo su cosa significhino "empatia" o "IA". Il termine intelligenza artificiale viene usato spesso, ma al momento non è il tipo di intelligenza che consideriamo umana.
Questo è puro lavoro di ingegneria, e non mi illudo che l'IA in questione, di per sé, abbia emozioni o capisca sinceramente le emozioni.
"Gli "spunti di empatia" non hanno nulla a che fare con l'empatia", ha detto in un'intervista via e-mail Michael Spezio, professore di psicologia, neuroscienze e scienza dei dati allo Scripps College.
"Sono spunti da voci che i valutatori umani hanno classificato come voci di persone irritate/infastidite. Quindi si tratta solo di utilizzare l'esperienza umana in un modello matematico e quindi affermare che il modello basato sull'esperienza umana è intelligente. Approcci di apprendimento automatico limitati come questo sono spesso considerati IA senza essere intelligenti."
Al Rensselaer Polytechnic Institute, il laboratorio di Selmer Bringsjord sta costruendo modelli matematici delle emozioni umane. La ricerca ha lo scopo di creare un'IA in grado di ottenere punteggi elevati nei test di intelligenza emotiva e applicarli agli esseri umani. Ma Bringsjord, un esperto di intelligenza artificiale, afferma che qualsiasi insegnamento che l'IA fa è involontario.
"Ma questo è puro lavoro di ingegneria, e non mi illudo che l'IA in questione, di per sé abbia emozioni o comprenda genuinamente le emozioni", ha detto in un'intervista via e-mail.
Cosa potrebbe andare storto?
Mentre aziende come Cogito vedono un brillante futuro per l'addestramento umano dell'IA, altri osservatori sono più cauti.
Supportiv, un servizio di salute mentale online, utilizza l'IA per indirizzare ogni utente, in base a ogni singolo pensiero che esprime, in tempo reale, a un gruppo di supporto tra pari specifico per argomento che si riunisce dinamicamente per gli utenti con problemi simili.
Ogni gruppo ha un moderatore umano "superpotente" che mantiene la chat testuale sicura e priva di troll e può far emergere, sempre attraverso l'IA, risorse pertinenti, consigli e referral direttamente nella conversazione di gruppo. Utilizzando l'IA, Supportiv addestra i suoi moderatori ad essere abili nell'individuare l'intensità dei bisogni emotivi.
"L'empatia è un muscolo che costruiamo", ha detto Zara Dana, data scientist di Supportiv, in un'intervista via e-mail.
"Se iniziamo a usare una stampella per camminare, i nostri muscoli si atrofizzeranno. Non posso fare a meno di chiedermi, un lavoratore dipendente si sentirebbe sicuro se un giorno il sistema di intelligenza artificiale non fosse online? lavoro in modo efficace? Quali sono gli effetti a lungo termine sui lavoratori? Come affronterebbero situazioni sociali complesse in cui l'IA è assente?"
Anche se usare l'IA per insegnare l'empatia funziona, cosa succede quando iniziamo a fare troppo affidamento sull'IA per allenare le emozioni? Un possibile aspetto negativo è che gli esseri umani possono diventare più attaccati ai robot che ad altre persone umane perché i robot non possono scegliere contro il loro programma, ha sottolineato Delio.
"La capacità umana di libero arbitrio pone l'agire umano in una posizione più ambigua", ha detto Delio. "Una persona può essere compassionevole un giorno e spietata il giorno successivo; un robot rimarrà costantemente compassionevole a meno che non sia addestrato a fare diversamente."
Ci sono molte cose che potrebbero andare storte se l'IA insegnasse agli umani come comportarsi come le persone, dicono gli esperti.
Ci siamo evoluti per essere animali sociali e la nostra empatia è fondamentale per la nostra capacità di connetterci con gli altri e di prenderci cura dei collettivi a cui apparteniamo.
"Senza la supervisione umana, lo studente potrebbe imparare qualcosa di assolutamente folle", ha detto Bringsjord.
"Il tono e il tono della voce sono semplici correlati comportamentali, senza alcun contenuto. Dollari in ciambelle la mia voce mentre insegno in classe verrebbe letta da molti… come indicante che sono sconvolto, mentre in re altà, io' Sono solo appassionato e con un minimo bisogno di empatia."
Se l'addestramento dell'intelligenza artificiale degli umani dovesse prosperare, potremmo arrivare a fare affidamento su di esso. E non è necessariamente una buona cosa.
"Questa formazione svaluta le abilità umane, che sono considerevoli, e sposta l'attenzione sull'IA come se fossero quelle con esperienza", ha detto Erickson."Ci siamo evoluti per essere animali sociali e la nostra empatia è fondamentale per la nostra capacità di connetterci con gli altri e di prenderci cura dei collettivi a cui apparteniamo."