Perché un software di lettura delle emozioni potrebbe violare la tua privacy

Sommario:

Perché un software di lettura delle emozioni potrebbe violare la tua privacy
Perché un software di lettura delle emozioni potrebbe violare la tua privacy
Anonim

Da asporto chiave

  • Secondo quanto riferito, Zoom avrebbe utilizzato l'IA per valutare il sentimento o il livello di coinvolgimento di un utente.
  • I gruppi per i diritti umani chiedono a Zoom di ripensare il suo piano a causa di problemi di privacy e sicurezza dei dati.
  • Alcune aziende utilizzano anche software di rilevamento delle emozioni durante le interviste per valutare se l'utente sta prestando attenzione.
Image
Image

L'uso crescente dell'intelligenza artificiale (AI) per monitorare le emozioni umane sta suscitando problemi di privacy.

Le organizzazioni per i diritti umani chiedono a Zoom di rallentare il suo piano per introdurre l'IA per l'analisi delle emozioni nel suo software di videoconferenza. Secondo quanto riferito, la società ha affermato che utilizzerà l'IA per valutare il sentimento o il livello di coinvolgimento di un utente.

"Gli esperti ammettono che l'analisi delle emozioni non funziona", ha scritto il consorzio dei gruppi per i diritti umani, inclusa l'ACLU, in una lettera a Zoom. "Le espressioni facciali sono spesso disconnesse dalle emozioni sottostanti e la ricerca ha scoperto che nemmeno gli esseri umani possono leggere o misurare con precisione le emozioni degli altri a volte. Lo sviluppo di questo strumento aggiunge credibilità alla pseudoscienza e mette in gioco la tua reputazione."

Zoom non ha risposto immediatamente a una richiesta di commento di Lifewire.

Tenere sotto controllo le tue emozioni

Secondo l'articolo del Protocollo, il sistema di monitoraggio Zoom chiamato Q for Sales controlla il rapporto tra il tempo di conversazione degli utenti, il ritardo nel tempo di risposta e i frequenti cambi di oratore per tenere traccia del livello di coinvolgimento della persona. Zoom utilizzerà questi dati per assegnare punteggi compresi tra zero e 100, con punteggi più alti che indicano un maggiore coinvolgimento o sentimento.

I gruppi per i diritti umani affermano che il software potrebbe discriminare le persone con disabilità o determinate etnie presumendo che tutti usino le stesse espressioni facciali, schemi vocali e linguaggio del corpo per comunicare. I gruppi suggeriscono inoltre che il software potrebbe rappresentare un rischio per la sicurezza dei dati.

Image
Image

"La raccolta di dati personali in profondità potrebbe rendere qualsiasi entità che utilizzi questa tecnologia un bersaglio per ficcanasare autorità governative e hacker malintenzionati", secondo la lettera.

Julia Stoyanovich, professoressa di informatica e ingegneria alla New York University, ha detto a Lifewire in un'intervista via e-mail di essere scettica sulle affermazioni dietro il rilevamento delle emozioni.

"Non vedo come una tale tecnologia possa funzionare: l'espressione emotiva delle persone è molto individuale, molto culturalmente dipendente e molto specifica al contesto", ha detto Stoyanovich."Ma, forse ancora più importante, non vedo perché vorremmo che questi strumenti funzionassero. In altre parole, saremmo ancora più nei guai se funzionassero bene. Ma forse anche prima di pensare ai rischi, dovremmo chiedi: quali sono i potenziali vantaggi di tale tecnologia?"

Zoom non è l'unica azienda a utilizzare software di rilevamento delle emozioni. Theo Wills, il direttore senior della privacy di Kuma LLC, una società di consulenza sulla privacy e la sicurezza, ha detto a Lifewire via e-mail che durante le interviste viene utilizzato un software per rilevare le emozioni per valutare se l'utente presta attenzione. È anche in fase di sperimentazione nel settore dei trasporti per monitorare se i conducenti sembrano assonnati, su piattaforme video per valutare l'interesse e personalizzare i consigli e in tutorial educativi per determinare se un particolare metodo di insegnamento è coinvolgente.

Wills ha affermato che la controversia sul software di monitoraggio delle emozioni è più una questione di etica dei dati che di privacy. Ha detto che si tratta del sistema che prende decisioni nel mondo reale basate su intuizioni.

"Con questa tecnologia, ora stai assumendo il motivo per cui ho un'espressione particolare sul viso, ma l'impulso dietro un'espressione varia ampiamente a causa di cose come l'educazione sociale o culturale, i comportamenti familiari, le esperienze passate o il nervosismo in questo momento", ha aggiunto Wills. "Basare l'algoritmo su un presupposto è intrinsecamente imperfetto e potenzialmente discriminatorio. Molte popolazioni non sono rappresentate nella popolazione su cui si basano gli algoritmi ed è necessario dare priorità a una rappresentazione appropriata prima di poterla utilizzare."

Considerazioni pratiche

I problemi sollevati dal software di rilevamento delle emozioni possono essere pratici oltre che teorici. Matt Heisie, il co-fondatore di Ferret.ai, un'app basata sull'intelligenza artificiale che fornisce intelligence sulle relazioni, ha detto a Lifewire in un'e-mail che gli utenti devono chiedere dove viene eseguita l'analisi dei volti e quali dati vengono archiviati. Lo studio è in corso sulle registrazioni delle chiamate, elaborate nel cloud o sul dispositivo locale?

Inoltre, Heisie ha chiesto, mentre l'algoritmo apprende, quali dati raccoglie sul viso di una persona o sui movimenti che potrebbero essere potenzialmente districati dall'algoritmo e utilizzati per ricreare i dati biometrici di qualcuno? L'azienda sta archiviando istantanee per verificare o convalidare gli apprendimenti dell'algoritmo e l'utente viene informato di questi nuovi dati derivati o immagini memorizzate potenzialmente raccolte dalle sue chiamate?

"Questi sono tutti problemi che molte aziende hanno risolto, ma ci sono anche aziende che sono state scosse dallo scandalo quando si è scoperto che non l'hanno fatto correttamente", ha detto Heisie. "Facebook è il caso più significativo di un'azienda che ha annullato la sua piattaforma di riconoscimento facciale a causa delle preoccupazioni sulla privacy degli utenti. La società madre Meta sta ora ritirando funzionalità AR da Instagram in alcune giurisdizioni come Illinois e Texas per le leggi sulla privacy relative ai dati biometrici."

Consigliato: