Perché il nuovo software di profilazione solleva problemi di privacy

Sommario:

Perché il nuovo software di profilazione solleva problemi di privacy
Perché il nuovo software di profilazione solleva problemi di privacy
Anonim

Da asporto chiave

  • Il software che utilizza l'intelligenza artificiale per profilare le persone sta sollevando problemi di privacy.
  • Cryfe combina le tecniche di analisi comportamentale con l'intelligenza artificiale.
  • La società cinese Alibaba ha recentemente affrontato critiche dopo aver affermato che il suo software potrebbe rilevare uiguri e altre minoranze etniche.
Image
Image

Il nuovo software basato sull'intelligenza artificiale destinato ai datori di lavoro per profilare i propri dipendenti sta sollevando problemi di privacy.

Una nuova piattaforma software, chiamata Cryfe, combina le tecniche di analisi comportamentale con l'intelligenza artificiale. Lo sviluppatore afferma che analizzando piccoli indizi, il software può rivelare le intenzioni delle persone durante le interviste. Ma alcuni osservatori affermano che Cryfe e altri tipi di software che analizzano il comportamento possono invadere la privacy.

"Le aziende si affidano sempre più all'intelligenza artificiale per la profilazione", ha affermato l'esperto di intelligenza artificiale Vaclav Vincale in un'intervista via e-mail. "Ma anche gli esseri umani che codificano questi algoritmi, tanto meno una persona dell'assistenza clienti che raggiungi al telefono, non potrebbero dirti perché fanno una determinata raccomandazione."

Più di parole

Cryfe è stato sviluppato da un'azienda svizzera i cui dipendenti sono stati formati dall'FBI sulle tecniche di profilazione. "Cryfe, in tutta la comunicazione interpersonale, non solo ascolta le parole, ma identifica altri segnali emessi dall'essere umano come emozioni, micro-espressioni e tutti i gesti", ha detto in un'intervista via email Caroline Matteucci, fondatrice di Cryfe.

"Durante il reclutamento, ad esempio, questo ci permette di andare a cercare la vera personalità del nostro interlocutore."

Matteucci ha affermato che la privacy degli utenti è protetta perché l'azienda è trasparente su come funziona il suo software. "L'utente, prima di poter utilizzare la piattaforma, deve accettare le condizioni generali", ha affermato.

"Vi si specifica che l'utente non può in nessun caso sottoporre un colloquio per analisi senza aver ricevuto il consenso scritto dell'interlocutore."

Cryfe non è l'unico software basato sull'intelligenza artificiale che pretende di analizzare il comportamento umano. C'è anche Humantic, che afferma di analizzare il comportamento dei consumatori. "La tecnologia rivoluzionaria di Humantic prevede il comportamento di tutti senza che abbiano mai bisogno di fare un test della personalità", secondo il sito Web dell'azienda.

Image
Image

L'azienda afferma di utilizzare l'IA per creare i profili psicologici dei candidati in base alle parole che usano nei curriculum, nelle lettere di presentazione, nei profili LinkedIn e in qualsiasi altro testo inviato.

Il software comportamentale ha incontrato problemi legali in passato. Nel 2019, la legge Bloomberg ha riferito che la Commissione per le pari opportunità di lavoro (EEOC) ha esaminato casi di presunta discriminazione illegale a causa di decisioni relative alle risorse umane assistite da algoritmi.

"Tutto dovrà essere risolto perché il futuro del reclutamento è l'intelligenza artificiale", ha detto l'avvocato Bradford Newman a Bloomberg.

Alcuni osservatori contestano le aziende che utilizzano software di monitoraggio comportamentale perché non sono sufficientemente precisi. In un'intervista, Nigel Duffy, leader globale dell'intelligenza artificiale presso la società di servizi professionali EY, ha dichiarato a InformationWeek di essere turbato dal software che utilizza i quiz sui social media e il rilevamento degli effetti.

"Penso che ci sia della letteratura davvero interessante sul potenziale rilevamento degli affetti, ma la mia comprensione è che il modo in cui viene implementato spesso è piuttosto ingenuo", ha detto.

"Le persone traggono inferenze che la scienza non supporta davvero [come] decidere che qualcuno è un dipendente potenzialmente bravo perché sorride molto o decidere che a qualcuno piacciono i tuoi prodotti perché sorride molto."

Secondo quanto riferito, le società cinesi profilano le minoranze

Il monitoraggio del comportamento potrebbe avere anche scopi più sinistri, affermano alcuni gruppi per i diritti umani. In Cina, il gigante del mercato online Alibaba ha recentemente suscitato scalpore dopo aver affermato che il suo software potrebbe rilevare gli uiguri e altre minoranze etniche.

Il New York Times ha riferito che l'attività di cloud computing dell'azienda disponeva di un software in grado di scansionare immagini e video.

Ma anche gli esseri umani che codificano questi algoritmi… non possono dirti perché danno una raccomandazione specifica.

Il Washington Post ha anche riferito di recente che Huawei, un' altra azienda tecnologica cinese, aveva testato un software in grado di avvisare le forze dell'ordine quando le sue telecamere di sorveglianza rilevavano volti uiguri.

Secondo quanto riferito, Una domanda di brevetto del 2018 di Huawei ha affermato che "l'identificazione degli attributi dei pedoni è molto importante" nella tecnologia di riconoscimento facciale."Gli attributi dell'oggetto target possono essere il sesso (maschio, femmina), l'età (come adolescenti, mezza età, anziani) [o] razza (Han, uigura)," diceva l'applicazione.

Un portavoce di Huawei ha detto alla CNN Business che la funzione di identificazione dell'etnia "non dovrebbe mai essere diventata parte dell'applicazione".

Il crescente utilizzo dell'intelligenza artificiale per smistare enormi quantità di dati è destinato a sollevare problemi di privacy. Potresti non sapere mai chi o cosa ti sta analizzando la prossima volta che parteciperai a un colloquio di lavoro.

Consigliato: