La previsione del crimine AI potrebbe accusare le persone sbagliate

Sommario:

La previsione del crimine AI potrebbe accusare le persone sbagliate
La previsione del crimine AI potrebbe accusare le persone sbagliate
Anonim

Da asporto chiave

  • Secondo quanto riferito, una società di software sta raccogliendo informazioni sui social media per creare profili che possono essere utilizzati per identificare le persone che pongono rischi per la sicurezza.
  • Voyager Labs ha siglato un importante accordo con un'agenzia governativa giapponese.
  • Ma gli esperti avvertono che il software di previsione AI può essere ingannato.
Image
Image

Le tue informazioni online potrebbero essere utilizzate per prevedere se potresti commettere un crimine.

Secondo quanto riferito, Voyager Labs sta raccogliendo informazioni sui social media per creare profili che possono essere utilizzati per identificare le persone che pongono rischi per la sicurezza. Fa parte di uno sforzo crescente per utilizzare l'intelligenza artificiale (AI) per indagare su potenziali criminali. Ma alcuni esperti dicono che il movimento è pieno di potenziali problemi.

"È molto difficile prevedere il comportamento umano", ha detto a Lifewire Matthew Carr, un ricercatore di sicurezza presso l'Atumcell Group, in un'intervista via e-mail. "Non siamo nemmeno in grado di prevedere il nostro comportamento, per non parlare di quello di qualcun altro. Penso che sia possibile che l'IA possa essere utilizzata in futuro per questo scopo, ma al momento siamo molto lontani dall'essere in grado di farlo."

Creazione di profili

Come riportato di recente da The Guardian, il dipartimento di polizia di Los Angeles ha esaminato l'utilizzo del software di previsione del crimine di Voyager Lab. La società ha anche annunciato di aver siglato un importante accordo con un'agenzia governativa giapponese.

L'accordo giapponese fornisce all'agenzia governativa una piattaforma investigativa basata sull'intelligenza artificiale che analizza enormi quantità di informazioni da qualsiasi fonte, inclusi dati aperti e profondi.

"Sono felice che stiamo collaborando nella lotta contro il terrorismo e il crimine", ha affermato Divya Khangarot, amministratore delegato APAC di Voyager Labs, nel comunicato stampa. "Utilizzando le soluzioni di intelligence all'avanguardia di Voyager Lab, i nostri clienti ottengono capacità uniche per identificare e interrompere in modo proattivo potenziali minacce. Portiamo ulteriori livelli di approfondimenti investigativi utilizzando una combinazione di AI, Machine Learning e OSINT per scoprire tracce nascoste, informazioni violate, e cattivi attori."

Non così intelligente?

Ma in un'intervista via e-mail, Matt Heisie, il co-fondatore di Ferret.ai, che utilizza anche l'IA per prevedere i trasgressori, ha messo in dubbio alcune delle affermazioni di Voyager Labs.

"C'è un legame così chiaro tra, diciamo, un record di arresto e comportamenti criminali futuri, come c'è un punto nero su un test e lo sviluppo di un tumore?" Egli ha detto. "Pensa a tutte le potenziali confusioni che sono andate in quell'arresto: in quale quartiere viveva la persona, la quantità e la qualità, persino i pregiudizi, della polizia in quella zona. L'età della persona, il suo sesso, il suo aspetto fisico, tutto ciò ha un impatto intersecante sulla probabilità che quella persona abbia un record di arresto, completamente separato dalla sua effettiva propensione a commettere il crimine che stiamo tentando di prevedere."

È più probabile che gli imputati con avvocati migliori siano in grado di impedire che i documenti diventino disponibili al pubblico, ha affermato Heisie. Alcune giurisdizioni limitano il rilascio di foto segnaletiche o registri di arresto per proteggere l'imputato.

"Il computer imparerà in base ai dati che gli fornisci e incorporerà tutti i pregiudizi che sono andati in quella raccolta di dati…"

"Tutto questo aggiunge ulteriore distorsione agli algoritmi", ha aggiunto. "Il computer imparerà in base ai dati che gli fornisci e incorporerà tutti i pregiudizi che sono andati in quella raccolta di dati nell'apprendimento e nell'interpretazione."

Ci sono stati diversi tentativi di creare criminalità che predicono le IA e con risultati spesso scandalosi, ha detto Heisie.

COMPAS, un algoritmo utilizzato dalle forze dell'ordine per prevedere la recidiva, viene spesso utilizzato per determinare la condanna e la cauzione. Ha subito scandali risalenti al 2016 per pregiudizi razziali, prevedendo che gli imputati neri rappresentassero un rischio di recidiva più elevato di quanto non facessero in re altà, e il contrario per gli imputati bianchi.

Oltre 1.000 tecnologi e studiosi, inclusi accademici ed esperti di intelligenza artificiale di Harvard, MIT, Google e Microsoft, si sono espressi nel 2020 contro un documento in cui si affermava che i ricercatori avevano sviluppato un algoritmo in grado di prevedere la criminalità basata esclusivamente su un faccia della persona, dicendo che la pubblicazione di tali studi rafforza i pregiudizi razziali preesistenti nel sistema di giustizia penale, ha osservato Heisie.

Image
Image

La Cina è il mercato più grande e in più rapida crescita per questo tipo di tecnologia, principalmente a causa dell'accesso diffuso ai dati privati, con oltre 200 milioni di telecamere di sorveglianza e ricerche avanzate sull'IA incentrate su questo problema da molti anni, ha affermato Heisie. Sistemi come Police Cloud di CloudWalk vengono ora utilizzati per prevedere e rintracciare i criminali e individuare le forze dell'ordine.

"Tuttavia, anche lì vengono segnalati distorsioni sostanziali", ha detto Heisie.

Heisie ha aggiunto che la sua azienda cura attentamente i dati che entrano e non usa foto segnaletiche o registrazioni di arresti, "concentrandosi invece su criteri più oggettivi."

"La nostra IA ha imparato dai dati curati, ma soprattutto, impara anche dalle persone, che analizzano, curano e valutano i record e ci parlano delle loro interazioni con gli altri", ha aggiunto. "Manteniamo inoltre la piena trasparenza e l'accesso gratuito e pubblico alla nostra applicazione (il più rapidamente possibile per consentirne la versione beta) e accogliamo con favore informazioni dettagliate sui nostri processi e procedure."

Consigliato: