Il pregiudizio razziale dell'algoritmo di Twitter indica un problema tecnico più ampio

Sommario:

Il pregiudizio razziale dell'algoritmo di Twitter indica un problema tecnico più ampio
Il pregiudizio razziale dell'algoritmo di Twitter indica un problema tecnico più ampio
Anonim

Da asporto chiave

  • Twitter spera di rimediare a ciò che gli utenti chiamano pregiudizi razziali nel loro software di anteprima delle immagini.
  • Il richiamo del gigante della tecnologia potrebbe essere la resa dei conti culturale di cui l'industria ha bisogno per affrontare i problemi della diversità.
  • La mancanza di diversità della tecnologia sta danneggiando l'efficacia dei suoi progressi tecnologici.
Image
Image

Twitter avvierà un'indagine sul suo algoritmo di ritaglio delle immagini dopo che è diventato un argomento di tendenza che ha stimolato una conversazione più ampia sui problemi della diversità nel settore tecnologico.

Il colosso dei social media ha fatto notizia dopo che gli utenti hanno scoperto apparenti pregiudizi razziali nel suo algoritmo di anteprima delle immagini. La scoperta è avvenuta dopo che l'utente di Twitter Colin Madland ha utilizzato la piattaforma per denunciare l'incapacità di Zoom di riconoscere i suoi colleghi neri che hanno utilizzato la tecnologia dello schermo verde, ma in una grande dimostrazione di ironia, ha scoperto che l'algoritmo di ritaglio delle immagini di Twitter si comportava in modo simile e deprioritava i volti neri.

Certo, è un grosso problema per qualsiasi minoranza, ma penso che ci sia anche un problema molto più ampio.

Altri utenti sono entrati nella tendenza scatenando una serie di tweet virali che mostravano che l'algoritmo dava costantemente la priorità ai volti bianchi e alla pelle più chiara, dalle persone ai personaggi dei cartoni animati e persino ai cani. Questo fallimento è indicativo di un movimento culturale più ampio nell'industria tecnologica che ha costantemente fallito nel rendere conto dei gruppi minoritari, che si sono riversati sul lato tecnico.

"Fa sentire terribili le minoranze, come se non fossero importanti, e può essere utilizzato per altre cose che potrebbero causare danni più gravi in futuro", Erik Learned-Miller, professore di informatica all'Università del Massachusetts, ha detto in un'intervista telefonica."Una volta deciso per cosa può essere utilizzato un software e tutti i danni che possono verificarsi, iniziamo a parlare dei modi per ridurre al minimo le possibilità che ciò accada."

Canary sulla linea temporale

Twitter utilizza le reti neurali per ritagliare automaticamente le immagini incorporate nei tweet. L'algoritmo dovrebbe rilevare i volti da visualizzare in anteprima, ma sembra avere una notevole distorsione del bianco. La portavoce dell'azienda Liz Kelley ha twittato una risposta a tutte le preoccupazioni.

Kelley ha twittato, "grazie a tutti coloro che hanno sollevato questo problema. abbiamo testato i pregiudizi prima di spedire il modello e non abbiamo trovato prove di pregiudizi razziali o di genere nei nostri test, ma è chiaro che abbiamo più analisi per faremo. renderemo open source il nostro lavoro in modo che altri possano rivederlo e replicarlo."

Co-autore del white paper "Facial Recognition Technologies in The Wild: A Call for a Federal Office", Learned-Miller è uno dei principali ricercatori sugli eccessi del software di apprendimento basato sull'intelligenza artificiale basato sul volto. Ha discusso per anni del potenziale impatto negativo del software di apprendimento delle immagini e ha parlato dell'importanza di creare una re altà in cui questi pregiudizi siano mitigati al meglio delle loro capacità.

Molti algoritmi per la tecnologia di riconoscimento facciale utilizzano set di riferimento per i dati, spesso noti come set di addestramento, che sono una raccolta di immagini utilizzate per ottimizzare il comportamento del software di apprendimento delle immagini. Alla fine consente all'IA di riconoscere prontamente un'ampia gamma di volti. Tuttavia, questi set di riferimento possono non avere un pool diversificato, portando a problemi come quelli riscontrati dal team di Twitter.

"Certo, è un grosso problema per qualsiasi minoranza, ma penso che ci sia anche un problema molto più ampio", ha detto Learned-Miller. "Si riferisce alla mancanza di diversità nel settore tecnologico e alla necessità di una forza normativa centralizzata per mostrare gli usi corretti di questo tipo di potente software soggetto a uso improprio e abuso."

Tecnologia che manca di diversità

Twitter potrebbe essere l'ultima azienda tecnologica sul tagliere, ma questo è tutt' altro che un nuovo problema. Il campo tecnologico rimane un campo prevalentemente bianco, perennemente dominato dagli uomini e i ricercatori hanno scoperto che la mancanza di diversità causa una replicazione di squilibri storici e sistemici nel software sviluppato.

In un rapporto del 2019 dell'AI Now Institute della New York University, i ricercatori hanno scoperto che i neri costituiscono meno del 6% della forza lavoro nelle migliori aziende tecnologiche del paese. Allo stesso modo, le donne rappresentano solo il 26% dei lavoratori sul campo, una statistica inferiore alla loro quota nel 1960.

Fa sentire terribili le minoranze, come se non fossero importanti, e può essere utilizzato per altre cose che potrebbero causare danni più gravi in futuro.

In superficie, questi problemi rappresentativi possono sembrare banali, ma in pratica il danno causato può essere profondo. I ricercatori nel rapporto dell'AI Now Institute suggeriscono che ciò si collega causalmente a problemi con il software che spesso non riesce a tenere conto delle popolazioni non bianche e non maschili. Che si tratti dei distributori di sapone a infrarossi che non riescono a rilevare la pelle più scura o del software AI di Amazon che non riesce a differenziare i volti femminili da quelli delle loro controparti maschili, il fallimento nell'affrontare la diversità nel settore tecnologico porta al fallimento della tecnologia nell'affrontare un mondo diversificato.

"Ci sono molte persone che non hanno riflettuto sui problemi e non si rendono davvero conto di come queste cose possano causare danni e quanto siano significativi questi danni", ha suggerito Learned-Miller sull'apprendimento delle immagini dell'IA. "Speriamo che il numero di persone stia diminuendo!"

Consigliato: