Twitter condivide i risultati di Algorithmic Bias Bounty Challenge

Twitter condivide i risultati di Algorithmic Bias Bounty Challenge
Twitter condivide i risultati di Algorithmic Bias Bounty Challenge
Anonim

Twitter ha annunciato i risultati del suo concorso aperto per trovare i pregiudizi nel suo sistema di ritaglio delle foto.

La sfida delle taglie si è aperta a luglio dopo che gli utenti di Twitter hanno mostrato che lo strumento di ritaglio automatizzato del sito ha favorito i volti delle persone con carnagione più chiara rispetto a quelli con carnagione più scura. Ha sollevato alcune domande su come il software abbia dato la priorità al colore della pelle e ad alcuni fattori rispetto ad altri.

Image
Image

La sfida ha cercato di trovare quali altri bug e pregiudizi potrebbero avere il sistema di ritaglio per risolvere i problemi.

Il primo posto è andato a Bogdan Kulynych, la cui presentazione ha mostrato come i filtri di bellezza potrebbero aggirare il modello di punteggio dell'algoritmo, che, a sua volta, amplifica gli standard di bellezza tradizionali. La presentazione ha mostrato che l'algoritmo preferiva i volti giovani e magri con un tono della pelle chiaro o caldo. Kulynych ha vinto $ 3.500.

Il secondo posto è andato a HALT AI, una startup tecnologica di Toronto, che ha scoperto che le immagini di anziani e disabili erano state ritagliate dalle foto. La squadra ha ricevuto $ 2.000 per essere arrivata seconda.

Il terzo posto, e $ 500, è andato a Roya Pakzad, fondatrice di Taraaz Research, che ha scoperto che l'algoritmo preferiva ritagliare le scritture latine rispetto a quelle arabe, il che potrebbe danneggiare la diversità linguistica.

Image
Image

I risultati dettagliati sono stati presentati al DEF CON 29 da Rumman Chowdhury, il direttore del team META di Twitter. Il team META studia i problemi non intenzionali negli algoritmi ed elimina qualsiasi tipo di pregiudizio di genere e razziale che tali sistemi possono avere.

I dati ottenuti da questo concorso verranno utilizzati per alleviare bug e bias nell'algoritmo di ritaglio e contribuire a garantire un ambiente più inclusivo.

Consigliato: