La restrizione New Age di YouTube sull'IA preoccupa la comunità LGBTQ+

Sommario:

La restrizione New Age di YouTube sull'IA preoccupa la comunità LGBTQ+
La restrizione New Age di YouTube sull'IA preoccupa la comunità LGBTQ+
Anonim

Da asporto chiave

  • Il software di limitazione automatica dell'età di YouTube è motivo di preoccupazione per i contenuti LGBTQ+ sulla piattaforma.
  • La società è stata segnata da polemiche riguardanti i creatori di contenuti LGBTQ+ che cementano i dubbi.
  • I pregiudizi nell'apprendimento automatico danno credito all'idea che la sua imperfetta implementazione dei filtri potrebbe limitare ingiustamente l'accesso.
Image
Image

Con una storia di targeting ingiusto per i creatori di contenuti LGBTQ+ nel suo processo di moderazione, la nuova tecnologia basata sull'intelligenza artificiale di YouTube è vista come un preoccupante passo successivo per il gigante della tecnologia.

Sul blog ufficiale di YouTube la scorsa settimana, la piattaforma di condivisione video ha svelato l'intenzione di rilasciare un nuovo software automatico per "applicare in modo più coerente i limiti di età" ai video ritenuti inappropriati per gli spettatori più giovani.

Motivato dalle recenti preoccupazioni per i bambini sull'app, il nuovo sistema si basa su un software di intelligenza artificiale di apprendimento automatico con la capacità di rinunciare ai moderatori umani per un processo più automatico. Il problema? I sistemi automatizzati di YouTube sono stati accusati di isolare i contenuti LGBTQ+ e i creatori semplicemente per esistere.

Anche se non è dannoso, cosa che non credo lo sia, è una mancanza di input da voci diverse, o almeno una mancanza di rispetto.

"L'apprendimento automatico è informato e creato dagli esseri umani, ed è possibile avere quei pregiudizi intrinseci o appresi dalla macchina stessa", ha affermato lo YouTuber Rowan Ellis in un'intervista telefonica con Lifewire. "Il suo pregiudizio riguardo ai contenuti [LGBTQ+] è stato evidente nelle precedenti esperienze di YouTuber [LGBTQ+] e non ho visto prove che sia stato fatto qualcosa per impedire che accada."

Baby, ora abbiamo cattivo sangue

Ellis è una YouTuber che crea contenuti educativi con un'inclinazione femminista e queer e nel 2017 ha pubblicato un video sulla modalità ristretta dell'azienda. Come prima incursione nella moderazione automatica dei contenuti, questa modalità ha consentito agli utenti di preselezionare facoltativamente "contenuti potenzialmente maturi" da suggerimenti e consigli di ricerca.

Con oltre 100.000 visualizzazioni, crede che ci sia stato uno sforzo consapevole per impedire al suo canale di subire restrizioni a causa della sua netta opposizione agli eccessi del nuovo passo di YouTube verso la moderazione. Gli altri utenti della piattaforma non sono stati così fortunati e l'hanno fatto conoscere a YouTube.

Un'azione collettiva contro YouTube è stata intentata nell'agosto 2019 da un gruppo di otto creatori LGBTQ+ che hanno accusato la società della Silicon Valley di limitare i produttori di video e contenuti queer e trans. La causa sostiene che il sito utilizza "pratiche illegali di regolamentazione, distribuzione e monetizzazione dei contenuti che stigmatizzano, limitano, bloccano, demonetizzare e danneggiano finanziariamente i querelanti LGBT e la più ampia comunità LGBT." Si sta ancora facendo strada nei tribunali della California.

L'apprendimento automatico è informato e creato dagli esseri umani, ed è possibile avere quei pregiudizi intrinseci o appresi dalla macchina stessa.

Nel giugno dello stesso anno, la piattaforma ha ricevuto un'ondata di attenzione da parte dei media dopo aver rifiutato di rimproverare rapidamente il popolare commentatore conservatore Steven Crowder per una campagna di molestie omofobe durata mesi contro il giornalista e conduttore di Vox Carlos Maza. Ciò ha cementato ciò che secondo Ellis è un modello con la piattaforma online di ignorare le sfide uniche che i creatori di queer devono affrontare. La mancanza di fiducia dei creatori LGBTQ+ nella capacità di YouTube di presentarsi per loro non è priva di merito.

"Non credo che abbiano compreso la necessità di trasparenza per quanto riguarda le questioni sociali e di garantire l'uguaglianza", ha affermato. "Ci sono ancora bambini in tutto il mondo che sono cresciuti con l'idea che essere gay sia sbagliato, e quando iniziano a mettere in discussione questa convinzione, ma la trovano chiusa da una ricerca o una restrizione sicura, rafforzerà questa idea che è sbagliato, inappropriato, adulto, perverso e sporco."

Impossibile apprendere automaticamente

Con la sua sordida storia riguardo ai creatori di contenuti LGBTQ+ sulla sua piattaforma, le preoccupazioni per l'implementazione della capacità del software di apprendimento automatico di discernere norme più grandi incombono ancora. Don Heider, direttore esecutivo del Markkula Center for Applied Ethics, suggerisce che il potenziale di follia è un rischio troppo grande per scommettere.

"È difficile credere che l'IA possa governare efficacemente i contenuti di più paesi con norme e standard culturali diversi", ha scritto in un'intervista via e-mail. "L'IA è troppo spesso vista come la risposta a domande complesse. A questo punto, l'IA e il modo in cui viene creata faticano a gestire anche compiti semplici, per non parlare di moderazione dei contenuti con qualsiasi livello di complessità."

YouTube ha deciso di utilizzare la tecnologia AI a causa della mancanza di moderazione coerente da parte dei moderatori umani, secondo il suo blog. Aumentare l'uso di filtri computerizzati per rimuovere i video ritenuti non idonei è diventata la norma e l'attuazione delle stesse procedure per le sue politiche di limitazione dell'età è vista come un logico passo successivo.

Come azienda che cerca di migliorare gradualmente i propri processi dopo le critiche di lunga data in merito al suo rapporto con i consumatori bambini, questa decisione non sorprende.

Non credo che abbiano compreso la necessità di trasparenza per quanto riguarda le questioni sociali e di garantire l'uguaglianza.

I bambini sono diventati un elemento demografico chiave per il sito di condivisione video. Ad agosto, la società di analisi dei video digitali Tubular ha scoperto che, oltre ai video musicali, i contenuti rivolti ai bambini erano in cima alla lista di fine mese per i video più visti su YouTube.

L'interesse dell'azienda nel proteggere questa lucrativa potenza emergente sulla piattaforma ha senso. Tuttavia, gli strumenti utilizzati per far rispettare questa protezione restano scomodi per coloro che si sono già trovati a valle delle procedure di moderazione dell'azienda.

"La mia preoccupazione è che possa causare molti danni e non proteggere i giovani [LGBTQ+] che hanno bisogno di contenuti informativi, franchi e onesti che molti utenti di YouTube [LGBTQ+] potrebbero fornire, ma vengono segnalati nel suo sistema come inappropriato", ha detto Ellis."Anche se non è dannoso, cosa che non credo lo sia, è una mancanza di input da voci diverse, o almeno una mancanza di rispetto.

"Lo vediamo sempre nella tecnologia. Quando osservi il riconoscimento facciale che non riesce a differenziare i diversi volti neri, o quando guardiamo alla medicina e vediamo che i farmaci sono stati testati solo su un sesso particolare. Questi sono conversazioni più ampie e YouTube non ne è esente."