Perché Facebook ha bisogno di regole più chiare sulla disinformazione

Sommario:

Perché Facebook ha bisogno di regole più chiare sulla disinformazione
Perché Facebook ha bisogno di regole più chiare sulla disinformazione
Anonim

Da asporto chiave

  • Il consiglio di sorveglianza di Facebook ha chiesto regole più chiare sulla disinformazione sul sito web dei social media.
  • Il consiglio ha attualmente annullato diverse decisioni prese da Facebook per rimuovere i post che considerava disinformazione o incitamento all'odio, ma in re altà non lo erano.
  • È necessaria una definizione più chiara di ciò che è e non è disinformazione o incitamento all'odio, soprattutto con la portata internazionale di Facebook.
Image
Image

Il consiglio di sorveglianza di Facebook, che è stato istituito per supervisionare ulteriormente la rimozione e la moderazione dei post sul sito Web, ha rib altato alcune precedenti decisioni prese in merito ai post rimossi, illuminando la necessità di definizioni e regole più chiare.

Il consiglio di sorveglianza ha affrontato i suoi primi cinque casi nel dicembre 2020. Sebbene uno dei post inclusi nella revisione provenisse dagli Stati Uniti, complessivamente i post provenivano da quattro diversi continenti, ognuno dei quali poteva visualizzare le dichiarazioni rese in modi completamente diversi. Per questo motivo, le politiche messe in atto da Facebook devono essere concise e devono funzionare con qualsiasi comunità su cui potrebbero concentrarsi gli strumenti di moderazione.

"L'attività di "revisione indipendente" di Facebook deve essere coerente oltre i confini internazionali", ci ha scritto Jim Isaak, ex presidente dell'Institute of Electrical and Electronics Engineers e un veterano del settore tecnologico da 30 anni tramite e-mail. "Ma ciò che è 'incitamento all'odio' negli Stati Uniti potrebbe essere definito patriottico in altre società autocratiche, aumentando la complessità di ciò che viene fatto."

Linee nella sabbia

Questa esigenza di coerenza e regole più concise sta già entrando in gioco. Dei cinque casi che il consiglio di sorveglianza di Facebook ha affrontato a dicembre, il gruppo ha deciso di rib altare quattro casi, due dei quali mostrano chiaramente la necessità di una migliore moderazione.

In uno dei casi rib altati, il consiglio si è pronunciato a favore di una donna il cui post Instagram sul cancro al seno è stato rimosso automaticamente dal sito Web per aver infranto la sua politica sulla nudità degli adulti e sull'attività sessuale.

Mentre Facebook aveva già ripristinato la fotografia, il consiglio ha mostrato obiezioni alla sua rimozione in primo luogo. Il consiglio ha persino raccomandato a Facebook di mettere in atto un sistema di ricorso che consenta agli utenti di vedere quando un post è stato rimosso, perché è stato rimosso e persino suggerendo modi per parlare con un essere umano per cercare una soluzione.

Image
Image

Il consiglio ha scoperto che, mentre la donna aveva condiviso un post che mostrava capezzoli femminili scoperti e visibili, la fotografia non aveva infranto le Linee guida della community di Instagram. Lo standard per la nudità degli adulti e l'attività sessuale che Facebook sostiene nei suoi standard della comunità consente la nudità quando l'utente sta cercando di aumentare la consapevolezza per un motivo medico o altra causa.

Un altro post, che è stato condiviso dal Myanmar, includeva un linguaggio sui musulmani che secondo il consiglio potrebbe essere considerato offensivo, ma non ha raggiunto il livello di incitamento all'odio per giustificarne la rimozione o considerato contro le regole.

Qui è dove le cose iniziano a diventare particolarmente complicate.

Da che parte sta succedendo?

"Facebook opera a livello internazionale", ha detto Isaak a Lifewire via e-mail. "Ogni giurisdizione ha le sue regole e Facebook potrebbe essere ritenuto responsabile in base a quelle di altri paesi."

Facebook deve tenere a mente tutte le regole dei territori in cui opera quando imposta nuove politiche. Rendendo poco chiare le politiche, Facebook lascia spazio a errori che potrebbero portare il consiglio di sorveglianza a dover rib altare più casi in futuro.

Con la diffusione dell'incitamento all'odio e della disinformazione che stanno diventando così prevalenti, specialmente sui social media come Facebook e Twitter, è importante che queste aziende offrano linee guida chiare che possano poi essere utilizzate per moderare la comunità.

Quello che è 'incitamento all'odio' negli Stati Uniti potrebbe essere definito patriottico in altre società autocratiche…

Certo, ci sono sempre altre opzioni per aiutare a mitigare questo tipo di problemi. In effetti, uno dei casi che originariamente il consiglio avrebbe dovuto supervisionare a dicembre è stato rimosso dal registro in seguito alla cancellazione del post da parte dell'utente.

La moderazione generata dagli utenti è qualcosa che abbiamo già visto avere successo su siti Web come Wikipedia e, recentemente, lo stesso Twitter si è intensificato rilasciando Birdwatch, un sistema di moderazione basato sulla community per aiutare a fermare la diffusione della disinformazione.

Questi metodi presentano tuttavia altri problemi, motivo per cui ottenere una base standard per le aspettative della comunità sarà fondamentale per consentire a Facebook di offrire una migliore moderazione delle sue app e dei suoi siti Web in futuro.

Consigliato: