AI potrebbe finalmente aiutare a reprimere l'incitamento all'odio

Sommario:

AI potrebbe finalmente aiutare a reprimere l'incitamento all'odio
AI potrebbe finalmente aiutare a reprimere l'incitamento all'odio
Anonim

Da asporto chiave

  • Un nuovo strumento software consente all'IA di monitorare i commenti su Internet per l'incitamento all'odio.
  • L'intelligenza artificiale è necessaria per moderare i contenuti Internet a causa dell'enorme volume di materiale che supera le capacità umane.
  • Ma alcuni esperti affermano che il monitoraggio del parlato tramite intelligenza artificiale solleva problemi di privacy.
Image
Image

Con l'aumento dell'incitamento all'odio online, un'azienda afferma che potrebbe avere una soluzione che non si basa su moderatori umani.

Una startup chiamata Spectrum Labs fornisce tecnologia di intelligenza artificiale ai fornitori di piattaforme per rilevare e chiudere scambi tossici in tempo reale. Ma gli esperti affermano che il monitoraggio dell'IA solleva anche problemi di privacy.

"Il monitoraggio dell'IA spesso richiede l'analisi degli schemi nel tempo, il che richiede la conservazione dei dati", ha detto a Lifewire David Moody, un associato senior di Schellman, una società di valutazione della conformità della sicurezza e della privacy, in un'intervista via e-mail. "Questi dati possono includere dati che le leggi hanno contrassegnato come dati sulla privacy (informazioni di identificazione personale o PII)."

Altri discorsi di odio

Spectrum Labs promette una soluzione high-tech all'annoso problema dell'incitamento all'odio.

"In media, aiutiamo le piattaforme a ridurre gli sforzi di moderazione dei contenuti del 50% e ad aumentare il rilevamento di comportamenti tossici di 10 volte", afferma l'azienda sul suo sito web.

Spectrum afferma di aver collaborato con istituti di ricerca esperti in comportamenti dannosi specifici per costruire oltre 40 modelli di identificazione del comportamento. La piattaforma di moderazione dei contenuti Guardian dell'azienda è stata creata da un team di data scientist e moderatori per "supportare la salvaguardia delle comunità dalla tossicità."

C'è una crescente necessità di modi per combattere l'incitamento all'odio poiché è impossibile per un essere umano monitorare ogni parte del traffico online, Dylan Fox, CEO di AssemblyAI, una startup che fornisce riconoscimento vocale e ha clienti coinvolti nel monitoraggio dell'odio discorso, ha detto a Lifewire in un'intervista via e-mail.

"Ci sono circa 500 milioni di tweet al giorno solo su Twitter", ha aggiunto. "Anche se una persona potesse controllare un tweet ogni 10 secondi, Twitter dovrebbe impiegare 60mila persone per farlo. Invece, utilizziamo strumenti intelligenti come l'IA per automatizzare il processo."

A differenza di un essere umano, l'IA può funzionare 24 ore su 24, 7 giorni su 7 e potenzialmente essere più equa perché è progettata per applicare uniformemente le sue regole a tutti gli utenti senza che le convinzioni personali interferiscano, ha affermato Fox. C'è anche un costo per le persone che devono monitorare e moderare i contenuti.

"Possono essere esposti a violenza, odio e atti sordidi, che possono essere dannosi per la salute mentale di una persona", ha detto.

Spectrum non è l'unica azienda che cerca di rilevare automaticamente l'incitamento all'odio online. Ad esempio, Center Malaysia ha recentemente lanciato un tracker online progettato per trovare incitamento all'odio tra i netizen malesi. Il software che hanno sviluppato, chiamato Tracker Benci, utilizza l'apprendimento automatico per rilevare l'incitamento all'odio online, in particolare su Twitter.

La sfida è come creare spazi in cui le persone possano interagire tra loro in modo costruttivo.

Preoccupazioni per la privacy

Sebbene soluzioni tecnologiche come Spectrum possano combattere l'incitamento all'odio online, sollevano anche domande su quanto dovrebbero fare i computer di polizia.

Ci sono implicazioni sulla libertà di parola, ma non solo per gli oratori i cui post verrebbero rimossi come incitamento all'odio, ha detto a Lifewire in un'e-mail Irina Raicu, direttrice dell'etica di Internet presso il Markkula Center for Applied Ethics dell'Università di Santa Clara intervista.

"Consentire molestie in nome della 'libertà di parola' ha spinto gli obiettivi di tali discorsi (soprattutto se rivolti a individui particolari) a smettere di parlare, ad abbandonare completamente varie conversazioni e piattaforme", ha detto Raicu."La sfida è come creare spazi in cui le persone possano interagire tra loro in modo costruttivo."

Il monitoraggio vocale dell'IA non dovrebbe sollevare problemi di privacy se le aziende utilizzano informazioni pubblicamente disponibili durante il monitoraggio, ha affermato Fox. Tuttavia, se l'azienda acquista dettagli su come gli utenti interagiscono su altre piattaforme per identificare in anticipo gli utenti problematici, ciò potrebbe sollevare problemi di privacy.

"Può sicuramente essere un po' un'area grigia, a seconda dell'applicazione", ha aggiunto.

Image
Image

Justin Davis, il CEO di Spectrum Labs, ha detto a Lifewire in un'e-mail che la tecnologia dell'azienda può rivedere da 2 a 5mila righe di dati in frazioni di secondo. "Soprattutto, la tecnologia può ridurre la quantità di contenuti tossici a cui sono esposti i moderatori umani", ha affermato.

Potremmo essere sull'orlo di una rivoluzione nel monitoraggio dell'intelligenza artificiale del parlato e del testo umano online. I progressi futuri includono migliori capacità di monitoraggio indipendenti e autonome per identificare forme di incitamento all'odio precedentemente sconosciute o qualsiasi altro modello censurabile che si evolverà, ha affermato Moody.

L'IA sarà presto anche in grado di riconoscere i modelli nei modelli di discorso specifici e mettere in relazione le fonti e le loro altre attività attraverso l'analisi delle notizie, archivi pubblici, analisi dei modelli di traffico, monitoraggio fisico e molte altre opzioni, ha aggiunto.

Ma alcuni esperti affermano che gli esseri umani dovranno sempre lavorare con i computer per monitorare l'incitamento all'odio.

"L'IA da sola non funzionerà", ha detto Raicu. "Deve essere riconosciuto come uno strumento imperfetto che deve essere utilizzato insieme ad altre risposte."

Correzione 2022-01-25: Aggiunta citazione di Justin Davis nel quinto paragrafo dalla fine per riflettere un'e-mail post-pubblicazione.

Consigliato: