Non fidarti di nulla di ciò che vedi sul Web, dicono gli esperti

Sommario:

Non fidarti di nulla di ciò che vedi sul Web, dicono gli esperti
Non fidarti di nulla di ciò che vedi sul Web, dicono gli esperti
Anonim

Da asporto chiave

  • Una nuova ricerca rivela che le persone non possono separare le immagini generate dall'IA da quelle reali.
  • I partecipanti hanno valutato le immagini generate dall'IA come più affidabili.
  • Gli esperti credono che le persone dovrebbero smettere di fidarsi di tutto ciò che vedono su Internet.
Image
Image

L'adagio 'vedere per credere' non è più rilevante quando si tratta di Internet, e gli esperti dicono che non migliorerà presto.

Uno studio recente ha scoperto che le immagini di volti generate dall'intelligenza artificiale (AI) non erano solo altamente fotorealistiche, ma apparivano anche più virtuose dei volti reali.

"La nostra valutazione del fotorealismo dei volti sintetizzati dall'intelligenza artificiale indica che i motori di sintesi sono passati attraverso la valle misteriosa e sono in grado di creare volti indistinguibili e più affidabili dei volti reali", hanno osservato i ricercatori.

Quella persona non esiste

I ricercatori, la dott.ssa Sophie Nightingale della Lancaster University e la professoressa Hany Farid dell'Università della California, Berkeley, hanno condotto gli esperimenti dopo aver riconosciuto le ben pubblicizzate minacce di falsi falsi, che vanno da tutti i tipi di frode online a rinvigorenti campagne di disinformazione.

"Forse la più perniciosa è la conseguenza che, in un mondo digitale in cui qualsiasi immagine o video può essere falsificato, l'autenticità di qualsiasi registrazione scomoda o indesiderata può essere messa in discussione", hanno sostenuto i ricercatori.

Hanno affermato che, sebbene siano stati compiuti progressi nello sviluppo di tecniche automatiche per rilevare i contenuti deep-fake, le tecniche attuali non sono sufficientemente efficienti e accurate per tenere il passo con il flusso costante di nuovi contenuti caricati online. Ciò significa che spetta ai consumatori di contenuti online distinguere il vero dal falso, suggerisce il duo.

Jelle Wieringa, sostenitrice della consapevolezza della sicurezza presso KnowBe4, è d'accordo. Ha detto a Lifewire via e-mail che combattere i veri e propri falsi falsi è estremamente difficile da fare senza una tecnologia specializzata. "[Le tecnologie di mitigazione] possono essere costose e difficili da implementare nei processi in tempo reale, spesso rilevando un deepfake solo dopo il fatto."

Con questa ipotesi, i ricercatori hanno eseguito una serie di esperimenti per determinare se i partecipanti umani possono distinguere i volti sintetizzati all'avanguardia dai volti reali. Nei loro test, hanno scoperto che, nonostante l'addestramento per aiutare a riconoscere i falsi, il tasso di accuratezza è migliorato solo al 59%, rispetto al 48% senza formazione.

Ciò ha portato i ricercatori a testare se le percezioni di affidabilità potrebbero aiutare le persone a identificare immagini artificiali. In un terzo studio, hanno chiesto ai partecipanti di valutare l'affidabilità dei volti, solo per scoprire che la valutazione media per i volti sintetici era 7.7% più affidabile rispetto alla valutazione media per i volti reali. Il numero potrebbe non sembrare molto, ma i ricercatori affermano che è statisticamente significativo.

Falsi più profondi

I falsi profondi erano già una delle principali preoccupazioni e ora le acque sono state ulteriormente confuse da questo studio, il che suggerisce che immagini false di alta qualità potrebbero aggiungere una dimensione completamente nuova alle truffe online, ad esempio aiutando a crearne di più profili falsi online convincenti.

"L'unica cosa che guida la sicurezza informatica è la fiducia che le persone hanno nelle tecnologie, nei processi e nelle persone che tentano di tenerle al sicuro", ha condiviso Wieringa. "I falsi profondi, soprattutto quando diventano fotorealistici, minano questa fiducia e, quindi, l'adozione e l'accettazione della sicurezza informatica. Possono portare le persone a diffidare di tutto ciò che percepiscono."

Image
Image

Chris Hauk, campione della privacy dei consumatori di Pixel Privacy, è d'accordo. In un breve scambio di e-mail, ha detto a Lifewire che il deep fake fotorealistico potrebbe causare "scetticismo" online, soprattutto in questi giorni in cui è possibile accedere a tutti i tipi di account utilizzando la tecnologia di identificazione con foto.

Azione correttiva

Per fortuna, Greg Kuhn, Direttore di IoT, Prosegur Security, afferma che esistono processi che possono evitare tale autenticazione fraudolenta. Ha detto a Lifewire via e-mail che i sistemi di credenziali basati sull'intelligenza artificiale confrontano un individuo verificato con un elenco, ma molti hanno misure di sicurezza integrate per verificare la "vitalità".

"Questi tipi di sistemi possono richiedere e guidare un utente a svolgere determinate attività come sorridere o girare la testa a sinistra, quindi a destra. Queste sono cose che i volti generati staticamente non potrebbero eseguire", ha condiviso Kuhn.

I ricercatori hanno proposto linee guida per regolamentare la loro creazione e distribuzione per proteggere il pubblico dalle immagini sintetiche. Per cominciare, suggeriscono di incorporare filigrane profondamente radicate nelle stesse reti di sintesi di immagini e video per garantire che tutti i media sintetici possano essere identificati in modo affidabile.

Fino ad allora, Paul Bischoff, difensore della privacy ed editore della ricerca su infosec presso Comparitech, afferma che le persone sono sole."Le persone dovranno imparare a non fidarsi dei volti online, proprio come tutti noi (si spera) abbiamo imparato a non fidarci dei nomi visualizzati nelle nostre e-mail", ha detto Bischoff a Lifewire via e-mail.

Consigliato: