La tecnologia Deepfake di Facebook non ci salverà, dicono gli esperti

Sommario:

La tecnologia Deepfake di Facebook non ci salverà, dicono gli esperti
La tecnologia Deepfake di Facebook non ci salverà, dicono gli esperti
Anonim

Da asporto chiave

  • Man mano che i deepfake diventano più facili da realizzare, nuovi e migliorati metodi per individuarli sono diventati una priorità.
  • La tecnologia di rilevamento dei deepfake di Facebook utilizza l'apprendimento automatico inverso per scoprire se un video è un deepfake o meno.
  • Gli esperti affermano che l'utilizzo della tecnologia blockchain sarebbe il modo migliore per vedere se un video è reale o meno poiché il metodo si basa su dati contestuali.
Image
Image

Facebook è fiducioso nel suo modello di machine learning per combattere i deepfake, ma gli esperti affermano che il machine learning da solo non ci salverà dall'essere ingannati dai deepfake.

Aziende come Facebook, Microsoft e Google stanno tutte lavorando per combattere la diffusione dei deepfake sul Web e sui social network. Sebbene i metodi differiscano, esiste un potenziale metodo infallibile per individuare questi falsi video: blockchain.

"[Blockchains] ti offre solo un sacco di potenziale per convalidare il deepfake in un modo che è la migliore forma di convalida che posso vedere ", Stephen Wolfram, fondatore e CEO di Wolfram Research e autore di A New Kind of Scienza, ha detto a Lifewire al telefono.

Tecnologia di rilevamento dei falsi falsi di Facebook

La tecnologia Deepfake è cresciuta rapidamente negli ultimi anni. I video fuorvianti utilizzano metodi di apprendimento automatico per fare cose come sovrapporre il viso di qualcuno al corpo di un' altra persona, alterare le condizioni di sfondo, finta sincronizzazione labiale e altro ancora. Si va da parodie innocue a far dire o fare a celebrità o personaggi pubblici qualcosa che non hanno fatto.

Gli esperti affermano che la tecnologia sta avanzando rapidamente e che i deepfake diventeranno solo più convincenti (e più facili da creare) man mano che la tecnologia diventerà più ampiamente disponibile e più innovativa.

Image
Image

Facebook ha recentemente fornito maggiori informazioni sulla sua tecnologia di rilevamento dei deepfake in collaborazione con la Michigan State University. Il social network afferma che si basa sul reverse engineering da una singola immagine generata dall'intelligenza artificiale al modello generativo utilizzato per produrla.

Gli scienziati della ricerca che hanno lavorato con Facebook hanno affermato che il metodo si basa sulla scoperta dei modelli unici dietro il modello di intelligenza artificiale utilizzato per generare un deepfake.

"Generalizzando l'attribuzione dell'immagine al riconoscimento del set aperto, possiamo dedurre maggiori informazioni sul modello generativo utilizzato per creare un deepfake che va oltre il riconoscimento di non essere stato visto prima. E tracciando le somiglianze tra i modelli di una raccolta di deepfake, potremmo anche dire se una serie di immagini ha avuto origine da un'unica fonte ", hanno scritto i ricercatori Xi Yin e Tan Hassner nel post sul blog di Facebook sul suo metodo di rilevamento dei deepfake.

Image
Image

Wolfram dice che ha senso utilizzare l'apprendimento automatico per individuare un modello di intelligenza artificiale avanzato (un deepfake). Tuttavia, c'è sempre spazio per ingannare la tecnologia.

"Non sono affatto sorpreso che ci sia un modo decente di apprendimento automatico per [rilevare i deepfake]", ha detto Wolfram. "L'unica domanda è se ti impegni abbastanza, puoi ingannarlo? Sono sicuro che puoi.”

Combattere i deepfake in un modo diverso

Invece, Wolfram ha affermato di ritenere che l'uso della blockchain sarebbe l'opzione migliore per individuare con precisione determinati tipi di deepfake. La sua opinione sull'utilizzo della blockchain rispetto all'apprendimento automatico risale al 2019 e ha affermato che, in definitiva, l'approccio blockchain può fornire una soluzione più accurata al nostro problema di deepfake.

"Mi aspetto che i visualizzatori di immagini e video possano controllare regolarmente i blockchain (e i 'calcoli di triangolazione dei dati') un po' come i browser Web ora controllano i certificati di sicurezza", ha scritto Wolfram in un articolo pubblicato su Scientific American.

Poiché le blockchain memorizzano i dati in blocchi che vengono poi concatenati insieme in ordine cronologico e poiché le blockchain decentralizzate sono immutabili, i dati inseriti sono irreversibili.

L'unica domanda è se ti impegni a sufficienza, puoi ingannarlo? Sono sicuro che puoi.

Wolfram ha spiegato che inserendo un video in una blockchain, saresti in grado di vedere il tempo impiegato, la posizione e altre informazioni contestuali che ti permetterebbero di dire se è stato alterato in qualche modo.

"In generale, avendo più metadati che contestualizzano l'immagine o il video, più è probabile che tu sia in grado di dirlo", ha detto. "Non puoi falsificare il tempo su una blockchain."

Tuttavia, Wolfram ha affermato che il metodo utilizzato, che sia l'apprendimento automatico o l'utilizzo di blockchain, dipende dal tipo di deepfake da cui stai cercando di proteggerti (ad esempio, un video di Kim Kardashian che dice qualcosa di stupido o un video di un politico che fa una dichiarazione o un suggerimento).

"L'approccio blockchain protegge da determinati tipi di deep fake, proprio come l'elaborazione delle immagini di machine learning protegge da determinati tipi di deep fake", ha affermato.

La linea di fondo, a quanto pare, è la vigilanza per tutti noi quando si tratta di combattere l'imminente diluvio di deepfake.

Consigliato: