Da asporto chiave
- L'assistente vocale Alexa di Amazon può copiare una voce con un solo minuto di audio.
- Potresti chiedere ad Alexa di leggere una storia con la voce di un genitore morto.
- È la stessa idea dei deep fake, usati solo per i poteri del bene.
L'ultimo espediente di Amazon Alexa è imparare a imitare la voce di una persona cara morta, in modo che possano parlarti dall'oltretomba.
Alexa ha bisogno solo di un minuto di audio parlato per imitare in modo convincente una voce. Amazon lo considera una caratteristica confortante che può metterti in contatto con i tuoi cari, ma potrebbe anche essere un'esperienza piuttosto inquietante. E mostra quanto sia facile creare un audio falso e profondo che sia abbastanza buono da ingannarci, anche quando la voce è una che conosciamo molto bene.
"Amazon è definitivamente entrata in un territorio piuttosto unico e bizzarro con il suo annuncio che Alexa presto sarebbe stata in grado di imparare e quindi usare presto la voce dei parenti morti", ha detto Bill Mann, esperto di privacy presso Restore Privacy Lifewire via e-mail. "Per alcune persone, non è affatto inquietante. In effetti, può essere piuttosto commovente."
Fantasma nella macchina
Come parte della sua conferenza annuale re:MARS, Amazon mostra la funzione in un breve video. In esso, un bambino chiede ad Alexa se la nonna può continuare a leggerlo "Il mago di Oz", l'opera di dominio pubblico preferita da ogni bambino. Ed è un momento piuttosto toccante. È difficile non provare emozioni umane quando la nonna inizia a leggere.
"Gli esseri umani lottano con la mortalità, specialmente nella cultura occidentale. Per secoli abbiamo cercato di trovare modi per commemorare i morti, dalle maschere mortuarie, alle ciocche di capelli, alle vecchie foto, alla visione di vecchi film ", Andrew Selepak, un professore di social media presso l'Università della Florida, ha detto a Lifewire via e-mail. "I deepfake utilizzano la tecnologia più recente per creare una nuova maschera mortuaria di una persona cara defunta. Ma, a seconda della prospettiva di una persona, è inquietante o un modo per commemorare e aggrapparsi a qualcuno che ami dopo che è morto?"
Ma un memento mori può essere sia confortante che inquietante. L'amico di un membro della famiglia è morto, ma puoi ancora sentirlo parlare. Non aiuta il fatto che Alexa abbia una storia di comportamenti strani e talvolta terrificanti. Nel 2018, mentre l'editorialista di opinione del NYT Farhad Manjoo si stava mettendo a letto, il suo Amazon Echo "ha iniziato a gemere, come un bambino che urla in un sogno di un film dell'orrore".
Subito dopo, Amazon ha riconosciuto che Alexa a volte rideva ad alta voce, che, insieme ad adolescenti e cantine, è il film horror 101.
Ci si può solo chiedere come ti sentiresti se Alexa facesse gli stessi trucchi con la voce della nonna.
Deep Fake
L'apparente facilità con cui Alexa impara a imitare una voce ci porta a usi più nefasti della clonazione vocale: deep fakes.
"L'audio deepfake non è nuovo, anche se è poco compreso e poco conosciuto. La tecnologia è disponibile da anni per ricreare la voce di un individuo con intelligenza artificiale e apprendimento profondo utilizzando relativamente poco audio reale della persona, " dice Selepak. "Tale tecnologia potrebbe anche essere pericolosa e distruttiva. Un individuo disturbato potrebbe ricreare la voce di un ex fidanzato o fidanzata morto e utilizzare il nuovo audio per dire cose odiose e offensive."
Questo è solo nel contesto di Alexa. L'audio falso profondo potrebbe andare ben oltre, convincendo le persone che politici di spicco credono a cose che non credono, ad esempio. Ma d' altra parte, più ci abitueremo a questi falsi profondi, forse sotto forma di queste voci di Alexa, più saremo scettici sui falsi più nefasti. Poi di nuovo, visto quanto è facile diffondere bugie su Facebook, forse no.
Amazon non ha detto se questa funzione arriverà su Alexa o se si tratta solo di una demo tecnologica. Spero che lo faccia. La tecnologia dà il meglio di sé quando viene utilizzata in modo umanistico come questo, e anche se la reazione facile è definirla inquietante, come dice Selepak, non è molto diversa dal guardare vecchi video o ascoltare i messaggi vocali salvati, come un personaggio in uno show televisivo con una sceneggiatura pigra.
E se la tecnologia per i deep fake è prontamente disponibile, perché non usarla per confortarci?