Da asporto chiave
- Un numero crescente di programmi può capire il tuo discorso.
- La nuova tecnologia genera un rumore audio personalizzato in sottofondo mentre parli per confondere il software che potrebbe essere in ascolto.
-
La nuova tecnica consente di ottenere prestazioni in tempo reale prevedendo un attacco al futuro del segnale o della parola.
Molti programmi possono capire il tuo discorso durante le telefonate o le videochiamate e gli esperti affermano che possono rappresentare una minaccia per la privacy.
Una nuova tecnologia sviluppata dai ricercatori della Columbia University, chiamata Neural Voice Camouflage, potrebbe offrire una difesa. Genera un rumore audio personalizzato in sottofondo mentre parli, confondendo l'intelligenza artificiale (AI) che ascolta e trascrive le voci.
"La presenza della trascrizione AI solleva problemi di fiducia", Michael Huth, co-fondatore di Xayn, un motore di ricerca che protegge la privacy, e capo del Dipartimento di Informatica dell'Imperial College London, che non è stato coinvolto in la ricerca, ha detto a Lifewire in un'intervista via e-mail. "I partecipanti alla riunione potrebbero essere più attenti a quali punti sollevano e come viene trascritto il loro discorso. Questa può essere una buona cosa in quanto può migliorare il comportamento rispettoso, ma può anche essere una cosa negativa in quanto la conversazione potrebbe essere meno aperta a causa di riserve sulla tecnologia utilizzata."
Ascolto e apprendimento
I ricercatori della Columbia hanno lavorato per progettare un algoritmo in grado di interrompere le reti neurali in tempo reale. Il nuovo approccio utilizza "attacchi predittivi", un segnale che può interrompere qualsiasi parola che i modelli di riconoscimento vocale automatico sono addestrati a trascrivere. Inoltre, quando i suoni di attacco vengono riprodotti via etere, devono essere abbastanza forti da interrompere qualsiasi microfono canaglia "in ascolto" che potrebbe essere lontano.
"Una sfida tecnica chiave per raggiungere questo obiettivo era far funzionare tutto abbastanza velocemente", ha detto in una notizia Carl Vondrick, professore di informatica alla Columbia e uno degli autori di uno studio che descrive il nuovo approccio pubblicazione. "Il nostro algoritmo, che riesce a impedire a un microfono canaglia di ascoltare correttamente le tue parole l'80% delle volte, è il più veloce e preciso sul nostro banco di prova."
La nuova tecnica raggiunge prestazioni in tempo reale prevedendo un attacco al futuro del segnale o della parola. Il team ha ottimizzato l'attacco, quindi ha un volume simile al normale rumore di fondo, consentendo alle persone in una stanza di conversare in modo naturale e senza essere monitorate con successo da un sistema di riconoscimento vocale automatico.
I partecipanti alla riunione potrebbero prestare maggiore attenzione a quali punti sollevano e come viene trascritto il loro discorso.
Gli scienziati hanno detto che la loro tecnica funziona anche quando non si sa nulla del microfono canaglia, come la sua posizione, o anche il software del computer in esecuzione su di esso. Mimetizza la voce di una persona via etere, nascondendola a questi sistemi di ascolto e senza disturbare la conversazione tra le persone nella stanza.
"Finora, il nostro metodo funziona per la maggior parte del vocabolario della lingua inglese e prevediamo di applicare l'algoritmo a più lingue, oltre a rendere il sussurro completamente impercettibile", Mia Chiquier, l'autrice principale dello studio e uno studente di dottorato nel laboratorio di Vondrick, ha detto nel comunicato stampa.
Mantenere private le tue conversazioni
Come se tutto ciò non bastasse, gli annunci pubblicitari potrebbero prenderti di mira in base all'audio raccolto dal tuo smartphone o anche dai dispositivi domestici intelligenti.
"Con dispositivi come [Amazon Echo] e le loro controparti, questi dispositivi non solo sono sempre a casa tua, ascoltano costantemente tutto ciò che dici o fai, ma, attraverso anni di raccolta di dati dai loro utenti, hanno perfezionato l'elaborazione del linguaggio naturale (trasformando la parola parlata in testo/dati utilizzabili per i dispositivi tramite una combinazione di microfoni, software e intelligenza artificiale)," ha affermato in una e-mail Erik Haig, un associato di Harbour Research, una società di consulenza strategica e sviluppo di iniziative.
Le trascrizioni AI del discorso conversazionale sono ora una parte standard del software commerciale standard, ha affermato Huth. Ad esempio, Microsoft Teams ha un'opzione di riunione record con trascrizioni di intelligenza artificiale integrate che possono essere visualizzate da tutti i partecipanti in tempo reale. La trascrizione completa può servire come registrazione della riunione. Di solito, tali trascrizioni consentono di prendere minuti (aka prendere appunti), dove i verbali sarebbero approvati alla riunione successiva.
"Le persone potrebbero essere preoccupate di essere spiate quando la trascrizione dell'IA è attiva", ha aggiunto Huth."Questo sembra molto simile alla preoccupazione di avere una conversazione registrata senza consenso o clandestinamente."
Ma non tutti concordano sul fatto che i dispositivi intelligenti siano una minaccia. La maggior parte delle persone non deve preoccuparsi dei programmi che ascoltano le tue conversazioni, ha detto a Lifewire via e-mail Brad Hong, un cliente di successo presso l'azienda di sicurezza informatica Horizon3. Ha detto che la preoccupazione più significativa ora non è chi ti sta registrando, ma piuttosto come memorizzano i dati.
"Tutte le storie che si sentono sull'attivazione di un microfono sul proprio computer o sui dispositivi mobili, l'ascolto di Alexa o Google Home o persino la sorveglianza del governo, è vero che tutte queste cose fanno contorcere lo stomaco del profano", ha aggiunto Hong. "Ma tutto sommato, le persone raramente si trovano in una situazione che richiede effettivamente di mimetizzare le loro voci."