Da asporto chiave
- Un nuovo modello di apprendimento automatico allucina l'immagine dell'aspetto di una frase in una lingua per facilitare la traduzione.
- Il sistema di intelligenza artificiale, chiamato VALHALLA, è stato progettato per imitare il modo in cui gli esseri umani percepiscono il linguaggio.
- Il nuovo sistema fa parte di un crescente movimento volto a utilizzare l'IA per comprendere il linguaggio.
Il metodo umano di visualizzare le immagini durante la traduzione delle parole potrebbe aiutare l'intelligenza artificiale (AI) a capirti meglio.
Un nuovo modello di apprendimento automatico allucina un'immagine di come appare una frase in una lingua. Secondo un recente documento di ricerca, la tecnica utilizza quindi la visualizzazione e altri indizi per aiutare con la traduzione. L'uso dell'IA per comprendere la lingua fa parte di un movimento in crescita.
"Il modo in cui le persone parlano e scrivono è unico perché tutti abbiamo toni e stili leggermente diversi", ha detto a Lifewire in un'intervista via e-mail Beth Cudney, professoressa di analisi dei dati alla Maryville University, che non è stata coinvolta nella ricerca. "Capire il contesto è difficile perché è come trattare dati non strutturati. È qui che l'elaborazione del linguaggio naturale (NLP) è utile. La NLP è una branca dell'IA che affronta le differenze nel modo in cui comunichiamo utilizzando la comprensione della lettura automatica. La differenza fondamentale nella NLP, come ramo dell'IA, non si concentra semplicemente sui significati letterali delle parole che parliamo o scriviamo. Guarda il significato."
Vai a chiedere ad Alice
Il nuovo sistema di intelligenza artificiale, chiamato VALHALLA, creato dai ricercatori del MIT, IBM e dell'Università della California a San Diego, è stato progettato per imitare il modo in cui gli esseri umani percepiscono il linguaggio. Secondo gli scienziati, l'utilizzo di informazioni sensoriali, come i contenuti multimediali, abbinate a parole nuove e sconosciute, come le flashcard con le immagini, migliora l'acquisizione e la ritenzione del linguaggio.
Questi sistemi stanno aumentando la potenza dei chatbot che attualmente sono solo addestrati e capaci di conversazioni specifiche…
Il team afferma che il loro metodo migliora l'accuratezza della traduzione automatica rispetto alla traduzione di solo testo. Gli scienziati hanno utilizzato un'architettura codificatore-decodificatore con due trasformatori, un tipo di modello di rete neurale adatto per dati dipendenti dalla sequenza, come il linguaggio, che può prestare attenzione alle parole chiave e alla semantica di una frase. Un trasformatore genera un'allucinazione visiva e l' altro esegue la traduzione multimodale utilizzando le uscite del primo trasformatore.
"Negli scenari del mondo reale, potresti non avere un'immagine rispetto alla frase originale", ha detto Rameswar Panda, uno dei membri del team di ricerca, in un comunicato stampa. "Quindi, la nostra motivazione era fondamentalmente: invece di usare un'immagine esterna durante l'inferenza come input, possiamo usare l'allucinazione visiva, la capacità di immaginare scene visive, per migliorare i sistemi di traduzione automatica?"
Comprensione dell'IA
Una ricerca considerevole si concentra sul progresso della PNL, ha sottolineato Cudney. Ad esempio, Elon Musk ha co-fondato Open AI, che sta lavorando su GPT-3, un modello in grado di dialogare con un essere umano ed è abbastanza esperto da generare codice software in Python e Java.
Google e Meta stanno anche lavorando per sviluppare l'IA conversazionale con il loro sistema chiamato LAMDA. "Questi sistemi stanno aumentando la potenza dei chatbot che sono attualmente solo addestrati e capaci di conversazioni specifiche, il che probabilmente cambierà il volto dell'assistenza clienti e degli help desk", ha affermato Cudney.
Aaron Sloman, il co-fondatore di CLIPr, un'azienda tecnologica di intelligenza artificiale, ha affermato in un'e-mail che modelli linguistici di grandi dimensioni come GPT-3 possono imparare da pochissimi esempi di formazione per migliorare i riepiloghi di testo basati sul feedback umano. Ad esempio, ha detto, puoi dare un problema di matematica a un modello linguistico di grandi dimensioni e chiedere all'IA di pensare passo dopo passo.
"Possiamo aspettarci maggiori intuizioni e ragionamenti da estrarre da modelli linguistici di grandi dimensioni man mano che impariamo di più sulle loro capacità e limiti", ha aggiunto Sloman. "Mi aspetto anche che questi modelli linguistici creino processi più simili a quelli umani mentre i modellatori sviluppano modi migliori per mettere a punto i modelli per compiti specifici di interesse."
Il professore di informatica Georgia Tech Diyi Yang ha predetto in un'intervista via e-mail che vedremo un maggiore uso dei sistemi di elaborazione del linguaggio naturale (NLP) nella nostra vita quotidiana, che vanno dagli assistenti personalizzati basati sulla PNL per aiutare con e-mail e telefonate, a sistemi di dialogo consapevoli per la ricerca di informazioni nei viaggi o nell'assistenza sanitaria."Oltre a sistemi di intelligenza artificiale equi in grado di svolgere compiti e assistere gli esseri umani in modo responsabile e privo di pregiudizi", ha aggiunto Yang.
Enormi modelli di intelligenza artificiale che utilizzano trilioni di parametri come GPT-3 e DeepText continueranno a lavorare verso un modello unico per tutte le applicazioni linguistiche, ha previsto Stephen Hage, un ingegnere di apprendimento automatico di Dialexa, in un'intervista via e-mail. Ha detto che ci saranno anche nuovi tipi di modelli creati per usi specifici, come lo shopping online a comando vocale.
"Un esempio potrebbe essere un acquirente che dice 'Mostrami questo ombretto blu notte con più alone' per mostrare quella sfumatura sugli occhi della persona con un certo controllo su come viene applicato", ha aggiunto Hage.