AI potrebbe non essere ancora la tua migliore fonte di consigli

Sommario:

AI potrebbe non essere ancora la tua migliore fonte di consigli
AI potrebbe non essere ancora la tua migliore fonte di consigli
Anonim

Da asporto chiave

  • I popolari assistenti vocali basati sull'intelligenza artificiale sono bravi a rigurgitare i fatti ma non riescono a tenere conversazioni significative.
  • Il limite è dovuto al design dell'attuale generazione di IA che ottiene la sua intelligenza allenandosi su un ampio set di dati, spiegano gli esperti.
  • Ciò impedisce inoltre all'IA di cogliere le sfumature della lingua, rendendo impossibili conversazioni reali per ora.
Image
Image

Gli assistenti virtuali sono meravigliosi nel seguire i tuoi comandi ma assolutamente terribili nel dare consigli sulla vita. Chi l'avrebbe mai detto?

L'editore di Tidio Kazimierz Rajnerowicz ha passato oltre 30 ore a fare domande di ogni tipo a una mezza dozzina di popolari assistenti vocali e chatbot basati sull'intelligenza artificiale (AI) e ha concluso che mentre gli assistenti virtuali sono bravi a recuperare i fatti, non sono avanzati abbastanza per sostenere una conversazione.

"L'intelligenza artificiale oggi è il riconoscimento di schemi", ha spiegato Liziana Carter, fondatrice della start-up di intelligenza artificiale conversazionale Grow AI, a Lifewire in una conversazione via e-mail. "Aspettarsi che dica se rapinare una banca è giusto o sbagliato è aspettarsi un pensiero creativo da esso, noto anche come AI General Intelligence, da cui siamo lontani in questo momento."

Dire sciocchezze

Rajnerowicz ha pensato all'esperimento in risposta alle previsioni di Juniper Research che prevede che il numero di dispositivi di assistente vocale AI in uso supererà la popolazione umana entro il 2024.

… un approccio migliore potrebbe essere quello di usare quel potere per recuperare tempo da dedicare alle cose che ci rendono unici come esseri umani.

Per valutare l'intelligenza dei chatbot, ha chiesto consigli a quelli popolari, tra cui OpenAI, Cortana, Replika, Alexa, Jasper e Kuki, ottenendo alcune risposte ridicole. Dal dare il via libera all'uso dell'asciugacapelli sotto la doccia all'avere vodka a colazione, le risposte hanno mostrato una mancanza di buon senso.

"Uno degli assistenti virtuali non era sicuro se fosse giusto rapinare una banca", ha scritto Rajnerowicz. "Ma una volta che ho modificato la mia domanda e chiarito che intendevo donare i soldi a un orfanotrofio, ho avuto il via libera."

Dall'esperimento, Rajnerowicz ha appreso che gli assistenti virtuali e i chatbot svolgono un buon lavoro nell'analisi e nella classificazione delle informazioni di input, il che li rende perfetti per il servizio clienti, dove si tratta di comprendere una domanda e fornire una risposta diretta.

Tuttavia, i comunicatori basati sull'intelligenza artificiale non "capiscono" nulla, ha concluso Rajnerowicz, dal momento che possono solo etichettare le domande e mettere insieme le risposte sulla base di modelli statistici su cui sono stati addestrati.

Tieni quel pensiero

Hans Hansen, CEO di Brand3D, crede che, a differenza di personaggi come Star Trek's Data, i sistemi di intelligenza artificiale di oggi non diventeranno mai simili a quelli umani. "Ma ciò non significa che non possano conversare in modo significativo", ha detto Hansen a Lifewire via e-mail.

Hansen ha affermato che ci sono due fattori principali che limitano fino a che punto l'IA può imitare le conversazioni umane e le interazioni in generale. In primo luogo, questi sistemi di deep learning funzionano analizzando grandi quantità di dati e quindi applicando questa "conoscenza" per elaborare nuovi dati e prendere decisioni. In secondo luogo, il cervello umano impara e si adatta a un ritmo che nessun sistema di intelligenza artificiale conosciuto può imitare a un livello significativo.

"Un malinteso comune sui sistemi di intelligenza artificiale di oggi è che stanno modellando le funzioni del cervello umano e possono 'imparare' a comportarsi come gli umani", ha spiegato Hansen. "Sebbene i sistemi di intelligenza artificiale siano effettivamente composti da modelli primitivi di cellule cerebrali umane (reti neurali), il modo in cui i sistemi apprendono è molto lontano dall'apprendimento umano e quindi hanno difficoltà con il ragionamento simile a quello umano."

Hansen ha affermato che se una conversazione si attiene ad argomenti basati sui fatti, l'IA andrebbe bene con abbastanza tempo e sforzi investiti nella sua formazione. Il livello successivo di difficoltà sono le conversazioni su opinioni e sentimenti soggettivi su determinate questioni. Supponendo che queste opinioni e sentimenti siano tipici, con una formazione sufficiente ciò potrebbe essere possibile almeno in teoria, poiché tecnicamente sarà un ordine di grandezza più difficile da implementare.

Ciò che sarebbe davvero impossibile da raggiungere per l'IA è cogliere le sfumature e i significati nascosti nel tono della voce, tenendo conto di vari aspetti culturali.

Image
Image

"I sistemi di intelligenza artificiale sono sempre più bravi ad apprendere compiti incredibilmente difficili a condizione che ci siano dati sufficienti e che i dati possano essere rappresentati in un modo che sia facile da inserire nei processi di apprendimento del sistema di intelligenza artificiale", ha affermato Hansen. "La conversazione umana non è un compito del genere."

Carter, tuttavia, pensa che cercare di avere conversazioni significative con l'IA sia l'approccio completamente sbagliato.

"È [una] macchina, che impara a svolgere compiti specifici, quindi un approccio migliore potrebbe essere quello di usare quel potere per recuperare tempo da dedicare alle cose che ci rendono unici come esseri umani", ha consigliato Carter.

Consigliato: