Più robot simili a quelli umani potrebbero portare a interazioni migliori

Sommario:

Più robot simili a quelli umani potrebbero portare a interazioni migliori
Più robot simili a quelli umani potrebbero portare a interazioni migliori
Anonim

Da asporto chiave

  • Una nuova ricerca potrebbe insegnare ai robot a sembrare più umani.
  • I ricercatori del MIT hanno sviluppato un modello di intelligenza artificiale che comprende le relazioni sottostanti tra gli oggetti in una scena e aiuta i robot a svolgere compiti complessi.
  • Un numero crescente di robot è progettato per agire come gli umani.

Image
Image

I robot stanno arrivando e i ricercatori hanno un piano per farli sembrare più umani.

I ricercatori del MIT hanno sviluppato un modello di intelligenza artificiale (AI) che comprende le relazioni sottostanti tra gli oggetti in una scena. Questo lavoro potrebbe essere applicato in situazioni in cui i robot devono svolgere compiti complessi, come l'assemblaggio di apparecchi. Avvicina anche il campo alla creazione di macchine in grado di imparare e interagire con i loro ambienti come fanno gli umani.

"I robot umanoidi progettati con la tecnologia dell'intelligenza artificiale, svolgono una serie di compiti umani e svolgono i ruoli di receptionist, assistenti personali, addetti alla reception e altro in numerosi settori", l'esperto di intelligenza artificiale Sameer Maskey, professore di informatica e CEO di Fusemachines, ha detto a Lifewire in un'intervista via e-mail. "Al centro di queste interazioni quasi umane si trovano gli algoritmi di intelligenza artificiale che abilitano questi sistemi, che sono costruiti per saperne di più con ogni nuova interazione umana."

Robot che ne capiscono di più

Gli esseri umani possono guardare una scena e vedere le relazioni tra gli oggetti, ma i modelli di IA hanno difficoltà a seguire i comandi. Questo perché non capiscono, ad esempio, quando una spatola è sul lato sinistro di una stufa.

Descrivendo in dettaglio i loro sforzi per risolvere questo problema, i ricercatori del MIT hanno recentemente pubblicato uno studio che descrive un modello che comprende le relazioni sottostanti tra gli oggetti in una scena. Il loro modello rappresenta le relazioni individuali una alla volta, quindi combina queste rappresentazioni per descrivere la scena complessiva.

"Quando guardo un tavolo, non posso dire che ci sia un oggetto nella posizione XYZ", ha detto Yilun Du, co-autore principale del giornale, in un comunicato stampa. "Le nostre menti non funzionano così. Nella nostra mente, quando comprendiamo una scena, la comprendiamo davvero in base alle relazioni tra gli oggetti. Pensiamo che costruendo un sistema in grado di comprendere le relazioni tra gli oggetti, potremmo usare quel sistema per manipolare e cambiare in modo più efficace i nostri ambienti."

Sposta su Roombas

Un numero crescente di robot sono progettati per agire come esseri umani. Ad esempio, Kime, sviluppato da Macco Robotics, è un robot per servire bevande e alimenti con sensori intelligenti che gestisce le attività utilizzando processi di autoapprendimento e interazione umana adattiva attraverso la tecnologia AI.

C'è anche T-HR3, introdotto da Toyota, un robot umanoide di terza generazione che imita i movimenti degli operatori umani con capacità di assistere gli esseri umani a casa, negli ospedali e persino nelle aree colpite da disastri.

Amelia, una soluzione di intelligenza artificiale conversazionale, è un robot umanoide digitale sviluppato per fornire un'esperienza di servizio clienti simile a quella di un essere umano. Amelia passa in modo flessibile tra diversi contesti informali senza alcun ritardo, riconoscendo le intenzioni umane e gli stati emotivi.

Image
Image

Nuovi materiali e sensori stanno persino dando ai robot una "faccia" che li fa sembrare più realistici, ha detto a Lifewire Karen Panetta, professoressa di ingegneria elettrica e informatica alla Tufts University e IEEE fellow. I progressi nella nanotecnologia consentono a più sensori di essere incorporati nella faccia di un robot per emulare le espressioni facciali in modo molto più accurato che mai.

"I cervelli dietro le facce robotiche stanno sfruttando la potenza dei modelli computazionali che utilizzano l'intelligenza artificiale per elaborare tutte le informazioni che sta rilevando", ha aggiunto Panetta."Come immagini, suoni e condizioni ambientali per aiutare ad addestrare il robot a rispondere in modo appropriato sia con le parole che con le azioni fisiche."

Al centro di queste interazioni quasi umane si trovano gli algoritmi di intelligenza artificiale che abilitano questi sistemi…

Un grande mercato per i robot umanoidi è quello degli aiuti per gli anziani. Panetta ha spiegato che questi robot aiutanti possono monitorare la salute dei pazienti, prendere i parametri vitali o dare indicazioni ai pazienti per aiutarli con i farmaci o le routine mediche. Potrebbero anche monitorare la sicurezza del paziente e chiedere aiuto se rilevano che il paziente è caduto, non si è mosso o è in difficoltà.

"Fare apparire i robot come esseri umani ha lo scopo di rendere l'interazione con gli umani più compassionevole, meno intimidatoria e, si spera, più coinvolgente dal punto di vista cognitivo per il paziente", ha aggiunto Panetta. "Possono anche aiutare i pazienti con demenza a coinvolgerli in conversazioni e monitorare la loro sicurezza."

La robotica si sta evolvendo e in futuro, con maggiori progressi nell'IA, i robot potrebbero essere in grado di mostrare più caratteristiche umane, ha affermato Maskey. Tuttavia, come esseri umani, spesso troviamo difficile capire le emozioni e valutare le reazioni.

"Quindi la capacità di cogliere queste sottili sfumature e questi segnali emotivi è qualcosa su cui l'industria robotica continuerà a lavorare per molto tempo", ha aggiunto.

Consigliato: