Da asporto chiave
- I ricercatori hanno escogitato un meccanismo per controllare gli avatar VR attraverso le espressioni facciali.
- I ricercatori hanno scoperto che le espressioni facciali creano esperienze molto più coinvolgenti.
-
La tecnica può aiutare a rendere la re altà virtuale accessibile alle persone con disabilità.
Dopo aver rivoluzionato la biometria, i volti sono pronti a rinvigorire un' altra tecnologia: la re altà virtuale (VR).
In uno studio recente, un team internazionale di ricercatori provenienti da Australia, Nuova Zelanda e India ha utilizzato espressioni facciali comuni, come un sorriso e un cipiglio, per interagire e attivare azioni specifiche in ambienti VR, con risultati sorprendenti.
"Nel complesso, ci aspettavamo che i controller palmari funzionassero meglio in quanto sono un metodo più intuitivo rispetto alle espressioni facciali", ha osservato il professor Mark Billinghurst dell'Università del South Australia, uno dei ricercatori coinvolti nell'esperimento, in un comunicato stampa. "Tuttavia, le persone hanno riferito di sentirsi più immerse nelle esperienze VR controllate dalle espressioni facciali."
Immersione intuitiva
I ricercatori, guidati dal ricercatore dell'Università del Queensland Dr. Arindam Dey, che lavora con il Prof. Billinghurst presso l'Australian Research Center for Interactive and Virtual Environments, hanno affermato che la maggior parte delle interfacce VR richiedono interazioni fisiche utilizzando controller portatili.
Nel loro articolo, i ricercatori notano che hanno deciso di utilizzare le espressioni di una persona per manipolare oggetti in VR senza utilizzare un controller portatile o un touchpad. Hanno ideato un meccanismo per identificare varie espressioni facciali, tra cui rabbia, felicità e sorpresa, con l'aiuto di una cuffia per elettroencefalogramma (EEG).
Ad esempio, un sorriso è stato utilizzato per attivare il comando per spostare l'avatar virtuale dell'utente, mentre un cipiglio avrebbe attivato un comando di arresto e un clench è stato utilizzato per eseguire un'azione predefinita, invece di utilizzare un controller portatile per controllare l'avatar, ha spiegato il Prof. Billinghurst nel comunicato stampa.
Come parte della ricerca, il gruppo ha progettato tre ambienti virtuali, due felici e spaventosi e un terzo neutrale. Ciò ha consentito ai ricercatori di misurare lo stato cognitivo e fisiologico di ciascun partecipante mentre era immerso in ciascuno dei tre scenari.
Nell'ambiente felice, i partecipanti hanno sorriso per spostarsi attraverso un parco per catturare le farfalle con la mascella serrata e si sono accigliati per fermarsi. Allo stesso modo, nell'ambiente spaventoso, le stesse espressioni sono state utilizzate per navigare attraverso una base sotterranea per sparare agli zombi, mentre nell'ambiente neutro, le espressioni facciali hanno aiutato gli utenti a muoversi attraverso un'officina, raccogliendo vari oggetti.
I ricercatori hanno quindi confrontato gli effetti neurologici e fisiologici dell'interazione dell'utente nei tre ambienti VR utilizzando le espressioni facciali e li hanno confrontati con le interazioni condotte tramite controller portatili di uso comune.
Prof. Billinghurst ha osservato che alla fine dell'esperimento, i ricercatori hanno concluso che, sebbene fare affidamento sulle sole espressioni facciali in un ambiente VR sia un duro lavoro per il cervello, offre ai partecipanti un'esperienza più coinvolgente e realistica rispetto all'utilizzo di controller portatili.
Un semplice espediente?
I ricercatori sostengono che l'interazione con la re altà virtuale attraverso le espressioni facciali non solo fornisce un nuovo modo di usare la re altà virtuale, ma la tecnica la renderà anche più accessibile. Abbandonando i controller portatili, le persone con disabilità, da quelle con malattie dei motoneuroni agli amputati, potranno finalmente sperimentare la re altà virtuale.
Anche se lavorano per renderlo più utilizzabile, i ricercatori suggeriscono che la tecnologia può essere utilizzata anche per integrare i controller portatili, specialmente per gli ambienti VR in cui le espressioni facciali sono una forma più naturale di interazione.
"La maggior parte della comunicazione umana è in re altà il linguaggio del corpo [e] microespressioni facciali di cui spesso non siamo a conoscenza, quindi un corretto tracciamento facciale può sicuramente portare le interazioni sociali virtuali a un livello completamente nuovo." Lucas Rizzotto, intrepido creatore e YouTuber, ha detto a Lifewire via e-mail.
Rizzotto, la cui creazione più famosa è una macchina del tempo VR, crede che il tracciamento facciale abbia sicuramente un ruolo da svolgere quando si tratta di social VR e Re altà Aumentata (AR) e del metaverso, anche se ha le sue riserve sul fatto che stia guadagnando accettazione mainstream.
"Per quanto riguarda il puro controllo delle esperienze con il tuo viso, sono sicuro che ci sono alcune possibilità creative qui quando si tratta di arte e accessibilità", ha affermato Rizzotto. "Ma potrebbe anche facilmente finire per essere un espediente quando abbiamo così tante forme di input più affidabili."