Da asporto chiave
- I ricercatori hanno creato tecniche che consentono agli utenti di classificare i risultati del comportamento di un modello di apprendimento automatico.
- Gli esperti affermano che il metodo mostra che le macchine stanno raggiungendo le capacità di pensiero degli umani.
- I progressi nell'IA potrebbero accelerare lo sviluppo della capacità dei computer di comprendere il linguaggio e rivoluzionare il modo in cui l'IA e gli esseri umani interagiscono.
Una nuova tecnica che misura il potere di ragionamento dell'intelligenza artificiale (AI) mostra che le macchine stanno raggiungendo gli umani nelle loro capacità di pensare, affermano gli esperti.
I ricercatori del MIT e IBM Research hanno creato un metodo che consente a un utente di classificare i risultati del comportamento di un modello di apprendimento automatico. La loro tecnica, chiamata Shared Interest, incorpora metriche che confrontano il modo in cui il pensiero di un modello corrisponde a quello delle persone.
"Oggi, l'IA è in grado di raggiungere (e, in alcuni casi, superare) le prestazioni umane in compiti specifici, tra cui il riconoscimento delle immagini e la comprensione del linguaggio, " Pieter Buteneers, direttore dell'ingegneria in machine learning e AI presso le comunicazioni società Sinch, ha detto a Lifewire in un'intervista via e-mail. "Con l'elaborazione del linguaggio naturale (NLP), i sistemi di intelligenza artificiale possono interpretare, scrivere e parlare le lingue oltre che gli esseri umani, e l'IA può persino regolare il suo dialetto e tono per allinearsi con i suoi coetanei umani."
Intelligenza artificiale
L'IA spesso produce risultati senza spiegare perché quelle decisioni sono corrette. E gli strumenti che aiutano gli esperti a dare un senso al ragionamento di un modello spesso forniscono solo approfondimenti, solo un esempio alla volta. L'IA viene solitamente addestrata utilizzando milioni di input di dati, rendendo difficile per un essere umano valutare abbastanza decisioni per identificare i modelli.
In un recente articolo, i ricercatori hanno affermato che l'interesse condiviso potrebbe aiutare un utente a scoprire le tendenze nel processo decisionale di un modello. E queste informazioni potrebbero consentire all'utente di decidere se un modello è pronto per essere distribuito.
"Nello sviluppo dell'interesse condiviso, il nostro obiettivo è essere in grado di aumentare questo processo di analisi in modo che tu possa capire a un livello più globale qual è il comportamento del tuo modello", Angie Boggust, coautrice dell'articolo, ha detto nel comunicato stampa.
Shared Interest utilizza una tecnica che mostra come un modello di apprendimento automatico ha preso una decisione particolare, nota come metodi di salienza. Se il modello sta classificando le immagini, i metodi di salienza evidenziano le aree di un'immagine che sono importanti per il modello quando prende la sua decisione. L'interesse condiviso funziona confrontando i metodi di salienza con le annotazioni generate dall'uomo.
I ricercatori hanno utilizzato l'interesse condiviso per aiutare un dermatologo a determinare se dovrebbe fidarsi di un modello di apprendimento automatico progettato per aiutare a diagnosticare il cancro dalle foto delle lesioni cutanee. L'interesse condiviso ha consentito al dermatologo di vedere rapidamente esempi delle previsioni corrette e errate del modello. Il dermatologo decise che non poteva fidarsi del modello perché faceva troppe previsioni basate su artefatti dell'immagine piuttosto che su lesioni reali.
"Il valore qui è che usando l'interesse condiviso, siamo in grado di vedere questi modelli emergere nel comportamento del nostro modello. In circa mezz'ora, il dermatologo è stato in grado di decidere se fidarsi o meno del modello e se implementarlo o meno ", ha detto Boggust.
Il ragionamento alla base della decisione di un modello è importante sia per il ricercatore di machine learning che per il decisore.
Misurare i progressi
Il lavoro dei ricercatori del MIT potrebbe essere un significativo passo avanti per il progresso dell'IA verso l'intelligenza a livello umano, Ben Hagag, capo della ricerca presso Darrow, un'azienda che utilizza algoritmi di apprendimento automatico, ha detto a Lifewire in un'intervista via e-mail.
"Il ragionamento alla base della decisione di un modello è importante sia per il ricercatore di apprendimento automatico che per il decisore", ha affermato Hagag. "Il primo vuole capire quanto è buono il modello e come può essere migliorato, mentre il secondo vuole sviluppare un senso di fiducia nel modello, quindi devono capire perché è stato previsto quell'output."
Ma Hagag ha avvertito che la ricerca del MIT si basa sul presupposto che comprendiamo o possiamo annotare la comprensione umana o il ragionamento umano.
"Tuttavia, esiste la possibilità che ciò non sia accurato, quindi è necessario più lavoro per comprendere il processo decisionale umano", ha aggiunto Hagag.
I progressi nell'IA potrebbero accelerare lo sviluppo della capacità dei computer di comprendere il linguaggio e rivoluzionare il modo in cui l'IA e gli esseri umani interagiscono, ha affermato Buteneers. I chatbot sono in grado di comprendere centinaia di lingue alla volta e gli assistenti di intelligenza artificiale possono eseguire la scansione di corpi di testo per trovare risposte a domande o irregolarità.
"Alcuni algoritmi possono persino identificare quando i messaggi sono fraudolenti, il che può aiutare le aziende e i consumatori a eliminare i messaggi di spam", ha aggiunto Buteneers.
Ma, ha detto Buteneers, l'IA fa ancora degli errori che gli umani non farebbero mai. "Sebbene alcuni temono che l'IA sostituirà i lavori umani, la re altà è che avremo sempre bisogno di persone che lavorino insieme ai robot dell'IA per tenerli sotto controllo e tenere a bada questi errori mantenendo un tocco umano negli affari", ha aggiunto.