Perché abbiamo bisogno di un'intelligenza artificiale che si spieghi

Sommario:

Perché abbiamo bisogno di un'intelligenza artificiale che si spieghi
Perché abbiamo bisogno di un'intelligenza artificiale che si spieghi
Anonim

Da asporto chiave

  • Le aziende utilizzano sempre più l'IA che spiega come ottiene risultati.
  • LinkedIn ha recentemente aumentato le entrate degli abbonamenti dopo aver utilizzato l'IA che prevedeva i clienti a rischio di cancellazione e descriveva come è arrivata alle sue conclusioni.
  • La Federal Trade Commission ha affermato che l'IA che non è spiegabile potrebbe essere indagata.
Image
Image

Una delle nuove tendenze più in voga nel software potrebbe essere l'intelligenza artificiale (AI), che spiega come raggiunge i suoi risultati.

L'IA spiegabile sta dando i suoi frutti mentre le società di software cercano di rendere l'IA più comprensibile. LinkedIn ha recentemente aumentato le entrate degli abbonamenti dopo aver utilizzato l'IA che prevedeva i clienti a rischio di cancellazione e descriveva come è arrivata alle sue conclusioni.

"L'IA spiegabile significa essere in grado di fidarsi dell'output e capire come è arrivata la macchina", ha detto a Lifewire Travis Nixon, CEO di SynerAI e Chief Data Science, Financial Services di Microsoft in un'intervista via e-mail.

"'Come?' è una domanda posta a molti sistemi di intelligenza artificiale, soprattutto quando vengono prese decisioni o prodotti risultati che non sono ideali", ha aggiunto Nixon. "Dal trattare ingiustamente diverse razze allo scambiare una testa calva per un pallone da calcio, dobbiamo sapere perché i sistemi di intelligenza artificiale producono i loro risultati. Una volta compreso il 'come', le aziende e gli individui possono rispondere a 'Cosa succederà?'."

Conoscere l'IA

L'IA si è dimostrata accurata e fa molti tipi di previsioni. Ma l'IA è spesso in grado di spiegare come è giunta alle sue conclusioni.

E le autorità di regolamentazione stanno prendendo atto del problema della spiegabilità dell'IA. La Federal Trade Commission ha affermato che l'IA che non è spiegabile potrebbe essere indagata. L'UE sta valutando l'approvazione dell'Artificial Intelligence Act, che include requisiti che consentano agli utenti di interpretare le previsioni dell'IA.

Linkedin è tra le aziende che pensano che l'IA spiegabile possa aiutare ad aumentare i profitti. In precedenza, i venditori di LinkedIn facevano affidamento sulle loro conoscenze e trascorrevano enormi quantità di tempo a setacciare i dati offline per identificare quali account avrebbero continuato a fare affari e quali prodotti potrebbero essere interessati durante il prossimo rinnovo del contratto. Per risolvere il problema, LinkedIn ha avviato un programma chiamato CrystalCandle che individua le tendenze e aiuta i venditori.

In un altro esempio, Nixon ha affermato che durante la creazione di un modello di definizione delle quote per la forza vendita di un'azienda, la sua azienda è stata in grado di incorporare un'intelligenza artificiale spiegabile per identificare quali caratteristiche indicavano un nuovo contratto di vendita di successo.

"Grazie a questo risultato, il management di questa azienda è stato in grado di riconoscere quali venditori mettere sulla 'corsia preferenziale' e quali avevano bisogno di coaching, il tutto prima che sorgessero problemi importanti", ha aggiunto.

Molti usi dell'IA spiegabile

L'IA spiegabile è attualmente utilizzata come controllo intestinale per la maggior parte dei data scientist, ha affermato Nixon. I ricercatori eseguono il loro modello con metodi semplici, si assicurano che non ci sia nulla di completamente fuori ordine, quindi spediscono il modello.

"Ciò è in parte dovuto al fatto che molte organizzazioni di data science hanno ottimizzato i propri sistemi in base al "time over value" come KPI, portando a processi affrettati e modelli incompleti", ha aggiunto Nixon.

Sono preoccupato che il contraccolpo causato da modelli irresponsabili possa riportare l'industria dell'IA in modo serio.

Le persone spesso non sono convinte da risultati che l'IA non riesce a spiegare. Raj Gupta, Chief Engineering Officer di Cogito, ha affermato in un'e-mail che la sua azienda ha intervistato i clienti e ha scoperto che quasi la metà dei consumatori (43%) avrebbe una percezione più positiva di un'azienda e dell'IA se le aziende fossero più esplicite sul loro utilizzo della tecnologia.

E non sono solo i dati finanziari a ricevere una mano dall'IA spiegabile. Un'area che trae vantaggio dal nuovo approccio sono i dati dell'immagine, in cui è facile indicare quali parti di un'immagine l'algoritmo ritiene essenziali e dove è facile per un essere umano sapere se tali informazioni hanno un senso, Samantha Kleinberg, professore associato allo Stevens Institute of Technology e un esperto di IA spiegabile, hanno detto a Lifewire via e-mail.

"È molto più difficile farlo con un ECG o un monitoraggio continuo della glicemia", ha aggiunto Kleinberg.

Nixon prevedeva che l'IA spiegabile sarebbe stata la base di ogni sistema di intelligenza artificiale in futuro. E senza un'IA spiegabile, i risultati potrebbero essere disastrosi, ha detto.

"Spero che progrediremo su questo fronte abbastanza da dare per scontata un'IA spiegabile negli anni a venire e che oggi guardiamo indietro a quel momento sorpresi dal fatto che qualcuno sarebbe così pazzo da distribuire modelli che non capivano, " Ha aggiunto."Se non affrontiamo il futuro in questo modo, sono preoccupato che il contraccolpo di modelli irresponsabili possa riportare l'industria dell'IA in modo serio."

Consigliato: