Da asporto chiave
- Un nuovo documento afferma che l'intelligenza artificiale può determinare quali progetti di ricerca potrebbero aver bisogno di una regolamentazione maggiore rispetto ad altri.
- Fa parte di uno sforzo crescente per scoprire che tipo di IA può essere pericoloso.
-
Un esperto dice che il vero pericolo dell'IA è che potrebbe rendere gli umani stupidi.
L'intelligenza artificiale (AI) offre molti vantaggi, ma anche alcuni potenziali pericoli. E ora, i ricercatori hanno proposto un metodo per tenere d'occhio le loro creazioni computerizzate.
Un team internazionale afferma in un nuovo documento che l'IA può determinare quali tipi di progetti di ricerca potrebbero aver bisogno di più normative rispetto ad altri. Gli scienziati hanno utilizzato un modello che fonde concetti di biologia e matematica e fa parte di uno sforzo crescente per scoprire quale tipo di IA può essere pericoloso.
"Ovviamente, mentre l'uso 'fantascientifico' pericoloso dell'IA può sorgere se lo decidiamo […], ciò che rende pericolosa l'IA non è l'IA in sé, ma [come la usiamo]", Thierry Rayna, il presidente di Technology for Change, presso l'École Polytechnique in Francia, ha detto a Lifewire in un'intervista via e-mail. "L'implementazione dell'IA può aumentare le competenze (ad esempio, rafforza la rilevanza delle abilità e delle conoscenze umane/lavoratori) o distruggere le competenze, ovvero, l'IA rende le abilità e le conoscenze esistenti meno utili o obsolete."
Mantenere le schede
Gli autori del recente articolo hanno scritto in un post di aver costruito un modello per simulare ipotetiche competizioni di intelligenza artificiale. Hanno eseguito la simulazione centinaia di volte per cercare di prevedere come potrebbero funzionare le gare di intelligenza artificiale nel mondo reale.
"La variabile che abbiamo ritenuto particolarmente importante era la "lunghezza" della gara, il tempo impiegato dalle nostre gare simulate per raggiungere il loro obiettivo (un prodotto di intelligenza artificiale funzionale)," hanno scritto gli scienziati. "Quando le gare AI hanno raggiunto rapidamente il loro obiettivo, abbiamo scoperto che i concorrenti che avevamo programmato per ignorare sempre le precauzioni di sicurezza hanno sempre vinto."
Al contrario, i ricercatori hanno scoperto che i progetti di intelligenza artificiale a lungo termine non erano così pericolosi perché i vincitori non erano sempre quelli che trascuravano la sicurezza. "Dati questi risultati, sarà importante per le autorità di regolamentazione stabilire quanto dureranno probabilmente le diverse gare di IA, applicando regolamenti diversi in base ai tempi previsti", hanno scritto. "I nostri risultati suggeriscono che una regola per tutte le gare di intelligenza artificiale, dagli sprint alle maratone, porterà a risultati tutt' altro che ideali."
David Zhao, l'amministratore delegato di Coda Strategy, una società che si occupa di consulenza sull'IA, ha dichiarato in un'intervista via e-mail a Lifewire che identificare l'IA pericolosa può essere difficile. Le sfide risiedono nel fatto che gli approcci moderni all'IA adottano un approccio di deep learning.
"Sappiamo che il deep learning produce risultati migliori in numerosi casi d'uso, come il rilevamento di immagini o il riconoscimento vocale", ha affermato Zhao. "Tuttavia, è impossibile per gli esseri umani capire come funziona un algoritmo di deep learning e come produce il suo output. Pertanto, è difficile dire se un'IA che sta producendo buoni risultati sia pericolosa perché è impossibile per gli esseri umani capire cosa sta succedendo."
Il software può essere "pericoloso" se utilizzato in sistemi critici, che presentano vulnerabilità che possono essere sfruttate da malintenzionati o produrre risultati errati, ha affermato via e-mail Matt Shea, direttore della strategia presso la società di intelligenza artificiale MixMode. Ha aggiunto che l'IA non sicura potrebbe anche comportare una classificazione impropria dei risultati, la perdita di dati, l'impatto economico o il danno fisico.
"Con il software tradizionale, gli sviluppatori codificano algoritmi che possono essere esaminati da una persona per capire come collegare una vulnerabilità o correggere un bug guardando il codice sorgente", ha detto Shea."Con l'intelligenza artificiale, tuttavia, gran parte della logica viene creata dai dati stessi, codificati in strutture di dati come reti neurali e simili. Ciò si traduce in sistemi che sono "scatole nere" che non possono essere esaminate per trovare e correggere le vulnerabilità come un normale software."
Pericoli in arrivo?
Mentre l'IA è stata descritta in film come Terminator come una forza malvagia che intende distruggere l'umanità, i veri pericoli potrebbero essere più banali, affermano gli esperti. Rayna, ad esempio, suggerisce che l'IA potrebbe renderci più stupidi.
"Può privare gli esseri umani di allenare i loro cervelli e sviluppare competenze", ha detto. “Come puoi diventare un esperto di capitale di rischio se non passi la maggior parte del tuo tempo a leggere le applicazioni delle startup? Peggio ancora, l'IA è notoriamente una "scatola nera" e poco spiegabile. Non sapere perché è stata presa una particolare decisione sull'IA significa che ci sarà molto poco da imparare da essa, proprio come non puoi diventare un corridore esperto guidando per lo stadio su un Segway.”
È difficile dire se un'IA che sta producendo buoni risultati sia pericolosa, perché è impossibile per gli esseri umani capire cosa sta succedendo.
Forse la minaccia più immediata dell'IA è la possibilità che possa fornire risultati distorti, ha detto in un'intervista via e-mail Lyle Solomon, un avvocato che scrive sulle implicazioni legali dell'IA.
"L'IA può aiutare ad approfondire le divisioni sociali. L'IA è essenzialmente costruita dai dati raccolti dagli esseri umani ", ha aggiunto Solomon. "[Ma] nonostante i vasti dati, contiene sottoinsiemi minimi e non includerebbe ciò che tutti pensano. Pertanto, i dati raccolti da commenti, messaggi pubblici, recensioni, ecc., Con pregiudizi intrinseci faranno sì che l'IA amplifichi la discriminazione e l'odio."