Perché gli esperti dicono che dovremmo controllare l'IA, ora

Sommario:

Perché gli esperti dicono che dovremmo controllare l'IA, ora
Perché gli esperti dicono che dovremmo controllare l'IA, ora
Anonim

Da asporto chiave

  • Una nuova ricerca suggerisce che potrebbe non esserci alcun modo per controllare l'intelligenza artificiale super intelligente.
  • Un articolo di giornale sostiene che il controllo dell'IA richiederebbe una tecnologia molto più avanzata di quella che attualmente possediamo.
  • Alcuni esperti affermano che l'IA veramente intelligente potrebbe arrivare prima di quanto pensiamo.
Image
Image

Se gli esseri umani svilupperanno mai un'intelligenza artificiale super intelligente, potrebbe non esserci alcun modo per controllarla, affermano gli scienziati.

L'IA è stata a lungo pubblicizzata come una cura per tutti i problemi dell'umanità o come un'apocalisse in stile Terminator. Finora, tuttavia, l'IA non si è avvicinata nemmeno all'intelligenza a livello umano. Ma tenere al guinzaglio l'IA avanzata potrebbe essere un problema troppo complesso per gli esseri umani se mai venisse sviluppata, secondo un recente articolo pubblicato sul Journal of Artificial Intelligence Research.

"Una macchina super intelligente che controlla il mondo sembra fantascienza", ha detto in un comunicato stampa Manuel Cebrian, uno dei coautori del giornale.

"Ma ci sono già macchine che svolgono determinati compiti importanti in modo indipendente senza che i programmatori comprendano appieno come l'hanno appreso. Sorge quindi la domanda se questo possa a un certo punto diventare incontrollabile e pericoloso per l'umanità."

Prossimamente su un super computer vicino a te

Il giornale sostiene che il controllo dell'IA richiederebbe una tecnologia molto più avanzata di quella che attualmente possediamo.

Nel loro studio, il team ha concepito un algoritmo di contenimento teorico che garantisce che un'IA superintelligente non possa danneggiare le persone in nessuna circostanza, simulando prima il comportamento dell'IA e fermandolo se considerata dannosa. Ma gli autori hanno scoperto che un tale algoritmo non può essere costruito.

"Se scomponi il problema in regole di base dell'informatica teorica, si scopre che un algoritmo che comanderebbe a un'IA di non distruggere il mondo potrebbe inavvertitamente interrompere le proprie operazioni." Iyad Rahwan, direttore del Center for Humans and Machines presso il Max Planck Institute for Human Development in Germania, ha affermato nel comunicato stampa.

"Se ciò accadesse, non sapresti se l'algoritmo di contenimento sta ancora analizzando la minaccia o se ha smesso di contenere l'IA dannosa. In effetti, questo rende inutilizzabile l'algoritmo di contenimento."

Image
Image

L'IA davvero intelligente potrebbe arrivare prima di quanto pensiamo, sostiene Michalis Vazirgiannis, professore di informatica all'École Polytechnique in Francia. "L'IA è un artefatto umano, ma sta rapidamente diventando un'entità autonoma", ha detto in un'e-mail a Lifewire.

"Il punto critico sarà se/quando si verificherà la singolarità (cioè, quando gli agenti dell'IA avranno coscienza come entità) e quindi rivendicheranno indipendenza, autocontrollo ed eventuale dominio."

La singolarità sta arrivando

Vazirgiannis non è il solo a prevedere l'imminente arrivo della super IA. I veri credenti nella minaccia dell'IA amano parlare della "singolarità", che secondo Vazirgiannis è il punto in cui l'IA sostituirà l'intelligenza umana e "che gli algoritmi dell'IA realizzeranno potenzialmente la loro esistenza e inizieranno a comportarsi in modo egoistico e cooperativo".

Secondo Ray Kurzweil, direttore dell'ingegneria di Google, la singolarità arriverà prima della metà del 21° secolo. "Il 2029 è la data coerente per cui ho previsto quando un'IA supererà un test di Turing valido e quindi raggiungerà livelli umani di intelligenza", ha detto Kurzweil a Futurism.

Se non possiamo pulire la nostra casa, quale codice dovremmo chiedere all'IA di seguire?

"Ho fissato la data 2045 per la 'Singolarità', ovvero quando moltiplicheremo la nostra intelligenza effettiva di un miliardo di volte fondendoci con l'intelligenza che abbiamo creato."

Ma non tutti gli esperti di intelligenza artificiale pensano che le macchine intelligenti siano una minaccia. È più probabile che l'IA in fase di sviluppo sia utile per lo sviluppo di farmaci e non sta mostrando alcuna vera intelligenza, ha affermato il consulente per l'IA Emmanuel Maggiori in un'intervista via e-mail. "C'è un grande clamore intorno all'IA, il che lo fa sembrare davvero rivoluzionario", ha aggiunto. "Gli attuali sistemi di IA non sono così accurati come pubblicizzati e commettono errori che un essere umano non farebbe mai."

Prendi il controllo dell'IA, ora

Regolare l'IA in modo che non sfugga al nostro controllo potrebbe essere difficile, afferma Vazirgiannis. Le aziende, piuttosto che i governi, controllano le risorse che alimentano l'IA. "Anche gli algoritmi stessi, di solito, vengono prodotti e distribuiti nei laboratori di ricerca di queste grandi e potenti entità, solitamente multinazionali", ha affermato.

"È evidente, quindi, che i governi degli stati hanno sempre meno controllo sulle risorse necessarie per controllare l'IA."

Alcuni esperti affermano che per controllare l'IA superintelligente, gli esseri umani dovranno gestire le risorse informatiche e l'energia elettrica. "Film di fantascienza come Matrix fanno profezie su un futuro distopico in cui gli esseri umani sono usati dall'IA come fonti di bioenergia", ha detto Vazirgiannis.

"Anche se le impossibilità remote, l'umanità dovrebbe assicurarsi che ci sia un controllo sufficiente sulle risorse informatiche (ad esempio, cluster di computer, GPU, supercomputer, reti/comunicazioni) e, naturalmente, le centrali elettriche che forniscono elettricità che è assolutamente dannoso per la funzione dell'IA."

Image
Image

Il problema con il controllo dell'IA è che i ricercatori non sempre capiscono come tali sistemi prendono le loro decisioni, ha affermato Michael Berthold, co-fondatore e CEO della società di software per la scienza dei dati KNIME, in un'intervista via e-mail. "Se non lo facciamo, come possiamo 'controllarlo'?"

Ha aggiunto: "Non capiamo quando viene presa una decisione completamente diversa sulla base, per noi, di input irrilevanti."

L'unico modo per controllare il rischio dell'utilizzo dell'IA è assicurarsi che venga utilizzato solo quando tale rischio è gestibile, ha affermato Berthold. "Metto in modo diverso, due esempi estremi: non mettere l'IA al comando della tua centrale nucleare dove un piccolo errore può avere effetti collaterali catastrofici", ha aggiunto.

"D' altra parte, l'IA prevede che se la temperatura della stanza deve essere regolata un po' verso l' alto o verso il basso potrebbe valere il rischio minimo a vantaggio del comfort abitativo."

Se non possiamo controllare l'IA, faremmo meglio a insegnargli le buone maniere, ha detto l'ex ingegnere informatico della NASA Peter Scott in un'intervista via e-mail. "In definitiva, non possiamo garantire la controllabilità dell'IA più di quanto possiamo garantire quella dei nostri figli", ha detto.

"Li alleviamo nel modo giusto e speriamo per il meglio; finora, non hanno distrutto il mondo. Per allevarli bene, abbiamo bisogno di una migliore comprensione dell'etica; se non possiamo pulire la nostra casa, cosa codice dovremmo chiedere all'IA di seguire?"

Ma ogni speranza non è persa per la razza umana, afferma il ricercatore di intelligenza artificiale Yonatan Wexler, vicepresidente esecutivo della ricerca e sviluppo di OrCam. "Sebbene i progressi siano davvero impressionanti, la mia convinzione personale è che l'intelligenza umana non dovrebbe essere sottovalutata", ha detto in un'intervista via e-mail. "Noi come specie abbiamo creato cose davvero straordinarie, inclusa l'IA stessa."

La ricerca di un'IA sempre più intelligente continua. Ma potrebbe essere meglio considerare come controlliamo le nostre creazioni prima che sia troppo tardi.

Consigliato: