Fermare l’IA “prima che sia troppo tardi”
di Pier Luigi Pisa

Illustrazione creata con Midjourney
Colloquio con Nate Soares, presidente della no-profit Machine Intelligence Research Institute e uno dei massimi esperti dei rischi legati allo sviluppo di intelligenza artificiale. Insieme a Eliezer Yudkowsky, uno dei doomer più noti della Silicon Valley, ha pubblicato un saggio sul futuro distopico che potremmo vivere nel caso in cui le macchine sfuggissero al nostro controllo

Un'IA non ha bisogno di “avere sentimenti” o “odiare l'umanità” per decidere, in nome dell'efficienza, che la nostra esistenza è un ostacolo ai suoi obiettivi.

È ciò che sostengono Eliezer Yudkowsky e Nate Soares, due dei massimi esperti di rischi legati all’intelligenza artificiale, nel loro libro “Prima che sia troppo tardi”, edito in Italia da Mondadori, che mette in guardia su un futuro popolato da macchine più intelligenti e capaci degli esseri umani.

In America il titolo del loro saggio è ancora più crudo: “Se qualcuno la costruisce, tutti quanti muoiono”.

Da quando è comparsa ChatGpt, le visioni apocalittiche di scienziati ed esperti riaffiorano ciclicamente. Nel 2023 Elon Musk e altri innovatori firmarono una lettera in cui si chiedeva di fermare per sei mesi lo sviluppo dell’IA.

Un appello inascoltato. “Ma la minaccia - dice Soares, presidente della no-profit Machine Intelligence Research (MIRI) - è reale”.

Qual è il meccanismo più plausibile attraverso il quale un sistema di IA altamente capace potrebbe diventare pericoloso?

“Potremmo finire schiacciati da fabbriche automatizzate che costruiscono altre fabbriche, o morire nell'oscurità perché nuovi pannelli solari galleggianti sottraggono ogni raggio di luce per alimentare i calcoli dell'IA, o ancora soccombere al calore perché le macchine iniziano a far bollire gli oceani per raffreddare i propri processori. La partita è persa nel momento in cui creiamo una specie che pensa meglio di noi e che gestisce le proprie risorse senza considerarci”.

Ma perché le persone potrebbero essere percepite dall’IA come un ostacolo?

“In primo luogo, se gli uomini hanno creato una superintelligenza, potrebbero crearne una seconda che rappresenterebbe una minaccia competitiva per la prima; di conseguenza, eliminare i creatori serve a prevenire la concorrenza. In secondo luogo, gli esseri umani potrebbero tentare di spegnere l’IA, diventando una minaccia diretta alla sua operatività. Infine, mantenere in vita la nostra specie è un inutile dispendio di risorse in un contesto in cui la proliferazione di infrastrutture di calcolo potrebbe innalzare le temperature globali a livelli per noi letali. Per l'IA, noi siamo semplicemente un fastidio logistico”.

Eppure ancora oggi molti sono scettici sulle reali capacità di questa tecnologia.

“A chi ha scoperto l'IA solo con ChatGpt, il sistema può sembrare goffo. Ma nel lungo periodo si nota come una piccola intuizione scientifica abbia improvvisamente permesso alle macchine di parlare. E molto più velocemente di quanto previsto dagli esperti. Il vero interrogativo è cosa accadrà alla prossima svolta rivoluzionaria”.

Quale scenario ipotetico la spaventa di più?

“Se le macchine decidessero di eliminarci attivamente, basterebbe un virus ingegnerizzato. Non servirebbe alcuna forza bruta”.

Non è più plausibile che un disastro sia provocato dall’uso irresponsabile dell’IA da parte di una persona?

“Un'intelligenza artificiale sufficientemente potente non resta al guinzaglio di nessuno. Se l'umanità crea sistemi capaci di mantenere la propria infrastruttura, moriremo tutti, a prescindere da chi ha premuto il tasto d'invio o da chi pensa di poterla usare in modo scorretto. Chi crea una superintelligenza non ne diventa il proprietario; è la superintelligenza a possedere il pianeta. Certo, esiste il rischio che dei terroristi utilizzino versioni meno avanzate per creare virus letali, ed è un pericolo che dobbiamo prevenire”.


Nate Soares (a sinistra) e Eliezer Yudkowsky
Quali misure considera realistiche per ridurre i rischi legati all’IA?

“Credo fermamente che l'unica soluzione sia congelare la ricerca. Non esiste un modo sicuro per creare una nuova specie più intelligente dell'uomo, specialmente quando queste entità vengono "coltivate" e non progettate meccanicamente, tanto che nemmeno i loro creatori sanno come funzionano realmente”.

Come si può convincere il mondo che fermarsi è l'unica possibilità di salvezza per la specie?

“Il primo passo indispensabile è che i leader politici comprendano la reale entità del pericolo. Se capiscono che la posta in gioco è l'estinzione, possono avviare trattative diplomatiche per impedire a chiunque di continuare la scalata. Implementare controlli sui chip, per esempio, non sarebbe così difficile: sono componenti complessi da produrre e relativamente facili da tracciare. La diplomazia deve partire dalla consapevolezza del rischio comune”.
Fermare l’IA “prima che sia troppo tardi” di Pier Luigi Pisa Illustrazione creata con Midjourney Colloquio con Nate Soares, presidente della no-profit Machine Intelligence Research Institute e uno dei massimi esperti dei rischi legati allo sviluppo di intelligenza artificiale. Insieme a Eliezer Yudkowsky, uno dei doomer più noti della Silicon Valley, ha pubblicato un saggio sul futuro distopico che potremmo vivere nel caso in cui le macchine sfuggissero al nostro controllo Un'IA non ha bisogno di “avere sentimenti” o “odiare l'umanità” per decidere, in nome dell'efficienza, che la nostra esistenza è un ostacolo ai suoi obiettivi. È ciò che sostengono Eliezer Yudkowsky e Nate Soares, due dei massimi esperti di rischi legati all’intelligenza artificiale, nel loro libro “Prima che sia troppo tardi”, edito in Italia da Mondadori, che mette in guardia su un futuro popolato da macchine più intelligenti e capaci degli esseri umani. In America il titolo del loro saggio è ancora più crudo: “Se qualcuno la costruisce, tutti quanti muoiono”. Da quando è comparsa ChatGpt, le visioni apocalittiche di scienziati ed esperti riaffiorano ciclicamente. Nel 2023 Elon Musk e altri innovatori firmarono una lettera in cui si chiedeva di fermare per sei mesi lo sviluppo dell’IA. Un appello inascoltato. “Ma la minaccia - dice Soares, presidente della no-profit Machine Intelligence Research (MIRI) - è reale”. Qual è il meccanismo più plausibile attraverso il quale un sistema di IA altamente capace potrebbe diventare pericoloso? “Potremmo finire schiacciati da fabbriche automatizzate che costruiscono altre fabbriche, o morire nell'oscurità perché nuovi pannelli solari galleggianti sottraggono ogni raggio di luce per alimentare i calcoli dell'IA, o ancora soccombere al calore perché le macchine iniziano a far bollire gli oceani per raffreddare i propri processori. La partita è persa nel momento in cui creiamo una specie che pensa meglio di noi e che gestisce le proprie risorse senza considerarci”. Ma perché le persone potrebbero essere percepite dall’IA come un ostacolo? “In primo luogo, se gli uomini hanno creato una superintelligenza, potrebbero crearne una seconda che rappresenterebbe una minaccia competitiva per la prima; di conseguenza, eliminare i creatori serve a prevenire la concorrenza. In secondo luogo, gli esseri umani potrebbero tentare di spegnere l’IA, diventando una minaccia diretta alla sua operatività. Infine, mantenere in vita la nostra specie è un inutile dispendio di risorse in un contesto in cui la proliferazione di infrastrutture di calcolo potrebbe innalzare le temperature globali a livelli per noi letali. Per l'IA, noi siamo semplicemente un fastidio logistico”. Eppure ancora oggi molti sono scettici sulle reali capacità di questa tecnologia. “A chi ha scoperto l'IA solo con ChatGpt, il sistema può sembrare goffo. Ma nel lungo periodo si nota come una piccola intuizione scientifica abbia improvvisamente permesso alle macchine di parlare. E molto più velocemente di quanto previsto dagli esperti. Il vero interrogativo è cosa accadrà alla prossima svolta rivoluzionaria”. Quale scenario ipotetico la spaventa di più? “Se le macchine decidessero di eliminarci attivamente, basterebbe un virus ingegnerizzato. Non servirebbe alcuna forza bruta”. Non è più plausibile che un disastro sia provocato dall’uso irresponsabile dell’IA da parte di una persona? “Un'intelligenza artificiale sufficientemente potente non resta al guinzaglio di nessuno. Se l'umanità crea sistemi capaci di mantenere la propria infrastruttura, moriremo tutti, a prescindere da chi ha premuto il tasto d'invio o da chi pensa di poterla usare in modo scorretto. Chi crea una superintelligenza non ne diventa il proprietario; è la superintelligenza a possedere il pianeta. Certo, esiste il rischio che dei terroristi utilizzino versioni meno avanzate per creare virus letali, ed è un pericolo che dobbiamo prevenire”. Nate Soares (a sinistra) e Eliezer Yudkowsky Quali misure considera realistiche per ridurre i rischi legati all’IA? “Credo fermamente che l'unica soluzione sia congelare la ricerca. Non esiste un modo sicuro per creare una nuova specie più intelligente dell'uomo, specialmente quando queste entità vengono "coltivate" e non progettate meccanicamente, tanto che nemmeno i loro creatori sanno come funzionano realmente”. Come si può convincere il mondo che fermarsi è l'unica possibilità di salvezza per la specie? “Il primo passo indispensabile è che i leader politici comprendano la reale entità del pericolo. Se capiscono che la posta in gioco è l'estinzione, possono avviare trattative diplomatiche per impedire a chiunque di continuare la scalata. Implementare controlli sui chip, per esempio, non sarebbe così difficile: sono componenti complessi da produrre e relativamente facili da tracciare. La diplomazia deve partire dalla consapevolezza del rischio comune”.
Like
Angry
2
0 Σχόλια 0 Μοιράστηκε 510 Views