Noi di 80,000 Hours abbiamo appena pubblicato la nostra analisi più lunga e più dettagliata di sempre. Parla di come ridurre i rischi esistenziali legati alle IA e si può trovare qui.
Il resto di questo intende fornire un background del profilo, una sinossi e un indice dei contenuti.
Un po’ di background
Come molti dei nostri contenuti, questo profilo è indicato a chi ha già passato un po’ di tempo sul nostro sito ma non ha familiarità con il mondo dell’Altruismo Efficace, ragion per cui è un’analisi piuttosto introduttiva. Ciò nonostante, speriamo che possa essere utile anche ai membri della comunità dell’Altruismo Efficace.
Il profilo rappresenta principalmente il mio (Benjamin Hilton) punto di vista, ma è stato corretto da Arden Koehler (il nostro direttore) e revisionato da Howie Lempel (il nostro CEO). Entrambi sono d’accordo in linea generale con le mie conclusioni.
Alcuni degli accorgimenti che ho preso per fare in modo che questo profilo potesse essere il più utile possibile per chi è nuovo a queste tematiche:
Mi sono concentrato su quello che per me è il problema più importante: i rischi di IA alla ricerca di potere che potrebbero derivare da sistemi di progettazione senzienti con capacità avanzate, come delineato da Joe Carlsmith.
Ho incluso una lunga lista di domande frequenti in cui presento quelle che ritengo essere le risposte migliori alle obiezioni più comuni sul lavorare ai rischi delle IA.
Inoltre, se volete darmi un feedback su questi contenuti e preferite non farlo pubblicamente, potete usare l’apposito modulo. Questo post include una sinossi dell’articolo e un indice dei contenuti.
Sommario
Ci aspettiamo di vedere progressi significativi nel campo delle IA nei prossimi decenni, forse anche di raggiungere un punto in cui le macchine supereranno gli umani in molti, o tutti, gli ambiti. Questo potrebbe portare vantaggi incredibili, aiutarci a risolvere problemi globali attualmente irrisolvibili, ma potrebbe anche comportare gravi rischi. Questi rischi potrebbero emergere per errore (ad esempio se non troviamo una soluzione tecnica per il problema della sicurezza delle IA) o volontariamente (ad esempio se le IA dovessero far precipitare un conflitto geopolitico). Pensiamo anche che sia necessario lavorare di più in questo campo per ridurre questi rischi.
Alcuni rischi legati a IA avanzate potrebbero essere esistenziali — vale a dire che potrebbero portare l’umanità all’estinzione o comunque provocare così tanti danni da farci perdere il ruolo di specie dominante sul pianeta.[1] Ad oggi non ci sono ancora soluzioni soddisfacenti che ci permettano di sviluppare e integrare nella società questa tecnologia trasformativa, il cui avvento sembra sempre più vicino. Secondo le nostre stime attualmente ci sono circa 300 persone nel mondo che stanno lavorando a questo problema.[2] Il risultato è che una catastrofe causata da un’IA potrebbe essere il problema più urgente al mondo, nonché quello su cui dovrebbero assolutamente lavorare coloro che possono dare un importante contributo. Tra le soluzioni più promettenti attualmente ci sono la ricerca tecnica per la creazione di intelligenze artificiali sicure, la ricerca strategica sui possibili rischi legati alle IA e la ricerca sulle politiche che governi e compagnie dovrebbero adottare per scongiurare questi rischi. Se verranno sviluppate politiche soddisfacenti, ci sarà bisogno di persone che le istituiscano e che le attuino. Ci sono anche molti ruoli complementari che danno la possibilità di avere un grande impatto, come ad esempio operation management, giornalismo, guadagnare per donare e altri ancora. Alcuni sono elencati qui sotto.
Il nostro punto di vista
Consigliato – priorità massima
Uno dei problemi più urgenti su cui lavorare.
Portata
Le IA possono essere utili in moltissimi contesti e c’è la possibilità che abbiano un enorme impatto positivo, ma quello che ci preoccupa in particolare è la possibilità di risultati estremamente negativi, soprattutto in caso di catastrofe esistenziale. Abbiamo ancora molti dubbi, ma in base alle valutazioni fatte da altre persone, la nostra idea generale è che il fattore di rischio di una catastrofe esistenziale provocata da un’intelligenza artificiale nei prossimi 100 anni è di circa il 10%. Ulteriori ricerche potrebbero far variare di molto questa cifra – secondo alcuni esperti non supera lo 0,5%, secondo altri è di oltre il 50% e non escludiamo che uno dei due gruppi possa avere ragione. In generale, riteniamo che, quando si parla della prosperità dell’umanità sul lungo periodo, lo sviluppo delle IA costituisca una minaccia di gran lunga superiore di qualsiasi altro problema.
Trascuratezza
Nel 2020 sono stati investiti circa 50 milioni di dollari per ridurre i rischi peggiori legati alle IA, mentre ne sono stati spesi miliardi per aumentare le loro capacità.[2] Nonostante i sempre maggiori timori degli esperti, attualmente ci sono solo circa 300 persone che lavorano per ridurre il rischio di una catastrofe esistenziale provocata da un’IA.[3] Di queste, circa due terzi lavorano alla ricerca sulla sicurezza delle IA, mentre le rimanenti si dividono tra chi fa ricerca strategica e chi ricerca e sostiene politiche adeguate.
Fattibilità
Fare progressi nella prevenzione di catastrofi causate dalle IA può sembrare difficile, ma ci sono molti ambiti in cui è possibile fare più ricerca e il campo stesso è molto recente. Per questo pensiamo che sia possibile risolvere i problemi, anche se abbiamo ancora molti dubbi – le valutazioni a questo proposito tendono a variare enormemente.
Ci preoccupa anche la possibilità che le intelligenze artificiali possano risultare meritevoli di considerazioni morali—ad esempio, perché acquistano coscienza di sé. Anche se non possiamo discuterne in questo articolo, abbiamo trattato l’argomento qui.
Stime ricavate grazie al database di AI Watch. Per ogni organizzazione ho stimato la percentuale di dipendenti che lavorano direttamente per ridurre i rischi esistenziali legati alle IA. Molte di queste stime sono soggettive (ad esempio, “questo programma di ricerca riguarda davvero la sicurezza delle IA?”) e potrebbero essere troppo basse in caso AI Watch non disponesse di dati su qualche organizzazione o troppo alte se nei dati sono presenti ripetizioni o se considerano persone che non lavorano più in quell’ambito. Con un intervallo di confidenza del 90%, stimo tra le 100 e le 1500 persone.
È difficile stabilire con precisione quanti soldi vengano spesi per migliorare le capacità delle IA, in parte a causa della scarsità di dati e in parte per via di domande come queste:
- Quali ricerche sulle IA stanno davvero migliorando capacità pericolose che potrebbero far aumentare il rischio di catastrofe esistenziale?
- Devono essere inclusi i progressi fatti sull’hardware delle IA o nella raccolta di dati?
- E per quel che riguarda progressi sui processi di ricerca in generale o fattori che potrebbero portare in futuro a una crescita economica e quindi a possibili nuovi investimenti?
La cifra più significativa che siamo stati in grado di trovare sono stati i costi sostenuti da DeepMind nel 2020, all’incirca 1 miliardo di sterline, secondo il loro rendiconto annuale. Ci aspettiamo che un budget del genere abbia contribuito in qualche modo ai “progressi nelle capacità delle IA”, considerando che il loro obiettivo principale è sviluppare sistemi di IA generali molto potenti. (Vale la pena notare, tuttavia, che DeepMind contribuisce anche al lavoro sulla sicurezza delle IA, che potrebbe ridurre il rischio esistenziale.)
Se DeepMind spende circa il 10% nel migliorare le capacità delle IA, otteniamo una cifra attorno ai 10 miliardi di sterline. (Dal momento che ci sono molte aziende di IA negli Stati Uniti e si stanno facendo molti sforzi per sviluppare IA avanzate in Cina, il 10% ci sembra una stima ragionevole.)
Come limite superiore, le spese nel settore delle intelligenze artificiali nel 2021 sono state di circa 340 miliardi di dollari. In generale, quindi, riteniamo che i soldi spesi nel miglioramento delle capacità delle IA vadano da 1 miliardo a 340 miliardi di dollari l’anno. Anche ipotizzando solo 1 miliardo di dollari, si tratterebbe di una cifra 100 volte maggiore di quello che viene speso per ridurre i rischi delle IA
Prevenire una catastrofe legata all’intelligenza artificiale
This is an Italian translation of Preventing an AI-related catastrophe—Problem profile
Noi di 80,000 Hours abbiamo appena pubblicato la nostra analisi più lunga e più dettagliata di sempre. Parla di come ridurre i rischi esistenziali legati alle IA e si può trovare qui.
Il resto di questo intende fornire un background del profilo, una sinossi e un indice dei contenuti.
Un po’ di background
Come molti dei nostri contenuti, questo profilo è indicato a chi ha già passato un po’ di tempo sul nostro sito ma non ha familiarità con il mondo dell’Altruismo Efficace, ragion per cui è un’analisi piuttosto introduttiva. Ciò nonostante, speriamo che possa essere utile anche ai membri della comunità dell’Altruismo Efficace.
Il profilo rappresenta principalmente il mio (Benjamin Hilton) punto di vista, ma è stato corretto da Arden Koehler (il nostro direttore) e revisionato da Howie Lempel (il nostro CEO). Entrambi sono d’accordo in linea generale con le mie conclusioni.
Alcuni degli accorgimenti che ho preso per fare in modo che questo profilo potesse essere il più utile possibile per chi è nuovo a queste tematiche:
Mi sono concentrato su quello che per me è il problema più importante: i rischi di IA alla ricerca di potere che potrebbero derivare da sistemi di progettazione senzienti con capacità avanzate, come delineato da Joe Carlsmith.
Ho cercato di parlare sempre in termini concreti e ho scritto un articolo a parte su come potrebbe avvenire una catastrofe causata da IA. (Devo molto al report di Carlsmith, a What failure looks like di Cristiano e a Superintelligenza di Bostrom.)
Ho fornito (quelle che secondo me sono) informazioni di base importanti, come i risultati dei sondaggi degli esperti di machine learning sul rischio legato alle IA, una panoramica dei progressi recenti nel campo delle IA e sulle leggi di scala.
Ho cercato di spiegare con sincerità perché le argomentazioni che presento potrebbero rivelarsi errate.
Ho incluso una lunga lista di domande frequenti in cui presento quelle che ritengo essere le risposte migliori alle obiezioni più comuni sul lavorare ai rischi delle IA.
Inoltre, se volete darmi un feedback su questi contenuti e preferite non farlo pubblicamente, potete usare l’apposito modulo.
Questo post include una sinossi dell’articolo e un indice dei contenuti.
Sommario
Ci aspettiamo di vedere progressi significativi nel campo delle IA nei prossimi decenni, forse anche di raggiungere un punto in cui le macchine supereranno gli umani in molti, o tutti, gli ambiti. Questo potrebbe portare vantaggi incredibili, aiutarci a risolvere problemi globali attualmente irrisolvibili, ma potrebbe anche comportare gravi rischi. Questi rischi potrebbero emergere per errore (ad esempio se non troviamo una soluzione tecnica per il problema della sicurezza delle IA) o volontariamente (ad esempio se le IA dovessero far precipitare un conflitto geopolitico). Pensiamo anche che sia necessario lavorare di più in questo campo per ridurre questi rischi.
Alcuni rischi legati a IA avanzate potrebbero essere esistenziali — vale a dire che potrebbero portare l’umanità all’estinzione o comunque provocare così tanti danni da farci perdere il ruolo di specie dominante sul pianeta.[1] Ad oggi non ci sono ancora soluzioni soddisfacenti che ci permettano di sviluppare e integrare nella società questa tecnologia trasformativa, il cui avvento sembra sempre più vicino. Secondo le nostre stime attualmente ci sono circa 300 persone nel mondo che stanno lavorando a questo problema.[2] Il risultato è che una catastrofe causata da un’IA potrebbe essere il problema più urgente al mondo, nonché quello su cui dovrebbero assolutamente lavorare coloro che possono dare un importante contributo. Tra le soluzioni più promettenti attualmente ci sono la ricerca tecnica per la creazione di intelligenze artificiali sicure, la ricerca strategica sui possibili rischi legati alle IA e la ricerca sulle politiche che governi e compagnie dovrebbero adottare per scongiurare questi rischi. Se verranno sviluppate politiche soddisfacenti, ci sarà bisogno di persone che le istituiscano e che le attuino. Ci sono anche molti ruoli complementari che danno la possibilità di avere un grande impatto, come ad esempio operation management, giornalismo, guadagnare per donare e altri ancora. Alcuni sono elencati qui sotto.
Il nostro punto di vista
Consigliato – priorità massima
Uno dei problemi più urgenti su cui lavorare.
Portata
Le IA possono essere utili in moltissimi contesti e c’è la possibilità che abbiano un enorme impatto positivo, ma quello che ci preoccupa in particolare è la possibilità di risultati estremamente negativi, soprattutto in caso di catastrofe esistenziale. Abbiamo ancora molti dubbi, ma in base alle valutazioni fatte da altre persone, la nostra idea generale è che il fattore di rischio di una catastrofe esistenziale provocata da un’intelligenza artificiale nei prossimi 100 anni è di circa il 10%. Ulteriori ricerche potrebbero far variare di molto questa cifra – secondo alcuni esperti non supera lo 0,5%, secondo altri è di oltre il 50% e non escludiamo che uno dei due gruppi possa avere ragione. In generale, riteniamo che, quando si parla della prosperità dell’umanità sul lungo periodo, lo sviluppo delle IA costituisca una minaccia di gran lunga superiore di qualsiasi altro problema.
Trascuratezza
Nel 2020 sono stati investiti circa 50 milioni di dollari per ridurre i rischi peggiori legati alle IA, mentre ne sono stati spesi miliardi per aumentare le loro capacità.[2] Nonostante i sempre maggiori timori degli esperti, attualmente ci sono solo circa 300 persone che lavorano per ridurre il rischio di una catastrofe esistenziale provocata da un’IA.[3] Di queste, circa due terzi lavorano alla ricerca sulla sicurezza delle IA, mentre le rimanenti si dividono tra chi fa ricerca strategica e chi ricerca e sostiene politiche adeguate.
Fattibilità
Fare progressi nella prevenzione di catastrofi causate dalle IA può sembrare difficile, ma ci sono molti ambiti in cui è possibile fare più ricerca e il campo stesso è molto recente. Per questo pensiamo che sia possibile risolvere i problemi, anche se abbiamo ancora molti dubbi – le valutazioni a questo proposito tendono a variare enormemente.
Leggi qui il rapporto completo
Ci preoccupa anche la possibilità che le intelligenze artificiali possano risultare meritevoli di considerazioni morali—ad esempio, perché acquistano coscienza di sé. Anche se non possiamo discuterne in questo articolo, abbiamo trattato l’argomento qui.
Stime ricavate grazie al database di AI Watch. Per ogni organizzazione ho stimato la percentuale di dipendenti che lavorano direttamente per ridurre i rischi esistenziali legati alle IA. Molte di queste stime sono soggettive (ad esempio, “questo programma di ricerca riguarda davvero la sicurezza delle IA?”) e potrebbero essere troppo basse in caso AI Watch non disponesse di dati su qualche organizzazione o troppo alte se nei dati sono presenti ripetizioni o se considerano persone che non lavorano più in quell’ambito. Con un intervallo di confidenza del 90%, stimo tra le 100 e le 1500 persone.
È difficile stabilire con precisione quanti soldi vengano spesi per migliorare le capacità delle IA, in parte a causa della scarsità di dati e in parte per via di domande come queste:
- Quali ricerche sulle IA stanno davvero migliorando capacità pericolose che potrebbero far aumentare il rischio di catastrofe esistenziale?
- Devono essere inclusi i progressi fatti sull’hardware delle IA o nella raccolta di dati?
- E per quel che riguarda progressi sui processi di ricerca in generale o fattori che potrebbero portare in futuro a una crescita economica e quindi a possibili nuovi investimenti?
La cifra più significativa che siamo stati in grado di trovare sono stati i costi sostenuti da DeepMind nel 2020, all’incirca 1 miliardo di sterline, secondo il loro rendiconto annuale. Ci aspettiamo che un budget del genere abbia contribuito in qualche modo ai “progressi nelle capacità delle IA”, considerando che il loro obiettivo principale è sviluppare sistemi di IA generali molto potenti. (Vale la pena notare, tuttavia, che DeepMind contribuisce anche al lavoro sulla sicurezza delle IA, che potrebbe ridurre il rischio esistenziale.)
Se DeepMind spende circa il 10% nel migliorare le capacità delle IA, otteniamo una cifra attorno ai 10 miliardi di sterline. (Dal momento che ci sono molte aziende di IA negli Stati Uniti e si stanno facendo molti sforzi per sviluppare IA avanzate in Cina, il 10% ci sembra una stima ragionevole.)
Come limite superiore, le spese nel settore delle intelligenze artificiali nel 2021 sono state di circa 340 miliardi di dollari.
In generale, quindi, riteniamo che i soldi spesi nel miglioramento delle capacità delle IA vadano da 1 miliardo a 340 miliardi di dollari l’anno. Anche ipotizzando solo 1 miliardo di dollari, si tratterebbe di una cifra 100 volte maggiore di quello che viene speso per ridurre i rischi delle IA