6. Più intelligenti di noi

C’è una buona probabilità che lo sviluppo di intelligenza artificiale trasformativa avvenga entro questo secolo e, se così fosse, le IA potrebbero iniziare a prendere decisioni importanti al posto nostro, e accelerare rapidamente diversi cambiamenti come la crescita economica. Siamo abbastanza preparati per poter gestire in modo sicuro questa nuova tecnologia?

Questo e altri temi pongono domande complicate: come dovremmo aggiornare i nostri punti di vista? Il teorema di Bayes è pensato proprio per casi come questo: ci può essere d’aiuto nel pensare in modo più lucido a come pensare in modo lucido.

1. Introduzione

Più in­tel­li­genti di noi

2. Perché preoccuparsi dei rischi dell’IA

L’im­por­tanza delle IA come pos­si­bile mi­nac­cia per l’umanità

Perché il deep learn­ing mod­erno potrebbe ren­dere diffi­cile l’al­linea­mento delle IA

Le Tem­p­is­tiche delle IA: il di­bat­tito e il punto di vista degli “es­perti”

3. Strategie per ridurre i rischi derivanti dalle IA

(Leggi la sezione “What you can do concretely to help” di “Prevenire una catastrofe legata alle IA”)

[Opz­ionale] Il panorama della gov­er­nance lun­goter­minista delle in­tel­li­genze artificiali

[Opz­ionale] Ricerca sulla sicurezza delle IA: panoram­ica delle carriere

Prevenire una catas­trofe legata all’in­tel­li­genza artificiale

4. La regola di Bayes e l’evidenza scientifica

[Opz­ionale] Guida alla re­gola di Bayes

[Opz­ionale] Far pa­gare l’af­fitto alle pro­prie credenze

[Opz­ionale] Che cos’è una prova o ev­i­denza?

5. Rischi di sofferenza (s-risks)

Perché i rischi di sofferenza sono i rischi es­isten­ziali peg­giori e come pos­si­amo prevenirli

6. Approfondimenti

[Opz­ionale] Ap­profondi­menti sui rischi dell’IA (ma­te­ri­ali in in­glese)