AlphaGo—The Movie—DeepMind—Documentario sull’intelligenza artificiale, l’antichissimo gioco del Go e cosa possiamo imparare sulle potenzialità future delle IA. (Filmato − 1 ora e 30 minuti)
What Failure Looks Like—Due storie specifiche su come potrebbero essere peggiori scenari di una società risultata dal fallimento dell’allineamento di IA, che si sposta considerevolmente dalla classica storia della “esplosione dell’intelligenza” (12 mins.)
AGI Safety from first principles—L’opinione di un ricercatore di IA sui fattori specifici per il problema di allineamento nell’intelligenza artificiale generale (1 ora 15 minuti)
[Opzionale] Approfondimenti sui rischi dell’IA (materiali in inglese)
This is an Italian translation of More to explore on ‘Risks from Artificial Intelligence’
Lo sviluppo dell’intelligenza artificiale
AlphaGo—The Movie—DeepMind—Documentario sull’intelligenza artificiale, l’antichissimo gioco del Go e cosa possiamo imparare sulle potenzialità future delle IA. (Filmato − 1 ora e 30 minuti)
The Artificial Intelligence Revolution: Part 1 - Una divertente e interessante esplorazione dell’intelligenza artificiale dal famoso blogger Tim Urban. (45 minuti)
Altre risorse sull’allineamento dell’intelligenza artificiale
AGI Safety Fundamentals Curricula
My personal cruxes for working on AI safety (65 minuti)
Professor Stuart Russell on the flaws that make today’s AI architecture unsafe & a new approach that could fix it (Podcast − 2 ore 15 minuti)
Some Background on Our Views Regarding Advanced Artificial Intelligence—Open Philanthropy Project—Una spiegazione del perché ci sia una seria possibilità che il progresso dell’intelligenza artificiale potrebbe essere comparabile alla transizione dall’era neolitica alla rivoluzione industriale. (1 ora)
The Precipice (25 minuti)
What Failure Looks Like—Due storie specifiche su come potrebbero essere peggiori scenari di una società risultata dal fallimento dell’allineamento di IA, che si sposta considerevolmente dalla classica storia della “esplosione dell’intelligenza” (12 mins.)
AGI Safety from first principles—L’opinione di un ricercatore di IA sui fattori specifici per il problema di allineamento nell’intelligenza artificiale generale (1 ora 15 minuti)
Human Compatible: Artificial Intelligence and The Problem of Control (Libro)
The Alignment Problem: Machine Learning and Human Values (Libro)
Governance dell’intelligenza artificiale
The new 30-person research team in DC investigating how emerging technologies could affect national security − 80,000 Hours—Come cambierebbe la sicurezza internazionale se gli effetti del machine learning fossero di portata simile a quelli dell’elettricità? (Podcast − 2 ore)
Technology Roulette: Managing Loss of Control as Many Militaries Pursue Technological Superiority—Center for a New American Security—Come i progressi tecnologici in ambito militare (incluse, ma non solo, le IA) possono comportare rischi e creare problemi nel prendere decisioni importanti, degni di attenzione da parte delle strutture di sicurezza nazionali. (60 minuti)
Lavori tecnici sull’allineamento dell’IA
AI Alignment Landscape (Video − 30 minuti)
AI safety starter pack (7 minuti)
How to pursue a career in technical AI alignment (59 minuti)
Technical Alignment Curriculum (readings for a 7 week course)
AI Alignment Forum, soprattutto le loro sequenze principali
Critiche ai rischi dell’IA
How sure are we about this AI stuff? (26 minuti)
A tale of 2.75 orthogonality theses (20 minuti)
How to know if AI is about to destroy civilization (sommario, 2 minuti)
The AI Messiah (e il primo commento) (5 minuti)
How good is humanity at coordination? (4 minuti)