原著は エリヤザー・ユドコウスキー と ネイト・ソアレス による
『If Anyone Builds It, Everyone Dies』 の邦訳です。
内容を一言でいうと、かなり強い主張のAIリスク論です。
ポイントは次の3つに集約されます:
-
超知能は制御できない可能性が高い
人間よりはるかに賢い存在を、安全に「命令通り」に動かす方法は未解決。 -
一度でも成功したら取り返しがつかない
核兵器と違い、失敗の試行錯誤が許されない領域とされる。 -
競争が安全性を破壊する
国家・企業間の開発競争が「止まれない構造」を生む。
帯の「SFではない。予言ではない。これは事実である。」というコピーも含めて、
かなり“警告色の強い本”です。
ただし、この立場はAI研究者の中でも**かなり悲観的(エクストリーム寄り)**で、
例えば ヤン・ルカン などは真逆の楽観論を取っています。
- 講義動画・スライドがまとまっています
- 「World Models」「Self-Supervised Learning」など彼の核心思想が全部ここにあります
- いわば“著作の代替”になる場所
この講義のポイント:
- 現在のAIは不十分(“machine learning sucks”とまで言う)
- LLMのスケーリングは本質ではない
- 世界モデル(world model)こそ本当の知能