2026年4月29日水曜日

超知能AIをつくれば人類は絶滅する

 原著は エリヤザー・ユドコウスキーネイト・ソアレス による

『If Anyone Builds It, Everyone Dies』 の邦訳です。

内容を一言でいうと、かなり強い主張のAIリスク論です。
ポイントは次の3つに集約されます:

  • 超知能は制御できない可能性が高い
    人間よりはるかに賢い存在を、安全に「命令通り」に動かす方法は未解決。
  • 一度でも成功したら取り返しがつかない
    核兵器と違い、失敗の試行錯誤が許されない領域とされる。
  • 競争が安全性を破壊する
    国家・企業間の開発競争が「止まれない構造」を生む。

帯の「SFではない。予言ではない。これは事実である。」というコピーも含めて、
かなり“警告色の強い本”です。

ただし、この立場はAI研究者の中でも**かなり悲観的(エクストリーム寄り)**で、
例えば ヤン・ルカン などは真逆の楽観論を取っています。



👉 Yann LeCun公式ページ

  • 講義動画・スライドがまとまっています
  • 「World Models」「Self-Supervised Learning」など彼の核心思想が全部ここにあります
  • いわば“著作の代替”になる場所


この講義のポイント:

  • 現在のAIは不十分(“machine learning sucks”とまで言う)
  • LLMのスケーリングは本質ではない
  • 世界モデル(world model)こそ本当の知能