「超知能AIを作れば人類は絶滅する」。 この連載の発端は、Eliezer YudkowskyとNate Soaresの『If Anyone Builds It, Everyone Dies』、つまり日本語訳で言えば上記の […]
2026年5月14日 1:03 AM カテゴリー: AI, AI安全性/危険性, AI規制
AIがAI研究を始めると何が起きるのか 第3回では、Leopold Aschenbrennerの “Situational Awareness” を読んだ。AIがチャットボットとか便利ツールの話で […]
2026年5月10日 3:45 PM カテゴリー: AI, AI安全性/危険性