Blog ~ f-mignon代表による、できれば役立って欲しい情報ブログ

超知能AI論争を読む:第7回-超知能AIを作れば人類は絶滅、するのか?

「超知能AIを作れば人類は絶滅する」。 この連載の発端は、Eliezer YudkowskyとNate Soaresの『If Anyone Builds It, Everyone Dies』、つまり日本語訳で言えば上記の […]

続きを読む

2026年5月14日 1:03 AM  カテゴリー: AI, AI安全性/危険性, AI規制

超知能AI論争を読む:第6回-AIすごい論への反論

AIは本当に「通常技術」なのか ここまでの連載では、AIをかなり大きな存在として扱ってきた。 Bostromは人間より賢いAIを制御できるのかと問い、Aschenbrennerはそれが国家安全保障を巻き込む問題だと論じ、 […]

続きを読む

2026年5月12日 9:43 PM  カテゴリー: AGI / ASI, AI, AI安全性/危険性

超知能AI論争を読む:第5回-カーツワイルを読む / シンギュラリティは破局ではなく進化なのか

ここまでの連載では、超知能AIをめぐる議論を、ずっと危険や制御の問題として見てきた。 ボストロムは、人間より賢いAIを人間は本当に制御できるのかと問い、Aschenbrennerは、AIはGPUや電力やデータセンターや国 […]

続きを読む

2026年5月11日 10:40 PM  カテゴリー: AGI / ASI, AI, AI安全性/危険性

超知能AI論争を読む:第4回-AI2027を読む

AIがAI研究を始めると何が起きるのか 第3回では、Leopold Aschenbrennerの “Situational Awareness” を読んだ。AIがチャットボットとか便利ツールの話で […]

続きを読む

2026年5月10日 3:45 PM  カテゴリー: AI, AI安全性/危険性

超知能AI論争を読む:第3回-Situational Awarenessを読む

AIは国家と産業の問題になる 第1回では、ボストロム『Superintelligence』を手がかりに、超知能AI論争の出発点を見た。そこにあった問いは、「人間より賢いAIを、人間は本当に制御できるのか」だった。 第2回 […]

続きを読む

2026年5月10日 1:30 AM  カテゴリー: AGI / ASI, AI, AI安全性/危険性, AI規制