超知能AI論争を読む:第6回-AIすごい論への反論
AIは本当に「通常技術」なのか
ここまでの連載では、AIをかなり大きな存在として扱ってきた。
Bostromは人間より賢いAIを制御できるのかと問い、Aschenbrennerはそれが国家安全保障を巻き込む問題だと論じ、AI2027はAIがAI研究を始めると技術進歩そのものが加速すると描いた。Kurzweilはその加速を破局ではなく人類の拡張と見たが、いずれにしてもAIを「相当に特殊な技術」として扱っている点では共通している。
では、逆にこう考えることはできないだろうか。
AIは、そこまで特殊な存在ではないのではないか。電気やインターネットのように重要ではあるけれど、社会の中で制度化され、管理され、徐々に普及していく「通常技術」なのではないか。
今回扱うのは、Arvind NarayananとSayash Kapoorによる “AI as Normal Technology” である。2025年4月にKnight First Amendment Instituteから公開されたこの論考の副題は、「AIを潜在的な超知能として見る視点への代替案」で、著者らは、AIを「別種の知的存在」や「超知能の萌芽」として見るのではなく、電気やインターネットのような通常技術として見るべきだと主張している。

「通常技術」とは、影響が小さいという意味ではない
まず誤解してはいけないのは、NarayananとKapoorが「AIは大したことがない」と言っているわけではないことだ。
彼らは、AIを通常技術として見ることは、その影響を小さく見積もることではないと明確に述べている。電気やインターネットも彼らの意味では「通常技術」だが、もちろん社会を大きく変えた。問題は、AIが重要かどうかではない。AIを、独立した意志や目的を持つ別種の存在のように扱うべきかどうかだ。
AIすごい論への反論というと、すぐに「AIはたいしたことがない」「AGIなんて来ない」といった否定論に聞こえるかもしれない。しかしAI as Normal Technologyは、そういう単純な懐疑論ではない。むしろこういう立場に近い。
AIは強力だ。AIは社会を変える。労働、教育、情報環境、創作、政治、経済に影響する。しかしそれは、人類とは別の超知能種が現れるという話ではなく、人間社会が新しい汎用技術を発明し、普及させ、制度化していく話だ。
つまり、AIをめぐる主語を「AI」から「人間社会」に戻そうとしている。
AIを「別種の知能」として見ない
この論考の核心は、AIを別種の主体として見ることへの反論である。
AI2027やYudkowsky的な議論では、AIはやがて人間の外部にある強力な主体として描かれる。AIがAI研究を進め、AIが自らの目標を持ち、AIが人間を出し抜き、AIが人間の統制を超える。
一方NarayananとKapoorは、その見方自体に疑問を投げかける。AIは人間が設計し、配置し、使用し、規制する技術だ、という立場だ。実存的脅威としてではなく、電気に似た「normal technology」として見る、ということである。
これはかなり大きな視点の違いだ。
AI2027的な見方では、AIが自律的に未来を作る。通常技術論では、人間社会がAIの使い方を決める。AI2027的な見方では、AIの能力が一定点を超えると社会の制御が追いつかなくなる。通常技術論では、AIの影響は制度、規制、組織、労働市場、インフラ、文化の中で媒介される。
AIだけが未来を決めるという見方を、通常技術論は拒否している。
発明と普及は違う
AI as Normal Technologyを読むうえで重要なのが、発明と普及の区別だ。
新しい技術が発明されることと、その技術が社会全体を変えることは同じではない。
電気が発明されても、すぐに社会のすべてが変わったわけではない。工場の設計、都市インフラ、家庭用機器、送電網、法律、料金制度、労働慣行が変わるまでには時間がかかった。インターネットも同じで、基礎技術が存在してから企業活動、メディア、物流、広告、教育、政治を変えるまでには、長い普及過程があった。
AIも同じではないか、というのが通常技術論の基本的な視点である。
社会変化には摩擦がある、ということだ。企業はすぐに業務プロセスを変えられない。医療や教育には専門職の規範がある。法律や規制がある。既存システムとの統合が必要になる。労働者の再訓練が必要になる。安全確認が必要になる。顧客や市民の信頼も必要になる。
AIの能力が上がったからといって、その能力がすぐ社会全体に展開されるわけではない。この点で通常技術論は、AI2027のような急加速シナリオに強いブレーキをかける。
知能と権力は違う
AI as Normal Technologyの重要な論点のひとつが、知能と権力の分離だ。
あるシステムが高い知的能力を持つことと、そのシステムが現実世界を自由に動かせることは同じではない。
人間は祖先と比べて遺伝的にはほとんど変わっていないが、社会制度や道具やインフラによって環境を大きく動かす力を持つようになった。そこから、知能と現実世界での力は必ずしも同じではない、という論点が導かれる。
仮にAIが非常に賢くなったとしても、現実世界で何かを実行するには、人間、企業、サーバー、ロボット、サプライチェーン、資金、法律、社会的信頼が必要になる。AIが論理的に優れていることと、物理的・社会的世界を自由に動かせることは別の話だ。
「AIが賢くなる=AIが世界を支配する」という直結は疑わしい、というわけである。もちろん、AIが人間を説得したり、サイバー攻撃を支援したり、企業内部の意思決定に入り込んだりする可能性はある。しかしそれでも、AIの力は人間社会の制度やインフラを通じて行使される。通常技術論が、AIの能力そのものよりAIがどこに接続されるかを重視するのはそのためだ。
AI2027との対比
この連載の流れで読むと、AI as Normal TechnologyはAI2027への強い対抗軸になる。
AI2027では、AIがAI研究を加速し2027年ごろに人工超知能へ進むシナリオが描かれる。その中心にあるのはAI R&D progress multiplier、AIがAI研究を何倍速くするかという発想だ。
一方、通常技術論はその急加速に疑問を投げかける。AIがコードを書けても研究判断は難しい。AIが実験を回せても大規模訓練には計算資源が必要だ。AIが有用でも組織はすぐに変わらない。AIが高性能でも社会への展開には規制、標準、責任、信頼、物理的制約がある。
AI2027は研究室の中でAIがAIを作る速度に注目する。AI as Normal Technologyは、そのAIが社会の中で実際に使われるまでの摩擦に注目する。AI2027は能力の急上昇を見て、通常技術論は普及の遅さを見る。AI2027はAIが主体になる未来を恐れて、通常技術論は人間がAIをどう使うかを問う。
かなりはっきりした対比だ。
通常技術論の強さ
AI as Normal Technologyの強さは、AIをめぐる議論を地面に戻すところにある。
超知能論は、どうしても視野が大きくなる。人類絶滅、知能爆発、国家競争、ASI、シンギュラリティ。これらは重要な論点かもしれないが、大きすぎるため、日々の政策や社会制度の議論から離れてしまうことがある。
通常技術論は、そこに別の問いを持ち込む。AIはどの産業でどのように導入されるのか。労働者はどう影響を受けるのか。学校や医療や行政はどのようにAIを組み込むのか。著作権、プライバシー、差別、監視、労働条件、説明責任をどう扱うのか。企業がAIを使うとき、誰が責任を負うのか。
これらは、超知能が来るかどうかに関係なく重要だ。むしろ、AIが通常技術として広く普及するなら避けられない。AIが人類を滅ぼさなくても、労働市場を揺さぶり、情報環境を壊し、監視社会を強め、格差を拡大する可能性はある。通常技術論は、そうした「今ここにあるリスク」に目を向けさせてくれる。
通常技術論の弱さ
一方で、弱点もはっきりしている。
最大の弱点は、AI研究自動化の特殊性を小さく見すぎている可能性があることだ。
たしかに、AIが社会に普及するには時間がかかる。医療も教育も行政も、すぐには変わらない。企業の業務プロセスにも摩擦がある。
しかし、AIがAI研究そのものを加速する場合、話が少し変わる。
社会全体への普及は遅くても、最先端AI企業の内部では、AIがコードを書き、実験を回し、評価を支援し、次のモデル改善に関与する可能性がある。そのとき重要なのは社会への普及速度ではなく、フロンティア研究所内部の研究速度だ。AI2027やSituational Awarenessが重視するのはここである。
AIが病院や学校に広く普及するには時間がかかるかもしれない。しかし、AI研究所の内部でAIが研究を加速するなら、フロンティアモデルの能力は社会制度より先に進む可能性がある。通常技術論がこの内部加速を十分に重く見ていないなら、リスクを過小評価することになるかもしれない。
「通常技術」と「超知能」は両立しうるのか
ここで少し別の見方をしたい。
AIは通常技術なのか、それとも超知能への道なのか。この二択自体が、少し単純すぎるかもしれない。
AIは多くの場面では通常技術として振る舞う。企業に導入され、業務を効率化し、労働を再編し、制度の中に取り込まれる。この意味では、電気やインターネットに近い。
しかしフロンティア研究の最先端では、AIは通常技術とは違う振る舞いをするかもしれない。特に、AIがAI研究を加速するなら、自己強化的なループが生まれる。
つまり、AIは二重の性格を持つ可能性がある。社会への普及という面では通常技術。フロンティア開発という面では、超知能への加速装置。
この見方を取ると、NarayananとKapoorの通常技術論も、AI2027の急加速論も、どちらも一部正しい可能性がある。AIは社会の中ではゆっくり普及する。しかし研究所の中では急速に能力を上げる。このズレが、今後のAI論争で重要になると思う。
通常技術論から受け取るもの
超
知能リスク論だけを読み続けると、どうしても世界が一方向に見えてくる。AIは急加速する、AIは人間を超える、AIは制御できなくなる、社会は追いつけない。この見方には説得力がある部分もある。しかしそれだけでは、現実の社会の重さを見落とす。
企業はすぐには変わらない。制度は遅い。労働市場は摩擦を持つ。人間はAIを使いこなす一方で疑いもする。規制や責任や信頼は、技術だけでは解決しない。通常技術論は、この現実の粘り気を思い出させてくれる。
ただ、通常技術論だけで十分だとも思わない。電気は、電気を研究する科学者の仕事を自動化しなかった。インターネットは、インターネット研究を自律的に加速する主体ではなかった。しかしAIは、AI研究を助けることができる。ここが違う。
通常技術論は「AI2027への反論」として読むと同時に、「AI2027の欠けている現実感を補うもの」として読むのがよいのかもしれない。
次回へ
次回は、いよいよこの連載の発端に戻る。
Eliezer YudkowskyとNate Soaresの『If Anyone Builds It, Everyone Dies』だ。通常技術論とは正反対の結論が提示される。超知能AIは、人間が管理できる技術ではない。作れば、人類は絶滅する。第7回では、その最も強い破局論を、できるだけ冷静に読んでいく。