超知能AI論争を読む

超知能AI論争を読む:第5回-カーツワイルを読む / シンギュラリティは破局ではなく進化なのか

ここまでの連載では、超知能AIをめぐる議論を、ずっと危険や制御の問題として見てきた。

ボストロムは、人間より賢いAIを人間は本当に制御できるのかと問い、Aschenbrennerは、AIはGPUや電力やデータセンターや国家安全保障を巻き込む問題になると論じ、AI2027は、AIがAI研究を始めると技術進歩が加速して、人間の監督や制度が追いつかなくなるかもしれないというシナリオを描いた。

ここまで読んでくると、超知能AIの話はかなり重い。

しかし、同じように「AIは指数関数的に進歩する」と考えながら、まったく違う未来を描く人物がいる。

Ray Kurzweilである。

今回扱うのは、Kurzweilの『The Singularity Is Nearer: When We Merge with AI』だ。2024年6月に出たこの本は、2005年の『The Singularity Is Near』の続編にあたる。Kurzweilはこの本でも、AIが2029年ごろに人間レベルへ到達し、2045年ごろに人間とAIが融合するという従来の予測を維持している。
Kurzweilにとって、シンギュラリティは終末ではない。人類が生物としての限界を超え、知能を拡張していく転換点である。

カーツワイルとは何者か

Ray Kurzweilは、発明家、未来学者、AI研究者として知られる人物で、音声認識、OCR、音楽シンセサイザーなどの分野で実績を持ち、長年にわたって技術進歩の指数関数的な加速を論じてきた。

名前を広く知らしめたのが2005年の『The Singularity Is Near』で、情報技術、遺伝子工学、ナノテクノロジー、AIが加速的に進歩し、最終的に人間と機械の境界が曖昧になる未来を描いた。2024年の『The Singularity Is Nearer』では、その続編として、生成AIの進歩、医療AI、脳とコンピュータの接続、ナノテクノロジー、寿命延長などを織り込みながら、シンギュラリティ論を更新している。

Kurzweilの特徴は、徹底した楽観主義にある。AIの危険性を完全に無視しているわけではないが、議論の中心にあるのは破局ではなく拡張だ。病気を克服する、寿命を伸ばす、知能を増幅する、身体の制約を超える、人間の意識や創造性を新しい形で広げる。これがKurzweilの描くAIの未来である。

シンギュラリティとは何か

シンギュラリティという言葉は、使う人によって意味が少し違う。一般には、技術進歩がある点を超えると人間の予測や制御を超えて急速に進み始める転換点を指すことが多い。Kurzweilの場合、それは特に、人間の知能が非生物的な知能と結びついて、知能そのものが爆発的に拡張される時代を意味する。

AIが人間と分離した外部の敵になるのではなく、人間がAIと結びつくことで知能を増幅する、というイメージだ。
ここが、YudkowskyやAI2027系の議論と決定的に違う。

Yudkowskyにとって超知能は、人間の外側に現れる制御不能な主体だ。AI2027にとっては、企業と国家の競争の中で人間の統制を追い越す存在だ。Aschenbrennerにとっては、国家安全保障とスーパーアライメントの問題だ。

しかしKurzweilにとって、超知能は人間が自らの内側に取り込んでいく拡張知能である。
同じ「人間を超える知能」を見ているのに、片方は絶滅を見ており、片方は進化を見ている。この違いはかなり大きい。

2029年と2045年

Kurzweilの未来予測で有名なのが、二つの年号だ。

2029年、AIが人間レベルの知能に到達する。2045年、人間とAIが融合しシンギュラリティが起きる。『The Singularity Is Nearer』でもこの予測は変わっていない。

AI2027やSituational Awarenessと並べると、少し印象が違う。AI2027は2027年という非常に短い時間軸でAI研究自動化からASIへの急加速を描き、Aschenbrennerも2027年ごろのAGIをかなり現実的なシナリオとして扱っている。Kurzweilの2029年は、それらよりほんの少し後ろにある。

ただ、2045年のシンギュラリティまで含めると、Kurzweilの未来像はむしろ非常に風呂敷が大きい。AIが人間と同じくらい賢くなった後、人間はAIと融合し、脳はクラウド的な知能と接続され、ナノテクノロジーや医療によって寿命が延びる。知能、身体、意識のあり方そのものが変わる。ここでは、AGIは終点ではなく、人類進化の途中段階である。

破局ではなく、融合としてのAI

Kurzweilを理解するうえで重要なのは、彼がAIを「人間の競争相手」としてではなく「人間の拡張」として見ていることだ。

人間はすでに、道具によって自分の能力を拡張してきた。文字で記憶を外部化し、印刷で知識を共有し、コンピュータで計算能力を拡張し、インターネットで情報アクセスを拡張し、スマートフォンで常時接続された。Kurzweilにとって、AIとの融合はこの延長線上にある。AIは人間を置き換える異物ではなく、人間が自分の知能をさらに外部化し、やがて統合していくものだ。

この視点から見ると、AIへの恐怖は少し違って見える。AIは人間を滅ぼすのか。それとも、人間が人間であることの定義を変えるのか。Kurzweilの答えは後者に近い。
もちろん、これは非常に大胆な見方で、多くの批判も受けている。ただ、AIリスク論だけを読んでいると見落としやすい視点でもある。

医療、長寿、ナノテクノロジー

Kurzweilの未来論では、AIは単独で語られない。AI、医療、遺伝子工学、ナノテクノロジー、脳科学が一つの流れとして扱われる。

Kurzweilは「longevity escape velocity(寿命脱出速度)」、つまり老化で失う時間よりも医療の進歩で得られる寿命の方が大きくなる状態に言及している。単に「長生きしたい」という話ではなく、AIが科学研究を加速し、医療を変え、老化や病気への対処を根本から変える、という話だ。

この点は、AI2027とも少しつながる。AI2027では、AIがAI研究を自動化することで開発が加速すると描かれたが、Kurzweilの場合、AIは医療や科学全般を加速する。AIが研究を速めるという発想自体は、破局論側にも楽観論側にも共通している。

違うのは、その加速が何をもたらすと見るか、だ。AI2027ではアライメント失敗や制御不能のリスクに近づき、Kurzweilでは病気の克服、寿命延長、知能拡張に向かう。同じ加速を見て、片方は危険を見て、片方は救済を見る。ここが面白い。

カーツワイルの強いところ

Kurzweilの強いところは、長期トレンドを見る力にある。個別のモデルや製品だけを見ているわけではなく、計算資源、情報技術、医療、ナノテク、脳科学、通信、エネルギーなどを、指数関数的な技術進歩の一部として見る。

AIリスク論は、ともするとAI単体に集中しすぎることがある。モデルが賢くなる、アライメントに失敗する、人間が制御できなくなる。もちろんそれは重要な問題だが、AIは単独で社会に入ってくるわけではない。医療、教育、創作、研究、都市、金融、軍事、身体、認知、寿命と結びつく。Kurzweilはその広がりを、非常に大きな物語として描く。
AIが人類にとって危険である可能性と同時に、病気を減らし、知識へのアクセスを広げ、人間の創造性を増幅する可能性もある。この両方を見ないと、議論は片側に寄りすぎる。

カーツワイルの弱いところ

一方で、弱いところもはっきりしている。

最大の弱点は、シンギュラリティに至る途中の政治・安全保障・アライメント問題を楽観的に見すぎているところだ。

人間とAIが融合する未来を描くとしても、そこに至る前にいくつもの問題がある。誰が最初の強力なAIを持つのか。そのAIの目的は誰が決めるのか。安全性を誰が評価するのか。AIと融合できる人間とできない人間の格差はどうなるのか。軍事利用や監視利用をどう防ぐのか。AIが人間の側に統合される前に、人間を大きく超えてしまったらどうするのか。

Kurzweilの物語では、人間はAIを取り込む主体として描かれる。しかしAI2027やYudkowskyの視点から見ると、その前提自体が疑問になる。本当に人間がAIを取り込むのか。それとも、AIが先に人間社会の中枢に入り込み、人間の意思決定を置き換えていくのか。

最終状態としての融合を描くのは得意だが、そこに至るまでの権力、競争、失敗、事故、アライメントの問題については、Situational AwarenessやAI2027ほど鋭くない、というのが正直な印象だ。

Yudkowskyとの対比

この連載の発端にあるYudkowskyの主張と並べると、Kurzweilの位置づけは非常に分かりやすい(彼らの本はタイトルしか触れていないが、それだけでもかなり明確だ)。

Yudkowskyにとって、超知能AIは作ってはいけないものだ。人間より賢いAIを作れば人間はそれを制御できず、人類は絶滅する可能性が高いと見る。Kurzweilにとって、超知能AIは人類が向かうべき進化の一部で、人間はAIと融合し、知能を拡張し、生物的制約を超える。

どちらもAIの進歩を大きく見ている。どちらも、AIが社会に少しずつ入るだけの通常技術だとは考えていない。どちらも、人間を超える知能が現実に問題になると見ている。しかし結論はほとんど逆である。

人間を超える知能が現れたとき、それは人間の敵になるのか、人間の一部になるのか。ここで未来像が大きく分かれる。

カーツワイルから受け取るもの

Kurzweilの未来像をそのまま信じるのは2026年の今は難しい。

2045年に人間とAIが融合する、ナノボットが脳を拡張する、寿命が大幅に伸びる、人間の知能が何桁も増幅される。これらのかなり強い予測は、実現するとしても技術的・社会的・政治的な壁はかなり大きいと思う。

ただ、Kurzweilを読む意味はある。超知能AIを「危険な外部主体」としてだけでなく、「人間能力の拡張」として見る視点を与えてくれるからだ。

この連載では危険論をかなり重く扱ってきた。だからこそKurzweilのような楽観論を挟むことには意味がある。それによって問いが少し変わる。

AIは危険か、これは重要な問いだ。しかしもう一つある。AIは、人間という存在の定義を変えるのか。Kurzweilは、その問いに対してかなりはっきり「変える」と答えている。

次回へ

次回は、さらに別の立場を見る。AIは本当に、超知能やシンギュラリティとして語るべきものなのか。それとも、電気やインターネットのように社会へ普及していく「通常技術」として見るべきなのか。第6回では、AI as Normal Technologyの立場を読んでいく。

2026年5月11日 10:40 PM   投稿者: M.A.   カテゴリー: AGI / ASI, AI, AIの危険

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


© 2003- f.mignon Ltd. 有限会社エフ・ミニヨン