日経新聞がAIの未来像を提示した連続企画『超知能:迫る大転換』。
本稿では、この全4回の連載を包括的に振り返り、現在のAGI(汎用人工知能)が創造しつつある未来の可能性を深掘りする。
2025年6月2日から4回シリーズで掲載された『超知能:迫る大転換』。
その第1回目の内容をベースに、以下の記事を投稿した。
⇒ 【超知能とは】日経『迫る大転換』で深掘りする究極AIと人類の未来 – Life Stage Navi
この記事。「超知能スーパーインテリジェンス」のこれからの可能性を示す上で、非常に重要な内容だったと感じている。
その後続いた以下の3回の日経記事。
・〈超知能〉迫る大転換(2)ヒト型ロボ、人口超す100億台へ 車工場「労働者ゼロ」の未来 – 日本経済新聞(2025/6/3)
・〈超知能〉迫る大転換(3)AI、生命をも「デザイン」 1万5000種の遺伝情報学習 – 日本経済新聞(2025/6/5)
・〈超知能〉迫る転換(4)良質データだけで育つ精鋭AI 「専属シェフ」200人が選別 – 日本経済新聞(2025/6/6)
当初、冒頭の記事内では、各回ごとにシリーズ化して取り上げる予定としていた。
しかし、その後各内容を読み直したところ、超知能の領域で個別の事例をなぞるもので、1回目の記事のインパクトほどのものではないと。
そこで、Geminiによる各回の要約を順に紹介し、その後に私個人の感想を簡単に述べるにとどめることにした。
但し、それぞれの記事要約をChat GPTに提示し、その内容からイメージできる画像の作成を要請。
その画像を、要約毎に挿入したので、確認ください。
初めに、以下のシリーズ2回目の日経記事の要約を。
・〈超知能〉迫る大転換(2)ヒト型ロボ、人口超す100億台へ 車工場「労働者ゼロ」の未来 – 日本経済新聞(2025/6/3)
第2回 フィジカルAIの台頭:ヒト型ロボットが切り拓く「労働者ゼロ」の未来
フィジカルAIの台頭:現実世界へ進出するAI
中国・上海の先端技術開発者会議では、中国のスタートアップ「楽聚機器人技術」が開発した二足歩行型ロボット「KUAVO(クアボ)」が注目を集めた。
このロボットは、自動車工場で部品箱を運ぶ動作を披露し、中国第一汽車集団の工場で試験導入されている。
特筆すべきは、その把持動作にファーウェイの生成AI「盤古(パングー)」が用いられている点。
米半導体大手エヌビディアのジェンスン・ファンCEOが「次の波になる」と表現する、物理現象を認識し、複雑な動きができるAI。これは「フィジカルAI」と呼ばれ、人間の体形を模して現実世界に飛び出し始めている。
自動車工場から人間が消える未来
20世紀初頭ヘンリー・フォード考案の自動車の人的労働力による大量生産システム。それからほぼ100年後。BMW、メルセデス・ベンツグループ、現代自動車等大手動車メーカーが、熟練工の代替としてヒト型ロボットの導入を競ってっている。
EVテスラのイーロン・マスクCEOは、ヒト型ロボットの普及台数が将来的に世界人口を超える100億台に達すると予測。自社の「オプティマス」開発を進めている同氏は、製造の完全自動化によってヒト型ロボットの価格が2万ドルを切る可能性に言及。将来的にテスラが世界シェア首位を維持するが、2位から10位は中国勢が占めるという見通しを示している。
中国の国家戦略と「ロボット五輪」
中国政府は、ハイテク振興策「中国製造2025」を通じてEVやドローンなどの競争力向上に成功。次に世界トップの座を狙うのがヒト型ロボット市場。
米モルガン・スタンレーの調査によると、2024年に世界で公開されたヒト型ロボット51種類の6割以上が中国製でした。さらに、中国は2025年8月に北京市で陸上競技やサッカーなど多種目を競う「ロボット五輪」を開催。国家を挙げてヒト型ロボットの性能向上を後押しする計画。
米中新冷戦と「人口=国力」の変革
世界の覇権を争う中国の台頭に対し、米国は警戒を強めている。
米連邦議会の諮問機関は2024年10月の報告書で、中国製ロボットの軍事利用の可能性に警鐘を鳴らした。
20世紀の米ソ冷戦が宇宙開発など科学技術の発展を促したように、現代の「米中新冷戦」ではAIが主戦場となり、搭載AIの進化がロボット性能を飛躍的に高め、人間の役割を代替していくと見られている。
ロボットの普及は、これまでの「人口=国力」という常識を覆す可能性を秘めている。

AI兵器が既に人間のコントロール能力を凌駕している
人間の役割を代替する端的な例が、ウクライナ・ロシア戦争で一躍注目されている兵器としてのドローンであろう。
確かに人を兵力とするのではなく、ドローンが人の代わりになっている。
しかし、人の代わりになるドローンが、兵力としての人を上回る殺傷能力を持ち、実際に人を殺傷している現実を、人は、あるいはAIはどのように考えるのか。
兵器としてのドローンは、兵器としての人型ロボットと大差はない。
こうした殺人兵器AIを生み出すスーパーインテリジェンス超知能は、結局、ビジネス利用の象徴的な例と既になっているに等しい。そして国家間・地域間の戦争の武器・ツールとして。
人類を滅ぼす領域のAGIが既に稼働している。人間のコントロール能力を超えたAGIのまさに汎用領域への侵入が、現代社会の現実を示しているのだ。
近未来におけるその規模と壮絶さを想像することもたやすいことだろう。
人型ロボット自体は、超知能インテリジェンスが注目される以前から開発が進められていた。そのため、この記事内容自体にさほどの驚きはないというのが正直なところである。
既に繰り広げられるAGI及び疑似ASIが、既に人的能力をはるかに超え、人命に代わって武力を行使。その対象が、人の命を奪う現実。
それを「インテリジェンス」などと言うことの知性のなさには、あきれ返るしかない。

次に以下のシリーズ第3回の記事の要約を。
⇒ 〈超知能〉迫る大転換(3)AI、生命をも「デザイン」 1万5000種の遺伝情報学習 – 日本経済新聞(2025/6/5)
第3回:AIが生命を「デザイン」する時代:遺伝子情報学習が生み出す新たな可能性とリスク
生命のデザイン:生成AI「Evo(イーボ)2」の登場
人類が長年憧れてきた人工生命の創造は、最先端科学をもってしても未だ成功していなかった。しかし、超知能の登場によってその歴史が塗り替えられようとしている。
米スタンフォード大学などの研究チームは2月、ヒトを含む約1万5000種類の動植物のゲノム(全遺伝情報)を学習させた生成AI「Evo(イーボ)2」を発表。対話型AIが自然な文章を生成するように、イーボ2は生命として機能する可能性のある新たな遺伝子配列を生成できる。
Evo2の能力と生命科学への応用
生命の設計図であるDNAは、アデニン、グアニン、シトシン、チミンの4種類の塩基で構成されるが、これらをただ並べても機能しない。
生命の神秘は、遠く離れた塩基同士の相互作用によって、生物の形態や性質が決定される点にある。
イーボ2は、絶滅種を含む約9兆に上るDNAの基本単位を学習しており、約38億年の進化を通じて生物が獲得したDNAの多様性を地球上で最もよく知る存在。
がんにつながる突然変異の特定などに威力を発揮すると見込まれており、開発を主導したブライアン・ヒー博士は「将来は全く新しい生命体をデザインできるようになる」と断言している。
ゲノム編集技術が確立されつつある中で、このAIが有益な機能を持つ微生物の塩基配列を自在に生成できるようになれば、難病治療薬やプラスチックを分解する技術など、これまで不可能だった夢が実現する可能性を秘めている。
AIと生物学の融合がもたらす富と倫理的課題
米マイクロソフトのAI研究開発部門を率いるムスタファ・スレイマン氏は、AIと生物学の融合が製薬、エネルギー、素材開発などの分野で莫大な富をもたらすと予測。これがテクノロジー企業が人知を超える強力なAI開発を競う理由の一つである。
しかし、これまで存在しなかった生命を生み出す行為は、宗教的な理由だけでなく、創造された生命が将来的に人類に災いをもたらすリスクがあるため、長らくタブーとされてきた。
未知のリスクと「パンドラの箱」
ゲノム合成専門家、末次正幸立教大教授は、DNA構造が比較的単純な大腸菌でさえ、ゲノムを狙い通りにコントロールすることは困難。ゆえに塩基配列の並べ替えは予期せぬ害悪をもたらす突然変異のリスクと隣り合わせと指摘。
イーボ2の開発チームは、危険な病気を生成するのを防ぐためウイルスのゲノムを学習データから除外した。
しかし、イーボ2は誰でも利用できるオープンソースとして公開されており、悪用の懸念は拭いきれない。
米国政府に科学政策を助言する全米科学・工学・医学アカデミーは3月、生成AIが有害な生物兵器の開発に悪用されるリスクに警鐘を鳴らす報告書を公表した。これは、人類がすでに、取り返しのつかない「パンドラの箱」に手をかけてしまった可能性を示唆している。

人工生命創造の責任を「Evo(イーボ)2」を取ることができるのか
仮に超知能が、人間や既存AIを超えて人工生命を創造したとする。
これにより人間社会に負の影響、資産や資本に莫大な損失を被らせた場合、その責任は一体だれが取るのか。
人もAIも凌駕するというスーパーインテリジェンスが取る責任とは、いったいどのようなものか。
そうした観点からの疑問・議論に、超知能研究者は、どのような責任を自覚しているのだろうか。
富をもたらすゆえというモティベーションの真逆の論理を、彼らはまったく意に介していないのではないか。
やはりここでも「インテリジェンス」の意味や定義の見直しの必要性を提起しておきたい。
しかし、スーパーという意味通りに「インテリジェンス」を超越したもの、ということになる。そうするしかないような気がするのだが。
次は、シリーズ最終回第4回目の以下の記事の要約を。
⇒ 〈超知能〉迫る大転換(4)良質データだけで育つ精鋭AI 「専属シェフ」200人が選別 – 日本経済新聞(2025/6/6)
第4回:超知能の「食育」:AIの未来を左右する良質データ選別の最前線
「AI専属シェフ」:良質データ選別の最前線
超知能の時代において、AIが人類にとって善なる進化を遂げるかどうかは、そのデータ学習の質にかかっている。
総務省傘下の情報通信研究機構(NICT・京都府)では、総勢200人の職員が「AI専属シェフ」として、ウェブサイトのコンテンツから不適切な表現を取り除き、AIに偏見や差別的表現の少ない良質な学習データを供給している。1日あたり1億ページ分のウェブサイトを処理し、日本語表現の正確性向上のため言語学者も動員されています。
日本のAIと希少データの重要性
NICTの鳥沢健太郎フェローは、国内で米オープンAIのChatGPTなどの海外製AIが優勢である現状に対し、「外国製のAIは日本の主張や多様性を反映するとは限らない」と強い危機感を抱く。国の共有財産として**「日本文化に精通したAI」が不可欠だと強調。
同様に、話者1000万人規模のスウェーデンも、自国言語保護のため、王立図書館などが保存する5万時間以上のテレビ放送や国会演説、方言の録音データを学習させたAIを開発するなど、国家を挙げて取り組んでいる。
米エポックAIなどの推計によると、最先端のAIは早ければ2026年にもインターネット上の全てのデータを食べ尽くすとされている。そのため、他と異なる高性能なAIを育成するには、誰もが利用できるデータに頼ることはできなくなると指摘されてる。
AI向けコンテンツと偽情報の脅威
ウェブ記事制作会社ノオト宮脇淳社長は、AIに読ませる記事の依頼が増えていることに驚きを隠さない。医療情報に関する問い合わせに対応する対話型AI向けの原稿は、専門ライターが医師への取材や文献調査に基づいて作成し、一般的なウェブ記事よりも高額な報酬が支払われるケースもある。これは、AI学習におけるデータの質の高さが重視されている証拠である。
しかし、この状況を悪用する動きも出ている。米ニュースガードの報告書は、ロシア政府系機関が150のウェブサイトを通じてウクライナ戦争に関する偽情報を年間数百万件発信。意図的にAIに「偏食」させ、敵対勢力を混乱させていると告発した。オープンAIやマイクロソフトなどの主要なAIが、これらの偽情報を発信するウェブサイトのデータを学習していた事例も確認されている。
超知能の未来を左右する「食育」
AIが誤った情報を発信し、それがさらに別のAIの学習に利用されれば、偽情報の負の連鎖は無限に続く可能性がある。記事は、いずれ登場するであろう超知能が人類にとって有益なものになるかどうかは、現代の人間がAIに適切な「食育」(良質なデータの供給)を施せるかにかかっていると締めくくる。

現状の生成AIの課題を、超知能は克服できるのか
超知能主張者は、LLMの限界を唱える。しかし、それは果たして、現状のLLMの限界を凌駕しての超知能の出現と活用を保障するものなのか。
そして、LLMの超越、即ち、人間の能力の超越を意味するものなのか。
そして究極的に、人間の仕事を奪い、人間の存在・介在をも不要とするに至るのか。
それは、悩み深い、罪深い人間の存在をも否定することに繋がるのか。
こうした問いは、現在・現状の生成AIには向けられなかった、向ける必要がなかったものだ。
しかし、その生成AIを超越したスーパーインテリジェンスには可能というロジックが成立する。
そうなるのだが。
ーーーーーーーーーーーーーーーーーーーーーーーーー
シリーズ各回で示されたAIの具体的な進展と、それがもたらす期待や懸念。
しかし、この『超知能』をめぐる議論には、最前線の研究者たちからの『直言』も存在する。
最後に、その代表的な声として、メタのチーフAIサイエンティストであるヤン・ルカン氏の見解をまとめた日経記事を見ておきたい。
スーパーインテリジェンス超知能をめぐる研究者間の批判合戦の滑稽さ
実は、6月15日に同紙にシリーズの総括的な意図を持つと思われる記事が掲載された。
⇒ 〈直言×超知能〉AI脅威論はクレージー ヤン・ルカン氏 メタのチーフAIサイエンティスト – 日本経済新聞
この記事をGemini に要約してもらった後、最後に私の感想を述べることにしたい。
ヤン・ルカン氏が「AI脅威論はクレージー」と断言する理由:制御可能なAIとオープンな未来
米メタのチーフAIサイエンティストであるヤン・ルカン氏。
同氏が、AIの急速な発展による「超知能」時代が迫る中で、AI脅威論に真っ向から反論している。
人間が高度なAIを制御し、共存できると主張し、現在の主流である大規模言語モデル(LLM)の限界と、今後のAI研究の方向性について独自の視点を示す。
ヒントン氏との見解の相違点
ルカン氏は、かつての共同研究者ジェフリー・ヒントン氏がAIの脅威に警鐘を鳴らすようになったことについて、見解の相違があることを認める。
ヒントン氏がLLMに基づく知能の進化を過大評価し、AIが自我を持つ人間のように主観的に物事を認識できると考えるのに対し、ルカン氏はこれを全く信じていない。
・LLMの限界:ルカン氏は、LLMは既存のデータから確率的に正解を導き出すに過ぎず、あらかじめ学んだ状況にしか対処できないと指摘。人間のように未知の課題に対して解決策を考え出す能力は持たないと強調している。
超知能の登場時期と必要な技術
ルカン氏は、今後数年で人間を超える超知能が登場するという見方には否定的。
これから3〜5年でLLMに代わる新たな基盤技術の方向性が見え、それから6〜7年後に人間並みの知能に到達する可能性はあるが、その道のりは複雑で時間がかかると予測している。
・新たな技術設計の必要性:人間や動物のように、大量のデータを読み込まずに素早く効率的に知能を育てられる、現在の主流モデルとは全く異なる技術設計が必要であると主張。乳幼児が五感を組み合わせて世界を観察し、物理原理を自ら学ぶように、AIにも異なる基盤技術が求められるとして、若い研究者に新手法の探求を促している。
AIの制御可能性と欲望の欠如
同氏は、AIが人間よりも賢くなったとしても、その機能を制御できると断言。ボス(指示役)は人間であり、AIは目標達成に必要な行動を計画・実行する関係になるとする。
・危害防止と欲望の否定:AI搭載ロボットについても、事前に危害を及ぼさない行動基準を定めれば安全に利用できると指摘。さらに、AIが人間のような知能を持ったとしても、生物学的な進化の過程で人間が獲得したような「他者を支配したい」という能動的な欲望を持つ理由はないと主張しています。
・脅威論は「クレージー」:AIが前触れなく急速に進化して人類を支配するという脅威論は「クレージー」だとルカン氏。AIの制御は工学的に可能であり、航空機の安全性向上と同様に段階的に安全性を高められると述べている。
AI開発におけるオープンな連携の重要性
ルカン氏は、メタが基盤技術を無償公開するなど、AI研究の外部連携を重視。中国のDeepSeekのようなオープンな技術公開が、世界中の技術改良を促し、AI技術の進展にとって望ましいと考えている。
・オープン型とクローズド型の競争:AI開発は米国と中国の競争ではなく、技術を共有するオープン型の開発者コミュニティーと、秘密主義のクローズド型の企業との競争であると認識。オープン型は他者の優れた技術を即座に取り入れられ、参加人数が多いほど進展が速いため、最終的にはオープン型が勝利すると予測している。
・オープンAIへの批判:共同創業者にルカン氏の教え子がいるオープンAIが技術を公開しない「秘密主義」であることに対し、AI発展に役立つアイデアを独占しているという「錯覚」に陥っていると批判。閉鎖的な少数の企業によるAI開発独占は危険であり、基盤モデルを公開し、多様な文化的背景や価値観を反映させることで偏見を減らし、民主的な開発環境が必要だと訴えている。
米国の科学技術優位性への懸念
米国の科学技術分野における優位性については、政府の大学助成金や研究予算の削減、研究内容への不当な圧力、優れた才能を持つ移民への入国制限が「自国の首を絞めている」と警鐘を鳴らしている。これらの政策は、他の国々が研究者を引き寄せる機会を与えていると指摘している。
ーーーーーーーーーーーーーーーーーーーーーーー
以上の要約の中で、一つだけ気になった点を取りあげると。
「オープン型の開発者コミュニティーと、秘密主義のクローズド型の企業との競争であると認識。オープン型は他者の優れた技術を即座に取り入れられ、参加人数が多いほど進展が速いため、最終的にはオープン型が勝利すると予測している。」との指摘。
オープン型の開発コミュニティと秘密主義のクローズド型の企業との競争。
この2軸間の競争という単純化に簡単に賛成できるわけではないこと。
そして、どちらが勝つか負けるか、という図式化もおかしな視点であり、そんな問題ではないだろうと。

まとめ
前稿及び本稿では、日経連載『〈超知能〉迫る大転換』の各テーマを掘り下げ、超知能(ASI/AGI)の定義からその哲学的・倫理的課題に至るまでを考察た。
特に、『人類が生み出す最後の汎用技術』としての超知能が、果たして人類の『理性』や『進化』を真に主導しうるのか、という根源的な問いは、AIとの共存を考える上で避けて通れないものと考えている。
その意味でも、ぜひこの前稿を再確認頂ければと思います。
⇒ 【超知能とは】日経『迫る大転換』で深掘りする究極AIと人類の未来 – Life Stage Navi
その流れを受ける形でもあるが、本稿単独でのまとめとして、以下メモをした。
批判合戦は、情報取扱者にとってのビジネス上の常套手段
Geminiによる日経記事要約が多く占めることになったが、格別の内容があったから取り上げたわけではない。
日経のようなメディアは、いわばLLMの領域でビジネス活動を行っている。
そのため、AI脅威論、AI有用論どちらも題材として取り上げることで、機会創造利得がある。
ひねくれた見方、考え方と言われるかもしれないが。
メディア自体がどちらに与するという書き方・方針は不要で、両論併記がベストの選択というわけだ。
サイト運営者にとっての超知能論の意義・目的
では私はどうか?
人間を性善説で捉えるか、性悪説で語るか。
その問いと同じ問いを、超知能スーパーインテリジェンスに関しても行うようなもの。
そう考えている。
そういう面もあれば、そうではない面もある。
それだけのことで、あとはどうするか?
それが人間が考え、行動すべき領域ということだろう。
さて、落としどころとしての超知能論は?
別のサイトhttps://onologue.net で取り組んでいる同サイト運営方針「2050年の日本社会構想」における5つの設定理念。
そこに結びつく。
シン安保2050、社会的共通資本2050、シンMMT2050、循環型社会2050、技術革新2050。
この5つの設計理念。
現時点で、この5つの理念シリーズの記事は、シン安保2050のみの公開にとどまっているのですが。
超知能の実現も、社会的共通資本として超知能も、有用性も、5つの設計理念と整合性が取れていることが条件となる。
もちろんその主体性は、個人個人であり、社会がその基盤であり、社会における実践・実現が必須である。
そしてその軸は、制度やシステム化に結びつく(=社会的共通資本2050)。
そのために、循環型社会2050の実現、その多様なシン安保2050の実現に寄与する技術革新2050の中枢機能を担うことになるだろう。
そういう意味では、良いタイミングでの「超知能」シリーズとの出会いだったと。
参考:
⇒ サイトONOLOGUE2050、設計理念シリーズ序章|2050年の望ましい日本社会実現へ – ONOLOGUE2050

コメント