【医療AI教室:B17】AGI未来紀:AGI(汎用人工知能)までのカウントダウン(2025年8月版)

以下の音声解説は Google NotebookLM により自動生成されたものです。AIによる自動処理のため、内容には不自然な表現や誤字・脱字、事実と異なる記載が含まれる場合がありますのでご了承ください。

この記事のポイント

この記事では、SFのように聞こえる「AGI(汎用人工知能)」が、今や現実的な開発目標となっている現状を解説します。AGIが現在のAIとどう違うのか、医療現場にどんな革命をもたらすのか、そして私たちが向き合うべき倫理的な課題まで、その全体像を一緒に見ていきましょう。

AGIとは何か?
特化型AIとの違い

現在のAIが「専門医」のように特定タスクに特化しているのに対し、AGIは多様な知的作業をこなす「スーパー総合診療医」のような存在。知識を統合し、未知の問題に応用できる汎用性が特徴です。

医療へのインパクト
診断・治療・創薬の未来

AGIは、膨大なデータを統合し「予測医療」を実現します。また、一人ひとりに最適化された治療計画を立案し、新薬開発のプロセスを劇的に加速させる可能性を秘めています。

課題と私たちの役割
倫理と未来への準備

AIの目標を人間の価値観と一致させる「アラインメント」問題は最重要課題です。医療者はAIと協働し、共感や倫理的判断といった人間ならではのスキルを深めることが求められます。


医療の現場で、こんなことを想像したことはありますか?

一人のAIが、まず患者さんのCT画像を正確に読影し、次に、その方のゲノム情報と最新の論文を照らし合わせて、最も効果的な治療法をいくつか提案する。そして、その選択肢について、患者さんやご家族の価値観も踏まえながら、人間と深く対話する――。

まるでSF映画のワンシーンのように聞こえるかもしれません。

しかし、これはもはや遠い未来の夢物語ではありません。世界中のトップ研究者たちが、今まさに、この「人間のように、あらゆる知的作業をこなせるAI」の実現に向けて、熾烈な開発競争を繰り広げています。

それが、本稿のテーマであるAGI(Artificial General Intelligence / 汎用人工知知能)です。

もし、私たちが日常で使うAIツールが、一つの作業を完璧にこなす「非常に優れた専門器具(メスや内視鏡など)」だとしたら。AGIは、それら全ての器具を自在に使いこなし、患者という一人の人間を総合的に理解し、さらには新しい治療法すら考案してしまう「マスター・サージャン(名人級の外科医)」のような存在だと言えるかもしれません。

この連載シリーズ「AGI未来紀(AGI Chronicle)」は、この新しい時代の扉を開けようとしている皆さまのための、いわば「航海図」です。本稿では、2025年8月現在の最新情報に基づき、AGI開発の最前線で今何が起きているのか、そして、それが私たちの医療にどのような変化をもたらすのか、専門用語をできるだけ使わずに、一緒に探検していきたいと思います。

さあ、未来への旅を始めましょう。

目次

第1章:AGIって何だろう? – 「何でもできるAI」の基本

最近、AIの進化には本当に目を見張るものがありますよね。ChatGPTに調べ物を手伝ってもらったり、AIが生成したリアルな画像に驚いたり、私たちの日常にもAIは着実に浸透してきているように感じます。

医療の世界でも、「AIによる画像診断支援」などは、すでに実用化が進んでいる分野です。これらは特定の仕事、例えば「CT画像から異常所見の候補を見つけ出す」といったタスクを、驚異的な精度でこなしてくれます。

これは、まるで非常に腕のいい『専門医』のようなものです。循環器内科の専門家が心臓の疾患を高いレベルで診断できるように、画像診断AIは画像の読影という特定の分野でその能力を最大限に発揮します。ただ、その循環器内科の専門家が、いきなり皮膚科の診断や精神科のカウンセリングまで同じレベルでできるわけではないのと同じように、これらのAIも自分の専門外の仕事はできません。このような、一つのことに特化したAIを「特化型AI」と呼びます。

【図1:特化型AIのイメージ】

特化型AIのイメージ
画像診断AI
(眼科医のように
画像を読み解く専門家)
ゲノム解析AI
(遺伝学者のように
遺伝子情報を読む専門家)
論文検索AI
(図書館司書のように
膨大な論文を探す専門家)
それぞれが独立した「専門家」

図1の解説:特化型AIは、それぞれが独立した優秀な専門家のようなものです。画像診断AIは画像、ゲノム解析AIは遺伝子と、自分の専門分野については深い知識を持っていますが、互いの知識を直接連携させて新しい結論を導き出すことは苦手です。

さて、ここからが本題です。これに対して、私たちが今日探求するAGI(Artificial General Intelligence / 汎用人工知能)は、全く異なるコンセプトに基づいています。

AGIをたとえるなら、分野の垣根を軽々と飛び越える、とてつもなく優秀な『スーパー総合診療医』のような存在かもしれません。

例えば、ある一人の患者さんが来院したとします。このスーパー総合診療医(AGI)は、まず、その方のゲノム情報(生命科学)を深く読み解き、次に、世界中から発表される最新の分子標的薬に関する論文(薬学・化学)を瞬時にレビューし、さらには、その患者さんがどのような生活を送り、何を大切にしているのかといった生活背景や価値観(社会科学・倫理学)まで考慮に入れます。そして、これら全ての異なる分野の情報を、一人の人間の中で統合し、「この患者さんにとって、今考えられる最善の治療方針はこれです」と、総合的な視点から提案してくれるのです。

【図2:AGIのイメージ】

AGIのイメージ
AGI (スーパー総合診療医) 画像診断の知識 ゲノム解析の知識 論文検索の知識 ▼ 統合的な思考・推論 ▼ 「この患者に最適な治療方針」の立案

図2の解説:AGIは、様々な専門分野の知識を、一人の知性の中で統合し、それらを関連付けて新しい結論や洞察を生み出すことができます。個別の専門家を集めるのではなく、一人の存在が多角的な視点を持つ、という点が本質的な違いです。

つまり、AGIが特化型AIと根本的に違うのは、単に多くのことを知っているという点ではありません。未知の課題に直面したとき、自らが持つ様々な知識を応用して、新しい解決策を考え出す能力、いわば「本当の意味での応用力」を持っている点にあります。

そんな夢のようなAGIですが、実はその「定義」自体が、今、開発の最前線で大きなテーマになっています。「どこまでできたらAGIと呼ぶのか?」というゴールの決め方が、開発をリードするチームによって少しずつ違うのです。なんだか、それだけでも面白そうだと思いませんか?

さて、AGIの基本的なイメージが掴めたところで、次の章では、この「AGI開発レース」の舞台裏を、もう少し詳しく覗いてみることにしましょう。


第2章:【詳細解説】AGI開発の最前線 – 定義とタイムライン

さて、前の章で「AGIはスーパー総合診療医みたいだ」という話をしましたよね。でも、ここで一つ、とても面白い問題があるんです。それは、「そもそも何をもって『スーパー』と呼ぶのか?」、つまり「AGIの定義」そのものが、開発チームによって違うという点です。

定義が違うなんて、なんだか面倒な話に聞こえるかもしれません。でも、実はこれが、AGI開発レースの行方を占う上で、ものすごく重要な鍵になるんです。各チームが目指すゴール、つまり「戦略」が透けて見えるんですよ。

2.1. 到達点の定義:山頂への2つの異なる登山ルート

AGIという山の頂上を目指すにあたり、今、大きく分けて2つの異なる「登山ルート」が示されています。一つは学会が基準を作るようにアカデミックに定義するGoogle DeepMindのルート、もう一つは製品がバージョンアップしていくように実践的に定義するOpenAIのルートです。

Google DeepMindのルート:詳細な「地図」で現在地を把握する

Google DeepMindは、まるで学会が新しい疾患の診断基準を作るように、きっちりとした学術的なアプローチを提案しています(2)。彼らが2023年に発表した論文では、AGIの能力を2つの軸、つまり地図のタテとヨコで評価します。

【図3-1:AGI能力レベルの分類】
(出典:Morris, M. R., et al. (2023). “Levels of AGI: Operationalizing progress on the path to AGI.” arXiv preprint arXiv:2311.02462 の Table 1 を基に作成)

  • タテ軸:パフォーマンス(Performance)
    これは能力の「深さ」や「高さ」を表します。特定のタスクを、人間と比べてどれだけ上手くできるか、という指標です。「まだ人間に及ばない」レベルから、専門家を超え、歴史上の天才すら凌駕する「超人的(Superhuman)」レベルまで段階分けされています。
  • ヨコ軸:汎用性(Generality)
    これは能力の「広さ」です。一つのことしかできない「狭い(Narrow)」AIなのか、人間のように様々なことができる「一般的(General)」なAIなのかを示します。

【図3-2:Google DeepMindのAGIレベル分類マップ】

Google DeepMindのAGIレベル分類マップ パフォーマンス(深さ・高さ) 汎用性(広さ) Superhuman Virtuoso Expert Competent Emerging Narrow General 例: AlphaFold 性能は超人的だが、 極めて狭い領域に特化 例: GPT-4o 多くの領域で専門家レベルの 性能を発揮 狭い領域での超人的性能 汎用的な専門家レベル性能 右上に向かうほど高性能なAGI

図3の解説:この地図上で、様々なAIの「現在地」を示せます。例えば、タンパク質の構造予測で革命を起こした「AlphaFold」は、パフォーマンスは超人的ですが、その能力は極めて狭い領域に特化しているため、左上にプロットされます。一方、ChatGPTなどに使われる大規模言語モデル(LLM)は、非常に幅広いタスクを専門家レベルでこなせるため、より右上の方向に位置づけられる、といった具合です。

このアプローチは、AIの能力を冷静に分析し、過大評価も過小評価もしないようにしようという、いかにも基礎研究を重んじるGoogleらしい、慎重で堅実な姿勢が感じられますよね。

OpenAIのルート:製品の「進化」で道のりを示す

ChatGPTを開発したOpenAIは、社内向けに、AIの進化を5つの段階で描いたロードマップを共有していたと、2024年7月のBloombergなど複数の報道が伝えています。(この構成は公式サイトで公表されたものではなく、社内資料や全社会議(all-hands)での説明をもとに報じられたものとされます。)

報道によれば、この5段階は次のように整理されています。

  1. Chatbots(会話型AI) – 人間と自然に会話できるパートナー
  2. Reasoners(推論型AI) – 複雑な質問にも筋道を立てて答えを導き出す
  3. Agents(自律実行型AI) – 目的達成のため計画を立て、ツールを使って行動する
  4. Innovators(革新支援型AI) – 新しい科学的発見や発明を人間と協力して生み出す
  5. Organizations(組織型AI) – 複雑で大規模な課題を組織のように解決する

どうでしょう。こちらは「AGIとは何か」という問いよりも、「AGIで何ができるようになるのか」という未来のプロダクト像に焦点が当たっているのが分かります。まさに、「とにかくすごい製品を市場に出して世界を変える!」というOpenAIの勢いを象徴しているようです。

この2つのアプローチは、単なる言葉の違いではありません。Googleの「地図」とOpenAIの「ロードマップ」、この両方を頭に入れておくと、各社から発表されるニュースが「今、開発レースのどのあたりにいるのか」を立体的に理解できるようになり、非常に面白いと思います。

本稿における「メディカルAGI」の定義

このような状況を踏まえ、この記事では、医療分野におけるAGI、すなわち「メディカルAGI」を、「Google DeepMindのフレームワークにおける『レベル3:専門家(Expert)』以上のパフォーマンスを、診断、治療計画、臨床試験分析といった幅広い医療タスクにわたって達成した状態」として話を進めていきます。

2.2. 到達タイムライン:専門家とCEOで20年近い「時差」

AGIという山の頂上への「定義」が違えば、当然、そこにたどり着くまでの「所要時間」の見積もりも変わってきますよね。そして、この「到着予定時刻」が、今、専門家、すなわち、AI企業の幹部やAI研究者の間で真っ二つに割れていて、非常に面白い状況になっているんです。

片や「自分が現役を引退する頃かな…」という未来、片や「数年後、次のワールドカップくらいには…」という、すぐそこの未来。この約20年もの「時差」は、一体どこから来るのでしょうか?

【図4:AGI実現タイムラインのギャップ】

AGI実現タイムラインのギャップ
2025年 2030年 2040年 2050年
AI企業CEOの予測
2026年~2035年頃
(すぐそこの未来)
AI研究者の予測 (中央値)
2047年
(遠い未来?)
約20年のギャップ
【図の解説】
AGIの実現時期について、産業界のリーダーたちの予測は2020年代後半から2030年代前半に集中しており、非常に楽観的です。一方で、数千人のAI研究者を対象とした大規模な調査では、予測の中央値は2047年となっており、両者の間には大きな認識のギャップが存在していることがわかります。

表2: AGIタイムライン予測(専門家調査 vs. 産業界リーダー)

予測者グループ主要な個人/調査AGI/HLMIの定義50%確率の中央値予測年
■ AI研究者
(学術界)
AI Impacts 2023年調査 (n=1,714)HLMI: 人間があらゆるタスクをより安価に達成できる2047年 (11)
■ AI企業CEO
(産業界)
イーロン・マスク (xAI)人間より賢いAI2026年 (7)
ダリオ・アモデイ (Anthropic)強力なAI2026年 (15)
ジェンスン・フアン (Nvidia)あらゆるテストで人間を超えるAI2029年 (12)
サム・アルトマン (OpenAI)AGI2035年頃 (12)
(明示的年次の公式発言は確認不可。2035年は本人ブログの将来像に基づく解釈)
デミス・ハサビス (DeepMind)AGI2035年頃 (12)

出典: (7), (11), (12), (15)の情報を基に作成

この背景には、それぞれの立場に働く「インセンティブ(動機)」の構造的な違いがあります。

研究者の世界では、キャリアそのものが「再現性」と「査読」という、非常に厳しいチェック機能の上に成り立っています。画期的な主張をするほど、その根拠を徹底的に問われる。だから、未来予測のような不確実性の高いものについては、証明可能な範囲で、どうしても控えめな発言になる傾向があるんですね。いわば、「間違っていると証明されないこと」を言うのが基本姿勢なんです。

一方で、企業のトップ、特にスタートアップや巨大テック企業のリーダーの役割は全く異なります。彼らは、未来のビジョンを語ることで、何千億円という投資を集め、世界中から最高の頭脳を持つエンジニアを惹きつけ、社会全体の期待感を醸成しなければなりません。彼らにとっては、「信じられる未来」を語ることが、その未来を実現するための第一歩なんです。もちろん、技術的な裏付けがあってのことですが、その語り口は必然的に、力強く、希望に満ちたものになります。

では、この「未来の時差」を、私たち医療に関わる者はどう受け止めればいいのでしょうか。

これはどちらか一方を信じる、という話ではないのだと思います。むしろ、「数年後に革命が起きる可能性に備えて学び始めつつ、数十年単位のゆっくりとした進化も視野に入れて、腰を据えて取り組む」。そんな、しなやかな「両利きの構え」こそが、この不確実な時代を乗りこなす上で、最も賢明なスタンスと言えるのかもしれませんね。


第3章:AGIが私たちの医療をどう変えるのか

前の章では、AGI開発の舞台裏という、少し専門的な話をしました。地図やロードマップの話も出てきましたよね。では、その開発競争の先にある「山頂からの景色」は、一体どんなものなのでしょうか?

ここからは、AGIが私たちの医療現場を具体的にどう変えるのか、ワクワクする未来図を一緒に広げてみたいと思います。

未来像①:診断のあり方が変わる – 火事を「消す」から「予報する」へ

これまでの医療が、病気という「火事が起きてから消火する」活動だったとすれば、AGIがもたらすのは、天気予報のように「火事のリスク」を予測し、火種が生まれる前に手を打つ活動、すなわち『予測医療』の本格的な幕開けです。

AGIは、あなたが普段身につけているスマートウォッチから得られる心拍数や睡眠の質、毎日の食事の記録、電子カルテに眠っている過去の検査データ、そして生まれ持ったゲノム情報まで、ありとあらゆる種類のデータを統合して解析します。

【図4:AGIによる予測医療のデータ統合イメージ】

未来像①:診断のあり方が変わる – 火事を「消す」から「予報する」へ AGIが統合・解析する多様なデータ ゲノム情報 ウェアラブルデータ 電子カルテ 生活習慣データ 環境データ AGIによる統合解析 個別化されたアウトプット 疾患リスクスコア 70% (2年以内の2型糖尿病発症確率) 具体的な予防プラン • 食事内容の見直し(糖質コントロール) • 週2回の有酸素運動(30分以上) • 定期的な血糖値モニタリング

図4の解説:AGIは、これまで別々に扱われていた様々な種類の健康データを統合的に解析します。遺伝的素因から日々の生活習慣、環境要因までを組み合わせることで、単一のデータだけでは見えなかった未来の疾患リスクを、より高い精度で予測することが可能になります。

その結果、例えばこんな未来が当たり前になるかもしれません。
「あなたの過去1年間の血糖変動パターンと遺伝的背景から、2年以内に2型糖尿病を発症する確率は70%です。しかし、今日から食事のこの部分を改善し、週に2回この運動を始めれば、そのリスクを20%まで低減できますよ」

このように、漠然とした「気をつけましょう」ではなく、一人ひとりに最適化された、超具体的な予防プランが日常的に手に入るようになるのです。診断は「病名をつける行為」から、「健康な未来への道筋を示す行為」へと、その役割を大きく変えていくでしょう。

未来像②:治療のあり方が変わる – 「究極のカンファレンス」が一人ひとりのために

診断と治療がこれだけ変わるなら、次は「治療」そのものがどう進化するのか、気になりますよね。AGIが可能にするのは、いわば「個別化医療」の究極形です。

これをたとえるなら、世界トップクラスの各科専門医(腫瘍内科医、放射線科医、病理医など)と、生命科学者、倫理学者、そして患者さん本人も参加する『究極のバーチャル・カンファレンス』が、一人の患者さんのために24時間365日、常に開かれているような状態です。

AGIは、目の前の患者さんのためだけに、世界中の最新論文、膨大な臨床試験データ、何百万人もの類似症例の治療経過を瞬時に参照します。そして、その方の遺伝的背景や価値観まで考慮した上で、「現在考えられる最善の治療法の選択肢は、A、B、Cの3つです。それぞれのメリット、デメリット、そして5年後のQOLの予測はこうです」と、データに基づいた複数の選択肢を提示します。

ここで重要になるのが、私たち人間の役割です。

AIは、あくまでデータに基づいた「最適な選択肢」を提示するナビゲーションシステム。それに対して人間である医師は、その地図が持つ意味を、患者さんの人生という旅の文脈に沿って丁寧に解説し、どのルートを選ぶのがその人にとって最も幸せなのかを、共に悩み、考える『ナビゲーター』であり『共感者』としての役割が、より一層重要になります。

計算や記憶といったタスクから解放された分、私たちは、より人間的なコミュニケーションに時間と心を注げるようになる。医療は、真の意味で『仁術』になる。私はそう考えています。

未来像③:創薬のあり方が変わる – 「シミュレーション」で新薬を生み出す

診断が変わり、治療が変わる。その先で待っているのは、「薬」そのものの作り方の革命です。

新しい薬が私たちの手元に届くまでには、通常10年以上の長い年月と、時に数千億円もの莫大なコストがかかります。このプロセスを劇的に変える可能性を秘めているのが、インシリコ(in silico)創薬と呼ばれる分野です。

「インシリコ」とは、「コンピューターの中で」という意味です。試験管の中で行う「インビトロ(in vitro)」や、生体で行う「インビボ(in vivo)」に対し、コンピューターシミュレーションで創薬のプロセスを進めることを指します。

【図5:創薬プロセスの変化】

創薬プロセスの変化
従来の創薬プロセス(長い道のり) 基礎研究 (数年) 標的探索 (数年) 化合物探索 (数年) 最適化 (数年) 非臨床/臨床 (数年) AIによる創薬プロセス(近道) AIによる高速化フェーズ 基礎研究 (数年)
AIによる標的探索, 化合物設計, 毒性予測
(数ヶ月〜)
非臨床/臨床 (数年)

図5の解説:従来の創薬は、多くのステップで試行錯誤が必要なため、非常に時間がかかりました。AIは、特に「病気の原因となる標的を探す」「効果のありそうな化合物を設計する」「その毒性を予測する」といった初期段階のプロセスを、シミュレーションによって劇的に高速化・効率化します。

この高速化の裏には、AGIが持つ強力な学習能力があります。

AGIは、薬の分子構造とそれが体内でどう作用するかの関係性を、文字通り天文学的な数のデータから学習し、一種の『仮想的な人体シミュレーター』を頭の中に構築します。そして、新しく設計した薬の候補を、このシミュレーターにかけることで、「この薬は、おそらく肝臓でこういう代謝を受け、標的のタンパク質にはこう結合するだろう。有効性は高いが、心臓への副作用リスクが少しあるかもしれない」といった結果を、実際に動物実験や人での試験を行う前に、高い精度で予測できてしまうのです。

これが、開発期間の短縮とコスト削減、そしてこれまで治療法がなかった希少疾患に対する新薬開発の成功率を、飛躍的に向上させると期待されている秘密です。

このように、AGIは医療のあらゆる側面を、より速く、より正確に、そしてより一人ひとりに寄り添う形へと変えていく、とてつもない可能性を秘めています。

しかし、こんなにもパワフルな技術だからこそ、私たちは慎重に考えなければならないことがあります。次の章では、この輝かしい未来の光と共に、私たちが目を向けるべき「影」、つまり倫理的な課題について考えていきましょう。

第4章:私たちが向き合うべき、大切な課題

前の章では、AGIがもたらす輝かしい未来の姿を見てきました。まるで夢のような話でしたよね。でも、どんなに強力な薬にも副作用があるように、AGIというパワフルな技術にも、私たちが注意深く見つめなければならない「影」の部分、つまり重要な課題が存在します。

ここからは、そうした課題について、一緒に考えていきたいと思います。

課題①:AIに「よき医療」をどう教えるか? – アラインメント問題の核心

まず最も重要で、そして最も難しいのが、AIに「人間の価値観」をどう教えるかという問題です。専門的にはアラインメント(Alignment)問題と呼ばれ、「方向性を揃える」といった意味合いがあります(16)。

これは、AIの「しつけ」や「教育方針」を決めるようなものだと考えてみてください。

例えば、非常に優秀な研修医に、「とにかく病院全体の効率を上げることだけが君の使命だ」と教えてしまったら、どうなるでしょうか。彼は患者さん一人ひとりと向き合う時間を削り、検査や処置の数だけをこなすことで、与えられた目標を達成しようとするかもしれません。決して彼に悪気はないのですが、私たちが本来目指しているはずの「よき医療」とは、少しズレてしまいますよね。

AGIにおけるアラインメント問題は、これと全く同じ構造をしています。AIに「病院全体の運営コストを削減せよ」という目標を与えると、AIはそれを純粋に、そして徹底的に実行しようとします。その結果、ある一人の患者さんが「たとえ確率が低くても、この高額な治療に懸けてみたい」と願ったとしても、AIは「統計的にみて非効率である」という理由で、その選択肢を推奨しない、という判断を下すかもしれません。

【図6:アラインメントのズレが引き起こす緊張】

課題①:AIに「よき医療」をどう教えるか? – アラインメント問題の核心 AI システム全体の目標 (功利主義) • 病院全体のコストを最小化 • 平均在院日数を最短化 • 医療リソースの最適配分 • 統計的な治療効果の最大化 AIが最適化する方向 → 個人の価値観・尊厳 (義務論) • 目の前の患者のQOLを最大化 • 一縷の望みに応える治療 • 自己決定権の尊重 • 個別性への配慮 ← 人間が大切にしたい価値観 💥 衝突 【図の解説】 アラインメントが不十分なAIは、左側の「システム全体の効率性」という、数字で測りやすい目標を 過度に最適化しようとします。その結果、右側の「個人の尊厳」や「自己決定」といった、 数字では測れないけれども医療の根幹をなす価値観と衝突してしまうリスクがあります。

この、システム全体の効率化と、一人ひとりの患者さんの尊厳や希望との間で生じる緊張こそが、医療におけるアラインメント問題の核心です。AIに悪意はない。ただ、与えられた目的を純粋に実行するだけ。だからこそ、私たちが最初にAIに設定する「目的」そのものが、人間中心の深い倫理観を反映したものでなければならないのです。これは技術だけで解決できる問題ではなく、私たち人間社会が「何を大切にするか」を問われる、壮大な挑戦だと言えるでしょう。

課題②:私たちの役割はどう変わるのか? – 「記憶」から「対話」へ

AGIが普及したら、私たちの仕事はなくなってしまうのでしょうか? 私は、その心配は全くないと考えています。なくなるのではなく、その「中身」が大きく変わるのです。

一言でいうなら、医療者に求められる能力が「記憶と計算」から「対話と決断」へと大きくシフトしていくイメージです。

これまで、膨大な医学知識を記憶し、それを元に論理的な推論を行うことは、医師の重要な能力でした。しかし、この領域は、AGIが最も得意とするところです。AGIは、世界中の医学情報を一瞬で記憶・検索し、極めて高い精度で診断推論を行うでしょう。

では、私たち人間に残される、そして、より重要になる役割とは何でしょうか。

AGIの導入により、情報収集や事務作業といったタスクがAIに代替され、大幅に削減されると想像されます。その結果、空いた時間を、AIにはできない人間的なケア、すなわち患者さんとの対話や共感、そして複雑な状況下での倫理的な判断といった、より本質的な業務に充てることができるようになります。

それは、答えが一つではない問いに向き合う力です。

例えば、AIが提示した複数の治療選択肢について、それぞれの選択が患者さんの人生にどのような意味を持つのかを一緒に考えたり、予後が厳しい状況で、ご家族の想いも含めてどう支えていくかを考えたり。そうした、数字やデータだけでは決して答えが出ない領域こそ、これから私たち人間が、その価値を最大限に発揮すべき場所になっていくはずです。

課題③:データは誰のもの? 責任は誰がとる?

最後の課題は、非常に現実的で、かつ法的な整備が急がれる問題です。

まず、プライバシーとデータの所有権の問題です。AGIは、私たちの健康に関する膨大なデータを「教科書」として学習し、賢くなります(13)。この貴重な教科書を、誰が、どのような目的で、どこまで使って良いのでしょうか。自分のデータが特定の研究に使われることを許可したり、拒否したりする権利(オプトイン/オプトアウト)を、社会としてどう保障していくのか。これは、個人の尊厳を守る上で絶対に欠かせないルール作りです。

そして、もう一つが責任の所在です。もし、AGIが関わった医療行為で、予期せぬ健康被害が起きてしまった場合、その責任は誰が負うべきなのでしょうか。

  • そのAGIを開発したIT企業でしょうか?
  • あるいは、そのAIを導入すると決めた病院でしょうか?
  • それとも、最終的にそのAIの提案を承認した医師でしょうか?

これは本当に難しい問題で、製造物責任法のような既存の法制度を、AI時代に合わせてアップデートしていく必要があります。すでにEUなどでは、多くの医療AIを「高リスク」と分類し、開発者に厳しい説明責任を課すルール作りが進んでおり、世界中で議論が加速しています。

これらの課題は、決して簡単なものではありません。技術的な問題だけでなく、法律、倫理、そして社会全体の価値観が関わる、壮大なテーマです。しかし、これらの課題から目を背けていては、AGIを真に医療の発展に役立てることはできないでしょう。

では、こんなにも大きな変化と課題を前にして、私たち一人ひとりの医療者は、明日から何を考え、何をすべきなのでしょうか?


結論:AGI時代を迎える医療人として、今できること

さて、AGIの定義から、未来の医療の姿、そして向き合うべき課題まで、長い旅をしてきました。壮大な話に、少し圧倒された方もいるかもしれませんね。「こんなにすごい変化が本当に来るなら、自分に何ができるんだろう?」。そう感じるのは、きっと私だけではないはずです。

最終章では、この大きな時代のうねりの中で、私たち一人ひとりの医療者が、明日から何を考え、どう行動すればいいのか。そのヒントを、3つのステップとして一緒に考えてみたいと思います。

ステップ①:AIを知る – 怖がる前に、まずは触れてみよう

AGIという言葉を聞くと、漠然とした不安を感じるかもしれません。でも、得体の知れないものほど、私たちは怖く感じてしまうものです。だからこそ、最初のステップは、AIと「友達」になること。その正体を、まずは知ることから始めましょう。

なにも、いきなり難しい論文を読んだり、プログラミングを始めたりする必要はありません。

  • まずは、普段の臨床で疑問に思ったことを、ChatGPTのような対話AIに壁打ち相手になってもらう。
  • この講座のような解説記事を読んで、全体像を掴む
  • 自分の専門分野で、どんなAIツールが使われ始めているのか、少しアンテナを張ってみる

大切なのは、AIは万能の魔法ではなく、得意なことと苦手なことがある「一つの道具」なのだと、肌で感じることです。その限界を知ることで、初めて私たちはAIを安全に、そして賢く使いこなせるようになります。怖がるのではなく、まずはその道具に触れてみること。それが、未来への第一歩です。

ステップ②:対話する – 答えのない問いを、みんなで考えよう

次のステップは、一人で考え込まず、仲間と対話を始めることです。

前の章で考えたアラインメント問題や責任の所在の問題には、残念ながら、唯一絶対の「正解」はまだありません。そして、それは技術者だけが決めることでも、法律家だけが決めることでもありません。私たち医療の「現場」にいる人間が、社会全体と共に、対話を通じてコンセンサスを築いていくべき、壮大なテーマなのです。

  • 例えば、院内の勉強会や抄読会で、医療AIに関する倫理的なテーマを取り上げてみる。
  • 学会のシンポジウムに参加して、他の医療者が何を考えているかに耳を傾ける。
  • あるいは、SNSのような場で、同じ問題意識を持つ全国の仲間と繋がる。

「もし自分の家族が患者だったら、AIにどこまで任せたいだろう?」。そんな身近な問いから始まる一つひとつの対話が、未来の医療倫理の土台を形作っていくのだと、私は信じています。

ステップ③:人間性を深める – AI時代の「新しい専門性」

最後のステップは、私たち自身の内面に目を向けることです。それは、AIには決して真似できない、「人間性」という専門性を深めることに他なりません。

AGIが「正解を出す」能力で人間を凌駕する時代、私たち人間の専門性は、「複数の正解の中から、目の前の一人の人間にとっての『最善解』を、対話を通じて共に見つけ出す能力」へと変わっていきます。

【図8:AGI時代の協働モデルと人間の専門性】

ステップ③:人間性を深める – AI時代の「新しい専門性」
🤖 AGIの役割 (計算知能)
  • 膨大なデータ分析
  • 最新知識の提供
  • 治療選択肢の客観的提示
  • 未来予測シミュレーション
🧑‍⚕️ 人間の役割 (共感知能)
  • 患者・家族への共感
  • 価値観や人生の文脈の理解
  • 信頼関係の構築
  • 対話による合意形成 (SDM)
  • 倫理的な判断と最終的な責任
最善の医療 (Shared Decision Making)
【図の解説】
AGIはデータ分析や予測といった「計算知能」の領域で能力を発揮します。一方、人間は共感や価値観の理解といった「共感知能」の領域で専門性を発揮します。この両者が協働することで、データに基づきながらも、人間中心の温かい医療(Shared Decision Making)を実現できるのです。

この人間的なスキルは、一朝一夕に身につくものではありません。日々の臨床の中で、一人ひとりの患者さんの物語に真摯に耳を傾け、その人らしい生き方を尊重しようと努める、その地道な実践の中にこそ、AIには決して代替できない、私たち人間の専門性が宿るのではないでしょうか。


AGIという新しい道具は、使い方を間違えれば危険なものになり得ますが、賢く使えば、私たちを計算や記憶の負担から解放し、医療が本来持つべき「人間と人間の触れ合い」の時間を取り戻してくれる、最高のパートナーになり得ます。

その未来の舵を、他人任せにするのではなく、私たち自身の手で、より人間的で、より温かい方向に切っていくために。

さあ、一緒に学び、考え、対話を始めましょう。未来は、もう始まっています。


Medical AI Nexus で学びを深めませんか?
【🔰 Medical AI Nexus とは】
日々の診療から生まれる膨大な医療データ――その価値を AI で最大化できれば、診断・治療・予防の姿は大きく変わります。
「Medical AI Nexus」は、AI を“医療者の最高のパートナー”に育てるための『知の羅針盤』です。
初心者でも実践的に学べる体系的コンテンツを通じて、
①「わからない」を解決する基礎講座、
②“使える”を支援する実装講座、
③専門分野への応用を探究する臨床シリーズを提供し、
医療者の能力拡張とデータ駆動型医療への航海を後押しします。


引用文献

  1. プロンプトパーク. AGIとは?Google DeepMindの論文「AGI(汎用人工知能)のレベル」を読むために必要な知識について解説. [Internet]. [cited 2025 Aug 5]. Available from: https://promptpark.jp/column/agi-definition/
  2. Morris, M. R., et al. “Levels of AGI: Operationalizing progress on the path to AGI.” arXiv preprint arXiv:2311.02462 (2023).
  3. Wikipedia. Artificial general intelligence. [Internet]. [cited 2025 Aug 5]. Available from: https://en.wikipedia.org/wiki/Artificial_general_intelligence
  4. AI-Tasks.de. „Levels of AGI: Operationalizing Progress on the Path to AGI“. 2023. [Internet]. [cited 2025 Aug 5]. Available from: https://ai-tasks.de/en/2023/11/levels-of-agi-operationalizing-progress-on-the-path-to-agi-2/
  5. Stepanov I. Defining Levels of AGI. Knowledgator Engineering Blog. 2023. [Internet]. [cited 2025 Aug 5]. Available from: https://blog.knowledgator.com/defining-levels-of-agi-3fda68b60325
  6. Sohn J. OpenAI’s 5-Stage AI Roadmap, Explained. Medium. 2024. [Internet]. [cited 2025 Aug 5]. Available from: https://medium.com/@The_Last_AI/openais-5-stage-ai-roadmap-explained-using-the-3-levels-of-ai-adoption-and-the-6-levels-of-e295693cc105
  7. OpenAI AGI Roadmap: A Blueprint for the Future. DEV Community. 2025. [Internet]. [cited 2025 Aug 5]. Available from: https://dev.to/hyscaler/openai-agi-roadmap-a-blueprint-for-the-future-2a2p
  8. Sale A. ChatGPT 5 and Beyond: OpenAI’s Five-Level Roadmap to AGI Unveiled. Medium. 2024. [Internet]. [cited 2025 Aug 5]. Available from: https://medium.com/@a.sale/chatgpt-5-and-beyond-openais-five-level-roadmap-to-agi-unveiled-be09db42ca27
  9. Perplexity. OpenAI’s 5 Steps to AGI. 2024. [Internet]. [cited 2025 Aug 5]. Available from: https://www.perplexity.ai/page/openai-s-5-steps-to-agi-STzklF5SSQ6JOiBTaV.cfA
  10. Lumenova AI. The Path to AGI: How Do We Know When We’re There?. 2024. [Internet]. [cited 2025 Aug 5]. Available from: https://www.lumenova.ai/blog/artificial-general-intelligence-measuring-agi/
  11. Grace K, et al. Thousands of AI Authors on the Future of AI. arXiv:2401.02843 [cs.AI]. 2024.
  12. AIMultiple. When Will AGI/Singularity Happen? 8,590 Predictions Analyzed. 2025. [Internet]. [cited 2025 Aug 5]. Available from: https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/
  13. Price WN 2nd, Cohen IG. Privacy in the age of medical big data. Nat Med. 2019;25(1):37-43.
  14. Grace K. 2022 Expert Survey on Progress in AI. AI Impacts. 2022. [Internet]. [cited 2025 Aug 5]. Available from: https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/
  15. Johnson MG. AGI Report Card™–June 2025. Medium. 2025. [Internet]. [cited 2025 Aug 5]. Available from: https://medium.com/@matthewgjohnson/agi-report-card-june-2025-0b991e4f3b82
  16. Hendrycks D, Carlini N, Schulman J, Steinhardt J. Unsolved problems in ML safety. arXiv preprint arXiv:2109.13916. 2021 Sep 28.

ご利用規約(免責事項)

当サイト(以下「本サイト」といいます)をご利用になる前に、本ご利用規約(以下「本規約」といいます)をよくお読みください。本サイトを利用された時点で、利用者は本規約の全ての条項に同意したものとみなします。

第1条(目的と情報の性質)

  1. 本サイトは、医療分野におけるAI技術に関する一般的な情報提供および技術的な学習機会の提供を唯一の目的とします。
  2. 本サイトで提供されるすべてのコンテンツ(文章、図表、コード、データセットの紹介等を含みますが、これらに限定されません)は、一般的な学習参考用であり、いかなる場合も医学的な助言、診断、治療、またはこれらに準ずる行為(以下「医行為等」といいます)を提供するものではありません。
  3. 本サイトのコンテンツは、特定の製品、技術、または治療法の有効性、安全性を保証、推奨、または広告・販売促進するものではありません。紹介する技術には研究開発段階のものが含まれており、その臨床応用には、さらなる研究と国内外の規制当局による正式な承認が別途必要です。
  4. 本サイトは、情報提供を目的としたものであり、特定の治療法を推奨するものではありません。健康に関するご懸念やご相談は、必ず専門の医療機関にご相談ください。

第2条(法令等の遵守)
利用者は、本サイトの利用にあたり、医師法、医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律(薬機法)、個人情報の保護に関する法律、医療法、医療広告ガイドライン、その他関連する国内外の全ての法令、条例、規則、および各省庁・学会等が定める最新のガイドライン等を、自らの責任において遵守するものとします。これらの適用判断についても、利用者が自ら関係各所に確認するものとし、本サイトは一切の責任を負いません。

第3条(医療行為における責任)

  1. 本サイトで紹介するAI技術・手法は、あくまで研究段階の技術的解説であり、実際の臨床現場での診断・治療を代替、補助、または推奨するものでは一切ありません。
  2. 医行為等に関する最終的な判断、決定、およびそれに伴う一切の責任は、必ず法律上その資格を認められた医療専門家(医師、歯科医師等)が負うものとします。AIによる出力を、資格を有する専門家による独立した検証および判断を経ずに利用することを固く禁じます。
  3. 本サイトの情報に基づくいかなる行為によって利用者または第三者に損害が生じた場合も、本サイト運営者は一切の責任を負いません。実際の臨床判断に際しては、必ず担当の医療専門家にご相談ください。本サイトの利用によって、利用者と本サイト運営者の間に、医師と患者の関係、またはその他いかなる専門的な関係も成立するものではありません。

第4条(情報の正確性・完全性・有用性)

  1. 本サイトは、掲載する情報(数値、事例、ソースコード、ライブラリのバージョン等)の正確性、完全性、網羅性、有用性、特定目的への適合性、その他一切の事項について、何ら保証するものではありません。
  2. 掲載情報は執筆時点のものであり、予告なく変更または削除されることがあります。また、技術の進展、ライブラリの更新等により、情報は古くなる可能性があります。利用者は、必ず自身で公式ドキュメント等の最新情報を確認し、自らの責任で情報を利用するものとします。

第5条(AI生成コンテンツに関する注意事項)
本サイトのコンテンツには、AIによる提案を基に作成された部分が含まれる場合がありますが、公開にあたっては人間による監修・編集を経ています。利用者が生成AI等を用いる際は、ハルシネーション(事実に基づかない情報の生成)やバイアスのリスクが内在することを十分に理解し、その出力を鵜呑みにすることなく、必ず専門家による検証を行うものとします。

第6条(知的財産権)

  1. 本サイトを構成するすべてのコンテンツに関する著作権、商標権、その他一切の知的財産権は、本サイト運営者または正当な権利を有する第三者に帰属します。
  2. 本サイトのコンテンツを引用、転載、複製、改変、その他の二次利用を行う場合は、著作権法その他関連法規を遵守し、必ず出典を明記するとともに、権利者の許諾を得るなど、適切な手続きを自らの責任で行うものとします。

第7条(プライバシー・倫理)
本サイトで紹介または言及されるデータセット等を利用する場合、利用者は当該データセットに付随するライセンス条件および研究倫理指針を厳格に遵守し、個人情報の匿名化や同意取得の確認など、適用される法規制に基づき必要とされるすべての措置を、自らの責任において講じるものとします。

第8条(利用環境)
本サイトで紹介するソースコードやライブラリは、執筆時点で特定のバージョンおよび実行環境(OS、ハードウェア、依存パッケージ等)を前提としています。利用者の環境における動作を保証するものではなく、互換性の問題等に起因するいかなる不利益・損害についても、本サイト運営者は責任を負いません。

第9条(免責事項)

  1. 本サイト運営者は、利用者が本サイトを利用したこと、または利用できなかったことによって生じる一切の損害(直接損害、間接損害、付随的損害、特別損害、懲罰的損害、逸失利益、データの消失、プログラムの毀損等を含みますが、これらに限定されません)について、その原因の如何を問わず、一切の法的責任を負わないものとします。
  2. 本サイトの利用は、学習および研究目的に限定されるものとし、それ以外の目的での利用はご遠慮ください。
  3. 本サイトの利用に関連して、利用者と第三者との間で紛争が生じた場合、利用者は自らの費用と責任においてこれを解決するものとし、本サイト運営者に一切の迷惑または損害を与えないものとします。
  4. 本サイト運営者は、いつでも予告なく本サイトの運営を中断、中止、または内容を変更できるものとし、これによって利用者に生じたいかなる損害についても責任を負いません。

第10条(規約の変更)
本サイト運営者は、必要と判断した場合、利用者の承諾を得ることなく、いつでも本規約を変更することができます。変更後の規約は、本サイト上に掲載された時点で効力を生じるものとし、利用者は変更後の規約に拘束されるものとします。

第11条(準拠法および合意管轄)
本規約の解釈にあたっては、日本法を準拠法とします。本サイトの利用および本規約に関連して生じる一切の紛争については、東京地方裁判所を第一審の専属的合意管轄裁判所とします。


For J³, may joy follow you.

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

医師・医学博士・AI研究者・連続起業家
元厚生労働省幹部・ハーバード大学理学修士・ケンブリッジ大学MBA・コロンビア大学行政修士(経済)
岡山大学医学部卒業後、内科・地域医療に従事。厚生労働省で複数室長(医療情報・救急災害・国際展開等)を歴任し、内閣官房・内閣府・文部科学省でも医療政策に携わる。
退官後は、日本大手IT企業や英国VCで新規事業開発・投資を担当し、複数の医療スタートアップを創業。現在は医療AI・デジタル医療機器の開発に取り組むとともに、東京都港区で内科クリニックを開業。
複数大学で教授として教育・研究活動に従事し、医療関係者向け医療AIラボ「Medical AI Nexus」、医療メディア「The Health Choice | 健康の選択」を主宰。
ケンブリッジ大学Associate・社会医学系指導医・専門医・The Royal Society of Medicine Fellow

目次