はじめに:「読む」だけでなく「書く」AIへ
これまでの回で、AIが次の2つの力を持っていることを学んできました。
- 単語を「意味のある数字(ベクトル)」に変換する力(第1回)
- 文の中で「何に注目すべきか」を理解する力(第2回)
つまり、AIはすでに「読む」ための基本的な能力を手にしているのです。
ですが、いま私たちが日常的に目にしているChatGPTのようなAIは、読むだけではありません。
むしろ、質問に答えたり、診療記録を要約したり、説明文を生成したりと、自分で文章を“書く”力を持っています。
たとえば、「この症状を説明して」「患者への説明文を作って」とお願いすると、まるで医師や医療ライターのように、文脈に合った自然な文章をつくってくれることがあります。
では、この“書く力”はどのように生まれているのでしょうか?
AIが文章を書くとき、そこには意外とシンプルで明快なしくみがあります。
それは、「これまでの言葉の流れから、次に来る言葉を確率的に予測していく」という考え方です。
この回では、AIがどのようにして次の1語を選び、文章を1語ずつ“つむいでいく”のか、
その背後にある予測・確率・文脈理解のしくみを、医療現場の具体例も交えながら、わかりやすく解き明かしていきます。
第1章:AIは「次に来そうな言葉」を予測している
AIが文章を書くとき、何か特別なルールに従って文を組み立てているわけではありません。
実は、やっていることはとてもシンプルです。
それは――
「これまでに出てきた言葉を見て、次に来そうな言葉を予測する」という作業を、くり返しているだけなのです。
医療文の例で見てみましょう
たとえば、以下のような文章をAIが生成しようとしているとします。
The patient…
この状態では、まだ文章は途中です。
ここでAIは、「このあとに続きそうな言葉」をいくつか候補として挙げます。
- was(〜だった)
- is(〜である)
- has(〜を持っている)
- presented(〜を訴えてきた)
- came(〜が来院した)
この中から、「文として最も自然に続きそうな言葉」を選びます。
たとえば、多くのカルテや診療記録では「The patient was…」という形で始まることが多いため、
AIはそれを学習し、「was」が高確率で選ばれるようになります。
予測の出発点は「これまでの言葉の流れ」
このように、AIは一語一語、これまでの文章の流れをふまえて、「次に出てくる可能性が高い言葉」を統計的に計算し、その中からもっとも自然な1語を選び出します。
人間が会話や説明をするときに、「この文脈だと、こう言うのが自然だな」と感じるのと、ある意味でよく似ています。
医療分野での応用イメージ
この仕組みは、医療現場でも応用可能です。
- 「The patient was…」と入力すれば、「diagnosed with pneumonia.(肺炎と診断された)」など、
診療記録でよくある表現が自然に続く - 「The CT scan showed…」といった表現では、「a right lower lobe consolidation.(右下葉の浸潤影)」など、
画像所見に合った語句が予測される
こうして、AIは1語ずつ選びながら、文脈に合った診療記録や説明文を“つむいで”いくのです。
このように、「言葉を予測する」という基本動作が、文章生成の出発点になっています。
次の章では、その予測がどのように「確率」で行われているのか、もう少し深く見ていきましょう。
第2章:確率を使って、言葉を選ぶとは?
前の章で、AIは「これまでに出てきた言葉をもとに、次に来そうな言葉を選んでいる」と説明しました。
では、どうやってその「来そうな言葉」を判断しているのでしょうか?
そのカギを握るのが、「確率」です。
AIは大量の文章から、言葉の出現パターンを学んでいる
AIは、何千万、何億という文章を読み込んで学習します。
その中で、「この言葉のあとには、どんな言葉がどれくらいの頻度で出てくるか」という統計的なパターンを身につけていきます。
たとえば、次のような英文:
The patient was …
この続きを考えるとき、AIの中では以下のような選択肢と、それに対応する「確率」が想定されます。
候補となる単語 | 確率(例) | コメント |
---|---|---|
diagnosed | 45% | 非常に一般的な続き方 |
admitted | 20% | よくあるが、やや文脈依存 |
treated | 10% | よくあるが、文が進んでから使われることも多い |
walking | 5% | あまり自然ではない |
banana | 0.1% | 医療文脈ではまず出てこない |
このように、AIは単語ごとの「出現確率」を計算し、その中で最も自然な候補を選んで文章を続けていきます。
高い確率の言葉が、最も自然な“次の1語”になる
この確率は、AIが自分で勝手に作ったものではなく、人間が書いた膨大な文書を観察する中で、経験的に得た知識に基づいています。
- 医療記録では「The patient was diagnosed…」が非常に頻繁に使われている
- 「banana」は、診療文脈ではほとんど登場しない
このような「使用傾向の違い」をAIは学習しており、文脈に合わない単語にはきわめて低い確率を割り当てるようになっています。
医療文書への応用:精度と柔軟性の両立
確率的な言葉選びは、以下のような医療現場でのAI活用にとって重要な役割を果たします。
- 診療記録の下書き支援
患者の訴えや検査結果を入力すると、それに合った記述文が自然な語順で提案される - 医師による表現のバリエーションに対応
同じ症状でも、「患者は咳を訴えた」「咳嗽を主訴として来院」など複数の表現を状況に応じて出力できる - 誤解を招かない自然な表現を選ぶ
たとえば「The patient is positive」ではなく、「The test was positive for influenza」のように、文脈に合った精度の高い言い回しを生成できる
このように、AIは確率という数学的なしくみを使って、もっとも自然で文脈にふさわしい“次の1語”を選び出しています。
次の章では、この「1語ずつ選んでいく」動きを、もう少し具体的に追ってみましょう。
AIがどのように文章を“育てるように”書いていくのかを見ていきます。
第3章:AIは、一語ずつ、くり返し選んでいく
これまでの章で、AIが文章を書くときには「次に来そうな言葉を確率的に予測している」ことを学びました。
この予測は、一度にまとめて行うのではなく、一語ずつ、段階的に行われています。
言い換えれば、AIは文章を“育てる”ように、少しずつ書き進めているのです。
文章は、確率に基づく「選択の連続」でできている
たとえば、AIが以下のような医療文を生成しようとしているとします。
The
まず、「The」だけの状態では、次に来る可能性のある言葉として、AIは次のような選択肢を考えます:
- patient
- doctor
- test
- hospital
この中で最も自然な語順となるのが「The patient」だと判断されれば、それを選択します。
続いて、「The patient」のあとには……?
- was
- has
- is
- presented
ここでも、カルテの文脈を考慮して、「was」が選ばれる可能性が高いでしょう。
このように、AIは以下のような形で、一語ずつ文章を延ばしていきます:
"The"
→ "The patient"
→ "The patient was"
→ "The patient was diagnosed"
→ "The patient was diagnosed with"
→ "The patient was diagnosed with pneumonia."
人間も実は「一語ずつ」考えて話している
私たち人間も、話すときや文章を書くとき、「次は何を言おうか?」と頭の中で考えながら言葉をつむいでいます。
特に医療面接や記録では、次にどの情報を書くべきか(主訴か?経過か?検査か?)を意識しながら表現を選びます。
AIの文章生成も、これととてもよく似ています。
違いは、AIはその選択を確率にもとづいて瞬時に数値的に判断しているという点です。
医療現場での実用イメージ
このような一語ずつの言葉選びは、以下のような応用で役立ちます。
- 診療記録の自動補完
最初に「The patient was」まで書いたところで、AIが文脈に応じて「diagnosed with…」や「admitted for…」などを提案 - 問診記録の生成
「Patient reported chest pain.」の後に、続く可能性のある症状や経過をAIが候補として提示する - 説明文の下書き支援
「This medication is used to treat…」と入力すれば、その後に「high blood pressure」や「type 2 diabetes」など、自然な続きが提示される
このように、AIは一語一語を確率的に選びながら、文脈に沿った文章を作っていきます。
このしくみがあるからこそ、AIの文章は自然で柔軟性があり、機械的に見えないのです。
次の章では、この“確率的に言葉を選ぶ”という特徴が、文章にどのようなバリエーションや自然さをもたらしているのかを見ていきましょう。
第4章:確率で選ぶからこそ、柔軟で自然な文章になる
AIが文章を生成する際には、毎回まったく同じ結果を返すとは限りません。
同じ問いかけをしても、少しずつ表現や語順が異なる文章が返ってくることがあります。
この“ゆらぎ”のようなものは、実はAIが確率にもとづいて言葉を選んでいるからこそ生まれているのです。
「最も可能性の高い単語」だけを選ぶと、文章は単調になる
もしAIが、毎回「最も確率が高い単語」だけを機械的に選んでいたとしたら、
どんな質問にも、いつも同じ返答を繰り返すようになってしまいます。
たとえば、
The patient was …
という出だしに対して、毎回100%「diagnosed」と続けていたら、
どんな状況でも同じパターンになってしまい、人間らしさや柔軟性がなくなってしまいます。
確率的に「揺らぎ」を持たせることで、表現に多様性が生まれる
AIは、次に来る単語の候補に「確率(=可能性)」を割り当てています。
そして、その中から必ずしも一番高い確率の単語だけでなく、他の候補も適度に選ばれるように設計されています。
たとえば:
- あるときは「The patient was diagnosed…」
- 別のときは「The patient was admitted…」
- あるいは「The patient was treated…」
こうしたバリエーションのある出力が可能になるのは、AIが確率的な選択を行っているからです。
この性質は、医学的な表現を「硬くなりすぎず、状況に応じて自然に出し分ける」ことにも役立ちます。
医療の文書や説明におけるメリット
この“柔軟な言葉選び”は、次のような医療現場のニーズに応えます。
- 説明文における表現の多様化
「高血圧の治療薬です」だけでなく、「血圧を下げるためのお薬です」など、患者の理解度に応じて言い換えが可能 - 同じ診断でもニュアンスを調整できる
「肺炎と診断された」か「肺炎の可能性があると考えられた」など、慎重さや確信度の違いを表現できる - テンプレート化を防ぎ、人間らしい文になる
完全に決まりきった定型文ではなく、文脈や場面に合わせた「言葉の揺らぎ」が自然さを生む
AIは“文脈に合わせて確率を操作している”
もちろん、すべてをランダムに選んでいるわけではありません。
AIは、その場の文脈や直前の言葉の流れをしっかり読み取った上で、「この状況ならこの表現が自然」と判断し、その中で柔らかい確率の分布をもとに次の言葉を選んでいるのです。
このように、確率という一見冷たい数字の仕組みが、実は人間らしい自然な表現や言い回しの多様性を生み出す基盤になっているのです。
次の章では、こうした言葉選びの裏側で活躍しているTransformerの働き――
つまり、「前の文脈すべてを理解したうえで、次の言葉を選ぶ」というAIの構造に焦点を当てていきましょう。
第5章:Transformerが支えているのは「文脈の理解」
前の章までで、AIは文章を書くときに「次の1語を、確率的に選んでいる」ことを学びました。
この選び方が自然で柔軟な表現につながっていることも分かりました。
しかし、単に「直前の1語だけを見て」次の言葉を選んでいるわけではありません。
AIはそれまでのすべての文脈を踏まえた上で、次にふさわしい言葉を判断しています。
その文脈理解の力を支えているのが、前回の講義でも登場した「Transformer(トランスフォーマー)」です。
文脈とは、「言葉と前後のつながり」
人間が文章を読むとき、「単語そのものの意味」だけでなく、それが「どんな流れの中で出てきたか」までを考えて理解しています。
たとえば、次の2文を見てください。
- The patient was diagnosed with pneumonia.
- The patient was admitted to the hospital.
この2つの文は、最初の「The patient was」までは同じです。
しかし、「diagnosed with」のあとに来るのは「病名」であり、「admitted to」のあとに来るのは「場所(病院)」です。
つまり、次に来る言葉を正しく選ぶには、それまでの文の流れ全体を見なければならないのです。
Transformerは「文全体を見渡せる」
従来のAI(RNNなど)は、言葉を1語ずつ順番に処理していました。
そのため、文が長くなると前の内容を忘れてしまうことが多く、長文の処理や複雑な文脈理解には向いていませんでした。
一方、Transformerは「Self-Attention(自己注意)」という仕組みを使って、文の中に出てくるすべての単語同士の関係を一度に把握できます。
- 「diagnosed」が「patient」や「pneumonia」とどうつながっているか
- 「admitted」が「hospital」と自然に結びついているか
このような関係性を、文全体の中から読み取れるのです。

医療文書でもTransformerの力が発揮される
医療においては、以下のような複雑な情報のつながりを理解する必要があります。
- 「発熱」「咳」「呼吸困難」 → 「肺炎」
- 「糖尿病の既往」「足潰瘍」 → 「感染症のリスク」
- 「検査値の推移」「前日のバイタル」 → 「現在の状態との因果関係」
Transformerを使ったAIは、こうした複数の症状や経過の流れを同時に考慮し、より妥当な診療文や説明文を構築することができます。
「意味のつながり」を見失わずに、文章をつくる
Transformerのおかげで、AIは「その場しのぎ」で言葉を並べるのではなく、前の文脈との整合性を保ちながら、文章を生成することができるようになったのです。
だからこそ、
- 医療記録の一貫性がある要約
- 適切な文法と意味の両立
- 専門用語を正しく使った説明文
といった、高度な自然言語処理が可能になりました。
次の章では、AIがまるで人間のような言葉づかいを実現している背景として、「3つの力」の組み合わせがあることを紹介します。
意味、注目、予測――これらがどう組み合わさることで“自然な文章”が生まれるのかを見ていきましょう。
第6章:AIの文章が「人間っぽい」と感じる理由
最近の生成系AI――たとえばChatGPTのようなモデル――が書く文章を読んで、「なんだか、人間が書いたみたいだな」と感じたことはありませんか?
専門的な医療文書であっても、意外なほど自然で、違和感のない表現が返ってくることがあります。
この“人間っぽさ”の正体は、AIが持つ3つの力の組み合わせによって生まれています。
人間らしい文章を支える「3つの力」
AIが自然な言葉づかいを実現できるのは、次の3つの能力が組み合わさっているからです。
- 単語ベクトル(Word Embedding)
言葉の意味を数字のかたまり(ベクトル)として表現することで、意味の近さや関係性を理解する
→ たとえば、「fever」と「infection」が関連のある語として近くに位置づけられる - Attention(注意)
文の中で、どの言葉に注目すべきかを計算で判断する
→ 「diagnosed」の意味を理解するには「patient」や「pneumonia」に注目する必要がある - 確率的な言葉選び
過去の文脈をふまえて、「次に来そうな言葉」を1語ずつ予測していく
→ 「The patient was」のあとに、自然な言葉を選んで文章を“育てる”ように生成していく
この3つがかけ合わさることで、AIは単なるパターンの繰り返しではない、意味のある文章を生成できるようになったのです。
医療文書にも対応できる“知的さ”の正体
こうした仕組みのおかげで、AIは単語の意味だけでなく、それらのつながり・文脈・専門的な表現のバリエーションまでも扱えるようになります。
- 「発熱」という単語が出てきたとき、
→ それが「感冒」につながるか「感染症」につながるかを、周囲の文脈から読み取る - 「positive」という語が使われていたら、
→ 「検査結果の陽性」か「感情的な前向きさ」かを文脈から判断する
こうした柔軟な意味理解も、3つの力の組み合わせによって成り立っています。
一文ずつ、流れを感じながら選ぶ力
AIは「この場面でどんな言葉が自然か?」を考えながら、一語ずつ選んで文章を作っていきます。
この“段階的な生成”は、ある意味で人間が話す・書くときと同じようなプロセスに見えます。
違うのは、AIがその判断をすべて数字と計算でやっているという点だけです。
次の章では、これまで学んできた内容を整理しながら、AIが文章を「少しずつ、確率的に、文脈をふまえて」どう書いているのかをまとめていきます。
そして、「AIが文章を“つむぐ”」という行為の本質に改めて迫っていきましょう。
第7章:AIはこうして文章を“つむいで”いる(まとめ)
ここまで見てきたように、AIが文章を書くときのしくみは、実はとてもシンプルな「繰り返しの作業」の組み合わせです。
AIは、1語ずつ、確率にもとづいて、文脈に合った言葉を選びながら、まるで糸をたぐるように文章を“つむいで”いるのです。
ポイントで振り返る:AIが文章を生成する流れ
AIが文章を書くプロセスを、もう一度整理してみましょう。
- 1語ずつ、順に言葉を選んでいく
文章は、一度にまとめて出てくるのではなく、「The」→「The patient」→「The patient was」…と、少しずつ育っていく - それまでの言葉の流れに合った言葉を選ぶ
直前の1語だけではなく、それ以前のすべての文脈を踏まえて、自然な次の語を決める - Transformerが文脈を理解して支えている
Self-Attentionの仕組みにより、AIは文中のすべての単語の関係を把握し、意味のつながりを失わずに文章を生成できる - 確率で選ぶからこそ、柔軟な表現ができる
毎回まったく同じ文章になるわけではなく、文脈や意図に応じて、異なる表現・言い回しを出し分けられる
このようにして、AIはただの自動応答装置ではなく、状況や目的に応じて自然な文章を構築できる“書き手”のように振る舞うことが可能になっているのです。
医療現場での活用も、ここに基づいている
診療記録の下書き、説明文の生成、問診応答の支援など、現在すでに医療分野で導入されつつある生成系AIの多くは、まさにこのしくみで動いています。
- 「次に何を書くべきか」
- 「どんな表現が自然か」
- 「読み手にとって分かりやすいか」
こうした判断を、AIは意味のベクトル、文脈の注目、確率的な予測という3つの柱によって実現しているのです。
おわりに:AIは、意味と文脈を手がかりに、言葉をつむぐ
この生成AI×自然言語特集の3回の講義で、私たちはAIの言語理解と文章生成の仕組みを、段階的に学んできました。
- 第1回では、「言葉の意味」をベクトルという数字で表すしくみを紹介しました。
似た意味の単語は近く、異なる意味の単語は離れた位置にある――
そんな“意味の地図”をAIが内部に持っていることを理解しました。 - 第2回では、単語だけではなく「文脈」を読み取る力として、Attentionの仕組みを学びました。
どの単語に注目すべきかを自動で判断し、文の中の関係性を見極める力が、AIの読解力を支えています。 - そして第3回では、その「意味」と「文脈」の理解を土台として、AIが一語ずつ、確率的に言葉を選び、
状況に応じて柔軟な文章を“つむぐ”プロセスを見てきました。
AIは、感情や意図を持っているわけではありません。
けれども、言葉の意味を数字で扱い、文脈に注目し、適切な語を選ぶ――
こうした計算の積み重ねによって、あたかも人間のように「意味を理解し、考えながら話している」ように見えるふるまいが可能になっています。
これは単なる技術の話ではなく、医療・教育・社会の現場に広く影響を及ぼしつつある、大きな変化の入り口でもあります。AIを「魔法の箱」としてではなく、そのしくみからきちんと理解することで、私たちは医療の現場でも安心して、主体的にこの新しい力を活用できるようになるはずです。
以上で、AIが「読む」そして「書く」までの基礎を学ぶ講義は一区切りです。
今後、さらに深いテーマを扱う際の土台として、今回の内容をぜひ役立ててください。
また、「作って理解する!シリーズ医療×生成系AI」では、実際のコードや、数学的な背景も解説していきます。
言葉の背後にある数式やアルゴリズムを知ることで、単なる“使い手”ではなく、AIの振る舞いを読み解き、適切に活用できる“理解者”となることができます。医療の現場にAIを導入・活用するうえで、この理解が確かな判断や信頼につながると、信じています。
今度は、一緒に手を動かしながら、「しくみからわかるAI」を体験していきましょう!
【引用文献リスト】
- Sutskever I, Martens J, Hinton G.
Generating Text with Recurrent Neural Networks.
In: Proceedings of the 28th International Conference on Machine Learning. 2011;1017–24. - Mikolov T, Karafiát M, Burget L, Cernockỳ J, Khudanpur S.
Recurrent neural network based language model.
In: Interspeech 2010. 2010;1045–8. - Bengio Y, Ducharme R, Vincent P, Jauvin C.
A neural probabilistic language model.
J Mach Learn Res. 2003;3:1137–55. - Vaswani A, Shazeer N, Parmar N, Uszkoreit J, Jones L, Gomez AN, et al.
Attention is all you need.
In: Advances in Neural Information Processing Systems. 2017;30:5998–6008. - Brown T, Mann B, Ryder N, Subbiah M, Kaplan JD, Dhariwal P, et al.
Language Models are Few-Shot Learners.
In: Advances in Neural Information Processing Systems. 2020;33:1877–1901. - Radford A, Wu J, Child R, Luan D, Amodei D, Sutskever I.
Language Models are Unsupervised Multitask Learners.
OpenAI; 2019. Available from: https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf - Ghosh S, Chollet F.
Generative Deep Learning: Teaching Machines to Paint, Write, Compose, and Play.
2nd ed. O’Reilly Media; 2021.
注意事項
- 本内容は、記事執筆時点の情報をもとに作成していますが、機能やライブラリのアップデートにより内容が変わる場合があります。
- 本内容は医療行為のアドバイスではなく、技術学習の一助としてご利用ください。実際に医療現場に導入される際は、法規制やガイドライン(厚生労働省・PMDA・経済産業省・学会など)をしっかり確認し、専門家の助言を仰ぐことをおすすめします。
- 特に生成系AIを使う場合は、誤情報(ハルシネーション)やバイアスに十分注意し、必ず人間の専門家が結果を検証するプロセスが重要です。
- 本内容には、AIの提案をもとに作成した部分が含まれています。内容には注意を払っていますが、医療・法律・教育など専門的な判断が必要な場面では、必ず専門家の確認をお願いします。
コメント