
以下の音声解説は Google NotebookLM により自動生成されたものです。AIによる自動処理のため、内容には不自然な表現や誤字・脱字、事実と異なる記載が含まれる場合がありますのでご了承ください。
本稿で学ぶ「プロンプトエンジニアリング」は、AIの能力を最大限に引き出すための「的確な指示を与える技術」です。優れた指示の型から応用テクニック、そして医療現場で最も重要な安全ルールまで、AIを単なる検索ツールから「頼れる知的パートナー」へと育てるための核心を解説します。
AIへの指示は、背景(Context)、役割(Role)、実行(Execution)、制約(Mandate)、付加情報(Augment)からなる「CREMA」モデルで構造化します。これによりAIは意図を正確に理解し、専門性の高い回答を生成します。
「ステップ・バイ・ステップで考えて」と指示し、AIの思考プロセスを言語化させる「思考の連鎖」や、お手本を示す「Few-shot」を活用します。これにより、結論の論理的妥当性や出力形式の正確性が飛躍的に向上します。
技術より安全性が最優先です。特に、①個人情報の厳格な保護(絶対に入力しない)、②医師による最終責任、③生成物の絶対的検証(ファクトチェック)の3原則は、AIを安全に利用するための大前提となります。
これまでの旅(B14, B15)で、私たちは生成AIという強力なパートナーの能力と、その頭脳である「基盤モデル」の仕組みを解き明かしてきました。しかし、どんなに優秀なアシスタントでも、その能力を最大限に引き出すには、ある重要なスキルが求められます。
(本記事は、B14「医療分野における生成AIの全体像」、B15「基盤モデルの深層」の続編です。未読の方は、そちらからお読みいただくことで、より理解が深まります)
それは「的確な指示を与える技術」です。
本稿で探求するのは、まさにこの「AIとの対話術」――プロンプトエンジニアリングです。これは、決して一部の技術者だけのものではありません。むしろ、専門知識を持つ医療従事者こそが身につけるべき、新しい時代の必須スキルなのです。AIを単なる「おしゃべりな検索エンジン」で終わらせるか、それとも「頼れる知的パートナー」へと育てるか。その分岐点は、あなたの「問いかけ方」一つにかかっています。
この記事では、まずプロンプトエンジニアリングの概要として、明日からすぐに使える具体的な「指示の型」と、医療現場で絶対に守るべき法的・倫理的な「安全柵」に焦点を当てます。より詳細な応用テクニックについては今後の記事で順を追って解説していきますので、まずはここからAIとの対話の第一歩を踏み出しましょう。
(本コースは情報提供を目的としたものであり、個別の医学的助言や診断、治療を代替するものではありません。AIの利用は、各医療機関の定める規定と関連法規を遵守し、医師の監督下で行う必要があります)
1. プロンプトとは何か?―AIへの「優れた業務指示書」の作り方
プロンプトエンジニアリング、なんて言葉を聞くと、なんだか難しそう…と身構えてしまう方もいるかもしれませんね。でも実は、その本質は驚くほどシンプルで、私たちの日常業務に直結する考え方なんです。これは、一部の技術者だけが使う小難しいテクニックではなく、「AIの性能を最大限に引き出すための、対話の設計と思考のプロセス」そのものを指します。決して魔法の呪文のようなものではありません(1)。
ひとつ、想像してみてください。あなたのチームに、知識は教科書レベルで完璧ですが、まだ臨床経験の浅い、非常に優秀な新人医師が配属されたとします。彼に「心不全について教えて」と漠然と尋ねても、おそらく返ってくるのは、どこかで読んだような、焦点の定まらない一般論だけでしょう。これでは、日々の臨床の役には立ちそうにありません。
では、少し指示の出し方を変えてみましょう。「75歳、男性、虚血性心筋症の既往があり、EF 40%のHFrEFの患者さんが明日退院する。彼とご家族に、日常生活での注意点を説明するための資料を作ってほしい。専門用語は使わず、箇条書きで、A4用紙一枚に収まるようにまとめてくれないか」と、具体的に指示したらどうでしょうか。きっと彼は、見違えるほど的確で、すぐにでも使えるアウトプットを出してくれるはずです。
プロンプトとは、まさにこの「優れた業務指示書」に他なりません。私自身、この「指示の質」がAIの応答を劇的に変える瞬間を何度も目にしてきました。質の高い指示こそが、AIの回答の質を決定的に左右するのです。


1-1. 基本の型:指示を構造化するための「CREMA」モデル
では、どうすれば「優れた指示書」を書けるようになるのでしょうか。
プロンプト設計においては、「CREATE」「CORE」「RISE(N)」など、すでにいくつかの有用なフレームワークが提案されており、それぞれがAIとの効果的な対話のための要素を整理しています。これらに共通するのは、背景の明示、役割の指定、目的の明確化、出力条件の指定、補足情報の提供といった基本的な構造です。
本稿では、こうした共通パターンを踏まえつつ、実務の中で特に使いやすく、医療や専門領域でも直感的に活用しやすい構造として再構成した独自モデル「CREMA(クレマ)」をご紹介します。
このモデルは、AIとの対話を円滑にし、期待に沿ったアウトプットを引き出すための実践的な構造化フレームです。その名の通り、コーヒーの表面に浮かぶ豊かな泡(クレマ)のように、AIとの対話から豊かな成果を引き出すというイメージで整理しています。
この「CREMA」は、広く確立されたフレームワークという訳ではありませんが、プロンプトのベストプラクティスとして知られる複数の重要な要素を組み合わせた、実践的な思考の整理法です。
- Context(背景): まずAIに「今から何の話をするのか」という地図を渡してあげるイメージです。状況設定を共有することで、AIは対話の方向性を正しく理解できます。
- Role(役割): AIに特定の専門家の「帽子」をかぶせてあげる、と考えると分かりやすいかもしれません。これが最も簡単で、かつ非常に効果的な方法の一つです。後ほど、なぜこれが有効なのかも解説します。
- Execution(実行): ここで、AIに「で、結局何をしてほしいの?」というタスクのゴールを明確に示します。「要約して」「リストアップして」「アイデアを出して」など、具体的な動詞で指示するのがコツです。
- Mandate(命令・制約): 「報告書はA4一枚で」「箇条書きでお願い」といった、アウトプットの「型枠」を決めてあげる部分です。文体(丁寧な口調で、など)や長さ、守るべきルール(専門用語は使わない、など)を具体的に指定することで、手戻りの少ない、期待通りの成果物が得られます。
- Augment(付加情報): AIが参照すべき「参考資料」を渡すフェーズです。特定の患者背景や、考慮してほしいポイントなどを加えることで、よりパーソナライズされた、質の高い回答を引き出せます。
どうでしょう、こう考えてみると、私たちが後輩や部下に仕事を依頼する際のプロセスと、非常によく似ていると思いませんか?このモデルを使って、先ほどの心不全の例をもう一度見てみましょう。
| 不十分なプロンプト | 良いプロンプト(CREMA適用) | |
|---|---|---|
| 指示 | 心不全について教えて。 | [R] あなたは経験豊富な循環器専門医です。 [C] HFrEF(EF 40%)の75歳男性患者が明日退院します。 [A] 彼は塩分制限や服薬アドヒアランスの重要性を十分に理解していません。 [E] 彼と彼の家族に、日常生活での注意点を説明するための、分かりやすい説明文の案を3つ作成してください。 [M] 専門用語は平易な言葉に置き換え、箇条書き形式で、最も重要な5つのポイントに絞ってください。 |
| 期待される結果 | 教科書的で一般的な、焦点のぼやけた情報。そのままでは臨床現場で活用するのは難しい。 | 患者の具体的な背景や理解度に寄り添った、実践的ですぐに臨床応用可能な質の高い文章案。 |
プロンプトの具体性によるアウトプットの質の変化
単に情報を尋ねる「質問」から、背景と目的を明確にした「業務指示」へとプロンプトを進化させるだけで、AIはあなたの意図を深く理解し、期待を遥かに超えるアウトプットを生成するパートナーへと変わるのです。
1-2. なぜ「役割設定」はこれほど有効なのか?
ご紹介したCREMAモデルの中でも、特に「あなたは〇〇です」という役割設定(Role)は、不思議なほど効果を発揮します。これは一体なぜなのでしょうか。その秘密は、B15で探求した基盤モデルの学習の仕組みに隠されています(2)。
AIは、インターネット上の膨大な文章を学習する過程で、単語の意味だけでなく、「言葉と言葉の膨大な相関マップ」をその頭脳(ニューラルネットワーク)の中に構築しています。「循環器専門医」という言葉は、そのマップの中で「心エコー」「左室駆出率(EF)」「β遮断薬」「生活習慣指導」といった専門用語群と、非常に強い結びつき(統計的な関連性)を持っているわけです。
したがって、「あなたは循環器専門医です」と指示することは、AIの広大な知識空間の中から、その役割に関連する特定の知識領域に強力なスポットライトを当てる行為にほかなりません。これにより、AIは思考の焦点を絞り、その領域で典型的に使われる言葉遣いや論理展開、思考パターンを優先的に用いるようになります。結果として、生成される文章の専門性と精度が劇的に向上する、という仕組みです。
これは、私たちが診断を行う際に、患者の主訴や所見という事前情報から鑑別疾患の確率を絞り込んでいく思考プロセスにも、どこか似ていると思いませんか?役割設定は、いわばAIの思考に強力な「事前確率」を与え、漠然とした可能性の海の中から、より確からしい回答空間へと導く、効果的な「舵取り」の役割を果たしているのです。


2. AIの思考を深める応用テクニック
基本の型である「CREMAフレームワーク」をマスターすると、AIとの対話の質が格段に上がったことを実感できると思います。では、ここからもう一歩踏み込んで、単に指示を出すだけでなく、AIの「思考のプロセス」そのものに介入し、より深く、精度の高い推論を引き出すための応用技術を学んでいきましょう。
2-1. 「思考の連鎖(Chain-of-Thought)」で結論を急がせない
AIは非常に高速に答えを出してくれますが、時として、それは「結論を急ぎすぎている」ことの裏返しでもあります。特に複雑な問題に対して、途中の論理的ステップを省略してしまい、一見もっともらしいけれども誤った結論に至ることがあるのです。これは、優秀だけれども早合点しがちな研修医の姿にも少し似ているかもしれません。
このAIの「悪癖」を防ぐ、非常に強力かつ簡単なテクニックが、「思考の連鎖(Chain-of-Thought; CoT)プロンプティング」です(3)。驚くことに、やり方はプロンプトの最後に「ステップ・バイ・ステップで考えてください」という、魔法のような一文を加えるだけ。これはAIに対して、「答えだけをポンと出すのではなく、そこに至るまでの思考のプロセス、いわば君の『臨床推論』を言葉にして示しなさい」と命じることに等しいのです。研究によれば、このわずかな工夫だけで、AIの推論能力は飛躍的に向上することが知られています(3)。
AIの思考プロセスの違いを、テキストベースの図で見てみましょう。
この図が示すように、CoTプロンプティングはAIの思考という「ブラックボックス」に窓を開け、その中身を言語化させます。これにより、単に結論の正しさを評価するだけでなく、その結論に至る論理の妥当性を、私たち専門家が検証できるようになるのです。これは、AIの回答を鵜呑みにせず、批判的に吟味することが求められる医療現場において、極めて重要な意味を持つと言えるでしょう。私自身、複雑な文献レビューや考察の壁打ちをAIに依頼する際には、必ずこの「ステップ・バイ・ステップで」という一言を添えるようにしています。
2-2. 「Few-shotプロンプティング」でお手本を見せる
もう一つの強力なテクニックは、AIに「お手本」をいくつか見せてあげる方法です。これは、新しい手技を後輩に教えるときに、まず良い例をいくつか見せてあげるのに似ていますね。AIの世界では、これを「Few-shotプロンプティング」と呼びます(4)。特に、退院時サマリーの要約や、大量の非構造化データ(自由記述カルテなど)から特定の情報を抽出して構造化データ(表など)に変換する、といった定型的なタスクで絶大な効果を発揮します。
AIは、お手本の例(shot)を見ることで、あなたが何を求めているのか、どのような形式で、どの程度の粒度(詳細さ)で情報をまとめてほしいのか、という「暗黙のルール」を非常に素早く学習します。
このように、わずか1つか2つの「お手本」を提示するだけで、AIはあなたが求めるアウトプットの「型」を正確に理解し、以降のタスクをそのルールに沿って忠実に実行してくれるようになります。研究論文のアブストラクトからPICO(Patient, Intervention, Comparison, Outcome)を抽出したり、複数の検査報告書から特定の値を抜き出して時系列の表を作成したりと、応用の幅は非常に広いと感じています。定型的な文書作成業務の効率化に、ぜひ一度試してみてはいかがでしょうか。
3. 医療現場の「安全柵」:法と倫理を遵守した使い方
さて、ここまで生成AIの能力を引き出すテクニックを見てきましたが、ここからは、おそらく本稿で最も重要なパートです。どんなにパワフルな新薬も、その副作用や禁忌、投与法を厳密に理解して初めて安全に使えるように、生成AIというツールも、その力を正しく制御するための「安全柵」があってこそ、真価を発揮します。
特に、人の生命と健康、そして極めて機微な個人情報を扱う私たち医療の現場では、この安全柵を理解し、遵守することが絶対不可欠です。AIが提示する情報は、いかなる場合も医師の専門的判断を代替するものではない――この大原則を、常に心に留めておく必要があります(5)。
3-1. AI活用の倫理・法務コンパス:遵守すべき7つの原則
AIを臨床関連業務で活用するにあたり、単に法律を守るだけでなく、医療専門職としての倫理観に根差した、より広い視野での行動規範が求められます。技術的なテクニック以前に、私たちが常に立ち返るべき「コンパス」として、ここでは特に重要な7つの原則を掘り下げて確認していきましょう。
医療現場におけるAI活用の7つの原則 まとめ
| 原則 | 要点 | 関連する法規・概念 |
|---|---|---|
| 1. 情報保護 | 個人情報・機密情報をプロンプトに入力しない。 | 個人情報保護法、医療・介護関係事業者における個人情報の適切な取扱いのためのガイダンス |
| 2. 最終責任 | AIは診断せず、最終判断と責任は常に医師にある。 | 医師法 |
| 3. 絶対的検証 | AIの生成物は全てファクトチェックを行う。 | 研究倫理、ハルシネーション対策 |
| 4. 法令遵守 | 国内の承認状況や広告規制を確認する。 | 薬機法、医療広告ガイドライン |
| 5. 知財尊重 | 盗用・剽窃リスクを認識し、適切に引用する。 | 著作権法 |
| 6. バイアス警戒 | データに含まれる偏見を常に意識し、公平性を保つ。 | 医療倫理、アルゴリズム・バイアス |
| 7. 自律性維持 | 過度に依存せず、専門職としての能力を維持・向上させる。 | プロフェッショナリズム、デスキリング対策 |
原則1:個人情報および機密情報の厳格な保護
これは、生成AIを利用する上での、全ての土台となる最も厳格なルールです。氏名、生年月日、患者IDはもちろんのこと、複数の非識別情報を組み合わせることで個人が特定されうる情報(例:希少疾患名と居住地域、詳細な治療歴など)をプロンプトに含めることは、個人情報保護法に抵触する極めてリスクの高い行為です(6)。プロンプトの入力画面は、常に「院外の誰でも閲覧できるパブリックな空間」と見なすべきです。そこに患者さんの情報を書き込むことは、決して許されません。
特に、外部のAIサービスを利用する場合、入力したデータがサービス提供者のサーバーに送信され、モデルの再学習などに利用される可能性も規約上否定できません。そうなると、データはもはや自組織の管理下から完全に離れてしまいます。臨床的な文脈でAIに相談したい場合は、必ず情報を抽象化・一般化し、個人が絶対に特定できないレベルまで加工するか、そもそも入力しないかの二択しかないと肝に銘じる必要があります。
原則2:医師による最終判断と完全な責任
AIが提示する鑑別診断リストや治療法の提案は、あくまで学習データに基づく「情報提供」や「仮説生成」であり、医学的な「診断」や「治療」そのものではありません。診断や治療方針の決定といった医行為は、医師のみに許された行為です(医師法第17条)(7)。AIの提案を鵜呑みにし、万が一患者さんに不利益が生じた場合、その責任を負うのはAIではなく、最終的な臨床判断を下した医師自身です。この原則に例外はありません。
AIは「極めて高性能な対話型の医療文献検索・情報整理ツール」と捉えるのが、現状では最も健全かつ正確な位置づけだと私は考えています。AIの役割と医師の役割は、明確に線引きされるべきです。
原則3:生成物に対する絶対的な検証(ファクトチェック)
B15でも触れたように、AIは事実に基づかない情報を生成する「ハルシネーション」を本質的な弱点として抱えています(9)。したがって、AIが生成した医学的情報は、その全てを「検証されるべき仮説」として扱う必要があります。特に、引用論文、統計データ、薬剤の用法・用量など、客観的な事実に関しては、必ずPubMedや信頼できる一次情報源にあたり、裏付けを取るプロセス(ファクトチェック)を業務フローに組み込むことが不可欠です。AIの回答を検証なしに臨床応用することは、決して行ってはなりません。
原則4:国内の薬機法・医療広告ガイドライン等の遵守
AIの知識は国境を越えますが、私たちの医療実践は国内の法規制に準拠しなければなりません。AIは、海外の最新情報に基づき、国内では未承認の医薬品や治療法を提示することがあります。これをそのまま患者さんへの説明資料などに用いると、薬機法で禁じられている未承認医薬品の広告と見なされるリスクがあります(8)。また、疾患の説明や治療効果に関する表現が、医療広告ガイドラインに抵触する可能性も念頭に置くべきです。AIの生成物は、必ず国内の法規制、承認状況、各種ガイドラインというフィルターを通して評価する必要があります。
原則5:知的財産権(著作権)の尊重
AIは既存の膨大な文献を学習データとしています。そのため、AIが生成した文章が、意図せず特定の論文や書籍の記述と酷似してしまう、いわゆる「盗用・剽窃(plagiarism)」のリスクが常に存在します。特に、論文執筆や学会発表資料の作成にAIを用いる際は、生成された文章を安易にコピー&ペーストするのではなく、自らの言葉で再構成し、適切な引用を行うことが、研究者倫理の観点から強く求められます(12)。
原則6:アルゴリズム・バイアスへの警戒
AIの判断は、学習データに内在する偏見(バイアス)を反映、時には増幅させることがあります。例えば、過去の臨床データにおいて、特定の性別や人種で疾患が見過ごされがちであった場合、そのデータで学習したAIも同様の偏見を再生産する可能性があります(11)。AIからの提案に対しては、「この結論は、データに含まれるバイアスの影響を受けていないか?」と常に批判的な視点を持ち、多様な患者背景を考慮に入れることが、公平な医療を提供する上で不可欠です。
原則7:専門職としての自律性の維持と過度な依存の回避
AIは強力な補助ツールですが、それに過度に依存することで、私たち自身の臨床推論能力や知識が鈍化する「デスキリング(deskilling)」のリスクも指摘されています(13)。AIを思考の「代替」ではなく、あくまで自らの思考を「深化・拡張」させるためのツールとして位置づけ、常に主体的な学習意欲と専門職としての自律性を維持する姿勢が重要です。私たちが常に自問すべきは、「AIがなければ、自分はこの結論に至れたか?」という問いかもしれません。
3-2. ハルシネーション(幻覚)への実践的ワークフロー
B15でも触れたように、AIは事実に基づかない情報を、あたかも真実であるかのように自信満々に生成する「ハルシネーション」という悪癖を持ちます(9)。医療現場でこれを放置することは許されません。そこで、AIからの情報を検証するための、具体的な3ステップのワークフローを徹底する必要があります。
特に重要なのが、Step 3の「RAG(Retrieval-Augmented Generation; 検索拡張生成)」の活用です。これは、AIが持つ漠然とした一般知識に頼るのではなく、こちらが指定した信頼できる文書(例えば、最新の診療ガイドラインのPDFファイル)をまずAIに「検索(Retrieval)」させ、その内容に基づいて回答を「生成(Generation)」させる技術です(10)。これにより、AIの回答の拠り所が明確になり、ハルシネーションのリスクを劇的に抑制することが可能です。
AIというパワフルなエンジンを乗りこなすには、それを安全に制御するための、強力なブレーキ(法的・倫理的ルール)と精緻なハンドル操作(情報検証ワークフロー)が、私たち自身に求められているのです。
まとめ:AIとの協働をデザインする新しいスキル
今回の旅を通じて、プロンプトエンジニアリングが単なる「上手な質問の仕方」ではなく、AIの思考プロセスを理解し、その能力を特定の目的に向けて的確に導く「対話の設計技術」であることが、お分かりいただけたのではないでしょうか。
- 指示の構造化が鍵: CREMAフレームワーク(役割、背景、目的、形式など)のように、指示を明確にすることで、AIは汎用アシスタントから専門家へと変貌します。
- 思考プロセスを引き出す: 「ステップ・バイ・ステップで」と促すだけで、AIはより深く、透明性の高い思考を行うようになります。
- 安全柵がすべてを決定する: 医療現場では、法的・倫理的遵守が技術的有効性よりも優先されます。個人情報を入力せず、最終判断は必ず医師が行い、全ての情報を疑ってかかる姿勢が、AIを安全なパートナーにするための絶対条件です。
生成AIの登場により、医療者に求められるスキルセットは、間違いなく変化しています。これからは、自らの専門知識を核としながら、いかにしてこの優秀な「知的パートナー」と協働し、より質の高い医療や研究を生み出していくかを構想・設計する能力が、新たな競争力の源泉となるでしょう。
この新しいパートナーに、どのような「指示書」を書きますか?その一文が、未来の医療の新しい扉を開く、最初の一歩になるのかもしれません。



Medical AI Nexus で学びを深めませんか?
【🔰 Medical AI Nexus とは】
日々の診療から生まれる膨大な医療データ――その価値を AI で最大化できれば、診断・治療・予防の姿は大きく変わります。
「Medical AI Nexus」は、AI を“医療者の最高のパートナー”に育てるための『知の羅針盤』です。
初心者でも実践的に学べる体系的コンテンツを通じて、
①「わからない」を解決する基礎講座、
②“使える”を支援する実装講座、
③専門分野への応用を探究する臨床シリーズを提供し、
医療者の能力拡張とデータ駆動型医療への航海を後押しします。
参考文献
- White J, Fu Q, Hays S, Sandborn M, Olea C, Gilbert H, et al. A prompt-based approach to automatic patient case summarization. In: Proceedings of the AAAI Conference on Artificial intelligence. 2023.
- Vaswani A, Shazeer N, Parmar N, Uszkoreit J, Jones L, Gomez AN, et al. Attention is all you need. In: Advances in Neural Information Processing Systems 30. Curran Associates, Inc.; 2017. p. 5998–6008.
- Kojima T, Gu SS, Reid M, Matsuo Y, Iwasawa Y. Large Language Models are Zero-Shot Reasoners. In: Advances in Neural Information Processing Systems. 2022.
- Brown TB, Mann B, Ryder N, Subbiah M, Kaplan J, Dhariwal P, et al. Language Models are Few-Shot Learners. In: Advances in Neural Information Processing Systems 33. 2020.
- Lee P, Bubeck S, Petro J. Benefits, Limits, and Risks of GPT-4 as an AI Chatbot for Medicine. N Engl J Med. 2023;388(13):1233-1239.
- Price WN 2nd, Cohen IG. Privacy in the age of medical big data. Nat Med. 2019;25(1):37-43.
- e-Gov法令検索. 医師法(昭和二十三年法律第二百一号). Available from: https://elaws.e-gov.go.jp/document?lawid=323AC0000000201
- 厚生労働省. 医薬品等適正広告基準の解説及び留意事項等について. 2017. Available from: https://www.mhlw.go.jp/file/06-Seisakujouhou-11120000-Iyakushokuhinkyoku/0000179263.pdf
- Alkaissi H, McFarlane SI. Artificial Hallucinations in ChatGPT: Implications for Scientific Writing. Cureus. 2023;15(2):e35179.
- Lewis P, Perez E, Piktus A, Petroni F, Karpukhin V, Goyal N, et al. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. In: Advances in Neural Information Processing Systems. 2020.
- Obermeyer Z, Powers B, Vogeli C, Mullainathan S. Dissecting racial bias in an algorithm used to manage the health of populations. Science. 2019;366(6464):447-453.
- Salvagno M, Taccone FS. Artificial intelligence-based paraphrasing tools: a potential threat to academic integrity. J Anesth Analg Crit Care. 2023;3(1):1.
- Blease C, Kube T, Walker MJ. Artificial intelligence, ethics, and the new challenges of medical professionalism. J Med Ethics. 2024;50(1):55-61.
- Singhal K, Azizi S, Tu T, Mahdavi SS, Wei J, Mower-Triplett M, et al. Large Language Models Encode Clinical Knowledge. Nature. 2023;620(7972):172-180.
- Thirunavukarasu AJ, Ting DSJ, Elangovan K, Gutierrez L, Tan TF, Ting DSW. Large language models in medicine. Nat Med. 2023;29(8):1930-1940.
- A-thano A, A-thano S, Ratanapo S, Kanjanavirojkul N. Prompt engineering for large language models: A systematic review. Contemp AI. 2024;100155.
- Moor M, Dal-Ré R, Anagnostou V, Baeten J, Beaulieu-Jones B, Bellot A, et al. A guideline for governing generative AI in biomedical research and medicine. Nat Med. 2024;30(6):1546-1551.
- Sallam M. The Utility of ChatGPT as an Example of Large Language Models in Healthcare Education, Research and Practice: A Mini-Review. J Educ Health Promot. 2023;12:179.
ご利用規約(免責事項)
当サイト(以下「本サイト」といいます)をご利用になる前に、本ご利用規約(以下「本規約」といいます)をよくお読みください。本サイトを利用された時点で、利用者は本規約の全ての条項に同意したものとみなします。
第1条(目的と情報の性質)
- 本サイトは、医療分野におけるAI技術に関する一般的な情報提供および技術的な学習機会の提供を唯一の目的とします。
- 本サイトで提供されるすべてのコンテンツ(文章、図表、コード、データセットの紹介等を含みますが、これらに限定されません)は、一般的な学習参考用であり、いかなる場合も医学的な助言、診断、治療、またはこれらに準ずる行為(以下「医行為等」といいます)を提供するものではありません。
- 本サイトのコンテンツは、特定の製品、技術、または治療法の有効性、安全性を保証、推奨、または広告・販売促進するものではありません。紹介する技術には研究開発段階のものが含まれており、その臨床応用には、さらなる研究と国内外の規制当局による正式な承認が別途必要です。
- 本サイトは、情報提供を目的としたものであり、特定の治療法を推奨するものではありません。健康に関するご懸念やご相談は、必ず専門の医療機関にご相談ください。
第2条(法令等の遵守)
利用者は、本サイトの利用にあたり、医師法、医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律(薬機法)、個人情報の保護に関する法律、医療法、医療広告ガイドライン、その他関連する国内外の全ての法令、条例、規則、および各省庁・学会等が定める最新のガイドライン等を、自らの責任において遵守するものとします。これらの適用判断についても、利用者が自ら関係各所に確認するものとし、本サイトは一切の責任を負いません。
第3条(医療行為における責任)
- 本サイトで紹介するAI技術・手法は、あくまで研究段階の技術的解説であり、実際の臨床現場での診断・治療を代替、補助、または推奨するものでは一切ありません。
- 医行為等に関する最終的な判断、決定、およびそれに伴う一切の責任は、必ず法律上その資格を認められた医療専門家(医師、歯科医師等)が負うものとします。AIによる出力を、資格を有する専門家による独立した検証および判断を経ずに利用することを固く禁じます。
- 本サイトの情報に基づくいかなる行為によって利用者または第三者に損害が生じた場合も、本サイト運営者は一切の責任を負いません。実際の臨床判断に際しては、必ず担当の医療専門家にご相談ください。本サイトの利用によって、利用者と本サイト運営者の間に、医師と患者の関係、またはその他いかなる専門的な関係も成立するものではありません。
第4条(情報の正確性・完全性・有用性)
- 本サイトは、掲載する情報(数値、事例、ソースコード、ライブラリのバージョン等)の正確性、完全性、網羅性、有用性、特定目的への適合性、その他一切の事項について、何ら保証するものではありません。
- 掲載情報は執筆時点のものであり、予告なく変更または削除されることがあります。また、技術の進展、ライブラリの更新等により、情報は古くなる可能性があります。利用者は、必ず自身で公式ドキュメント等の最新情報を確認し、自らの責任で情報を利用するものとします。
第5条(AI生成コンテンツに関する注意事項)
本サイトのコンテンツには、AIによる提案を基に作成された部分が含まれる場合がありますが、公開にあたっては人間による監修・編集を経ています。利用者が生成AI等を用いる際は、ハルシネーション(事実に基づかない情報の生成)やバイアスのリスクが内在することを十分に理解し、その出力を鵜呑みにすることなく、必ず専門家による検証を行うものとします。
第6条(知的財産権)
- 本サイトを構成するすべてのコンテンツに関する著作権、商標権、その他一切の知的財産権は、本サイト運営者または正当な権利を有する第三者に帰属します。
- 本サイトのコンテンツを引用、転載、複製、改変、その他の二次利用を行う場合は、著作権法その他関連法規を遵守し、必ず出典を明記するとともに、権利者の許諾を得るなど、適切な手続きを自らの責任で行うものとします。
第7条(プライバシー・倫理)
本サイトで紹介または言及されるデータセット等を利用する場合、利用者は当該データセットに付随するライセンス条件および研究倫理指針を厳格に遵守し、個人情報の匿名化や同意取得の確認など、適用される法規制に基づき必要とされるすべての措置を、自らの責任において講じるものとします。
第8条(利用環境)
本サイトで紹介するソースコードやライブラリは、執筆時点で特定のバージョンおよび実行環境(OS、ハードウェア、依存パッケージ等)を前提としています。利用者の環境における動作を保証するものではなく、互換性の問題等に起因するいかなる不利益・損害についても、本サイト運営者は責任を負いません。
第9条(免責事項)
- 本サイト運営者は、利用者が本サイトを利用したこと、または利用できなかったことによって生じる一切の損害(直接損害、間接損害、付随的損害、特別損害、懲罰的損害、逸失利益、データの消失、プログラムの毀損等を含みますが、これらに限定されません)について、その原因の如何を問わず、一切の法的責任を負わないものとします。
- 本サイトの利用は、学習および研究目的に限定されるものとし、それ以外の目的での利用はご遠慮ください。
- 本サイトの利用に関連して、利用者と第三者との間で紛争が生じた場合、利用者は自らの費用と責任においてこれを解決するものとし、本サイト運営者に一切の迷惑または損害を与えないものとします。
- 本サイト運営者は、いつでも予告なく本サイトの運営を中断、中止、または内容を変更できるものとし、これによって利用者に生じたいかなる損害についても責任を負いません。
第10条(規約の変更)
本サイト運営者は、必要と判断した場合、利用者の承諾を得ることなく、いつでも本規約を変更することができます。変更後の規約は、本サイト上に掲載された時点で効力を生じるものとし、利用者は変更後の規約に拘束されるものとします。
第11条(準拠法および合意管轄)
本規約の解釈にあたっては、日本法を準拠法とします。本サイトの利用および本規約に関連して生じる一切の紛争については、東京地方裁判所を第一審の専属的合意管轄裁判所とします。
For J³, may joy follow you.





