[Medical Data Science 100 : S38] がん再発や喘息発作は一度きりじゃない!「何度も起こるイベント」を追いかける縦断的分析の世界

縦断的イベント分析のポイント

従来の分析では見過ごされがちだった「初回イベント以降の物語」を読み解くための高度な手法群です。繰り返すイベント、見えない個人差、バイオマーカーの動態をモデルに組み込み、患者さんの全経過をより深く理解します。

再発イベント分析 🔄
「何回起きたか」を分析

心不全の再入院や喘息発作など、繰り返すイベントの「回数」と「タイミング」を分析します。治療がイベント全体の頻度を減らすかを評価でき、初回イベントのみを見るより多くの情報が得られます。

フレイルティモデル 🧬
「見えない個人差」を考慮

観測データが同じでも、イベントの起こりやすさには個人差があります。この測定不能な「壊れやすさ(フレイルティ)」を統計的にモデル化し、より正確な治療効果の推定を目指します。

ジョイントモデル 🔗
2つの物語を結合

バイオマーカーなどの「縦断データ」の推移と、死亡や再発などの「イベントデータ」を一つのモデルで結合します。両者の動的な関連性を解明し、リアルタイムでの個人別リスク予測を可能にします。

分析の視点 🕰️
「問い」に合う時間軸を選択

分析に使う時間の”ものさし”も重要です。研究開始からの「通算時間」は全体の傾向を、イベント間の「間隔時間」は発生サイクルを見るのに適しており、臨床的な問いに応じて使い分けます。


目次

イントロダクション:なぜ「繰り返すイベント」に注目するのか?

これまでの講座で、私たちは生存時間分析の強力なツールであるKaplan-Meier曲線やCox比例ハザードモデルを学んできました。これらの手法は、「死亡」や「疾患の初回再発」といった、いわば「一度きりのイベント(Terminal Event)」を解析する上でのゴールドスタンダードです。研究のエンドポイントを一つに定め、そこに至るまでの時間を比較することで、治療法の有効性などを評価してきました。それは物語の「結末」に焦点を当てる、非常に重要でパワフルなアプローチです。

でも、少し立ち止まって、私たちが日々向き合っている臨床現場の現実を思い浮かべてみてください。患者さんの病気との付き合いは、必ずしも一度のイベントで終わるわけではありません。むしろ、その多くは長い時間をかけて繰り返されるイベントとの闘いです。

なぜ「一回きり」の分析だけでは不十分なのか?

例えば、ぜんそくの患者さんは何度も発作を繰り返しますし、てんかんの患者さんにとって発作の頻度そのものが生活の質(QOL)を大きく左右します。がんの治療後、複数箇所への転移や再発を経験される方も少なくありません。

特に心不全のような慢性疾患の領域では、急性増悪による入退院の繰り返しが、患者さんの予後を著しく悪化させ、また医療システムにも大きな負荷をかけることが深刻な問題となっています。実際、現在最も広く参照されている日本循環器学会と日本心不全学会の合同ガイドライン(2021年フォーカスアップデート版)においても、心不全治療の重要な目標として「心不全増悪による再入院の回避」が明確に掲げられています (JCS/JHFS 2021)

こうした「繰り返すイベント」は、患者さんの臨床経過における重要な「山場」であり、そのパターン自体が治療効果や予後を解き明かす鍵を握っているはずです。

捨てられていた情報:初回イベント以降の「物語」

ここで、従来の分析手法の限界が浮かび上がってきます。

もし私たちがCoxモデルを使って「心不全による初回の再入院」をエンドポイントとして解析した場合、何が起こるでしょうか? その解析では、2回目、3回目、あるいはそれ以上の入院という、患者さんのその後の経過に関する極めて重要な臨床情報が、統計モデルから完全に抜け落ちてしまうのです。

「初回イベントを遅らせる効果はあるが、2回目以降のイベント頻度は減らせない薬」と、「初回イベントへの効果は中等度でも、その後のイベント頻度を劇的に減らす薬」があったとしたら、どちらが患者さんにとって本当に価値があるでしょうか?従来の分析手法だけでは、この臨床的に極めて重要な問いに、明確な答えを出すことが難しいのです。

新しい脚本術:「縦断的イベント分析」へようこそ

そこで脚光を浴びるのが、今回から探求していく縦断的イベント分析(Longitudinal Event Analysis)です。

この一連の手法群は、再発するイベントの「回数」、「タイミング」、「パターン」を統計モデルに組み込むことで、これまで見えなかった治療効果の多面的な側面や、患者さん一人ひとりのリスクの動態を明らかにしようと試みます。

いわば、患者さんの人生という映画の「全編」を分析し、その物語をより深く理解するための、新しい脚本術のようなものだと言えるでしょう。この講座を通じて、これまで見過ごされてきた「繰り返す物語」から、新たな臨床的・研究的知見を引き出すための扉を開いていきましょう。


「一回きり」では終わらない物語:再発イベント分析の登場

前章で見たように、慢性疾患の管理において、イベントが「起きたか、起きなかったか」という二元論だけでは捉えきれない現実があります。より重要なのは、「そのイベントが、追跡期間中に何回起きたか」という視点です。

この「何度も起こるイベント」が持つ豊かな情報を、統計的に正しく、かつ臨床的な意味を損なわずに分析するために開発されたのが、再発イベント分析(Recurrent Event Analysis)と呼ばれる一連のモデル群です。

再発イベントデータとは何か?:タイムラインで見る患者の軌跡

言葉だけだと少しイメージが湧きにくいかもしれませんので、具体的なデータで考えてみましょう。ここに、ある治療法を受けた2人の患者さん(AさんとBさん)の、その後の経過を示したタイムラインがあります。

再発イベントデータとは何か?:タイムラインで見る患者の軌跡 ある治療法を受けた2人の患者さん(AさんとBさん)の、その後の経過を見てみましょう。 🧑‍⚕️ 患者A イベント1 (6ヶ月) イベント2 (12ヶ月) 🏁 観察終了 (24ヶ月) 🧑‍⚕️ 患者B イベント1 (24ヶ月) ✂️ 打ち切り (30ヶ月) 再発イベントデータが持つ3つの重要な特徴 🔄 一人の患者が複数のイベント データが個人の中で 入れ子構造になっています。 🎲 イベント発生はランダム イベントが起きるタイミングは 必ずしも一定ではありません。 ✂️ 観察期間が異なる(打ち切り) 追跡が途中で終わる 重要な概念です。 ⚠️ 早計な結論 「Aさんは2回、Bさんは1回だから Aさんの方がリスクが高い」 と結論づけるのは間違いです。 追跡期間の違いというバイアスを 考慮できていません。 💡 正しい捉え方 カウンティングプロセス (計数過程) 時間 (t) イベント数 N(t) 0 1 2 イベント発生のたびにカウントが 増える確率的なプロセスとして捉えます。 では、この複雑なデータをどのように「料理」すれば、信頼できる知見を引き出せるのでしょうか。 代表的な3つの分析モデルへ続く…

このシンプルな図から、再発イベントデータが持ついくつかの重要な特徴が見えてきます。

  • 一人の患者が複数のイベントを持つ: 患者Aさんは、観察期間中に2回のイベントを経験しています。このように、データが個人(あるいは施設などのクラスター)の中で入れ子構造になっています。
  • イベント発生はランダム: イベントが起きるタイミングは、必ずしも一定の間隔ではありません。
  • 観察期間が患者ごとに異なる: 患者Aさんは24ヶ月で研究が終了(イベントがそれ以降起きていない)していますが、患者Bさんは30ヶ月の時点で転院してしまい、その後の経過が追えなくなっています。このように、追跡が途中で終わることを「打ち切り(Censoring)」と呼び、生存時間分析と同様に非常に重要な概念です。

さて、このデータを見て「患者Aさんは2回、Bさんは1回だから、Aさんの方がリスクが高い」と結論づけるのは、少し早計だと思いませんか? 追跡期間も違いますし、イベントが起きたタイミングも異なります。

このような複雑なデータ構造を適切に扱うには、専用の統計モデルが必要になります。単純にイベントの総回数を患者数で割るような計算では、追跡期間の違いというバイアスを考慮できず、誤った結論を導きかねません。

再発イベント分析では、こうした患者さん一人ひとりのイベントの軌跡を「カウンティングプロセス(計数過程)」として捉えます。これは、時間の経過とともにイベントが発生するたびに、「1回、2回、3回…」とカウントが一つずつ増えていく確率的なプロセスと考えるアプローチです。

では、この複雑なデータをどのように「料理」すれば、信頼できる知見を引き出すことができるのでしょうか。これから、そのための代表的な3つの考え方(モデル)を見ていくことにしましょう。


3つの代表的なモデル:どう捉えるかで物語は変わる

さて、カウンティングプロセスとして捉えた再発イベントデータを分析するには、どのような統計モデルがあるのでしょうか。アプローチの仕方は一つではありません。イベントとイベントの間の関係性をどう仮定するかによって、いくつかのモデルに分けられます。

ここでは、その中でも特に代表的な3つのモデル、Andersen–Gill (AG)モデルPrentice–Williams–Peterson (PWP)モデル、そしてWei–Lin–Weissfeld (WLW)モデルを紹介します。これらは、1980年代から90年代にかけて、統計学の大家たちによってその基礎が築かれました (Andersen and Gill 1982; Prentice, Williams, and Peterson 1981; Wei, Lin, and Weissfeld 1989)。

まずは、それぞれのモデルが持つ「個性」を、比較表で掴んでみましょう。

モデル名考え方の特徴たとえ話
Andersen–Gill (AG) モデルイベントはそれぞれ独立。過去のイベント回数に影響されない。次々に来る路線バス。1台目のバスが来ても、それが2台目のバスがいつ来るかには影響しない、と考える最もシンプルなモデル。
Prentice–Williams–Peterson (PWP) モデルイベントの順番を考慮する。「k回目のイベント」は「k-1回目のイベント」が起きた後でないと発生しない。ゲームのステージクリア。ステージ1をクリアしないとステージ2には進めないように、イベントの順序性を重視するモデル。
Wei–Lin–Weissfeld (WLW) モデル各イベントを全く別の物語として扱う。オムニバス形式の短編集。「1回目の再発の物語」「2回目の再発の物語」…と、それぞれを独立した別の話として並行して分析する。

この表だけでも、それぞれのアプローチの違いがなんとなくイメージできるのではないでしょうか。もう少し、各モデルの「気持ち」、つまり「どんな問いに答えようとしているのか」を深掘りしていきましょう。

3つの代表的なモデル:どう捉えるかで物語は変わる イベント間の関係性の捉え方によって、主に3つのモデルに分けられます。 🚌 AGモデル イベントは独立 【たとえ話】 次々に来る路線バス 1台目のバスが来ても、 それが2台目のバスが いつ来るかには 影響しないと考えます。 🔢 PWPモデル イベントの順番を考慮 【たとえ話】 ゲームのステージクリア ステージ1をクリアしないと ステージ2には 進めないように、 イベントの順序性を重視。 📚 WLWモデル 各イベントを別の物語として扱う 【たとえ話】 オムニバス形式の短編集 「1回目の再発の物語」 「2回目の再発の物語」… と、それぞれを独立した 別の話として分析します。 👇 次は、各モデルが「どんな問いに答えようとしているのか」を深掘りします。

① Andersen-Gill (AG) モデル:イベント全体の「勢い」を見るレンズ

AGモデルは、Cox比例ハザードモデルを再発イベントデータに最も素直に拡張した、いわば「王道」のアプローチです。このモデルの核心は、イベントの順序を区別せず、計数過程の強度(intensity)を単一のCox型モデルで表現する点にあります。

① Andersen-Gill (AG) モデル イベント全体の「勢い (強度)」を見るレンズ 王道アプローチ AGモデルの仕組み:データを「積み重ねる」という発想 元のデータ (患者A) 🏁 24ヶ月 イベント1 6ヶ月 イベント2 18ヶ月 ➡️ AGモデル用のデータ構造 ID Start Stop Status Treatment A 0 6 1 💥 あり A 6 18 1 💥 あり A 18 24 0 🏁 あり 🤔 気持ち・解釈 💊 💥 💥 💥 一つの共通の効果 治療がイベント発生の 全体的な「勢い」 一貫して抑えるか を、単一のハザード比で 評価します。 👍 長所 💻 実装が容易 📊 解釈が直感的 結果をシンプルに表現できる ⚠️ 重要なポイント 🧑‍⚕️ 💥🔗💥 個人内相関を考慮し、標準誤差の補正が必要 主な仮定: 💊 ➡ 1回目 💥 (効果 A) 💊 ➡ 2回目 💥 (効果 A) 💊 ➡ 3回目 💥 (効果 A) 治療などの効果は、 全てのイベントを通じて一定 ※薬剤耐性などでこの仮定が 成立しない場合は注意

AGモデルの仕組み:データを「積み重ねる」という発想

AGモデルを理解する鍵は、そのユニークなデータ構造の作り方にあります。これはカウンティングプロセス(計数過程)形式と呼ばれ、一人の患者さんの経過を、イベントが起こるまでの複数の「区間」に分割します。

例えば、2回イベントを経験した患者Aさんのデータは、以下のように3行のデータに組み替えられます。

AGモデルのデータ変換:積み重ね(スタッキング) 元のデータ:患者Aのタイムライン [開始] イベント1 イベント2 [観察終了] –(6ヶ月)–> –(12ヶ月)–> –(6ヶ月)–> イベントごとに区切り、積み重ねる AGモデル用のデータ構造 ID Start Stop Status Treatment A 0 6 1 💥 あり A 6 18 1 💥 あり A 18 24 0 🏁 あり

このように、一人の患者さんのデータをイベントごとに区切り、「積み重ねて(スタッキングして)」解析します。各行が、ある時点(Start)から次の時点(Stop)までリスクに晒されていたかを表し、Status=1がイベント発生を意味します。

モデルの「気持ち」と強み・注意点

このデータ構造を元に、AGモデルは次のような問いに答えようとします。

  • 気持ち(解釈したいこと): 「ある治療法が、イベント発生の全体的な『勢い(強度や頻度)』そのものを、一貫して抑える効果があるのか?」という問いに答えるのに最適です。このモデルでは、1回目のイベントに対する治療効果も、5回目のイベントに対する効果も、**一つの共通の効果(ハザード比)**として推定されます。
  • 長所: Coxモデルの枠組みをほぼそのまま使えるため、多くの統計ソフトで実装が比較的容易です。推定されるハザード比も一つなので、結果の解釈が「治療Aは全イベントのリスク強度を約XX%減少させる」という形で直感的で分かりやすいのが大きな魅力です。
  • 注意点(重要なポイント): このモデルでは、同じ患者さんから発生した複数のイベントは当然ながら相関しています。そのため、最終的な結果(信頼区間やp値)を正しく計算するには、この個人内相関を考慮して標準誤差を補正する手続き(ロバスト分散推定など)を適用するのが一般的です。モデルの主な仮定は、イベントが単純に「統計的に独立」していることではなく、「リスク因子(治療効果など)の影響が全てのイベントを通じて一定である」という点にあります。この仮定が臨床的に妥当でない場合(例:薬剤耐性で後のイベントに効きにくくなる)は、他のモデルを検討する必要があります。

AGモデルは、そのシンプルさと解釈のしやすさから、再発イベント分析の第一歩として非常に有用なツールですが、その仮定の限界を理解した上で使うことが重要です。


② Prentice-Williams-Peterson (PWP) モデル:イベントの「順序」を重視するレンズ

AGモデルが「全てのイベントは同じ」と仮定したのに対し、PWPモデルは「イベントを経験するごとに、患者さんの状態やリスクは変化するはずだ」という、より臨床現場の直感に近い立場を取ります。

このモデルの核心は、イベントを「順序(k番目のイベント)」で明確に区別し、層別化して分析する点にあります。1回目の再発と5回目の再発では、患者さんの生物学的な状態も、精神的な状態も、そしておそらくは治療への反応性も異なっているだろう、という考えに基づいています。

② Prentice-Williams-Peterson (PWP) モデル 🎮 イベントの「順序」を重視するレンズ 「イベントを経験するごとに、リスクは変化する」という臨床的な直感に基づきます。 PWPモデルの仕組み:ゲームステージに例えると… 第1層 (ステージ1) 全患者がリスク集団 🧑‍🤝‍🧑 💥 第2層 (ステージ2) 1回目イベント経験者のみ 🧑‍⚕️🧑‍💻 💥 第3層 (ステージ3) 2回目イベント経験者のみ 🧑‍🎨 ステージ(k番目のイベント)ごとに、リスクと治療効果💊を別々に評価します。 モデルの気持ちと2つのバリエーション 🤔 気持ち・解釈 「治療 💊 の効果は、 1回目💥と2回目💥で違うのでは?」 イベント回数に応じたリスクや効果の変化を捉える ✌️ 2つのバリエーション Conditionalモデル (Total Time) 時間軸:研究開始からの通算時間 0 Gap Timeモデル 時間軸:直前イベントからの間隔時間 0 0 👍 長所 🧑‍⚕️ 臨床的な妥当性が高く、 現実に即したモデル化が可能 ⚠️ 注意点 📉 後の層(ステージ)ほど イベント数が減少し、結果が不安定に

PWPモデルの仕組み:ステージごとに分析する

PWPモデルの考え方は、ビデオゲームのステージに例えると非常に分かりやすいです。

ゲームのステージクリアの分析:
ステージ1の難易度(リスク)と、ステージ2の難易度(リスク)は異なります。また、あるパワーアップアイテム(治療)は、ステージ1のボスには絶大な効果を発揮するかもしれませんが、ステージ2のボスにはあまり効かないかもしれません。PWPモデルは、このようにステージ(=k番目のイベント)ごとに、リスクと治療効果を別々に評価しようとするアプローチです。

具体的には、データをイベントの回数で「層(stratum)」に分けて考えます。

  • 第1層(1回目のイベントのリスク集団): 研究に参加した全ての患者さんが、まずこの集団に属します。
  • 第2層(2回目のイベントのリスク集団): 1回目のイベントを経験した患者さんだけが、この集団に入ることができます。
  • 第3層(3回目のイベントのリスク集団): 2回目のイベントを経験した患者さんだけが、この集団に…というように続いていきます。

このようにリスク集団を層別化することで、「k回目」のイベントが持つ特有のリスクをモデル化できるのです。

モデルの「気持ち」と2つのバリエーション

この層別化アプローチにより、PWPモデルは次のような、より踏み込んだ臨床的な問いに答えることができます。

  • 気持ち(解釈したいこと): 「1回目の再発リスクと2回目の再発リスクは、そもそもベースが違うのではないか?」「治療Aの効果は、初回再発の予防には有効だが、2回目以降の再発予防には効果がないのではないか?」といった、イベントの回数に応じたリスクや治療効果の変化(heterogeneity)を捉えたい時に使います。

さらに、PWPモデルには主に2つの「風味」の異なるバリエーションがあり、使う時間軸によって解釈が変わります。

  1. Conditionalモデル(Total Timeモデル):
    • 時間軸: 研究開始からの通算時間(Total time)
    • 問い: 「(k-1)回のイベントを経験したという条件のもとで、研究開始からt時点におけるk回目のイベント発生リスクはどうか?」を問います。長期的な疾患の進行プロセスを見たい場合に適しています。
  2. Gap Timeモデル:
    • 時間軸: 直前のイベントからの間隔時間(Gap time)
    • 問い: 「イベントを経験した後、次のイベントが起こるまでの期間のリスクはどうか?」を問います。イベント発生によって患者さんの状態が「リセット」され、そこから新たなリスクが始まると考えられる場合に、より臨床的な解釈がしやすくなります。

強みと実用上の注意点

  • 長所: イベント回数によってハザード(リスク)が変動するような、より現実に即した状況をモデル化できる臨床的な妥当性の高さが最大の強みです。
  • 注意点: AGモデルよりも構造が複雑になります。また、より実用的な問題として、後の層におけるデータ量の減少が挙げられます。例えば、5回目の再発を経験する患者さんは、1回目の再発を経験する患者さんよりもずっと少なくなります。そのため、後の層での分析はイベント数が足りず、結果が不安定になる可能性があるため注意が必要です。

③ Wei-Lin-Weissfeld (WLW) モデル:各イベントを「個別の物語」として分析するレンズ

最後に紹介するWLWモデルは、これまでの2つとは根本的に異なる、非常に柔軟な発想に基づいています。このモデルは周辺モデル(Marginal Model)と呼ばれ、「1回目のイベント」「2回目のイベント」…を、それぞれが全く別のエンドポイントを持つ、独立した物語と見なします。

③ Wei-Lin-Weissfeld (WLW) モデル 📊 各イベントの「発生率」を個別に評価するレンズ 周辺モデル (Marginal) WLWモデルの仕組み:常に全員がリスクに晒される 研究参加者 🧑‍🤝‍🧑 全員 モデル1:初回イベントの分析 全員を対象に、初回イベント発生率を分析。 (結果: 💥 vs 🏁) モデル2:2回目イベントの分析 ここでも全員がリスク集団。初回未経験者は2回目イベントが起きない「打ち切り🏁」扱い。 モデル3:3回目イベントの分析 同様に、全員がリスクに晒されていると仮定して分析。 🤔 気持ち 発生率 集団全体で見て、 治療は初回イベント発生率 どう影響し、また 2回目イベント発生率 どう影響するか?」 を問います。 👍 長所 🤸 柔軟な分析が可能 時間依存性共変量を扱いやすい ⚠️ 重要ポイント 🔗 個人内相関の調整が必須 (ロバスト分散推定) 🧠❓ 解釈に注意が必要 臨床的な直感と異なる 場合があるため、集団全体 での平均発生率と理解する。

WLWモデルの仕組み:全員参加で、各物語を並行分析する

このモデルの最大の特徴は、リスク集団の考え方にあります。PWPモデルが「1回目イベント経験者のみ」を2回目のリスク集団としたのに対し、WLWモデルは異なります。

  • イベント番号kごとの分析に、常に全参加者をTime 0からリスクに置きます。
    • つまり、「2回目のイベント用モデル」を考える際にも、1回目のイベントをまだ経験していない人を含め、研究に参加した全員が最初からリスクに晒されていると考えます。
    • ある患者さんが研究期間中に1回しかイベントを経験しなかった場合、その患者さんは「2回目のイベント用モデル」においては、追跡期間の最後までイベントが起きなかった「打ち切り例」として扱われます。
  • このように、イベントの発生順序(1回目が2回目より先に起こる)という制約をモデル構造に課しません。

モデルの「気持ち」と強み・注意点

このユニークなアプローチは、特定の問いに答えるために特化しています。

  • 気持ち(解釈したいこと): 「研究集団全体で見て、治療Aは『初回イベント発生率』にどう影響し、また『2回目イベント発生率』にどう影響するか?」というように、集団全体における各イベントの発生確率(マージン)そのものに関心がある場合に用います。
  • 長所: 各イベントに対する共変量の影響(治療効果など)を個別に推定できるため、非常に柔軟な分析が可能です。また、時間依存性の共変量を扱いやすいという技術的な利点もあります。
  • 注意点(重要なポイント):
    1. 個人内相関の調整: 各イベントの分析は、同じ患者さんの中で起きているイベントを扱っているため、その結果は統計的に独立ではありません。そのためWLWモデルでは、この個人内の相関を考慮して標準誤差やp値を調整するために、ロバスト分散推定(サンドイッチ推定とも呼ばれます)という統計手法を必ず用います。これはこのモデルの根幹をなす要素です。
    2. 解釈の難しさ: 「1回目イベントを経験していない人が、2回目イベントのリスクに晒されている」というモデルの仮定は、臨床的な直感とは少し異なるため、結果の解釈には注意が必要です。あくまで集団全体での平均的な発生率を見ている、と理解することが重要です。

どの分析手法を選ぶべきか?臨床の「問い」に最適なレンズを見つける方法

AG、PWP、WLWの3つのモデルについて学んできましたが、「結局、自分の研究ではどれを使えばいいの?」というのが一番の疑問だと思います。結論から言うと、絶対的に優れたモデルというものは存在しません。これらは、再発イベントという複雑な現象を照らし出すための、特性が異なる「レンズ」なのです。

どのレンズを使うべきかは、あなたがそのデータを通して何を見たいのか、つまり臨床的な問い(Clinical Question)によって決まります。

これから、具体的な臨床シナリオを通して、それぞれのモデルがどのような問いに答え、どんなメリット・デメリットを持つのかを見ていきましょう。

Andersen-Gill (AG) モデル:全体像を把握する「広角レンズ」

🧠 こんな問いに最適

「この治療法は、全体として、イベントの総数を減らす効果があるのか?」という、最もシンプルで力強い問いに答えたい場合に選びます。1回目か5回目かを区別せず、イベント全体の発生率(勢い)に対する一つの総合的な効果を知りたい場合です。

🏥 臨床での具体例

シナリオ: 新しい慢性心不全治療薬Aの効果を検証する大規模臨床試験。主要評価項目は「心不全増悪による入院」です。研究者は、規制当局に提出するために「薬剤Aはプラセボと比較して、2年間の追跡期間における入院イベントの総発生率を統計的に有意に減少させるか?」という問いに対する明確な答え(一つのハザード比)を求めています。

この場合、個々の入院が1回目か2回目かによる効果の違いよりも、治療薬Aがもたらす全体的なベネフィットを評価することが最優先です。AGモデルは、このような問いに単一の指標で答えるための最適なレンズとなります。

👍 メリット

シンプルで強力: 結果が「治療による全イベントリスクのX%減少」という単一のハザード比で示されるため、解釈が非常に直感的で、誰にでも伝わりやすいです。

統計的検出力が高い: 全てのイベントを一つの解析に投入するため、他のモデルに比べて統計的に有意な差を検出しやすい傾向があります。

🤔 デメリット・注意点

仮定が強い: 「治療効果は1回目の入院でも5回目の入院でも同じ」「一度入院しても、次の入院リスクは変わらない」という強い仮定を置いています。これは臨床的な実感とは異なる可能性があり、現実を過度に単純化しているという批判があります。

Prentice-Williams-Peterson (PWP) モデル:物語の展開を追う「ズームレンズ」

🧠 こんな問いに最適

「この治療法は、特に病気の初期段階(例:初回再発)に効果的なのか?それとも、病気が進行した後(例:3回目の再発)でも効果は持続するのか?」という、イベントの順序や病気のステージによって効果が変わる可能性を追求したい場合に選びます。

🏥 臨床での具体例

シナリオ: ある抗がん剤の術後補助化学療法としての効果を検証する研究。臨床的な仮説として、「この薬剤は、微小転移を根絶することで初回再発の予防には絶大な効果があるかもしれない。しかし、一度再発した後の腫瘍は薬剤耐性を獲得している可能性があり、2回目以降の再発予防効果は減弱するのではないか?」と考えられています。

この「効果が逓減する」という仮説を検証するには、PWPモデルが最適です。1回目の再発、2回目の再発、3回目の再発…と層別化してハザード比を推定することで、治療効果が病期の進行と共にどう変化するかを詳細に描写できます。

👍 メリット

臨床的に直感的: 「イベントを経験するごとに患者の状態は変わる」という臨床現場の実感に非常に近いモデルであり、説得力のある結果を得やすいです。

詳細な情報が得られる: 治療効果のダイナミクスを明らかにできるため、より深い洞察につながる可能性があります。

🤔 デメリット・注意点

データ量の問題: イベントの回数が多くなると、後の層(例:4回目、5回目の再発)を経験する患者の数が急激に減少します。そのため、後半のイベントに対する効果の推定値が不安定になる(信頼区間が非常に広くなる)可能性があります。

Wei-Lin-Weissfeld (WLW) モデル:各章を独立して評価する「マクロレンズ」

🧠 こんな問いに最適

「集団全体で見たとき、この治療法は『初回イベントが起きる確率』と『2回目イベントが起きる確率』に、それぞれどのような影響を与えるのか?」という、各イベント番号の発生率を個別の現象として評価したい場合に選びます。疫学研究や医療経済評価など、個人の経過よりも集団レベルでの発生率に関心がある場合に適しています。

🏥 臨床での具体例

シナリオ: ある地域の新しい糖尿病管理プログラムの評価。研究者は、このプログラムが地域の医療資源に与える影響を評価したいと考えています。関心があるのは、「このプログラムは、住民全体における『1回目の糖尿病関連入院』の発生率をどれだけ抑制し、また『2回目の入院』の発生率をどれだけ抑制するか?」です。

ここでは、個々の患者が1回目の入院後にどうなるか、という条件付きの視点よりも、集団全体として「1回目の入院」と「2回目の入院」という現象がそれぞれどれだけ発生するか(周辺確率)が重要になります。このような問いにはWLWモデルが適しています。

👍 メリット

非常に柔軟: 各イベントを完全に独立した分析として扱うため、仮定が最も少なく、柔軟なモデリングが可能です。

特定の問いに特化: 集団レベルでの発生率に関心がある場合には、最も直接的な答えを提供します。

🤔 デメリット・注意点

解釈が非直感的: 「1回目のイベントを経験していない人が、2回目のイベントのリスク集団に含まれる」というモデルの構造は、臨床的な直感とは異なります。結果の解釈には統計的な理解が求められます。

PWPモデルと同様に、後のイベントではデータ量が少なくなり、結果が不安定になるリスクがあります。

結論:最適なモデルはあなたの「問い」が知っている

モデル最適な問い(レンズの機能)メリットデメリット
AG全体の効果を知りたい(広角レンズ)シンプル、高検出力、解釈が容易現実を単純化しすぎている可能性
PWP順序による効果の変化を知りたい(ズームレンズ)臨床的に直感的、詳細な情報複雑、後のイベントでデータ量不足
WLW各イベントの集団発生率を知りたい(マクロレンズ)柔軟性が高い、仮定が少ない解釈が非直感的、データ量不足

最終的に、どのモデルを選ぶかは統計的な優劣ではなく、あなたの研究仮説と臨床的な洞察にかかっています。まずは自分の「問い」を明確にし、それに最も誠実に答えられるレンズはどれか、という視点で選択することが成功への鍵となります。


時間の測り方:「通算時間」と「間隔時間」という2つの”ものさし”

再発イベント分析を使いこなす上で、もう一つ避けて通れない、しかし非常に重要な視点があります。それが、「時間」という”ものさし”をどう当てるかという問題です。具体的には、トータルタイム(Total-time)ギャップタイム(Gap-time)という2つの測り方があります。

この違いを、先ほどの患者Aさんの例で視覚的に見てみましょう。

時間の測り方:「通算時間」と「間隔時間」 再発イベント分析では、「時間」の”ものさし”が2種類あります。 [研究開始] [イベント1] [イベント2] [観察終了] <– 6ヶ月 –> <– 12ヶ月 –> <– 6ヶ月 –> Total-time 2 (18ヶ月) Total-time (24ヶ月) Gap-time 2 🕰️ トータルタイム (Total-time) 研究のスタート地点を「0」とした 絶対的な時間 2回目のイベントは、研究開始から 6 + 12 = 18ヶ月となります。 🔄 ギャップタイム (Gap-time) 前回のイベント時点を「0」とした 相対的な時間 2回目のイベントのギャップタイムは、 1回目から12ヶ月となります。

解説:

  • トータルタイム(Total-time / Calendar time): 研究のスタート地点を「0」とした、カレンダー上の絶対的な時間です。2回目のイベントが起きた時点のトータルタイムは、研究開始から 6 + 12 = 18 ヶ月となります。
  • ギャップタイム(Gap-time): 前回のイベントが起きた時点を「0」とした、相対的な時間です。2回目のイベントのギャップタイムは、1回目のイベントから12ヶ月後なので「12ヶ月」となります。

これをマラソンに例えるなら、トータルタイムは「スタート地点からの総経過時間」ギャップタイムは「各給水所を通過してからのラップタイム」です。全然意味合いが違いますよね。

どちらの”ものさし”を選ぶべきか?

「じゃあ、いつもどっちを使えばいいの?」と思うかもしれませんが、これは「臨床的な問い」によって決まります。どちらの”ものさし”が、あなたの知りたい現象をより自然に表現できるかを考えるのです。

  • トータルタイムが適しているのは?
    • 問いの例: 「治療Aは、長期間にわたる全イベントのリスクを全体的に抑制するか?」
    • 考え方: 時間の経過そのもの(例:加齢、病気の進行)がリスクに影響すると考える場合や、治療効果が持続的であると仮定する場合に適しています。先ほど紹介したAGモデルやPWPモデル、WLWモデルは、基本的にこちらの時間軸で考えることが多いです。
    • 臨床シナリオ: 慢性閉塞性肺疾患(COPD)の患者さんに対し、長期吸入薬が増悪の全体的な頻度を5年間の追跡で減らすかどうかを評価する場合など。
  • ギャップタイムが適しているのは?
    • 問いの例: 「イベント発生後、次のイベントまでの期間を延長する効果はあるか?」
    • 考え方: イベントが起きると患者さんの状態が「リセット」され、そこから再びリスクが高まっていく、というサイクルを想定する場合に自然です。
    • 臨床シナリオ: てんかん発作を起こした患者さんに新しい薬剤を導入し、「次の発作が起こるまでの期間」が延長されるかを評価する場合。あるいは、術後感染症を起こした後に、抗菌薬の予防投与が「次の感染症までの期間」を延ばすかを見たい場合など。

このように、時間軸の選択は、単なる技術的な問題ではなく、研究者が現象をどう理解し、何を明らかにしたいのかという、研究デザインの根幹に関わる問題なのです。

どちらの”ものさし”を選ぶべきか? あなたの「臨床的な問い」が、最適な時間軸を決定します。 🗓️ トータルタイム 開始 E1 E2 問いの例: 「治療Aは、長期間にわたる全イベントの リスクを全体的に抑制するか?」 考え方: 時間の経過そのもの(加齢、病気の進行)が リスクに影響すると考える場合に適しています。 AG, PWP, WLWモデルで主に使われます。 臨床シナリオ: 🫁 COPD患者に対し、長期吸入薬が5年間の 増悪の全体的な頻度を減らすか評価する場合。 🔄 ギャップタイム Gap 1 E1 Gap 2 E2 問いの例: 「イベント発生後、次のイベントまでの期間を 延長する効果はあるか?」 考え方: イベント発生で患者の状態が「リセット」され、 そこから再びリスクが高まるサイクルを想定 する場合に自然です。 臨床シナリオ: 🧠 てんかん発作後、新薬が「次の発作まで の期間」を延長するかを評価する場合。 時間軸の選択は、単なる技術的な問題ではありません。 研究者が現象をどう理解し、何を明らかにしたいかという研究デザインの根幹です。

見えない個人差をあぶり出す「フレイルティモデル」

臨床現場にいると、「この患者さんは、データ上の背景は似ているのに、なぜか再発を繰り返しやすいな…」と感じる、あの独特の感覚。皆さんも経験がありませんか?年齢、性別、病期、主要なバイオマーカーといった観測できるデータ(共変量)を揃えてもなお、なぜかイベントの発生率が人によって大きく異なる。この「なぜか」の裏には、私たちが測定できていない、あるいはモデルに投入していない「隠れた個人差」が潜んでいる可能性があります。

標準的なCox比例ハザードモデルでは、同じ共変量を持つ患者さんは、皆同じハザード関数(リスク曲線)を持つと仮定されています。しかし、この仮定は臨床の現実とは少し異なるかもしれません。この観測できない個人ごとの「イベントの起こりやすさ」、すなわち異質性(Heterogeneity)を統計モデルに組み込むための画期的なアイデアが、フレイルティモデル(Frailty Model)です。

見えない個人差をあぶり出す「フレイルティモデル」 データ上は同じ背景でも、なぜか結果が異なる… その「なぜか」に迫ります。 観測データ (同じ背景) 👤 患者A: 年齢70, 男性, etc… 👤 患者B: 年齢70, 男性, etc… 実際の結果 (異なる経過) 患者A: 💥💥💥 (再発多い) 患者B: (再発少ない) 核心的アイデア:壊れやすいコップと頑丈なコップ 壊れやすい (Frail) ui > 1 (ハイリスク) 頑丈 (Sturdy) ui < 1 (ローリスク) 個人のリスク = ui × 平均的なリスク (Coxモデル) 見えない「壊れやすさ (ui)」を個人リスクの倍率としてモデルに組み込む 臨床的な価値 🎯 より正確な効果推定 🏥 施設や家族の効果を分析 🧬 個別化医療へのヒント

フレイルティモデルの核心的アイデア:壊れやすいコップと頑丈なコップ

フレイルティモデルの発想は、非常に直感的です。

たとえるなら、見た目は全く同じコップの集団でも、その中にはもともと微細なヒビが入っていて「壊れやすい(frail)」コップと、作りが良くて「頑丈な」コップが混ざっているようなものです。この「壊れやすさ」という、外から見えない個性を考慮せずに衝撃(=リスク因子)の影響を評価すると、その効果を正しく見積もれないかもしれません。

フレイルティモデルは、この見えない「壊れやすさ」を、一人ひとり(あるいはグループごと)に特有のランダム効果(変量効果)としてモデルに直接組み込んでしまいます。これは、各個人が持つ「基本的なリスクの倍率」のようなものだと考えてください。

数式の奥にあるストーリーを読み解く

数式で表現すると、このアイデアは次のように書かれます。

個人 \( i \) の、観測されていないフレイルティを \( u_i \) とした上での時刻 \( t \) におけるハザード(瞬間のイベント発生リスク)は、

\[ \lambda_i(t \mid u_i) = u_i \cdot \lambda_0(t) \exp(\beta’ Z_i) \]

この式は、一見すると複雑に見えますが、パーツに分解すれば、その美しい構造が分かります。

  • \( \lambda_0(t) \exp(\beta’ Z_i) \): 平均的なリスクの部分
    • これは、私たちがよく知るCoxモデルの部分です。\( \lambda_0(t) \) はベースラインハザード、\( \exp(\beta’ Z_i) \) は観測された共変量(年齢、治療法 \( Z_i \) など)から計算されるハザード比(リスクの倍率)です。つまり、これは「平均的な患者さん」のリスクを表します。
  • \( u_i \): 個人に特有の「壊れやすさ」(フレイルティ)
    • これがフレイルティモデルの主役です。個人 \( i \) だけが持つ、観測できないリスクの大きさを表す「個人リスク倍率」です。
    • モデルは、個々の \( u_i \) の値を正確に当てるのではなく、集団全体でこの \( u_i \) がどの程度ばらついているか(分布)を統計的に推定します。
    • 慣例的に、この分布の平均は1になるように設定されます。そのため、\( u_i > 1 \) の人は「壊れやすい(frail)」、つまり平均的な人よりもリスクが高いことを意味し、\( u_i < 1 \) の人は「頑丈」、つまりリスクが低いことを意味します。

この \( u_i \) という項をモデルに加えることで、私たちは集団に潜む異質性を捉えることができるのです。この概念は、生物統計学者のJames Vaupelらによって1979年に提唱され、その後の生存時間分析に大きな影響を与えました (Vaupel, Manton, and Stallard 1979)。

数式の奥にあるストーリーを読み解く λi(t | ui) = ui λ0(t) exp(β’Zi) 平均的なリスクの部分 私たちがよく知るCoxモデルの部分です。 λ₀(t) はベースラインハザード、 exp(β’Zᵢ) は観測された共変量(年齢、 治療法など)から計算されるハザード比です。 → これは「平均的な患者さん」のリスクを表します。 個人に特有の「壊れやすさ」(uᵢ) これがフレイルティモデルの主役です。 個人 i だけが持つ、観測できないリスクの 大きさを表す「個人リスク倍率」です。 → 集団に潜む異質性を捉えます。 uᵢ のばらつき(分布)を推定する 平均 = 1 💪 頑丈 (robust) uᵢ < 1 (リスクが低い) 🥀 壊れやすい (frail) uᵢ > 1 (リスクが高い) 📜 この概念は、生物統計学者のJames Vaupelらによって1979年に提唱され、その後の生存時間分析に大きな影響を与えました。

フレイルティモデルの臨床的な価値

では、フレイルティモデルを使うと、臨床研究においてどのような良いことがあるのでしょうか?

その最大の利点は、治療効果の推定をより適切に評価できる可能性があることです。もし、治療に反応しやすい「頑丈な」患者さんと、反応しにくい患者さんがデータに混在している場合、その異質性を無視すると治療効果を過小評価してしまうかもしれません。フレイルティモデルでこの異質性を考慮することで、より真実に近い効果推定が期待できます (Duchateau and Janssen 2007)。

さらに、遺伝的要因や環境要因など、直接測定はできないもののクラスター内で共有されていると想定されるリスクを評価する際にも強力です。例えば、多施設共同研究における「施設効果」や、家族研究における「家系効果」などを、共有フレイルティ(Shared Frailty)としてモデル化することも可能です。

このように、フレイルティモデルは単に統計的な精度を上げるだけでなく、「どのような患者さんが特にハイリスクなのか」を考えるヒントを与え、個別化医療に向けた重要な示唆を与えてくれる可能性を秘めたアプローチなのです。


2つの物語を同時に読み解く「ジョイントモデリング」

私たちの臨床研究には、しばしば2種類の性質が全く異なるデータが登場し、それらは密接に絡み合っています。

  1. 縦断データ(Longitudinal Data): 腫瘍マーカー、血圧、腎機能(eGFR)、ウイルス量など、時間を追って繰り返し測定される連続的な指標。患者さんの状態変化を示す「連続ドラマ」のようなものです。
  2. 生存時間データ(Time-to-Event Data): 死亡、再発、心筋梗塞、透析導入など、ある特定のイベントが発生するまでの時間。物語の決定的な転換点にあたります。

この2つは、明らかに無関係ではありません。腫瘍マーカーの上昇トレンドは将来の再発リスクを示唆しますし、eGFRの急速な低下は末期腎不全への移行が近いことを物語っています。

ジョイントモデリング 2つの物語(データ)を同時に読み解く分析手法 📈 縦断データ 繰り返し測定される指標 (例: 腫瘍マーカー) « 連続ドラマ » 🏁 生存時間データ イベント発生までの時間 (例: 再発、死亡) « 最終回 » 別々の分析では、両者の「動的な関連性」を見逃してしまう 解決策:見えない「架け橋」で2つのモデルを結合 ☁️ 共有ランダム効果 (観測できない真の病状など) 📈 縦断サブモデル (マーカーの推移を予測) 🏁 生存時間サブモデル (イベント発生を予測) 真価:スナップショットからリアルタイムの動的予測へ 高リスク 低リスク 時間 最新データ 未来の動的予測 最新データで、個人の未来リスクを リアルタイムで更新・最適化 📸 → 🎥

なぜ物語を別々に分析してはいけないのか?

従来は、これらのデータを別々に分析するのが一般的でした。例えば、縦断データは線形混合モデルでその時間的推移を評価し、生存時間データはCoxモデルでイベント発生リスクを評価する、といった具合です。しかし、このアプローチにはいくつかの大きな問題点があります。

  • 情報の損失: Coxモデルにバイオマーカーの値を入れる際、どの時点の値を使えばよいでしょう? ベースライン(初回測定値)だけを使えば、その後の変化をすべて無視することになります。
  • バイアス(偏り): 「最後の測定値」を使えば良いと思うかもしれませんが、それは「イベント直前の、最も状態が悪化した値」を意図的に選んでいる可能性があり、深刻なバイアスを生みます。

結局のところ、2つの物語を別々に分析していては、両者の間の動的な関連性、つまり「バイオマーカーがこのように変化したから、イベントのリスクがこれだけ上がった」という核心的な関係性を正しく捉えることはできないのです。

この課題をエレガントに解決するために生まれたのが、ジョイントモデリング(Joint Modeling)です。

ジョイントモデリングの仕組み:天気予報と傘の売れ行き

ジョイントモデルは、その名の通り、この2つの異なるモデルを「結合(ジョイント)」させて、一つの大きな統計モデルとして同時に分析する手法です。

たとえるなら、「日々の天気予報(縦断データ)」と「傘が売れた日(イベントデータ)」の関係を分析するようなものです。この2つの現象の裏には、「隠れた大気の状態(例:低気圧の接近度)」という共通の原因があるはずです。
ジョイントモデルは、この観測できない「隠れた大気の状態」を統計的に捉え、それが「天気予報の値」と「傘が売れる(=雨が降る)というイベント」の両方にどう影響しているかを同時に解き明かします。

この「隠れた大気の状態」にあたるのが、「共有のランダム効果(Shared Random Effects)」と呼ばれる、モデルの心臓部です。臨床データで言えば、患者さん一人ひとりが持つ「真の病気の進行速度」のような、観測できない個人特性に相当します。

この仕組みを簡単な図で見てみましょう。

モデルの心臓部:共有ランダム効果 観測できない「真の状態」を介して2つのモデルを繋ぐ ☁️ 共有ランダム効果 (Shared Random Effects) (例: 観測できない個人の「真の病気の進行速度」) 📈 縦断サブモデル (Longitudinal) (混合効果モデル) 例: 腫瘍マーカーの推移を予測 🏁 生存時間サブモデル (Survival) (Coxモデルなど) 例: 再発までの時間を予測 この「見えない架け橋」のおかげで、測定誤差を含むバイオマーカーの値から 「真の推移」を推定し、イベント発生リスクと直接関連付けて評価できます。 📜 理論的基礎は Wulfsohn & Tsiatis (1997) の画期的な論文などで築かれました。

このように、ジョイントモデルは縦断データを扱う「混合効果モデル」と、生存時間データを扱う「生存時間モデル」を、「共有のランダム効果」という見えない架け橋で結びつけます。このおかげで、測定誤差を含んだバイオマーカーの測定値から「真の推移」を推定し、その真の推移とイベント発生リスクを直接関連付けて評価できるのです。この洗練されたアプローチは、WulfsohnとTsiatisによる1997年の画期的な論文などで理論的な基礎が築かれました (Wulfsohn and Tsiatis 1997)。

ジョイントモデルの真価:スナップショットからリアルタイムの動的予測へ

ジョイントモデルが最もその輝きを放つのは、動的予測(Dynamic Prediction)の場面です。

ある患者さんの外来で、新しい検査値が得られたとします。ジョイントモデルを用いることで、その最新情報を取り込み、「この患者さんの、現時点から先のイベント発生確率」を即座に更新し、個人に最適化された予測を提供することが可能になります (Rizopoulos 2012; Sweeting, Thompson, and Williamson 2017)。

これは、従来の予測手法と比べて画期的です。例えば、ランドマーキング(Landmarking)という手法もあります (van Houwelingen 2007)。これは、「治療開始後1年」「治療開始後2年」といった特定の時点(ランドマーク)で生存している患者さんだけを集め、そこからの予測モデルを作るアプローチです。いわば、決まった時点での「スナップショット(静止画)」で未来を予測するようなものです。

一方でジョイントモデルは、個々の患者さんのこれまでの全測定履歴を考慮し、新しいデータが入るたびに予測を更新する「ライブビデオフィード」に近く、より滑らかで、パーソナライズされた予測を提供できるのが大きな強みです。この機能は、個別化医療の実現に向けた、非常に有望な一歩と言えるでしょう。


まとめ:患者さんの「時間」をより深く理解するために

今回の講座では、私たちは大きな旅をしてきました。それは、患者さんの経過を「初回イベント」という一つのスナップショットで捉える従来の生存時間分析から、その後の人生という一本まるごとの映画を分析対象とする、より豊かでダイナミックな視点への旅です。

その旅のために、私たちは3つの非常に強力な分析手法という「レンズ」を手に入れました。

  • 再発イベント分析: このレンズは、イベントが「起きたか否か」だけでなく、「いつ、そして何回起きたのか」というパターンそのものを解明してくれます。これにより、治療がイベントの頻度やタイミングに与える影響を、より鋭敏に捉えることができます。
  • フレイルティモデル: このレンズは、私たちが観測できるデータの背後に隠れている「個人のユニークな壊れやすさ」をあぶり出します。患者さんを均一な集団ではなく、それぞれ異なる背景リスクを持つ個人の集まりとして捉えることで、より公平で正確な評価を可能にします。
  • ジョイントモデリング: このレンズは、これまで別々に語られてきた「バイオマーカーの推移」と「臨床イベントの発生」という2つの物語を結合します。これにより、両者の因果関係に迫り、リアルタイムで更新される個人に最適化された予測への道を開きます。

これらの手法は、単に統計的に高度であるというだけではありません。それぞれが、臨床現場で私たちが抱く「なぜだろう?」という素朴な疑問に、より深く、そして誠実に向き合うための羅針盤となるのです。

従来の「一度きりのイベント」を扱う分析から一歩踏み出し、これらの縦断的分析手法を使いこなすことで、私たちは何を得られるのでしょうか。それは、個別化医療の精度向上、より効率的な臨床試験デザイン(再発イベントをエンドポイントにすることで、より少ないサンプルサイズで結論を出せる可能性がある)、そして医療政策の立案(例:再入院率の動態モデリング)など、多岐にわたります。

複雑な臨床データを前にしたとき、これらの分析手法は、私たちがまだ知らない、患者さん一人ひとりの中に流れる新たな物語を教えてくれるはずです。そしてその物語こそが、より良い医療を創造するための、最も貴重なエビデンスとなるのかもしれません。


参考文献

  • Andersen, P.K. and Gill, R.D. (1982). Cox’s regression model for counting processes: a large sample study. The Annals of Statistics, 10(4), pp.1100–1120.
  • Duchateau, L. and Janssen, P. (2007). The Frailty Model. Springer.
  • Hougaard, P. (2000). Analysis of Multivariate Survival Data. Springer.
  • JCS/JHFS (2021). 2021年JCS/JHFS ガイドライン フォーカスアップデート版 急性・慢性心不全診療. 日本循環器学会/日本心不全学会合同ガイドライン.
  • Prentice, R.L., Williams, B.J. and Peterson, A.V. (1981). On the regression analysis of multivariate failure time data. Biometrika, 68(2), pp.373–379.
  • Rizopoulos, D. (2012). Joint Models for Longitudinal and Time-to-Event Data: With Applications in R. Chapman and Hall/CRC.
  • Sweeting, M.J., Thompson, S.G. and Williamson, P.R. (2017). Joint modelling of longitudinal and time-to-event data: a review of methodology. Statistical Methods in Medical Research, 26(2), pp.965-985.
  • van Houwelingen, H.C. (2007). Dynamic prediction by landmarking in event history analysis. Scandinavian Journal of Statistics, 34(1), pp.70–85.
  • Vaupel, J.W., Manton, K.G. and Stallard, E. (1979). The Impact of Heterogeneity in Individual Frailty on the Dynamics of Mortality. Demography, 16(3), p.439.
  • Wei, L.J., Lin, D.Y. and Weissfeld, L. (1989). Regression Analysis of Multivariate Incomplete Failure Time Data by Modeling Marginal Distributions. Journal of the American Statistical Association, 84(408), pp.1065–1073.
  • Wulfsohn, M.S. and Tsiatis, A.A. (1997). A Joint Model for Survival and Longitudinal Data Measured with Error. Biometrics, 53(1), p.330.

※本記事は情報提供を目的としたものであり、特定の治療法を推奨するものではありません。健康に関するご懸念やご相談は、必ず専門の医療機関にご相談ください。


ご利用規約(免責事項)

当サイト(以下「本サイト」といいます)をご利用になる前に、本ご利用規約(以下「本規約」といいます)をよくお読みください。本サイトを利用された時点で、利用者は本規約の全ての条項に同意したものとみなします。

第1条(目的と情報の性質)

  1. 本サイトは、医療分野におけるAI技術に関する一般的な情報提供および技術的な学習機会の提供を唯一の目的とします。
  2. 本サイトで提供されるすべてのコンテンツ(文章、図表、コード、データセットの紹介等を含みますが、これらに限定されません)は、一般的な学習参考用であり、いかなる場合も医学的な助言、診断、治療、またはこれらに準ずる行為(以下「医行為等」といいます)を提供するものではありません。
  3. 本サイトのコンテンツは、特定の製品、技術、または治療法の有効性、安全性を保証、推奨、または広告・販売促進するものではありません。紹介する技術には研究開発段階のものが含まれており、その臨床応用には、さらなる研究と国内外の規制当局による正式な承認が別途必要です。
  4. 本サイトは、情報提供を目的としたものであり、特定の治療法を推奨するものではありません。健康に関するご懸念やご相談は、必ず専門の医療機関にご相談ください。

第2条(法令等の遵守)
利用者は、本サイトの利用にあたり、医師法、医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律(薬機法)、個人情報の保護に関する法律、医療法、医療広告ガイドライン、その他関連する国内外の全ての法令、条例、規則、および各省庁・学会等が定める最新のガイドライン等を、自らの責任において遵守するものとします。これらの適用判断についても、利用者が自ら関係各所に確認するものとし、本サイトは一切の責任を負いません。

第3条(医療行為における責任)

  1. 本サイトで紹介するAI技術・手法は、あくまで研究段階の技術的解説であり、実際の臨床現場での診断・治療を代替、補助、または推奨するものでは一切ありません。
  2. 医行為等に関する最終的な判断、決定、およびそれに伴う一切の責任は、必ず法律上その資格を認められた医療専門家(医師、歯科医師等)が負うものとします。AIによる出力を、資格を有する専門家による独立した検証および判断を経ずに利用することを固く禁じます。
  3. 本サイトの情報に基づくいかなる行為によって利用者または第三者に損害が生じた場合も、本サイト運営者は一切の責任を負いません。実際の臨床判断に際しては、必ず担当の医療専門家にご相談ください。本サイトの利用によって、利用者と本サイト運営者の間に、医師と患者の関係、またはその他いかなる専門的な関係も成立するものではありません。

第4条(情報の正確性・完全性・有用性)

  1. 本サイトは、掲載する情報(数値、事例、ソースコード、ライブラリのバージョン等)の正確性、完全性、網羅性、有用性、特定目的への適合性、その他一切の事項について、何ら保証するものではありません。
  2. 掲載情報は執筆時点のものであり、予告なく変更または削除されることがあります。また、技術の進展、ライブラリの更新等により、情報は古くなる可能性があります。利用者は、必ず自身で公式ドキュメント等の最新情報を確認し、自らの責任で情報を利用するものとします。

第5条(AI生成コンテンツに関する注意事項)
本サイトのコンテンツには、AIによる提案を基に作成された部分が含まれる場合がありますが、公開にあたっては人間による監修・編集を経ています。利用者が生成AI等を用いる際は、ハルシネーション(事実に基づかない情報の生成)やバイアスのリスクが内在することを十分に理解し、その出力を鵜呑みにすることなく、必ず専門家による検証を行うものとします。

第6条(知的財産権)

  1. 本サイトを構成するすべてのコンテンツに関する著作権、商標権、その他一切の知的財産権は、本サイト運営者または正当な権利を有する第三者に帰属します。
  2. 本サイトのコンテンツを引用、転載、複製、改変、その他の二次利用を行う場合は、著作権法その他関連法規を遵守し、必ず出典を明記するとともに、権利者の許諾を得るなど、適切な手続きを自らの責任で行うものとします。

第7条(プライバシー・倫理)
本サイトで紹介または言及されるデータセット等を利用する場合、利用者は当該データセットに付随するライセンス条件および研究倫理指針を厳格に遵守し、個人情報の匿名化や同意取得の確認など、適用される法規制に基づき必要とされるすべての措置を、自らの責任において講じるものとします。

第8条(利用環境)
本サイトで紹介するソースコードやライブラリは、執筆時点で特定のバージョンおよび実行環境(OS、ハードウェア、依存パッケージ等)を前提としています。利用者の環境における動作を保証するものではなく、互換性の問題等に起因するいかなる不利益・損害についても、本サイト運営者は責任を負いません。

第9条(免責事項)

  1. 本サイト運営者は、利用者が本サイトを利用したこと、または利用できなかったことによって生じる一切の損害(直接損害、間接損害、付随的損害、特別損害、懲罰的損害、逸失利益、データの消失、プログラムの毀損等を含みますが、これらに限定されません)について、その原因の如何を問わず、一切の法的責任を負わないものとします。
  2. 本サイトの利用は、学習および研究目的に限定されるものとし、それ以外の目的での利用はご遠慮ください。
  3. 本サイトの利用に関連して、利用者と第三者との間で紛争が生じた場合、利用者は自らの費用と責任においてこれを解決するものとし、本サイト運営者に一切の迷惑または損害を与えないものとします。
  4. 本サイト運営者は、いつでも予告なく本サイトの運営を中断、中止、または内容を変更できるものとし、これによって利用者に生じたいかなる損害についても責任を負いません。

第10条(規約の変更)
本サイト運営者は、必要と判断した場合、利用者の承諾を得ることなく、いつでも本規約を変更することができます。変更後の規約は、本サイト上に掲載された時点で効力を生じるものとし、利用者は変更後の規約に拘束されるものとします。

第11条(準拠法および合意管轄)
本規約の解釈にあたっては、日本法を準拠法とします。本サイトの利用および本規約に関連して生じる一切の紛争については、東京地方裁判所を第一審の専属的合意管轄裁判所とします。


For J³, may joy follow you.

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

医師・医学博士・AI研究者・連続起業家
元厚生労働省幹部・ハーバード大学理学修士・ケンブリッジ大学MBA・コロンビア大学行政修士(経済)
岡山大学医学部卒業後、内科・地域医療に従事。厚生労働省で複数室長(医療情報・救急災害・国際展開等)を歴任し、内閣官房・内閣府・文部科学省でも医療政策に携わる。
退官後は、日本大手IT企業や英国VCで新規事業開発・投資を担当し、複数の医療スタートアップを創業。現在は医療AI・デジタル医療機器の開発に取り組むとともに、東京都港区で内科クリニックを開業。
複数大学で教授として教育・研究活動に従事し、医療関係者向け医療AIラボ「Medical AI Nexus」、医療メディア「The Health Choice | 健康の選択」を主宰。
ケンブリッジ大学Associate・社会医学系指導医・専門医・The Royal Society of Medicine Fellow

目次