TL; DR (要約)
AIは強力な医薬品や医療機器のようなもの。効果は絶大ですが、使い方を誤れば深刻な副作用をもたらします。
医療AIを安全に使うための倫理・法・社会(ELSI)の4つの重要チェックポイントです。
① 臨床リスク
AIは自信満々に誤情報 (ハルシネーション) を生成します。AIはあくまで「助手」。医師による最終判断 (Human-in-the-Loop) が必須です。
② プライバシー
患者データは「要配慮個人情報」。個人情報保護法などの法律を守り、本人の同意に基づいた適正な利用が絶対条件です。
③ 公平性
データに潜む偏見(バイアス)をAIは学習します。特定の人種や性別に不利益を与えないよう、公平性の検証が不可欠です。
④ 医療機器規制
診断・治療に使うAIは「医療機器(SaMD)」です。薬機法に基づき、有効性と安全性を証明し、国の承認を得る必要があります。
| この章の学習目標 | 1. 臨床的リスクの理解: AIが生成する誤情報(ハルシネーション等)がもたらす、具体的な臨床上の危険性を認識する。 2. プライバシー関連法の把握: 日本の「個人情報保護法」と「次世代医療基盤法」の役割と違いを理解し、医療データ利用の法的枠組みを学ぶ。 3. AIバイアスの認識: AIの判断に潜むバイアスの種類とその発生メカニズムを理解し、公平性確保の重要性を学ぶ。 4. 医療機器規制の理解: AIプログラムが「医療機器」として扱われる場合の薬機法等の規制(SaMD)について、その概要を掴む。 |
| 前提となる知識 | ・臨床研究や日常診療における、基本的な倫理規範(ヘルシンキ宣言、個人情報保護の重要性など)への理解 ・AI、特に生成AIがどのように学習し、情報を生成するかの基本的な概念 |
はじめに:強力なツールにこそ、厳格なルールが必要
これまでの講座を通じて、私たちはAIという強力な「道具」を手に入れ、診断の精度を高め、創薬を加速させ、研究を自動化する、様々な「アプリケーション」を構築する方法を学んできました。その可能性は、まさに医療の未来を大きく変える力を持っています。
しかし、何かを「作る」者には、その創造物が社会に与える影響まで考える、重い責任が伴います。ここで一度立ち止まって、冷静にその責任と向き合う必要があります。AIは、極めて強力な、新しい「医薬品」や「医療機器」のようなものです。その効果(ベネフィット)は絶大ですが、使い方を誤れば、深刻な副作用(リスク)をもたらしかねません。「患者に害をなすなかれ」という、私たちが心に刻むべき原則は、AIという新しい道具に対しても、何ら変わることなく適用されるのです。
技術の力を、いかにして人間の幸福、すなわち患者さんの利益という「善」の方向に導くか。そのために不可欠なのが、ELSI(エルシー)、すなわち倫理的(Ethical)・法的(Legal)・社会的(Social)課題への深い洞察です。
本講座「作って理解する!シリーズ医療×生成系AI」の第13回は、このELSIという羅針盤を手に、私たちが医療AIを開発し、利用する上で絶対に避けては通れない、倫理・法規制・プライバシーの世界を探ります。
この記事では、第13回で学ぶ重要なトピックの全体像を、ダイジェストでご紹介します。なお、本記事は各トピックの概要を掴んでいただくためのサマリーです。各法律の詳細な条文解釈や、バイアスを定量的に評価する技術、医療機器承認の具体的なプロセスについては、13.1以降の個別記事で丁寧に解説していきますので、ご安心ください。
13.1 AIが生成する情報の正確性と、誤情報がもたらす臨床的リスク
これまでの講座で見てきたように、AIの能力は目覚ましく、私たちの仕事を力強くサポートしてくれます。しかし、その能力を過信することは、医療の現場において極めて危険です。特に、生成AI、とりわけLLMを扱う際には、その最も根本的な特性に起因するリスクを、まず理解しておく必要があります。
ハルシネーション:「もっともらしい嘘」は、なぜ生まれるのか?
LLMを、驚異的な記憶力を持つものの、時々、自信満々に、しかし悪意なく、全くの創作話を事実として語ってしまう同僚だと考えてみてください。その知識は魅力的ですが、その発言を鵜呑みにすることはできません。
LLMが、時に事実と全く異なる情報を、あたかも真実であるかのように生成する現象はハルシネーション(Hallucination; 幻覚)と呼ばれ、医療AIにおける最も警戒すべきリスクの一つです。
なぜ、このようなことが起こるのでしょうか。それは、LLMが「真実」や「意味」を理解しているわけではないからです。その本質は、与えられた文脈(プロンプト)に続いて、統計的に最も「ありそうな」単語の連なりを予測し、生成する確率的な単語予測モデルだからです。学習データに曖昧な情報や矛盾する情報が含まれていれば、AIはもっともらしい言葉を選んでその「隙間」を埋めようとし、結果として、文法的には完璧でも事実に基づかない文章を「創作」してしまうのです。
医療現場におけるAIエラーのスペクトラム
ハルシネーションは最も有名なリスクですが、臨床現場で警戒すべきAIのエラーは、それだけではありません。
| エラーの種類 | 説明 | 臨床での具体例 |
|---|---|---|
| ハルシネーション (情報の捏造) | 事実に基づかない、もっともらしい情報を「無から」生成してしまう。 | AIチャットボットが、存在しない論文を引用して、ある治療法の有効性を断定的に語る。 |
| Error of Omission (見落としの過誤) | データの中に確かに存在する、重要な情報を見落としてしまう。 | 画像診断AIが、レントゲン写真に写っている小さな早期肺がんの結節を見逃す。カルテ要約AIが、患者の重要なペニシリンアレルギー歴を要約に含めない。 |
| Error of Commission (実行の過誤) | 存在する情報を誤って解釈したり、存在しない情報を付け加えてしまう。 | 音声認識AIが、医師の「非特異的所見」という発話を「特異的所見」と誤ってテキスト化する。画像診断AIが、CT画像のアーチファクトを腫瘍と誤認する。 |
一般的なWeb検索での誤情報とは異なり、これらの医療における誤情報は、診断の遅れ、不適切な治療、アレルギー反応といった、患者さんの生命や健康に直接的な危害を及ぼす可能性があります。
絶対原則:Human-in-the-Loop (HITL)
これらのリスクに対する、現時点で最も重要かつ唯一の防御策が、Human-in-the-Loop(HITL)、すなわち「判断のループの中に、必ず人間が介在する」という原則です。
AIは、あくまで人間の専門家の意思決定を「支援」するツールであり、草案を作成したり、第二の意見を提示したりする「優秀なアシスタント」に過ぎません。AIがどんなに高度な提案をしてきたとしても、その情報を信じるか、無視するか、あるいは修正して採用するかを決定し、その結果に全責任を負うのは、他ならぬ私たち医療従事者です。
AIは便利な「コンサルタント」かもしれませんが、最終的な「主治医」は、常に人間でなければならない。この姿勢こそが、安全な医療AI利用の揺るぎない大前提となります。
13.2 患者データのプライバシー保護:日本の個人情報保護法、次世代医療基盤法
前のセクションでは、AIが生成する「出力」の信頼性について考えました。このセクションでは、AIの「入力」、すなわちその知能を育むための学習データとなる、患者さんの医療情報に焦点を当てます。
高品質なAIを開発するには、良質なデータという「燃料」が不可欠です。しかし、医療におけるその燃料は、患者さんの尊厳と深く結びついた「プライバシー」という、極めて慎重な取り扱いが求められる、非常にデリケートな物質なのです。
私たちが日本で医療AIの開発を行う際、このデリケートなデータを規律する、主に二つの重要な法律の存在を理解しておく必要があります。
① プライバシー保護の大原則:「個人情報保護法」
まず、全ての個人情報取り扱いの基本となるのが「個人情報保護法」です。この法律の中でも、医療情報は特に配慮が必要な「要配慮個人情報」に分類されます。これには、病歴、心身の障害、健康診断の結果などが含まれ、本人の不当な差別や偏見が生じないように、その取り扱いには特に注意が必要と定められています[2]。
この法律の根幹をなす原則は、本人の同意(オプトイン)です。医療機関が、AI開発企業のような第三者に、患者さんの個人情報(例えば、個人識別符号を削除しただけの診療録など)を提供する場合、原則として、患者さん一人ひとりから、その利用目的を明確に示した上で、明確な同意を得る必要があります。
これは、患者さんのプライバシーを守るための非常に強力な「壁」であり、私たちが遵守すべき大原則です。しかし、AI開発に必要な数万、数十万という規模のデータを、一人ひとりから同意を得て集めることが、極めて困難であるという現実も生み出しました。
② 研究開発のための特別な門:「次世代医療基盤法」
この「プライバシー保護」と「医療研究開発の推進」という二つの要請のバランスを取るために、2018年に施行されたのが、通称「次世代医療基盤法」です[1]。これは、医療分野の研究開発に資するために、個人情報保護法の「特別法」として位置づけられています。
この法律の最大の特徴は、厳格な条件の下で「オプトアウト」という仕組みを認めている点です。
- 匿名加工医療情報: 氏名などを削除するだけでなく、特殊な加工を施すことで、特定の個人を再識別できないようにしたデータ。
- 認定事業者: 国が、国民の信頼を確保するための厳格な基準(セキュリティ、管理体制など)に基づいて認定した民間の事業者。
- オプトアウト: 医療機関が、患者さんのデータを匿名加工医療情報として認定事業者に提供することについて、院内掲示などで患者さんに通知します。患者さんは、自身のデータが提供されることを望まない場合、それを拒否する(オプトアウトする)機会が保障されます。
どちらの法律を意識すべきか?
では、私たちがAI研究をしたいと考えた時、どちらの法律を意識すれば良いのでしょうか。これは極めて専門的な領域です。実際にデータを扱うプロジェクトを開始する前には、必ず、所属する組織の倫理審査委員会や、法律の専門家に相談し、適切な手続きを踏むことが絶対条件となります。
こうして、法的な手続きを経て、ようやくAIの学習データが手に入りました。しかし、そのデータが、それ自体に社会的な「偏り」を含んでいたら、一体どうなるのでしょうか。次に、データそのものに潜む、もう一つの重要な課題であるバイアスについて見ていきましょう。
13.3 AIの判断におけるバイアスの潜在性と公平性の確保
前のセクションで、私たちは法的な手続きを経て、AIを訓練するための貴重な医療データを手に入れる方法を見ました。しかし、合法的に集められたデータだからといって、それが「公正」であるとは限りません。
データには、それを作った社会の構造的な歪みや、私たちの無意識の偏見が、まるで「機械の中の幽霊(Ghost in the Machine)」のように潜んでいることがあるのです。
AIは、なぜ「偏見」を持つのか?
AIは、学習したデータからパターンを見つけ出します。それは、良くも悪くも、データに内在する「偏り(バイアス)」までも忠実に、そして客観的に学習してしまうことを意味します。AI自身に悪意はありません。ただ、与えられたデータを「世界の真の姿」だと信じ、そのパターンを再現しているに過ぎないのです。
しかし、その元となるデータが、そもそも偏っていたとしたらどうでしょう。
【バイアスが医療AIにもたらす影響の連鎖】
graph TD
A["1. 社会・歴史的バイアス
(特定の集団のデータが少ない)"]
B["2. データ収集・測定のバイアス
(アクセスしやすい集団のデータに偏る)"]
C["3. AIモデルの学習
(データ内の偏りを「真の姿」として学習)"]
D["4. バイアスを内包したAIモデル
(特定の集団にのみ高精度になる)"]
E["5. 社会における不公平な影響
(AIが既存の医療格差を増幅・固定化)"]
A --> B
B --> C
C --> D
D --> E
例えば、ある疾患の画像診断AIを、特定の地域の、特定の人種の患者データだけで学習させたとします。そのAIは、その特定の集団に対しては高い精度を発揮するかもしれませんが、データに含まれていなかった他の人種の患者さんに対しては、著しく低い性能しか示さない可能性があります。
これは、AIが意図せずして既存の健康格差を助長・固定化しかねない、極めて深刻な倫理的問題です。
医療AIに潜む、多様なバイアス
私たちが注意すべきバイアスは、単純な人口統計学的バイアスだけではありません。
| バイアスの種類 | 説明 | 医療現場での具体例 |
|---|---|---|
| 歴史的バイアス (Historical Bias) | データが、過去の社会的な不平等や、すでに時代遅れとなった医療の常識を反映している場合に生じる。 | 過去の臨床試験が主に男性を対象としていたため、女性における心筋梗塞の非典型的な症状パターンをAIが十分に学習できない。 |
| 代表性のバイアス (Representation Bias) | 学習データが、AIを実際に適用したい現実世界の人口分布を正しく反映しておらず、特定の集団が過小/過大評価されている。 | 高価な検査機器がある大都市の大学病院のデータばかりで学習し、地方やリソースの少ない地域の患者に対する性能が低い画像診断AI。 |
| 測定バイアス (Measurement Bias) | データを測定する方法や機器そのものに、グループ間で系統的な誤差が存在する。 | パルスオキシメータが、皮膚の色によってSpO2の測定精度に差があるという問題[5]。これを学習したAIも、同様のバイアスを持つ可能性がある。 |
| アルゴリズムバイアス (Algorithmic Bias) | AIモデルの構造や最適化のプロセス自体が、意図せず特定のグループに不利益な結果をもたらす。 | モデルが全体の精度を最大化しようとする結果、人数の多い多数派グループへの精度を優先し、少数の希少疾患患者への精度を犠牲にする。 |
公平性を追求するためのアプローチ
この根深い問題に、私たちはどう立ち向かうべきでしょうか。「完全にバイアスのないデータ」を作ることは、現実的には不可能です。だからこそ、開発プロセスの各段階で、バイアスを意識し、その影響を低減するための多角的なアプローチが不可欠となります[3]。
- ① データ収集・準備段階での対策:
開発の初期段階から、AIを適用する対象集団の多様性を考慮し、年齢、性別、人種、地理的背景といった要素が、可能な限りバランスよく含まれるようにデータ収集戦略を立てることが最も重要です。 - ② AIモデル開発段階での対策:
完成したAIモデルが、異なる属性のグループに対して公平な性能を示すかを、統計的な指標(公平性指標)を用いて厳しくテストします。もし不公平性が検出された場合は、少数派グループのデータを学習時に重み付けするなどの、アルゴリズム的な介入によって補正を試みます。 - ③ 運用・監視段階での対策:
AIの性能について、「誰に対しては高精度だが、誰に対してはそうでない可能性がある」という限界情報を、利用者に対して明確に開示する透明性を確保します。また、実臨床で使われ始めた後も、その性能を継続的に監視し、予期せぬバイアスが発生していないかを確認し続けるプロセスが重要です。
AIにおける公平性の追求は、一度達成すれば終わり、というものではありません。それは、私たちがより良い医療を目指し続けるのと同様に、常に自らを省み、改善を続ける、終わりのないプロセスなのです。
こうして、AIの性能だけでなく、その「公平性」まで担保することが求められる中、AIが実際の医療現場で使われるためには、どのような「お墨付き」、すなわち法的な規制をクリアする必要があるのでしょうか。次に、AIが「医療機器」として扱われる世界を見ていきましょう。
13.4 医療機器としてのAIプログラムに関する薬機法等の規制動向
これまで私たちは、AIの正確性(13.1)、データのプライバシー(13.2)、そして判断の公平性(13.3)という、医療AI開発における重要なチェックポイントを一つずつ確認してきました。しかし、これら全てをクリアしたとしても、そのAIを実際の臨床現場で使うためには、最後にして最大のハードルが待ち受けています。
それが、国からの「お墨付き」、すなわち医療機器としての承認を得ることです。
いつ、AIは「医療機器」になるのか?
開発したAIソフトウェアが、単なる「便利な研究ツール」なのか、それとも法規制の対象となる「医療機器」なのか。その運命を分けるのは、技術そのものではなく、その「使用目的(Intended Use)」です。
AIを用いたソフトウェアが、人間(または動物)の疾患の「診断、治療、予防」に使用されることを目的としている場合、それは「医療機器」と見なされ、医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律(通称:薬機法)の規制対象となります。このようなソフトウェアは、SaMD(Software as a Medical Device)あるいはプログラム医療機器と呼ばれます。
| シナリオ | 使用目的 | 規制上の位置づけ |
|---|---|---|
| 個人の健康管理アプリが、日々の歩数や心拍数を記録・表示する。 | 一般的な健康増進・フィットネス | 医療機器ではない |
| 全く同じ心拍数測定技術を用いたアプリが、「不規則な心拍リズムを検出し、心房細動の可能性を通知することで、疾患の診断を補助する」と謳う。 | 疾患の「診断」の補助 | 医療機器(SaMD)であり、薬機法の規制対象 |
この「使用目的」の定義が、開発者が自身のAIをどのような立ち位置で社会に提供するかを決定づける、極めて重要な分岐点となるのです。
薬機法とPMDAによる承認プロセス
AIプログラムがSaMDに該当する場合、それを医療サービスとして提供するためには、物理的な医療機器(ペースメーカーやCT装置など)と同様に、独立行政法人 医薬品医療機器総合機構(PMDA)による厳格な審査を経て、厚生労働大臣からの製造販売承認・認証を得る必要があります。
この審査プロセスでは、AIのアルゴリズムの妥当性、臨床試験によって証明された有効性(精度)、そして安全性(リスク管理)などが、科学的なエビデンスに基づいて厳しく評価されます。
技術は、常に私たちの価値観を映し出す鏡です。AIという強力な鏡に、私たちが目指す、より安全で、より公平で、より人間的な医療の未来を映し出すことができるかどうか。その鍵は、技術者だけでなく、私たち医療の現場に立つ一人ひとりの手の中にあるのだと思います。
まとめと注意事項
今回は、医療AIを取り巻く倫理・法規制・プライバシーという、極めて重要で複雑なテーマの全体像を概観しました。
- 正確性とリスク: AIの誤情報は臨床リスクに直結するため、人間による検証が必須である。
- プライバシーと法律: 個人情報保護法や次世代医療基盤法を遵守し、患者データを適切に取り扱う必要がある。
- バイアスと公平性: AIが健康格差を助長しないよう、公平性の確保に最大限努めなければならない。
- 医療機器としての規制: 診断・治療を目的とするAIは、薬機法の下で医療機器として規制される。
技術の革新は、それ単体では価値を持ちません。その技術が、厳格な倫理と適切な法規制という「器」の中に正しく収められて初めて、社会に広く受け入れられ、真に人々の幸福に貢献できるものとなります。医療AIの開発と実装は、この技術とガバナンスの両輪を、常にバランスよく前に進めていく必要があるのです。
参考文献
- 次世代医療基盤法について. (厚生労働省). https://www.mhlw.go.jp/stf/seisakunitsuite/bunya/0000179357.html (参照 2025-06-17)
- 個人情報の保護に関する法律についてのガイドライン(通則編). (個人情報保護委員会). https://www.ppc.go.jp/personalinfo/legal/guidelines_tsusoku/ (参照 2025-06-17)
- Rajkomar A, Dean J, Kohane I. Machine Learning in Medicine. N Engl J Med. 2019 Apr 4;380(14):1347-1358.
- Vayena E, Blasimme A, Cohen IG. Machine learning in medicine: Addressing ethical challenges. PLoS Med. 2018 Nov 27;15(11):e1002689.
- The European Parliament and the Council of the European Union. (2024). The AI Act.
- Topol EJ. High-performance medicine: the convergence of human and artificial intelligence. Nat Med. 2019 Jan;25(1):44-56.
- Ghassemi M, Oakden-Rayner L, Beam AL. The false hope of current approaches to explainable artificial intelligence in health care. Lancet Digit Health. 2021 Nov;3(11):e745-e750.
ご利用規約(免責事項)
当サイト(以下「本サイト」といいます)をご利用になる前に、本ご利用規約(以下「本規約」といいます)をよくお読みください。本サイトを利用された時点で、利用者は本規約の全ての条項に同意したものとみなします。
第1条(目的と情報の性質)
- 本サイトは、医療分野におけるAI技術に関する一般的な情報提供および技術的な学習機会の提供を唯一の目的とします。
- 本サイトで提供されるすべてのコンテンツ(文章、図表、コード、データセットの紹介等を含みますが、これらに限定されません)は、一般的な学習参考用であり、いかなる場合も医学的な助言、診断、治療、またはこれらに準ずる行為(以下「医行為等」といいます)を提供するものではありません。
- 本サイトのコンテンツは、特定の製品、技術、または治療法の有効性、安全性を保証、推奨、または広告・販売促進するものではありません。紹介する技術には研究開発段階のものが含まれており、その臨床応用には、さらなる研究と国内外の規制当局による正式な承認が別途必要です。
- 本サイトは、情報提供を目的としたものであり、特定の治療法を推奨するものではありません。健康に関するご懸念やご相談は、必ず専門の医療機関にご相談ください。
第2条(法令等の遵守)
利用者は、本サイトの利用にあたり、医師法、医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律(薬機法)、個人情報の保護に関する法律、医療法、医療広告ガイドライン、その他関連する国内外の全ての法令、条例、規則、および各省庁・学会等が定める最新のガイドライン等を、自らの責任において遵守するものとします。これらの適用判断についても、利用者が自ら関係各所に確認するものとし、本サイトは一切の責任を負いません。
第3条(医療行為における責任)
- 本サイトで紹介するAI技術・手法は、あくまで研究段階の技術的解説であり、実際の臨床現場での診断・治療を代替、補助、または推奨するものでは一切ありません。
- 医行為等に関する最終的な判断、決定、およびそれに伴う一切の責任は、必ず法律上その資格を認められた医療専門家(医師、歯科医師等)が負うものとします。AIによる出力を、資格を有する専門家による独立した検証および判断を経ずに利用することを固く禁じます。
- 本サイトの情報に基づくいかなる行為によって利用者または第三者に損害が生じた場合も、本サイト運営者は一切の責任を負いません。実際の臨床判断に際しては、必ず担当の医療専門家にご相談ください。本サイトの利用によって、利用者と本サイト運営者の間に、医師と患者の関係、またはその他いかなる専門的な関係も成立するものではありません。
第4条(情報の正確性・完全性・有用性)
- 本サイトは、掲載する情報(数値、事例、ソースコード、ライブラリのバージョン等)の正確性、完全性、網羅性、有用性、特定目的への適合性、その他一切の事項について、何ら保証するものではありません。
- 掲載情報は執筆時点のものであり、予告なく変更または削除されることがあります。また、技術の進展、ライブラリの更新等により、情報は古くなる可能性があります。利用者は、必ず自身で公式ドキュメント等の最新情報を確認し、自らの責任で情報を利用するものとします。
第5条(AI生成コンテンツに関する注意事項)
本サイトのコンテンツには、AIによる提案を基に作成された部分が含まれる場合がありますが、公開にあたっては人間による監修・編集を経ています。利用者が生成AI等を用いる際は、ハルシネーション(事実に基づかない情報の生成)やバイアスのリスクが内在することを十分に理解し、その出力を鵜呑みにすることなく、必ず専門家による検証を行うものとします。
第6条(知的財産権)
- 本サイトを構成するすべてのコンテンツに関する著作権、商標権、その他一切の知的財産権は、本サイト運営者または正当な権利を有する第三者に帰属します。
- 本サイトのコンテンツを引用、転載、複製、改変、その他の二次利用を行う場合は、著作権法その他関連法規を遵守し、必ず出典を明記するとともに、権利者の許諾を得るなど、適切な手続きを自らの責任で行うものとします。
第7条(プライバシー・倫理)
本サイトで紹介または言及されるデータセット等を利用する場合、利用者は当該データセットに付随するライセンス条件および研究倫理指針を厳格に遵守し、個人情報の匿名化や同意取得の確認など、適用される法規制に基づき必要とされるすべての措置を、自らの責任において講じるものとします。
第8条(利用環境)
本サイトで紹介するソースコードやライブラリは、執筆時点で特定のバージョンおよび実行環境(OS、ハードウェア、依存パッケージ等)を前提としています。利用者の環境における動作を保証するものではなく、互換性の問題等に起因するいかなる不利益・損害についても、本サイト運営者は責任を負いません。
第9条(免責事項)
- 本サイト運営者は、利用者が本サイトを利用したこと、または利用できなかったことによって生じる一切の損害(直接損害、間接損害、付随的損害、特別損害、懲罰的損害、逸失利益、データの消失、プログラムの毀損等を含みますが、これらに限定されません)について、その原因の如何を問わず、一切の法的責任を負わないものとします。
- 本サイトの利用は、学習および研究目的に限定されるものとし、それ以外の目的での利用はご遠慮ください。
- 本サイトの利用に関連して、利用者と第三者との間で紛争が生じた場合、利用者は自らの費用と責任においてこれを解決するものとし、本サイト運営者に一切の迷惑または損害を与えないものとします。
- 本サイト運営者は、いつでも予告なく本サイトの運営を中断、中止、または内容を変更できるものとし、これによって利用者に生じたいかなる損害についても責任を負いません。
第10条(規約の変更)
本サイト運営者は、必要と判断した場合、利用者の承諾を得ることなく、いつでも本規約を変更することができます。変更後の規約は、本サイト上に掲載された時点で効力を生じるものとし、利用者は変更後の規約に拘束されるものとします。
第11条(準拠法および合意管轄)
本規約の解釈にあたっては、日本法を準拠法とします。本サイトの利用および本規約に関連して生じる一切の紛争については、東京地方裁判所を第一審の専属的合意管轄裁判所とします。
For J³, may joy follow you.

