| 項目 | 内容 |
|---|---|
| 本講義の学習目標 | 強化学習の基本的な概念(エージェント、環境、行動、報酬)を説明できるようになる。 価値ベース(Q学習)と方策ベースの手法の基本的な違いを理解する。 深層強化学習(DQNなど)がどのようなブレークスルーであったかを理解する。 医療分野における強化学習の応用可能性と、特有の課題について考察できるようになる。 |
| 対象読者 | AIの主要な学習パラダイムの全体像を掴みたい、すべての医療従事者・研究者・学生。 |
| 前提知識 | 本講座でこれまでに学んだ、Python、PyTorch、および深層学習の基本的な知識。 |
この記事では、AIが静的なデータから学ぶのではなく、まるで生き物のように「行動」と「その結果(報酬)」から試行錯誤して最適な戦略を自ら見つけ出す「強化学習」について解説します。
🤖 強化学習の基本ルール
AI(エージェント)が、置かれた状況(環境)で「行動」し、その結果もらえる「報酬」を将来にわたって最大化することを目指します。まるで、犬のしつけで「お手」を教えるプロセスに似ています。
- エージェント:学習するAI自身(例:投薬量を決めるAI)
- 環境:AIが置かれた状況(例:患者さんの身体)
- 行動:AIの選択肢(例:「薬を10mg投与」)
- 報酬:行動の結果(例:症状が改善したら+1)
🧠 2つの主要な学習戦略
AIが賢くなるための代表的なアプローチは2つあります。
- 価値ベースの手法 (例: Q学習 → DQN)
「この行動はどれくらい良いか?」という行動の“価値”を点数付けします。全ての状況の点数を記録するのは大変なので、ニューラルネットワークで価値を予測するDQNが画期的な進化をもたらしました。 - 方策ベースの手法 (例: Actor-Critic)
「次は何をすべきか?」という“行動ルール”そのものを直接学びます。特に「行動する役者(Actor)」と「評価する評論家(Critic)」が協力するActor-Criticモデルが強力で、多くの場面で使われます。
⚕️ 医療への応用と未来
患者の状態に応じて投薬量を調整したり、手術ロボットが最適な手技を学んだりと、連続的な意思決定が求められる場面での応用が期待されています。安全な学習のため、過去の膨大なデータや精巧なシミュレーターの活用が鍵となります。
はじめに:「行動」から学ぶ
皆さん、こんにちは!いよいよ、この長い講座の最終章、AIの学習方法における、これまでとは全く異なる、第三のパラダイムへの扉を開きます。
これまで私たちは、AIにカルテや画像といった「静的なデータ」を与え、そこからパターンを学ばせる教師あり学習や自己教師あり学習を見てきました。これは、AIを非常に優秀な「観察者」や「分析官」として育てるアプローチでした。しかし、もしAIが、ただ観察するだけでなく、自ら「行動」し、その結果から学んでいくとしたらどうでしょう?
例えば、外科医が新しい手術手技を習得するプロセスを想像してみてください。教科書(静的データ)を読むだけでは、決して名医にはなれませんよね。実際にシミュレーターやOJTでメスを握り(行動し)、その手技がもたらす結果(成功や合併症、つまり報酬や罰)を体感し、そのフィードバックを元に、次の一手、さらにその次の一手を、より良いものへと洗練させていきます。この、環境との相互作用を通じた、試行錯誤による学習こそが、熟練の技を身につけるための本質です。
この、AIが自ら「行動戦略」を学習していく、能動的な学習パラダイムこそが、強化学習(Reinforcement Learning, RL)です。AIが、まるで生き物のように、与えられた環境の中でゴール(累積報酬の最大化)を目指して試行錯誤を繰り返しながら賢くなっていく。非常にダイナミックで、そして生命の学習原理にも近い、興味深い分野と言えるでしょう。
この記事では、この強化学習の世界への第一歩として、その基本的な概念(エージェント、環境、報酬など)から、主要な手法(価値ベース、方策ベース)、そして医療分野での未来まで、その全体像をダイジェスト形式で探求していきます。なお、それぞれの詳細な理論や、PyTorchとGymnasiumを用いた具体的な実装については、今後の個別記事(32.1〜32.6)でじっくりと手を動かしながら学んでいきますので、今回はまず、この「行動するAI」という新しい考え方の面白さを感じていただければと思います。
32.1 強化学習の基本概念:エージェント、環境、報酬とは? 〜AIが「学ぶ」ための、新しいルールブック〜
強化学習の世界を理解するためには、まず、この物語に登場する主要な「登場人物」と「ルール」を知る必要があります。これらの概念は、一見すると抽象的に聞こえるかもしれませんが、身近な例に例えながら一つ一つ見ていけば、非常に直感的であることがわかるはずです。
強化学習を構成する5つの要素
犬のしつけを例に考えてみましょう。あなたが、子犬に「お手」を教えている場面を想像してください。このシンプルな状況の中に、強化学習の全ての基本要素が詰まっています。
↓ 画像が表示されない場合は、ページを再読み込みしてください ↓
| 用語 (Term) | アナロジー(犬のしつけ) | 解説(医療AIの文脈) |
|---|---|---|
| エージェント (Agent) | あなた(トレーナー) | 学習の主体となるAI。最適な「行動」を学習しようとします。(例: 投薬量を決定するAI) |
| 環境 (Environment) | あなたと子犬がいる部屋全体 | エージェントが相互作用する世界。エージェントの外部全てです。(例: 患者さんの身体の状態、院内システム) |
| 状態 (State), \(s\) | 子犬が「おすわり」している状態 | ある一時点での環境の具体的な状況。(例: 現在のバイタルサインや検査値、時刻) |
| 行動 (Action), \(a\) | あなたが「お手」と声をかける行動 | エージェントが、ある状態\(s\)で選択できる行動。(例: 「薬Aを10mg投与する」「何もしない」) |
| 報酬 (Reward), \(r\) | 子犬がお手をしてくれたので、おやつをあげる(プラスの報酬) | ある行動の結果、環境から返ってくるフィードバック。エージェントの行動が「良かった」か「悪かった」かを示すスカラー値。(例: 症状が改善したら+1、悪化したら-1) |
目標は「累積報酬の最大化」
そして、エージェントの最終的な目標は、目先の報酬だけにとらわれるのではなく、この一連の対話を通じて、将来にわたって得られる報酬の合計(累積報酬)を最大化するような、最適な行動戦略(方策、Policy)を学習することです。「この状態\(s\)の時は、この行動\(a\)を取るのが、長期的には最も得をする」というルールブックを、自ら作り上げていくわけですね。
強化学習の基本ループ
この「行動→観測→報酬→戦略更新」というループを、何百万回、何千万回と繰り返すことで、エージェントは、まるで経験豊富なベテラン医師のように、複雑な状況下で最善の一手を見つけ出す能力を身につけていくのです。
32.2 & 32.3 価値ベースの手法と深層強化学習(DQN)
さて、エージェントが「累積報酬を最大化する」という壮大な目標を達成するためには、どうすれば良いのでしょうか?その一つの賢いアプローチが、価値ベースの手法(Value-based Methods)です。
これは、最終的な「戦略」を直接学ぶのではなく、まず「ある状況で、ある行動を取ったら、将来的にはどれくらい良いことがあるか」という、行動一つ一つの「価値」を学習していく、という考え方です。
Q学習:全ての「状況」と「行動」の価値を記録する
その代表格であるQ学習(Q-Learning)では、この価値をQ値(Q-value)、\(Q(s, a)\)という指標で表します。これは、「状態\(s\)のときに、行動\(a\)を取った場合の、将来にわたる累積報酬の期待値」を意味します。
例えば、ある敗血症の患者さん(状態\(s\))に対して、「昇圧剤Aを投与する」(行動\(a_1\))のと「輸液を増やす」(行動\(a_2\))のとでは、どちらが長期的によい結果(生存、退院など)に結びつくか。その「期待値」を数値化したものがQ値、というわけです。
エージェントは、考えられる全ての状態と行動の組み合わせに対して、このQ値を記録した、巨大な「カンニングペーパー」、すなわちQテーブルを、経験を通じて少しずつ更新していきます。
Qテーブルのイメージ
学習が終われば、エージェントはどんな状態\(s\)に置かれても、このテーブルを参照し、最もQ値が高い行動を選ぶだけで、最適な行動が取れるようになります。
ベルマン方程式:価値を「更新」するための魔法の数式
では、エージェントが経験を積む中で、この巨大なQテーブルの値を、どうやって賢く、そして正しく更新していくのでしょうか?もし、ある行動が良い結果に繋がったなら、その行動のQ値を少し上げたい。悪ければ、下げたい。この「学習」のルールブックとなるのが、強化学習の理論的な背骨をなす、ベルマン方程式です。
Q学習では、このベルマン方程式の考え方を元にした、以下の更新式を繰り返し適用することで、Q値を真の価値へと、一歩一歩収束させていきます。
\[ Q_{new}(s_t, a_t) = Q_{old}(s_t, a_t) + \alpha \left( \overbrace{r_t + \gamma \max_{a} Q(s_{t+1}, a)}^{\text{TDターゲット:新しい目標値}} – \overbrace{Q_{old}(s_t, a_t)}^{\text{現在の推定値}} \right) \]
この数式は、一見すると複雑に見えますが、その構造は「新しい推定値 = 現在の推定値 + 学習率 × (目標値 – 現在の推定値)」という、非常にシンプルな形をしています。つまり、現在の推定値と、新しく得られた情報から計算した「目標値」との差(これを時間的差分誤差、TD誤差と呼びます)を使って、推定値を少しだけ目標に近づける、という処理を行っているだけなんです。
各項の意味を、医療現場での治療方針決定のアナロジーで見てみましょう。
↓ 画像が表示されない場合は、ページを再読み込みしてください ↓
| 項 | 意味 | アナロジー(治療方針の価値評価) |
|---|---|---|
| \(Q_{old}(s_t, a_t)\) | 現在のQ値(古い推定値) | ある患者の状態\(s_t\)で治療法\(a_t\)を選択した場合の、現時点での「推定される長期的な価値」。 |
| \(\alpha\) | 学習率 | 新しい症例(経験)の結果を、どれだけ強く信じるか。頑固なベテラン医師なら低め、柔軟な若手なら高め? |
| \(r_t\) | 即時報酬 | 治療法\(a_t\)を行った直後の患者さんの反応。(例:症状が劇的に改善すれば大きなプラス報酬) |
| \(\gamma\) | 割引率 | 将来の健康状態を、現在の価値判断でどれだけ重視するか。「今さえ良ければ」なら低く、「5年後のQOLが大事」なら高く。 |
| \(\max_{a} Q(s_{t+1}, a)\) | 次の最善手の価値 | 治療の結果、患者さんが次の状態\(s_{t+1}\)になった後、そこから取りうる最善の治療の価値。 |
この数式を、もう一度、私たちの言葉で読み解いてみましょう。エージェントはこう考えているのです。
『今、この患者さん(状態\(s_t\))に、この治療(行動\(a_t\))を行うことの価値は、これくらい(\(Q_{old}(s_t, a_t)\))だと、私は思っていた。』
『実際にやってみたら、直後の反応(報酬\(r_t\))はこうで、その後の状態から考えられる最善の未来の価値(\(\gamma \max_{a} Q(s_{t+1}, a)\))はこれくらいだった。これが、今回の経験から得られた新しい「目標値」だ。』
『なるほど、私の今までの推定値と、今回の現実から得られた目標値には、これだけの「誤差」があるな。』
『よし、私の推定値を、この誤差の分だけ、学習率\(\alpha\)の割合で、新しい目標値の方向に少しだけ修正しておこう。』
この地道な更新作業を、膨大なシミュレーションや過去のデータで何百万回と繰り返すことで、Qテーブルの値は徐々に、本当に信頼できる「未来の価値」を反映したものへと磨き上げられていくのです。AIが「経験から学ぶ」プロセスの、まさに核心部分と言えますね。
深層強化学習(DQN)への飛躍:テーブルから関数近似へ
Q学習とQテーブルのアイデアは、非常にエレガントですよね。理論上は、どんな問題でも、このテーブルを埋めていけば最適な行動が見つかるはずです。しかし、ここで大きな「現実の壁」が立ちはだかります。
それは、私たちが解きたい現実の問題の多くは、状態の種類が、天文学的な数になる、という事実です。
- ビデオゲームの画面: 84×84ピクセルの白黒画面でさえ、状態の組み合わせは \(2^{(84 \times 84)}\) という、宇宙の原子数よりも遥かに大きな数になります。
- 医療応用: 患者さんの状態は、年齢、性別、無数の検査値、過去の病歴といった、連続的で高次元なベクトルの組み合わせです。これを全てテーブルに書き出すなんて、到底不可能ですよね。
この「次元の呪い」のせいで、古典的なQ学習は、チェスや迷路のような、限られた状態数を持つ問題でしか、うまく機能しなかったのです。
この巨大な壁を、ディープラーニングの力で打ち破ったのが、2015年にDeepMind社が発表し、科学雑誌Natureの表紙を飾ったDeep Q-Network (DQN) です(1)。彼らのアイデアは、まさにコロンブスの卵でした。
「Q値を、巨大なテーブルで一つ一つ記録するのをやめよう。代わりに、状態を入力すると、各行動のQ値をまとめて出力してくれる、都合の良い『関数』として、ニューラルネットワークに近似させてしまえばいいじゃないか?」
これが深層強化学習(Deep Reinforcement Learning, DRL)の幕開けです。DQNでは、状態(例えば、ビデオゲームの画面ピクセル)をCNNに入力し、その出力として、取りうる全ての行動(「上へ」「下へ」「右へ」「左へ」)それぞれのQ値を直接予測するニューラルネットワークを訓練します。
Deep Q-Network (DQN) の概念図
↓ 画像が表示されない場合は、ページを再読み込みしてください ↓
この関数近似というアプローチにより、AIは無限に近い状態空間の中からでも、価値の高い行動を学習できるようになり、Atariの多くのゲームで人間のプロプレイヤーを打ち負かすという、歴史的な成果を上げたのです。もちろん、このDQNにも、連続的な行動を扱えないなどの限界はありました。しかし、ディープラーニングと強化学習が結びついたこの瞬間が、今日のAI研究の大きな流れを作った、と言っても過言ではないでしょう。
32.4 方策ベースの手法とActor-Critic 〜「価値」ではなく「次の最善手」そのものを学ぶ〜
前回学んだQ学習のような価値ベースの手法は、「この行動の価値は10点、あちらは8点…」というように、まず全ての行動の「価値」を評価し、その上で最も価値の高い行動を選ぶ、というアプローチでした。これは、非常に合理的ですが、少し回りくどいと感じるかもしれませんね。
そこで登場するのが、もっと直接的なアプローチ、方策ベースの手法(Policy-based Methods)です。これは、行動の価値を一つ一つ計算するのではなく、「この状況(状態\(s\))なら、次はこの行動(\(a\))を取るべきだ」という、行動戦略(方策、Policy)そのものを、直接ニューラルネットワークで学習してしまおう、という考え方です。
方策勾配法:良い結果に繋がった行動を「強化」する
このアプローチの代表が、方策勾配法(Policy Gradient)です。ある治療法(方策)を試してみて、結果が良ければ(高い報酬)、その治療法を今後も採用する確率を少し上げる、という考え方に似ています。
エージェントは、現在の方策に従って一連の行動を取り、最終的に得られた報酬の合計を評価します。もし、その結果が良ければ、その時に取った一連の行動の選択確率が、全体的に少しだけ上がるように、方策ネットワークの重みを勾配降下法で更新します。良い結果に繋がった行動を「強化」していくイメージですね。
このアプローチは、行動が連続値(例えば、投薬量を5mg, 5.1mg, 5.2mg…と無段階に調整する)の場合や、最適な行動が一つに定まらない確率的な方策(例えば、状況によって80%の確率でA、20%の確率でBを選ぶのが最善)を学習できる、という大きな利点があります。
↓ 画像が表示されない場合は、ページを再読み込みしてください ↓
Actor-Critic:「役者」と「評論家」が二人三脚で成長する
しかし、方策勾配法にも弱点はあります。報酬が得られるまでの一連の行動が非常に長い場合、どの行動が本当に良かったのかを判断するのが難しく、学習の分散が大きくなりがちです(学習が安定しにくい)。
この問題を解決するために、価値ベースの手法と方策ベースの手法を組み合わせた、Actor-Criticという、非常に強力で人気のあるフレームワークが登場しました。これは、まさに「役者(Actor)」と「演劇評論家(Critic)」の二人三脚です。
- Actor(役者): 現在の方策に従って、行動を決定し、実行します。これは、方策ベースの部分です。
- Critic(評論家): 役者が取った行動の結果を見て、「その行動は、今の状況ではどれくらい良かったか」を価値関数を使って評価し、フィードバックを与えます。これは、価値ベースの部分です。
- 学習: 役者は、評論家から「今の演技(行動)は、期待以上の価値があったよ!」と褒められれば、その行動を取る確率を上げ、「期待外れだったね」と酷評されれば、その行動を取る確率を下げるように、自身の演技(方策)を改善していきます。
Actor-Criticモデルの学習ループ
このように、評論家によるリアルタイムの的確なフィードバックがあるため、役者はより効率的に演技を改善できます。Actor-Criticは、多くの最先端の強化学習アルゴリズムの基礎となっている、非常に重要な考え方なのです。
32.6 医療・ロボティクスへの応用と今後の展望
強化学習の「試行錯誤から最適な行動戦略を学ぶ」という性質は、医療分野においても大きな可能性を秘めています。
- 動的治療計画 (Dynamic Treatment Regimes): 投薬(例: 化学療法、インスリン投与)や人工呼吸器の設定など、患者の状態に応じて連続的な意思決定が必要な場面で、治療戦略を最適化する研究が進められています(2)。
- 医療ロボティクス: 手術支援ロボットが、シミュレーション環境での膨大な試行錯誤を通じて、人間の外科医のような滑らかで正確な手技を学習する、といった応用が期待されます。
- 敗血症管理: ICUにおけるバイタルサインの推移を元に、輸液や昇圧剤の投与タイミング・量を最適化する戦略を学習する研究も報告されています(3)。
一方で、現実の患者さんで安易に「試行錯誤」はできないため、過去の膨大なデータから安全に学習するオフライン強化学習や、精巧なシミュレーターの開発が、医療応用の鍵となります。
まとめ
この講座の最後に、私たちはAI学習のもう一つの大きな柱である、強化学習の世界を旅しました。
- 強化学習は、エージェントが環境と対話し、行動と報酬を通じて、最適な戦略を自ら学んでいく仕組みです。
- 価値ベース(Q学習など)と方策ベース(方策勾配法など)という、二つの大きなアプローチが存在します。
- 医療分野では、動的治療計画やロボティクスなど、連続的な意思決定が求められる場面での応用が期待されています。
これで、本講座で学ぶ全ての主要なテーマが出揃いました。この長い旅にお付き合いいただき、本当にありがとうございました。皆さんがここで得た知識とスキルが、AIという「新しい聴診器」を手に、未来の医療を自らの手で切り拓くための、確かな力となることを心から願っています。
参考文献
- Mnih V, Kavukcuoglu K, Silver D, et al. Human-level control through deep reinforcement learning. Nature. 2015;518(7540):529-533.
- Goldberg Y, Shalit U, Saria S. A-Primer-on-Deep-Reinforcement-Learning-for-Healthcare. In: Machine Learning for Healthcare Conference. 2021. p. 1-24.
- Komorowski M, Celi LA, Badawi O, Gordon AC, Faisal AA. The Artificial Intelligence Clinician learns optimal treatment strategies for sepsis in intensive care. Nat Med. 2018;24(11):1716-1720.
ご利用規約(免責事項)
当サイト(以下「本サイト」といいます)をご利用になる前に、本ご利用規約(以下「本規約」といいます)をよくお読みください。本サイトを利用された時点で、利用者は本規約の全ての条項に同意したものとみなします。
第1条(目的と情報の性質)
- 本サイトは、医療分野におけるAI技術に関する一般的な情報提供および技術的な学習機会の提供を唯一の目的とします。
- 本サイトで提供されるすべてのコンテンツ(文章、図表、コード、データセットの紹介等を含みますが、これらに限定されません)は、一般的な学習参考用であり、いかなる場合も医学的な助言、診断、治療、またはこれらに準ずる行為(以下「医行為等」といいます)を提供するものではありません。
- 本サイトのコンテンツは、特定の製品、技術、または治療法の有効性、安全性を保証、推奨、または広告・販売促進するものではありません。紹介する技術には研究開発段階のものが含まれており、その臨床応用には、さらなる研究と国内外の規制当局による正式な承認が別途必要です。
- 本サイトは、情報提供を目的としたものであり、特定の治療法を推奨するものではありません。健康に関するご懸念やご相談は、必ず専門の医療機関にご相談ください。
第2条(法令等の遵守)
利用者は、本サイトの利用にあたり、医師法、医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律(薬機法)、個人情報の保護に関する法律、医療法、医療広告ガイドライン、その他関連する国内外の全ての法令、条例、規則、および各省庁・学会等が定める最新のガイドライン等を、自らの責任において遵守するものとします。これらの適用判断についても、利用者が自ら関係各所に確認するものとし、本サイトは一切の責任を負いません。
第3条(医療行為における責任)
- 本サイトで紹介するAI技術・手法は、あくまで研究段階の技術的解説であり、実際の臨床現場での診断・治療を代替、補助、または推奨するものでは一切ありません。
- 医行為等に関する最終的な判断、決定、およびそれに伴う一切の責任は、必ず法律上その資格を認められた医療専門家(医師、歯科医師等)が負うものとします。AIによる出力を、資格を有する専門家による独立した検証および判断を経ずに利用することを固く禁じます。
- 本サイトの情報に基づくいかなる行為によって利用者または第三者に損害が生じた場合も、本サイト運営者は一切の責任を負いません。実際の臨床判断に際しては、必ず担当の医療専門家にご相談ください。本サイトの利用によって、利用者と本サイト運営者の間に、医師と患者の関係、またはその他いかなる専門的な関係も成立するものではありません。
第4条(情報の正確性・完全性・有用性)
- 本サイトは、掲載する情報(数値、事例、ソースコード、ライブラリのバージョン等)の正確性、完全性、網羅性、有用性、特定目的への適合性、その他一切の事項について、何ら保証するものではありません。
- 掲載情報は執筆時点のものであり、予告なく変更または削除されることがあります。また、技術の進展、ライブラリの更新等により、情報は古くなる可能性があります。利用者は、必ず自身で公式ドキュメント等の最新情報を確認し、自らの責任で情報を利用するものとします。
第5条(AI生成コンテンツに関する注意事項)
本サイトのコンテンツには、AIによる提案を基に作成された部分が含まれる場合がありますが、公開にあたっては人間による監修・編集を経ています。利用者が生成AI等を用いる際は、ハルシネーション(事実に基づかない情報の生成)やバイアスのリスクが内在することを十分に理解し、その出力を鵜呑みにすることなく、必ず専門家による検証を行うものとします。
第6条(知的財産権)
- 本サイトを構成するすべてのコンテンツに関する著作権、商標権、その他一切の知的財産権は、本サイト運営者または正当な権利を有する第三者に帰属します。
- 本サイトのコンテンツを引用、転載、複製、改変、その他の二次利用を行う場合は、著作権法その他関連法規を遵守し、必ず出典を明記するとともに、権利者の許諾を得るなど、適切な手続きを自らの責任で行うものとします。
第7条(プライバシー・倫理)
本サイトで紹介または言及されるデータセット等を利用する場合、利用者は当該データセットに付随するライセンス条件および研究倫理指針を厳格に遵守し、個人情報の匿名化や同意取得の確認など、適用される法規制に基づき必要とされるすべての措置を、自らの責任において講じるものとします。
第8条(利用環境)
本サイトで紹介するソースコードやライブラリは、執筆時点で特定のバージョンおよび実行環境(OS、ハードウェア、依存パッケージ等)を前提としています。利用者の環境における動作を保証するものではなく、互換性の問題等に起因するいかなる不利益・損害についても、本サイト運営者は責任を負いません。
第9条(免責事項)
- 本サイト運営者は、利用者が本サイトを利用したこと、または利用できなかったことによって生じる一切の損害(直接損害、間接損害、付随的損害、特別損害、懲罰的損害、逸失利益、データの消失、プログラムの毀損等を含みますが、これらに限定されません)について、その原因の如何を問わず、一切の法的責任を負わないものとします。
- 本サイトの利用は、学習および研究目的に限定されるものとし、それ以外の目的での利用はご遠慮ください。
- 本サイトの利用に関連して、利用者と第三者との間で紛争が生じた場合、利用者は自らの費用と責任においてこれを解決するものとし、本サイト運営者に一切の迷惑または損害を与えないものとします。
- 本サイト運営者は、いつでも予告なく本サイトの運営を中断、中止、または内容を変更できるものとし、これによって利用者に生じたいかなる損害についても責任を負いません。
第10条(規約の変更)
本サイト運営者は、必要と判断した場合、利用者の承諾を得ることなく、いつでも本規約を変更することができます。変更後の規約は、本サイト上に掲載された時点で効力を生じるものとし、利用者は変更後の規約に拘束されるものとします。
第11条(準拠法および合意管轄)
本規約の解釈にあたっては、日本法を準拠法とします。本サイトの利用および本規約に関連して生じる一切の紛争については、東京地方裁判所を第一審の専属的合意管轄裁判所とします。
For J³, may joy follow you.


コメント