このガイドは、個人研究者が自分専用のAI研究室(GPUワークステーション)をゼロから構築するための3つのステップを解説します。計画から環境構築、快適な開発スタイルの確立まで、高速な研究サイクルを実現する全工程の地図です。
研究目的に合わせ、AI開発の心臓部となるGPUを選びます。VRAM容量が「作業机の広さ」を決め、最も重要です。土台となるOSは、Windows上でLinuxを動かすWSL2が推奨されます。
OSとNVIDIAドライバを導入し、安定した土台を築きます。次に、プロジェクトごとに隔離された安全な仮想環境 (venv) を作成し、その中にメインの実験装置であるPyTorch (GPU版) をインストールします。
GPUマシンをSSHでリモートサーバー化し、手元のPCからVS Codeで接続する開発スタイルを確立します。これにより、騒音や排熱から解放され、使い慣れた環境で快適に研究に集中できます。
優れた研究には、優れた実験室が不可欠です。ウェットな研究、例えば細胞生物学の研究室が、安全キャビネットやインキュベーター、高性能な顕微鏡を必要とするように、医療AIというドライな研究においても、信頼性が高く、パワフルな計算環境、すなわち自分専用の「AI研究室」を構築することが、研究の質と速度を決定づける最初の、そして最も重要なステップとなります。
この章「E0.1」では、私たち個人研究者のための「AI研究室」、すなわちGPUワークステーションをゼロから構築する全工程を、具体的なステップに分けてガイドしていきます。高価なクラウドサービスは大規模な計算には非常に有用ですが、日々の細かな試行錯誤やモデルのプロトタイピングにおいては、手元に自分専用の計算機があることの価値は計り知れません。
私自身、手元のマシンで夜中に思いついたアイデアをすぐに試し、朝には結果が出ている、というサイクルを繰り返すことで、研究が大きく進展した経験が何度もあります。この章で目指すのは、まさにそのような高速なイテレーション(試行錯誤)を可能にする、あなたの研究の強力なエンジンを手に入れることです。
この章の歩き方
本稿は、この「E0.1」という章全体のロードマップを示す、いわば地図のようなものです。各ステップで「何を」「なぜ」行うのかという大きな流れを掴んでいただくことを目的としています。具体的なコマンドの一つひとつや、詳細な設定手順については、後続の各専門記事でスクリーンショットも交えながら丁寧に解説していきますので、まずはリラックスして、自分だけの研究室作りの全体像を眺めてみてください。
Step 1: 計画と機材選定(E0.1.1)- AI研究室の青写真を描く
何事も、最初が肝心です。新しい研究室を立ち上げる時、いきなり実験器具を買い集める人はいませんよね。まずは、どのような研究をしたいのかという「目的」を明確にし、それに必要な設備は何か、予算はどれくらいか、という「青写真」を描くはずです。AI研究室の構築も、まったく同じプロセスを辿ります。
この最初のステップでは、あなたの研究目的という羅針盤を頼りに、AI開発の心臓部となる機材、特にGPU(Graphics Processing Unit)と、その土台となるOS(Operating System)の最適な組み合わせを選び抜いていきます。ここでの選択が、今後の研究の効率と可能性を大きく左右すると言っても過言ではありません。
GPU選定:研究のスケールを決めるエンジンの選択
深層学習のモデルは、その内部で膨大な量の単純な計算(主に行列計算)を繰り返すことで学習を進めます。この「単純計算を、ものすごい数、同時にこなす」という作業が、GPUが最も得意とするところです。CPUが少人数の優秀な専門家チームだとすれば、GPUは何千人もの兵士が一斉に同じ作業をこなす大軍隊のようなもの。そのため、現代のAI開発においてGPUは不可欠な存在となっています。
では、数あるGPUの中から、どれを選べばよいのでしょうか。判断基準はいくつかありますが、最も重要な指標は、GPUが搭載する専用メモリ、通称「VRAM」の容量です。
VRAMとは? 研究室の「作業机の広さ」
VRAMは、GPUが計算を行うための専用の作業スペース(メモリ)です。この机が広ければ広いほど、より大きなAIモデルや、より高解像度の医療画像(データ)を一度に机の上に広げて作業できます。机の広さが足りないと、データを小分けにして何度も出し入れする必要が生まれ、学習が極端に遅くなったり、そもそも大規模なモデルを扱うことができなくなってしまいます。
あなたの研究テーマによって、必要となる「机の広さ」は変わってきます。以下に、代表的なタスクと推奨されるVRAM容量の目安を示します。
表1: 代表的な医療AIタスクと推奨されるVRAM容量
| VRAM容量 | 主な医療AIタスク | できること・注意点 |
|---|---|---|
| 4GB – 8GB | ・ウェアラブルデバイスの時系列データ分析 ・心電図(ECG)、脳波(EEG)などの1D信号処理 ・低解像度の2D画像分類 | 時系列データは比較的軽量なので、学習や小規模モデルの試作には十分。ただし、高解像度画像や大規模モデルは難しい。 |
| 12GB – 16GB | ・2D医用画像セグメンテーション ・画像生成モデルのLoRAファインチューニング ・中規模自然言語処理モデルの利用 | 本格的な画像解析研究が可能になり、研究の幅が広がる。多くの既存モデルを動かし、タスクに合わせた調整も可能。 |
| 24GB以上 | ・3D医用画像セグメンテーション (U-Netなど) ・高解像度病理画像解析 ・大規模言語モデル(LLM)のファインチューニング | CTやMRIなど大規模3Dデータや最新の大規模モデルを扱える。個人研究環境としては一つの到達点。 |
もちろん、VRAM以外にも、データの転送速度に関わるメモリ帯域幅 (GB/s)や、半精度浮動小数点数(FP16/BF16)など、特定の計算を高速化するTensor Coreの世代なども性能に影響します。しかし、個人研究の第一歩としては、「まずVRAM容量が自分の研究テーマの要求を満たしていること」を最優先に考え、その上で予算に応じて他のスペックを検討するのが、失敗の少ないアプローチだと思います。
OS戦略:研究室の「土台」を固める
次に決めるのは、これらのハードウェアを動かすための土台となるOS(Operating System)です。多くの方は、日常業務でWindowsやMacに慣れ親しんでいることでしょう。しかし、AI開発、特に学術研究の世界では、LinuxというOSがデファクトスタンダード(事実上の標準)となっています。
なぜなら、LinuxはAI開発に必要なライブラリやツール群が最も豊富で、安定しており、カスタマイズ性も高いからです。とはいえ、いきなり普段使いのPCをすべてLinuxにするのはハードルが高いかもしれません。
そこで本コースでは、両者の「良いとこ取り」ができる、以下の構成を推奨します。
- 推奨構成:Windows + WSL2 (Windows Subsystem for Linux) これは、普段は使い慣れたWindowsを使いながら、AI開発を行うときだけ、Windowsの中でLinux(Ubuntuなど)を仮想的に動かす、という非常にスマートな方法です。Microsoftが公式にサポートしており、近年のバージョンではGPU性能のロスもほとんどなく、Windowsのファイルシステムとの連携もスムーズです。多くの方にとって、これがベストバランスの選択肢になるでしょう。
- 代替構成:デュアルブート PCを起動するたびにWindowsとLinuxのどちらを立ち上げるかを選択する方式です。GPUの性能を100%引き出せるというメリットがありますが、OS間の切り替えに再起動が必要で、ファイル共有も少し手間がかかります。最大限のパフォーマンスを追求したい方向けの選択肢です。
このステップでは、このOS戦略を決定し、次のステップで具体的なインストール作業に進んでいきます。自分にとって最適な青写真を描くことが、快適で生産的なAI研究室作りの第一歩です。
Step 2: OS・ソフトウェア基盤の構築(E0.1.2 & E0.1.3)- 研究室の基礎工事
最新鋭のMRI装置も、それ自体が不安定な基礎の上に置かれていたり、電力供給が不適切だったりすれば、正確な画像を撮影することはできません。それと同じように、Step 1で選定した最高のハードウェア(機材)も、それを動かすための安定したソフトウェア基盤がなければ、残念ながら宝の持ち腐れとなってしまいます。
このステップでは、まさに研究室の「基礎工事」にあたる作業を行います。選定したハードウェアという土地の上に、OSという建物を建て、NVIDIAドライバという電力系統を引き、そしてPythonとPyTorchというメインの実験装置をクリーンルームに設置していきます。ここでの手順を一つひとつ丁寧に行うことが、前章で触れた「バージョン互換性の迷宮」で迷子にならず、安定した研究環境を維持するための鍵となります。
OSとNVIDIAドライバのセットアップ:土地を整地し、電力を引き込む
まず最初に行うのは、AI開発の土台となるOSをインストールし、GPUという強力なエンジンにOSという名の制御システムから電力を供給(認識・制御)できるようにすることです。
- OSのインストール: Step 1で決定したOS戦略(例えば、Windows上のWSL2)に基づき、ハードウェアにOSを導入します。これは、研究室を建てるための土地を平らにならし、整地する作業に相当します。
- NVIDIAドライバの導入: 次に、OSがGPUの存在を認識し、その能力を最大限に引き出すための「通訳者」となるNVIDIAドライバをインストールします。これは、いわば発電所から研究室までメインの電力線を引き込む、最も重要なインフラ工事です。
ここで大切なのは、必ずOSが公式に推奨する方法(Ubuntuであれば「追加のドライバー」機能やaptというパッケージ管理システム)でインストールすることです。これにより、OSはドライバの存在を公式に記録・管理(DKMS)してくれるため、将来OSがアップデートされた際にも、ドライバとの互換性を保ちやすくなります。
パッケージ管理システムとは?
OSにインストールされているソフトウェアの一覧を台帳で管理し、ソフトウェア間の依存関係を保ちながら、安全にインストールやアップデートを行ってくれる仕組みです。この仕組みを使うことが、システムの安定性を長期的に維持する秘訣です。
PythonとPyTorch(GPU)の環境構築:実験室に専用のクリーンルームを作る
OSとドライバという建物の基礎と電力が整ったら、いよいよAI開発という実験を行うための、専門的な設備を導入していきます。ここで重要な考え方が、「クリーンルーム」、すなわち「仮想環境(virtual environment)」です。
研究室全体で同じ空調を使うのではなく、特定の実験(プロジェクト)ごとに、完全に隔離されたクリーンルーム(仮想環境)を用意するイメージです。これにより、プロジェクトAで使う試薬(ライブラリ)と、プロジェクトBで使う試薬が混ざり合って、予期せぬ化学反応(コンフリクト)を起こすのを防ぎます。
- 仮想環境(venv)の作成: まず、
venvというPythonの標準機能を使って、プロジェクト専用のクリーンルームを作成します。そして、activateというコマンドでその中に入り、作業を行います。この中での変更は、OS本体や他のプロジェクトには一切影響を与えません。 - PyTorch(GPU)の導入: クリーンルームの中で、メインの実験装置となるPyTorchをインストールします。幸いなことに、最近のPyTorchは非常に優秀で、公式サイトから自身の環境に合ったインストールコマンドを取得して実行するだけで、GPUを動かすために必要な部品(cuDNNなど)も一緒に、適切なバージョンで導入してくれます。
このステップが完了すると、私たちのAI研究室には、安定した基盤の上に、外部から隔離された安全な実験スペースが用意され、そこにGPU対応の高性能な実験装置(PyTorch)が設置された状態になります。これで、いよいよ実際に手を動かして開発を行うための「操縦席」を作る準備が整いました。
Step 3: 開発スタイルの確立とリモート環境(E0.1.4)- 快適な操縦席を作る
さて、ここまでのステップで、私たちの研究を支えるパワフルな計算エンジン(GPUワークステーション)の準備が整いました。ここからは、そのエンジンをどのように「操縦」するか、つまり、日々の開発作業をどのようなスタイルで行うかを決め、そのための快適な操縦席(コックピット)を構築していきます。
開発スタイルは大きく分けて2つあり、どちらが良い・悪いというものではなく、それぞれに長所があります。ご自身の好みや作業環境に合わせて、最適なスタイルを選んでいきましょう。
| 開発スタイル | 概要 | こんな人におすすめ |
|---|---|---|
| スタイルA:スタンドアロン開発 | GPUワークステーションに直接モニター、キーボード、マウスを接続し、そのマシン単体ですべての開発作業を行う。 | ・開発マシンが1台で完結している方 ・まずはシンプルに始めたい方 |
| スタイルB:リモート開発 | GPUワークステーションは計算専用サーバーとして設置。普段使いのノートPC(Mac/Windows)からSSHで接続し、VS Codeを使って開発する。 | ・Macなど、普段使い慣れたPCで快適に作業したい方 ・計算機の騒音や排熱を作業場所から分離したい方 |
本コースでは、多くのプロフェッショナルな開発現場でも主流となっている「スタイルB:リモート開発」の構築を標準的なゴールとします。私自身、パワフルな計算機は少し離れた場所に置いておき、手元の静かなノートPCで論文執筆もコーディングも行う、というこのスタイルに落ち着きました。これにより、計算機の騒音や排熱に悩まされることなく、使い慣れた快適な環境で作業に集中できるという大きなメリットがあります。もちろん、スタイルAで進める方も、以下の設定を行っておくことで、将来いつでもリモート開発へスムーズに移行できます。
リモート開発環境の構築:3つのステップ
ここからは、GPUワークステーションを安全な「個人用サーバー」に変え、お手元のPCからVS Codeでシームレスに連携させるための設定を、3つのステップに分けて進めていきます。
Step 3-1: SSHサーバー化 ― 計算機に安全な「ドア」を取り付ける
まず、GPUワークステーション側で、外部からの安全な接続を受け入れる準備をします。これは、家に鍵付きの頑丈なドアを取り付ける作業に似ています。
- SSHサービスの有効化: openssh-serverというソフトウェアを導入し、外部からの接続リクエストを待ち受けられるようにします。
- ファイアウォールの設定: UFW(簡易ファイアウォール)を使い、このSSH専用のドア(ポート)だけを開けて、他の不要なドアはすべて閉じておきます。
- 認証方式の強化: 初期設定の簡単な鍵(パスワード認証)から、複製が極めて困難な特殊な鍵(公開鍵認証)でしか開けられないように、ドアの錠前を交換します。
Step 3-2: SSHクライアント設定 ― あなた専用の「鍵」を作成する
次に、手元の開発用PC側で、先ほど取り付けたドアを開けるための、あなた専用の「鍵」を作成し、サーバーに登録します。
- 鍵ペアの作成: ssh-keygenコマンドで、あなただけが持つ「秘密鍵」と、サーバーのドアの錠前にセットする「公開鍵」のペアを作ります。
- 秘密鍵の保護: 秘密鍵は絶対に他人に渡してはいけない、あなただけのマスターキーです。chmod 600コマンドで、所有者である自分以外は誰も読み書きできないように、厳重に保護します。
- 公開鍵の登録: ssh-copy-idという便利なコマンドを使い、公開鍵を安全にサーバーの錠前にセットします。
Step 3-3: VS Code連携 ― 操縦席とエンジンを繋ぐ
最後に、手元のPC(操縦席)とGPUワークステーション(エンジン)を、VS Codeという高機能なインターフェースで繋ぎこみます。
- 拡張機能の導入: VS Codeに「Remote – SSH」という拡張機能を導入します。これが、リモートにあるサーバーを、まるで手元にあるかのように操作するための魔法のツールです。
- 接続と連携: VS Codeからサーバーに接続し、サーバー上のPython環境(Step 2で作成した仮想環境)をVS Codeに認識させます。これにより、コードの編集、実行、デバッグといったすべての作業が、手元のPCの快適な操作感のまま、リモートにあるパワフルなGPU上で行われるようになります。
【実行前の準備】以下のコードで日本語のグラフを表示させるには、あらかじめターミナルやコマンドプロンプトで pip install japanize-matplotlib を実行してライブラリをインストールしてください。
すべての設定が完了すると、手元のPCのターミナルから、以下のような簡単なPythonコードを実行するだけで、リモートにあるGPUが正しく認識され、計算を行っていることを確認できるようになります。
# ファイル名: check_gpu.py
import torch
import platform
import japanize_matplotlib # 日本語のグラフ表示に必要なライブラリ
import matplotlib.pyplot as plt
def check_gpu_environment():
"""
GPU開発環境の状態を確認し、結果を表示・可視化する関数。
"""
# --- システム情報の表示 ---
print("--- システム情報 ---")
print(f"OS: {platform.system()} {platform.release()}") # OSの種類とバージョン
print(f"Pythonバージョン: {platform.python_version()}") # Pythonバージョン
print("-" * 20)
# --- PyTorchとCUDAの情報の表示 ---
print("--- PyTorch & CUDA情報 ---")
print(f"PyTorchバージョン: {torch.__version__}") # PyTorchのバージョン
# GPU利用可否確認
is_available = torch.cuda.is_available()
print(f"CUDA利用可能か: {is_available}")
if is_available:
# 利用可能なGPUの数
gpu_count = torch.cuda.device_count()
print(f"利用可能なGPU数: {gpu_count}")
# 0番目のGPU名
gpu_name = torch.cuda.get_device_name(0)
print(f"GPU名 (デバイス0): {gpu_name}")
# GPU上での簡単なテンソル計算
tensor_gpu = torch.randn(10, 10, device="cuda")
print("GPU上で10x10のテンソル計算を実行しました。")
else:
print("CUDAが利用できないため、GPU情報は取得できません。")
gpu_name = "N/A"
# --- 結果の可視化 ---
fig, ax = plt.subplots(figsize=(8, 4))
status_text = f"CUDA Status: {'利用可能' if is_available else '利用不可'}"
gpu_info_text = f"GPU: {gpu_name}"
ax.text(0.5, 0.6, status_text, ha='center', va='center',
fontsize=18, color='green' if is_available else 'red')
ax.text(0.5, 0.3, gpu_info_text, ha='center', va='center', fontsize=12)
ax.set_title("医療AI開発環境 GPUチェック", fontsize=16)
ax.axis('off')
plt.tight_layout()
plt.savefig("gpu_check_status.png")
print("\n結果を 'gpu_check_status.png' に保存しました。")
if __name__ == "__main__":
check_gpu_environment()
このスクリプトを実行し、「CUDA利用可能か: True」と表示され、GPU名が正しく認識されていれば、あなただけの医療AI研究室の完成です。ここから、本格的なモデル開発の旅が始まります。

Medical AI Nexus で学びを深めませんか?
【🔰 Medical AI Nexus とは】
日々の診療から生まれる膨大な医療データ――その価値を AI で最大化できれば、診断・治療・予防の姿は大きく変わります。
「Medical AI Nexus」は、AI を“医療者の最高のパートナー”に育てるための『知の羅針盤』です。
初心者でも実践的に学べる体系的コンテンツを通じて、
①「わからない」を解決する基礎講座、
②“使える”を支援する実装講座、
③専門分野への応用を探究する臨床シリーズを提供し、
医療者の能力拡張とデータ駆動型医療への航海を後押しします。
参考文献
- Stodden V, McNutt M, Bailey DH, et al. Enhancing reproducibility for computational methods. Science. 2016 Dec 9;354(6317):1240-1241.
- U.S. Food and Drug Administration. Good Software Manufacturing Practices for Medical Devices. 2022 Sep 27. Available from: https://www.fda.gov/medical-devices/software-medical-device-samd/good-software-manufacturing-practices-medical-devices
ご利用規約(免責事項)
当サイト(以下「本サイト」といいます)をご利用になる前に、本ご利用規約(以下「本規約」といいます)をよくお読みください。本サイトを利用された時点で、利用者は本規約の全ての条項に同意したものとみなします。
第1条(目的と情報の性質)
- 本サイトは、医療分野におけるAI技術に関する一般的な情報提供および技術的な学習機会の提供を唯一の目的とします。
- 本サイトで提供されるすべてのコンテンツ(文章、図表、コード、データセットの紹介等を含みますが、これらに限定されません)は、一般的な学習参考用であり、いかなる場合も医学的な助言、診断、治療、またはこれらに準ずる行為(以下「医行為等」といいます)を提供するものではありません。
- 本サイトのコンテンツは、特定の製品、技術、または治療法の有効性、安全性を保証、推奨、または広告・販売促進するものではありません。紹介する技術には研究開発段階のものが含まれており、その臨床応用には、さらなる研究と国内外の規制当局による正式な承認が別途必要です。
- 本サイトは、情報提供を目的としたものであり、特定の治療法を推奨するものではありません。健康に関するご懸念やご相談は、必ず専門の医療機関にご相談ください。
第2条(法令等の遵守)
利用者は、本サイトの利用にあたり、医師法、医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律(薬機法)、個人情報の保護に関する法律、医療法、医療広告ガイドライン、その他関連する国内外の全ての法令、条例、規則、および各省庁・学会等が定める最新のガイドライン等を、自らの責任において遵守するものとします。これらの適用判断についても、利用者が自ら関係各所に確認するものとし、本サイトは一切の責任を負いません。
第3条(医療行為における責任)
- 本サイトで紹介するAI技術・手法は、あくまで研究段階の技術的解説であり、実際の臨床現場での診断・治療を代替、補助、または推奨するものでは一切ありません。
- 医行為等に関する最終的な判断、決定、およびそれに伴う一切の責任は、必ず法律上その資格を認められた医療専門家(医師、歯科医師等)が負うものとします。AIによる出力を、資格を有する専門家による独立した検証および判断を経ずに利用することを固く禁じます。
- 本サイトの情報に基づくいかなる行為によって利用者または第三者に損害が生じた場合も、本サイト運営者は一切の責任を負いません。実際の臨床判断に際しては、必ず担当の医療専門家にご相談ください。本サイトの利用によって、利用者と本サイト運営者の間に、医師と患者の関係、またはその他いかなる専門的な関係も成立するものではありません。
第4条(情報の正確性・完全性・有用性)
- 本サイトは、掲載する情報(数値、事例、ソースコード、ライブラリのバージョン等)の正確性、完全性、網羅性、有用性、特定目的への適合性、その他一切の事項について、何ら保証するものではありません。
- 掲載情報は執筆時点のものであり、予告なく変更または削除されることがあります。また、技術の進展、ライブラリの更新等により、情報は古くなる可能性があります。利用者は、必ず自身で公式ドキュメント等の最新情報を確認し、自らの責任で情報を利用するものとします。
第5条(AI生成コンテンツに関する注意事項)
本サイトのコンテンツには、AIによる提案を基に作成された部分が含まれる場合がありますが、公開にあたっては人間による監修・編集を経ています。利用者が生成AI等を用いる際は、ハルシネーション(事実に基づかない情報の生成)やバイアスのリスクが内在することを十分に理解し、その出力を鵜呑みにすることなく、必ず専門家による検証を行うものとします。
第6条(知的財産権)
- 本サイトを構成するすべてのコンテンツに関する著作権、商標権、その他一切の知的財産権は、本サイト運営者または正当な権利を有する第三者に帰属します。
- 本サイトのコンテンツを引用、転載、複製、改変、その他の二次利用を行う場合は、著作権法その他関連法規を遵守し、必ず出典を明記するとともに、権利者の許諾を得るなど、適切な手続きを自らの責任で行うものとします。
第7条(プライバシー・倫理)
本サイトで紹介または言及されるデータセット等を利用する場合、利用者は当該データセットに付随するライセンス条件および研究倫理指針を厳格に遵守し、個人情報の匿名化や同意取得の確認など、適用される法規制に基づき必要とされるすべての措置を、自らの責任において講じるものとします。
第8条(利用環境)
本サイトで紹介するソースコードやライブラリは、執筆時点で特定のバージョンおよび実行環境(OS、ハードウェア、依存パッケージ等)を前提としています。利用者の環境における動作を保証するものではなく、互換性の問題等に起因するいかなる不利益・損害についても、本サイト運営者は責任を負いません。
第9条(免責事項)
- 本サイト運営者は、利用者が本サイトを利用したこと、または利用できなかったことによって生じる一切の損害(直接損害、間接損害、付随的損害、特別損害、懲罰的損害、逸失利益、データの消失、プログラムの毀損等を含みますが、これらに限定されません)について、その原因の如何を問わず、一切の法的責任を負わないものとします。
- 本サイトの利用は、学習および研究目的に限定されるものとし、それ以外の目的での利用はご遠慮ください。
- 本サイトの利用に関連して、利用者と第三者との間で紛争が生じた場合、利用者は自らの費用と責任においてこれを解決するものとし、本サイト運営者に一切の迷惑または損害を与えないものとします。
- 本サイト運営者は、いつでも予告なく本サイトの運営を中断、中止、または内容を変更できるものとし、これによって利用者に生じたいかなる損害についても責任を負いません。
第10条(規約の変更)
本サイト運営者は、必要と判断した場合、利用者の承諾を得ることなく、いつでも本規約を変更することができます。変更後の規約は、本サイト上に掲載された時点で効力を生じるものとし、利用者は変更後の規約に拘束されるものとします。
第11条(準拠法および合意管轄)
本規約の解釈にあたっては、日本法を準拠法とします。本サイトの利用および本規約に関連して生じる一切の紛争については、東京地方裁判所を第一審の専属的合意管轄裁判所とします。
For J³, may joy follow you.





