🤖 聴診器がコパイロットになる場所

医師と AI — 自動操縦ではなくコパイロット

2024 年、FDA はすでに 950 を超える AI/ML 医療機器 を承認していた。多くは放射線科。残りは病理・循環器・眼科・EHR サイドバーへ忍び寄っている。医師は置き換えられているのではなく、融合している。どう融合するかは君の選択。

950+ FDA 承認
🟢 Tier 1 — FDA累計 AI/ML 機器、2024更新: 2024

📡 AI がすでに臨床にあるところ

SF ではない。稼働中、課金中、FDA 承認済み。

🩻 放射線科

脳卒中トリアージ (Viz.ai)、肺結節 (Aidoc, Lunit)、マンモグラフィー (DeepHealth, iCAD)。FDA AI 承認の 75% 以上。

🔬 病理

Paige.AI — 前立腺癌で FDA 初承認 AI (2021)。全スライド解析が学術センターへ。

👁️ 眼科

IDx-DR (現 Digital Diagnostics) — FDA 初の自律 AI (2018)。医師なしで糖尿病網膜症を診断。

❤️ 循環器

AliveCor + Apple Watch ECG — 心房細動アラート。Caption Health — 非専門家向け AI ガイド心エコー。

📋 文書化

アンビエント・スクライブ (Abridge, Nuance DAX, Suki) が診察を聞いてノートを起草。Kaiser、Mass General Brigham、Stanford で利用。

🧬 創薬

DeepMind AlphaFold — 2 億超のタンパク質構造。Insilico は AI 設計の薬を第 II 相へ。

出典: FDA AI/ML 一覧 🟢 Tier 1

🏗️ AI で築く病院・機関

パンフレットではない。本物の旗艦プログラム。

機関プログラム焦点
Mayo ClinicMayo Clinic Platform分散データ AI パートナー網
Cleveland ClinicIBM 提携発見加速・量子+AI
Mass General BrighamCCDS臨床データサイエンスセンター・放射線 AI
Stanford MedicineAIMI Center医療画像 AI
Google Health / DeepMindMed-Gemini, AlphaFoldマルチモーダル臨床推論・タンパク構造
Microsoft + OpenAI + EpicEHR 内 GPT-4受信箱の下書き、ノート要約
NIHBridge2AI倫理的バイオ医学 AI データセット 1.3 億 $
WHO健康のための AI 倫理マルチモーダル臨床 AI のグローバル指針 (2024)

📊 エビデンスが実際に示すもの

見出しは査読を経ると冷める。文献が落ち着いたのは以下。

✅ 確かな成果

  • 糖尿病網膜症の一次スクリーニング — 非劣性
  • 大血管閉塞アラート — door-to-needle 短縮
  • 敗血症早期警告 — 抗生剤投与早期化
  • アンビエント・スクライブ — ノート時間・時間外の有意な減少

⚠️ 混合

  • 生成 AI Q&A — ベンチマークで高精度、現実で幻覚
  • マンモ AI — 平均は同等、過小代表集団で劣化
  • 病理 AI — 一般癌に強く、希少病変に弱い

❌ 著名な失敗

  • IBM Watson for Oncology (MD Anderson 2017–2018) — 内部メモで「安全でなく不正確」
  • 多くの COVID-19 画像 AI (2020–2021) — Nature Machine Intelligence: 検討した 232 論文のうち臨床利用に適うものなし

🧭 医師がまだ譲らないもの

置換可能な部分と神聖な部分は同じではない。前者は思うより大きく、後者は恐れるより小さい。

2030 までに自動化される可能性大

  • 一次画像スクリーニング
  • 定型病理グレーディング
  • 臨床ノート起草
  • 受信箱トリアージ
  • 保険事前承認応答

混合 (人 + AI)

  • 鑑別診断
  • 腫瘍治療計画
  • 退院計画
  • 術前計画

人のまま (当面)

  • 悪い知らせを伝える
  • 終末期会話
  • 小児・脆弱者の診察
  • 開かれた臨床面談
  • すべての判断の最終責任
「AI は放射線科医を置き換えない。AI を使う放射線科医が、使わない放射線科医を置き換える。」
— Curtis Langlotz, Stanford AIMI

⚠️ 心に留めるべき警告

偏りの増幅。 ボストン EHR で訓練した AI は田舎ミシシッピの医師ではない。人種・性・年齢の差が記録され続けている。
責任は未定。 AI が良性と言って悪性なら — 医師・病院・ベンダーの誰が訴えられるのか? 米国の裁判所はまだ答えていない。
幻覚は「稀な誤り」と同義ではない。 生成モデルは引用や用量を自信をもって捏造する。医療での代償はコードより大きい。
静かな技能低下。 AI なしで読まない若手放射線科医は、AI なしで読めなくなりうる。