医師の負担軽減へ──地域医療機関が“院内生成AI”による「退院時サマリ」自動作成をオンプレミスで実装
年間2000万円のコスト削減に匹敵 「正確さ」が重視される医療現場でどう担保したのか?
対象データは医師が記載したカルテデータに限定
もっとも受注先が決まってすぐにAIサーバー構築が始まったわけではない。宮内氏ら病院スタッフはChatGPTなどの生成AIの利用には慣れていたが、「“どんな質問をしてもなんでも自然言語で返ってくるLLM”を再構築するにはコストがいくらかかるのか、まったく想像もしていなかった」と振り返る。ChatGPTのようなLLMシステムを業務で構築することがいかに困難なことなのか、宮内氏らはベンダーからの提案書、要件定義の確認、システム概要設計とプロジェクトのステップが進むにつれて厳しい現実を否応なしに実感させられたという。
「病院の要求をシステム概要設計に落とし込む作業に最も時間を要してしまった。病院が提供できる情報と出力したい情報の明確な定義に悩んだ結果、最終的なゴールとして『患者の入院中に医師が記載したカルテを情報として提供し、現サマリを50%以上網羅した退院時サマリを自動作成する』に落ち着いた。ここに到達するまでに3ヵ月かかった」(宮内氏)
プロジェクトの最終ゴールが決まり、構築する生成AIサーバーのスペックも確定した。同病院がリコーとともに選んだ主なモジュールは以下となる。
- サーバー本体(リコーがチューニング):Lenovo ThinkSystem SR650(Intel Xeon Silver 4509Y 8C 125W 2.6GHz ✕2)/メモリ256GB(32GB✕8)
- サーバー並列処理プロセッサ(GPU):NVIDIA L40S 48GB PCIe G4 GPU
- OS:Ubuntu 22.04 LTS
- 日本語対応LLM(リコーがチューニング):Llama‐3.1‐Richo‐70B
- Web API:病院側が内製、ユーザーがWebインタフェース経由で電子カルテデータベースから特定情報を抽出(PHP + SQL)
- AIアプリ開発プラットフォーム:Dify
- ノーコード型Webサイト構築ツール:Studio
- ローカルLLMプラットフォーム:Ollama
- その他:日赤規定/社内規定などのガイドライン情報を提供するRAG
那須赤十字病院が取り組んだ生成AIサーバーシステムの構成。オンプレミスの院内ネットワークに生成AIサーバーを設置し、電子カルテのデータベースから取得した情報から退院時サマリを作成するというシンプルな構成。LLMにはリコーがカスタマイズした日本語対応のLlama‐3.1‐Richo‐70Bを採用した
[クリックすると拡大します]
ここで注目したいのは、GPUにNVIDIA L40Sを採用している点だ。L40SはAIにもグラフィックにも適しているデータセンター向けのユニバーサルGPUで、近年ではLLMの推論やファインチューニングといったAIワークロードを高速化する目的で採用されるケースが増えている。同病院ではL40Sを選択したことでLLMの応答速度が向上、1日あたり30名の職員が500会話を実行できる性能を確保したという。
また、OSやLLM、開発フレームワークにオンプレミスでも稼働可能なオープンソースプロダクトを選択することでライセンスコストを抑え、なるべく多くの病院スタッフが利用できるようにしている点もこのシステムの特徴の一つだ。
サーバーの設計作業は2024年10月からスタートしたが、病院側はこれと同時にAIに処理させるデータ(電子カルテデータ、退院時サマリチャンピオンデータなど)の準備を始め、さらに翌11月からはAI機能の評価を開始している。ここで同病院はLLMの精度向上を図るために、LLMが電子カルテデータベースから取得したカルテ情報を要約するにあたり、カルテ内の特殊な記述(たとえば「D 4/3」のようにアルファベットと数値を組み合わせた文字列)も検査の情報であるという記載をプロンプトに加えた。こうすることで出力結果に診断結果の所見に近い内容が含まれるようになったとしている。
精度を向上させる施策の一つとして、電子カルテに記載された特殊な記述であっても診療を示す情報であることをプロンプトに指示した。ここではカルテに記載されていた「D 4/3」という記述を読み込んだ生成AIにより「CK7(+)、CK20(‐)、TTF-1(+)、Napsin-A(‐)」という検査結果が出力されている
[クリックすると拡大します]
宮内氏は今回のプロジェクトを成功させるための施策として以下の3つを徹底したことを明らかにしている。
- サマリを作るためのデータは医師が記載したカルテデータのみ:看護カルテやリハビリカルテなど様々なカルテがあるが、作成された退院時サマリは最終的に医師が確認するので、医師自身が記載内容の要否を判断できるものに限定
- わからないものは回答しない:生成AIが予想して回答するのではなく、わからないものは「不明」と出力するようにプロンプトに記載、電子カルテ内に明確に記録されている情報(術式、病名、病理所見、放射線画像所見など)を生成AIに提供している
- 3ステップのシンプルな仕組み:ID入力→Web API→LLMプロンプトという病院内の誰もが自然言語で使えるシンプルな構成
対象データが医師記載のカルテデータだけでは退院サマリに必要な情報が不足することも危惧されそうだが、実際に患者を診療した医師自身が書いた記録に限ることで、医師がサマリを確認する際に生成AIのハルシネーションを回避でき、さらに「もしサマリの内容が不足しているようであれば、それは医師がちゃんと業務をこなしていないということでもあり、医師のやるべき仕事を再確認できる」(宮内氏)という効果もあるという。
この記事は参考になりましたか?
- 五味明子の『エンプラIT Round-up』連載記事一覧
-
- 医師の負担軽減へ──地域医療機関が“院内生成AI”による「退院時サマリ」自動作成をオンプレ...
- 2025年上半期のバズワード「MCP」はデファクトスタンダードになりうるのか?Red Ha...
- 日本市場で息巻く「オブザーバビリティ」の活況はこの先も続くのか?──ガートナー米田氏に将来...
- この記事の著者
-
五味明子(ゴミ アキコ)
IT系出版社で編集者としてキャリアを積んだのち、2011年からフリーランスライターとして活動中。フィールドワークはオープンソース、クラウドコンピューティング、データアナリティクスなどエンタープライズITが中心で海外カンファレンスの取材が多い。
Twitter(@g3akk)や自身のブログでITニュース...※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア
