生成AIコストの課題 解決の鍵は“組織内でのリテラシー”
次に大杉氏は、「コスト」の観点に話を向けた。ここでの留意点は2つあるとし、まず「開発時のコストが高すぎる」点を挙げた。これは生成AIに限らない話だが、開発ベンダーに頼りすぎた結果、コストがかかってしまうといった課題を指す。これを避けるためには、「組織内でのリテラシーを持つことが重要だ」と大杉氏は述べる。
そのためには、まず汎用的な製品で十分に要件を満たせるかを、自ら調査する必要がある。本件の詳細は、「3.1 コスト削減に向けた検討」および「4 調達実施前時のテキスト生成AI固有の留意点」に記されている。
「ローコードやノーコードでの開発は大きく進化しており、日々更新されています。そのため、常に『最新のクラウドサービスで、何がどれだけ簡単にできるのか』を知り続ける必要があるのです」(大杉氏)
コスト高騰化の課題は、運用時にも起こり得る。たとえば、生成AIを従量課金のAPIで利用すると、費用がかさむといったケースだ。この軽減策としては、安価な小型の基盤モデルを検討し、他のクラウドサービスでコストを抑えることが考えられる。また、大規模利用においては、定額プランやバッチ処理モードの検討も有効だ。最近では、小型オープンモデルの性能が向上していることから、セルフホスト形式も選択肢に入るようになった。この留意点については、「7.2.6 コストマネジメントに関するリスク」に詳しく記載されている。
AI活用における企業価値損失の懸念……モデル確認の重要性
続いての観点、「スコープ」の留意点は2つ。1つ目は、「実施に法的に問題がある」ことだ。たとえば、生成AIで処方箋を自動作成するユースケースは、医師法に違反する。生成AIはあくまで医師の補助として利用し、最終判断と責任は医師が負うなら問題はない。大杉氏は、「生成AIが人の手直しから学習できる仕組みや、外部の知識データベースと連携してAIの判断根拠を確認できる仕組みを備えることも、法的な問題を回避するには有効だ」と語った。
もう1つの留意点は、「業務をAI代替することで本来意義が失われる」こと。パブリックコメントに対する回答は、本来行政職員が介在しなければならないため、AIが完全に自動作成することは不適切だ。この点に関しては、「AIの役割は要点の整理やラベル付けをに留め、職員の理解を補助することで懸念を解消できる」と大杉氏。たとえ技術的に可能だとしても、人が判断するべきかどうかの判断は、当事者が行う必要がある。これらスコープの留意点は、ガイドブックの「2.1 テキスト生成AIの利活用が不適切であるケースにテキスト生成AIを用いるリスク」に詳しい。
加えて、大杉氏は「その他の観点で留意点が2つある」と明かす。まず挙げられたのは、「ベンダーロックイン」だ。これは、ブラックボックスの汎用製品に依存してしまった際、その製品の値上げやサービス停止によって大きな影響を受けるというリスク。生成AIの場合、商用の基盤モデル自体がブラックボックスに近いため、注意が必要だという。軽減策としては、まずは品質基準を明確にすること。そして、他の製品や処理に変更した際の影響評価を、テスト可能な状態にすることを推奨した。
次に挙げられた留意点は、「生成AI活用自体のレピュテーションリスク」。レピュテーションリスクとは、自社の悪評や噂が広がり、ブランドや企業価値、信用の低下を招くことを指す。生成AIの利用が反発を招き、それが組織の評価を下げる可能性があるのだ。たとえば、学習データに著作権問題がある、アノテータの賃金が低すぎる、政治的に偏ったコメントを行うなど、悪評のある基盤モデルを使用するリスクが考えられる。
このリスクを軽減するには、「事前にモデルの評判を確認し、また、それを使用していることを明示することが有効だ」と大杉氏。出力内容をユーザーに直接提示する際には、政治的なコメントや危険な情報を防ぐためのガードレールを設けることを検討するべきだという。この点については、ガイドラインの「2.1 テキスト生成AIの利活用が不適切なケースにおけるリスク」「6.1 業務の実績データや利用者要望の分析」に示されている。