「人×自律型AI」の協働を夢見ているのに、AIのガードレールを「守りの対策」だと勘違いしている人たちへ
SAS Innovate 2026 in Dallas 現地レポート Vol.1
AIのガードレールを「守り」の道具だと誤解している人たちへ
SASでは、AI支援型ソフトウェア開発を「①設計、②実行、③検証、④妥当性確認」の4つのフェーズに分けている。
- 設計フェーズ:人間の価値は、コードを書くことから「コンテキスト・エンジニアリング」へと移行している。これには、ユーザー体験(UX)やテスト目的、全体的な技術要件を定義するためのドメイン知識が今まで以上に必要となる
- 実行フェーズ:AIエージェントが、設計仕様とテストスイートからのコンテキストをもとにコードを生成する。後の検証フェーズと妥当性確認フェーズを通過するまで、人間が介在するプロセス(Human in the Loop)が繰り返される
- 検証・妥当性確認フェーズ:AIエージェントが自動的に検証・妥当性確認を行うためのテストスイートを開発する。「検証」ではソフトウェアが設計の技術的仕様を満たしているかを確認し、「妥当性確認」ではソフトウェアが組織のビジネス目標と整合性がとれているかを確認する
※上記のうち「検証・妥当性確認」のフェーズはワンセットとなっており、いわゆるガードレールとして機能する。
では、これをライフサイエンス業界のユースケースに適用してみよう。ある製薬会社で、がん治療の臨床試験を行うとする。まず、臨床試験を行う上では、「なぜその試験を行うのか、具体的に何をテストするのか、誰がそのテストに参加するのか、国や業界の規制要件を満たすためには、どのような形態で実施しなければならないのか」といった要素を定義したプロトコルが存在する。
設計フェーズでは、このプロトコルや作業手順書、データをシステムが読み込み、AIエージェントが文書を解析して要件を抽出し、規制に沿う形でマッピングを行う。こうしてプロトコルをデジタル化し、患者と適切な治療法を一致させやすくする。
次に実行フェーズでは、膨大な臨床データが現場から到着し、人間とAIのプログラミングを組み合わせたダブルプログラミングによってそれらが分析され、統計結果が生成される。その中から、自動化された比較によって不一致を見つけ出す。
検証フェーズでは、AIエージェントが「プロトコルを遵守しているか、規制や規格に準拠しているか、データ品質やセキュリティは大丈夫か」などをチェックする。かつてはこの検証フェーズだけで数週間を要した時代もあったが、今や数時間で完了するプロセスだ。そして最後は、妥当性確認フェーズでAIが臨床結果のレポートをまとめ、正確性と安全性をチェックする。ここまでが大まかな臨床試験のワンサイクルだ。これらを経て、ようやく臨床結果などの書類が提出可能なものとなり、市場にその治療法や薬を出せるかが検討できるようになる。
ここで、「もし検証・妥当性確認フェーズがなかったら……」を想像してみよう。AIがプロトコルの要件を誤解していた、提出書類に不整合があったなどといったことが後から発覚すれば、ここまで進めてきた臨床試験はすべて中止となる。プロジェクトは振り出しに戻り、手間やコスト、患者が新たな治療法を待つ時間も増える。その製薬会社に対する世間の信頼も損なわれるかもしれない。
しかし、検証・妥当性確認フェーズというガードレールがあるおかげで、こうしたリスクを未然に防ぎ、新たな治療法を市場に素早く投入できるようになる。つまり、単なる守りやリスク対策として捉えられがちなAIのガードレールやガバナンスだが、実は価値創出など「攻め」をより強力に推進するために不可欠な要素であるという認識を持つべきということだ。
この価値観を踏まえて、SASが今年のInnovateで新たに発表した製品の例を見てみよう。
この記事は参考になりましたか?
- SAS Innovate連載記事一覧
-
- 「人×自律型AI」の協働を夢見ているのに、AIのガードレールを「守りの対策」だと勘違いして...
- 新たに実用化が迫る「量子AI」は何がすごいのか、AIの進化を前に必要な心構えは?
- アストラゼネカが目指す医療・創薬の新たなステージ──実現に不可欠なデータサイエンス部の役割...
- この記事の著者
-
名須川 楓太(編集部)(ナスカワ フウタ)
サイバーセキュリティとAI(人工知能)関連を中心に、国内外の最新技術やルールメイキング動向を取材しているほか、DX推進や、企業財務・IRなどのコーポレート領域でも情報を発信。武蔵大学 経済学部 経済学科 卒業。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア
