「人×自律型AI」の協働を夢見ているのに、AIのガードレールを「守りの対策」だと勘違いしている人たちへ
SAS Innovate 2026 in Dallas 現地レポート Vol.1
米国ダラス(テキサス州)にて、2026年4月27日~30日の期間でSAS Institute(以下、SAS)の年次フラッグシップイベント「SAS Innovate 2026」が開催中だ。プログラミングのSAS言語を起源とし、今年で50周年を迎える同社。現在を、2024年から突入した「Synthetic Data(合成データ)」の時代と位置づけ、ユーザー組織内におけるAIの「信頼性」を担保するための新製品や、新たなコミットメントを重点的に発表した。金融や医療・製薬、公共など厳格なルールとともに生きる顧客を多く抱え、アナリティクスやデータサイエンス、データマネジメントの分野で先頭を走ってきた同社だからこそ指摘できる、AIの倫理・正確性・ガバナンスにまつわるリスクと、それを解消するための具体的なアプローチとは。
自律型AI活用の「信頼の所在」はプロセスそのものにある
SASは今年で創業50周年を迎える。1976年、今となってはレガシーコードとも言われるSAS言語の誕生から始まり、現在は実世界のデータをもとにAI技術を活用して人工的なデータを生み出す「Synthetic Data(合成データ)」の時代を導くAI・データカンパニーとしての地位を築いている同社だが、CTOのブライアン・ハリス氏は基調講演の冒頭で「果たして人間は重要な存在であり続けられるのか」という警鐘を鳴らした。
「私たちは、ある危機に直面しています。創意工夫に対する『信頼』の危機です。人間が重要な存在であり続けられるという信念が崩壊しかけています。そこで皆さんに投げかけたいのは、『この瞬間を直視し、自分が望む未来を築く勇気があるのか』という問いです。あなたのビジネスを、あなた以上に知っている人はいません。今、あなたがAIとどのように向き合うのかが、次世代に対するあなたのブランド価値を決定づけることになります」(ハリス氏)
これは、決して「人間か、利益の合理性か」を問うわけではなく、AIをどう人間のビジネスや社会課題解決に役立てるのか、なぜAIが必要なのかをもう一度問う必要があるという意味だ。この問いを、企業や公共などの視点に立って考えてみよう。
組織は、日々指数関数的にデータを生み出しつづけている。労働者からすれば、終わりの見えないこの情報量を消費し、理解し続けることはほぼ不可能だ。なんとかできたとしても、とんでもない負荷がかかる。この情報ギャップを埋めるためにテクノロジーを活用するというのがSASの思想だ。「SASは、テクノロジーによって情報ギャップを埋め、人々の観察力と意思決定をスケールアップし、競争優位性を維持・確立できるよう主導してきた」とハリス氏は語る。言うなれば、アナリティクスやデータマネジメント、AIを通じて、50年間「知る力」を提供しつづけてきた。
ただし、この先テクノロジーとの共存を築くためには、エージェンティックAIが出すアウトプットを「信頼」できなければならない。信頼できないアウトプットを前提した人とAIの協働は、結局どこかの時点で人の負荷が限界を迎えるだろう。
すべてのエージェンティックAIのワークフローは、「確定的」な要素と「非確定的」な要素で構成される。
まず、確定的なアプローチは、事前に定義されたルールとロジックに従う。同じインプットに対し、常に同じアウトプットを生成する。たとえば、銀行で融資判断を自動化するシステムの場合、候補者の収入や負債比率、クレジットスコアが基準を上回っていれば、その融資は承認される。下回っていれば承認されない。
対して非確定的なアプローチは、LLM(大規模言語モデル)を使用した適応性の高い経路をたどる。同じインプットから異なるアウトプットを生み出すことがある。与えられたコンテキストから敏感に左右される。たとえば、銀行の金融犯罪対策にLLMを活用したAIを導入し、そのAIにおいてアンチ・マネーロンダリングのアラート(リスク検知)に優先順位をつけるとしよう。AIは顧客プロファイルや取引内容、過去の事例、調査ノートなどを分析してリスクを導き出すが、このときLLMは、コンテキストの微妙な違いによって柔軟にリスクの優先順位を入れ替えることができる。
これだけを聞けば、単にLLMによって柔軟性や適応性が上がるというポジティブな意味に思えるが、問題は「その判断が信用できるのか」という点だ。LLMの判断にしたがって担当者が動いてみたら、実はそれが誤った判断であり、深刻なエラーに発展してしまう可能性は排除できない。よって、周知のとおり正確性を担保するガードレールが必要となる。
そしてもう一つ知っておくべきは、エージェンティックAIは利用者によって「信頼の所在」が変化する点だとハリス氏。たとえば個人利用の場合は、そのエージェントが書いたコードやアウトプットした分析結果、ブレストに問題ないかを人間がチェックし、必要に応じて修正する。つまり、信頼の最終的な所在は「個人」にある。
しかしエンタープライズ(企業)での利用の場合、エージェントはデータや組織のサイロを打破して縦横無尽に動き回り、ビジネスワークフローを自動化する。このとき、信頼の所在は個人ではなく、「プロセス自体の正確性と再現性」にある。ここで、エラーの連鎖を防ぐためのガードレールが必要となる。
SASはこの問題に対し、自社内で4つのフェーズに分けた「AI支援型ソフトウェア開発」のプロセスを実践しているという。次のページで、具体的な業種を例に挙げて見てみよう。
この記事は参考になりましたか?
- SAS Innovate連載記事一覧
-
- 「人×自律型AI」の協働を夢見ているのに、AIのガードレールを「守りの対策」だと勘違いして...
- 新たに実用化が迫る「量子AI」は何がすごいのか、AIの進化を前に必要な心構えは?
- アストラゼネカが目指す医療・創薬の新たなステージ──実現に不可欠なデータサイエンス部の役割...
- この記事の著者
-
名須川 楓太(編集部)(ナスカワ フウタ)
サイバーセキュリティとAI(人工知能)関連を中心に、国内外の最新技術やルールメイキング動向を取材しているほか、DX推進や、企業財務・IRなどのコーポレート領域でも情報を発信。武蔵大学 経済学部 経済学科 卒業。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア
