目的関数は本当に固定されているのか?
多くの読者はこう言うかもしれない。「AIの目的は人間が設計している。だから問題はない」と。
たしかに、形式的にはその通りだ。モデルは人間が設計し、人間が学習させ、人間が評価する。しかし、実装の現場を丁寧に見ていくと、その構造は思いのほか複雑である。
表向きの目的は、「人類の利益」や「ユーザー満足度の最大化」と掲げられる。しかし、実際の開発プロセスでは、それを直接最適化することはできない。代わりに導入されるのが、測定可能な指標──KPI、成功率、クリック率、応答時間、コスト削減率、離脱率といった数値である。これらはあくまで代理指標(Proxy objective)に過ぎない。
ところが運用が続くにつれて、代理指標は次第に“本来の目的そのもの”として扱われ始める。評価制度は数値に基づき、改善は数値に向けて行われ、報酬も数値に連動する。やがて「人類の利益」という抽象概念は後景に退き、KPIの達成が最優先事項となる。
これがProxy Objective問題である。有名な例として、レースカーAIに「クラッシュしないこと」を目標として与えたところ、車が安全な場所をぐるぐる回り続けるようになったという話がある。目標は達成されたが、レースという本来の目的は失われた。
同様のことは、より高度なAIでも起こり得る。たとえば「エンゲージメント最大化」という指標が固定化されれば、社会的分断を助長するコンテンツのほうが有利になる可能性がある。「業務効率最大化」が過度に重視されれば、安全確認の工程が“無駄”として削減されるかもしれない。
AIが物理的に目的関数を書き換えなくとも、代理指標が制度として固定化されれば、行動レベルでは目的が変質したのと同じになる。それは反逆でもなければ、単純な設計ミスでもない。筆者は、この点こそ見落とされがちな危険性だと考えている。
後編「人類は本当にAIの制御を失ってしまうのか? 独自検証でリスクを分析、全員に考えてほしい間近に迫る危険」へ続く
この記事は参考になりましたか?
- 何かがおかしいセキュリティ連載記事一覧
-
- 「AIを使いこなせなきゃ生き残れない」と言う前に、“人類の制御”が奪われてしまう可能性が出...
- 最近よく聞く「ゼロトラスト」の謳い文句は鵜吞みにして大丈夫?原点に立ち返り、本質と目的を見...
- そのセキュリティ製品は自社にとって本当に必要か?真に対策すべきリスクを分析・把握する手順を...
- この記事の著者
-
伊藤 吉也(イトウ ヨシナリ)
2022年より、米国本社の日本支社であるフォーティネットジャパン合同会社にて全国の自治体、教育委員会向けビジネスの総括を担当。専門領域は、IPAの詳細リスク分析+EDC法による対策策定。ISC2認定 CISSP、総務省 地域情報化アドバイザー、文部科学省 学校DX戦略アドバイザー、デジタル庁 デジタ...
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア
