セキュリティ分野でも広がりつつある、AIエージェントの波
はじめにアマル氏は、生成AIの特徴について整理した。従来のAIはパターン認識に特化していたが、生成AIは複数の正解を持ち、画像やテキストなどを生成する。大規模言語モデル(LLM)は、次に来る単語の確率を予測し知的に見える応答を生成するが、学習範囲外の知識は持たない。そのため、プロンプトエンジニアリングを活用し、適切な質問の仕方を工夫することが重要となる。
また、生成AIはハルシネーションが完全には防げないため、専門知識による検証を行いながら利用する必要がある。その中で、AIモデルが学習していない企業固有のデータを扱うには、RAG(Retrieval-Augmented Generation)の活用が有効だとされている。外部データを検索し、それをもとに回答を生成するため、大規模な学習なしに実用化できるからだ。
次に同氏は、2025年の生成AIの動向について語った。LLMは今後も進化を続け、RAGをはじめとする周辺技術も発展していくだろう。クラウド技術の進化と同様にAIもより高度化し、実用性が向上していくことが予想される。
また、DeepSeekの登場によって言語モデルの精度が向上し、それにともないデータの流入も加速した。軽量でオープンなモデルの開発も進み、今はAIの活用がより柔軟になりつつある。DeepSeek R1のリリースは予想以上に早く、研究者の間でも進化のスピードが話題とのことだ。
そして、2025年に特に注目されているのが、AIエージェントだ。エージェント技術の進展により、自動化の幅がさらに広がる。RAGの分野では、自動オーケストレーション技術が発展し、個人に最適化されたシステムの構築が容易になりつつある。GoogleのNotebookLMもその一例で、ユーザーがアップロードしたドキュメントやウェブリンクを分析し、要約や質問応答、学習ガイドの作成を支援する。
AIエージェントは、LLMとRAGを組み合わせて活用することで、より広範に効果を発揮できる。たとえばコーディングやレビュー、プロジェクト管理(PMO)、品質保証(QA)などの役割を持つエージェントが連携し、システム開発を自動化するツールが登場している。この技術はセキュリティ業界にも広がりつつあり、研究分野では既に多くの事例が生まれているとのことだ。
相次ぐAIを悪用した攻撃と企業が直面する新たなリスク
続けてアマル氏は、AIがサイバー攻撃に悪用されるケースを説明した。悪意のある者は、新たなツールをいち早く取り入れ、既にAIを用いた攻撃を実行している。注目すべき脅威のうちの1つが、コード生成技術の悪用だ。高度なAIツールを用いたマルウェア開発の事例が確認されており、日本でも昨年、逮捕者の調査を通じてAIを利用していたことが明らかになった。
「AIの活用により、攻撃のハードルは大幅に下がり、かつては専門的な知識を持つハッカーの領域だったマルウェア開発が容易になっています。特に、ガードレール(制限)のない生成AIの登場がこの傾向を加速させています」(アマル氏)
ディープフェイクを用いた詐欺やサイバー攻撃も盛んだ。人の心理的な脆弱性を突くソーシャルエンジニアリングにより、なりすまし被害が拡大している。金融詐欺では、ディープフェイク技術を使い、他人になりすまして金銭を騙し取る手口が増えているという。企業でも、CFO(最高財務責任者)になりすました電話で送金を指示するなどの手法が、海外で確認されている。
また、リモートワークの普及にともない、偽装就職の手口も問題視されている。アメリカでは、採用プロセスのオンライン化により、ディープフェイクを用いた面接詐欺が発生。映像をリアルタイムで操作し、実際とは異なる人物が面接を受ける事例が報告された。 さらに、偽情報や誤情報の拡散も深刻な課題だ。たとえば、政府の要人にになりすました偽情報が流され、戦略的なプロパガンダに利用されるケースが確認されている。

これらは一例に過ぎず、AIは我々が知らないところでも悪用され続けている。こうした状況に対応するため、防御側もAIを活用せざるを得ない。アマル氏は「もはや『AIを使うかどうか』ではなく、『いかに効果的に使うか』が問われる時代になっている」と主張する。