AIモデルそのものへの攻撃手法も
とはいえ、AIを社会の害悪として遠ざけるのは早計だ。逆にAIを防御の手段として積極的に活用することで企業側にも大きなメリットをもたらすのだ。実際に侵入した脅威の検出や分析などで、既に様々なセキュリティ製品がAI機能を取り入れている。
「たとえば、多くの企業が慢性的なセキュリティ人材不足に悩んでいますが、AIを活用することで、その不足部分を補うことができます。複数のインシデント情報をAIが相関的に分析し、起こっている状況を説明するとともに取るべき対策をアドバイスし、さらに上層部への展開レポートまで自動的に生成してくれる時代です。セキュリティ対策で最重要とされる初動対応にも大きな効果を発揮します」(小林氏)
もちろん、すべてをAI任せにして、導き出される回答を鵜呑みにしてしまうのも危険である。AIは間違った情報を生成する可能性もあるからだ。実際にAIに誤った回答を導かせるために、企業が利用しているLLM(大規模言語モデル)自体を攻撃するといったサイバー攻撃の手法も存在する。そもそもオープンな生成AIサービスに対して、不用意に内部機密情報を入力することは、その行為自体が情報流出につながるリスクとなる。
すなわち、AIに限らずどんなテクノロジーについても、その特性を十分に理解した上で活用することが大前提である。「最終的な判断は必ず人が行うことが重要なポイントです。AIに関して言えば、サブ的なアドバイザーとして活用することで、非常に有用なツールとなります」と小林氏は強調する。
既存のセキュリティ対策を無効化する量子コンピューター
サイバー攻撃とセキュリティ対策の両面に大きな影響を及ぼすことが予想されるもう1つのテクノロジーとして、次に量子コンピューターへと話を移そう。
量子コンピューターは、その名のとおり量子の特性を利用したもので、「1と0が同時に存在する状態」を応用することで、一度に膨大な計算を実行できるようにするものだ。現行のコンピューターとは根本的に仕組みが異なるため、これまで年単位を要していたような処理も一瞬で終わらせることが実現できると考えられている。
実際、スーパーコンピューターを駆使しても解読に1万年くらいかかるとされていた暗号を、量子コンピューターがわずか200秒で解読してしまったというレポートもある。そんな量子コンピューター時代の到来を見据える中で、セキュリティ対策の観点から叫ばれているのが「暗号の2030年問題」である。
「量子コンピューターが実用化すると見込まれる2030年には、今一般的に使われている暗号化アルゴリズムや暗号を解くための鍵などを一瞬で解読されてしまうおそれがあり、情報の秘匿性が失われてしまうことが懸念されています」(小林氏)