生成AIとそのセキュリティをどう捉えるべきか
本ウェビナーでは最初に、高橋正和氏によるセッション「生成AIの動向とセキュリティへの影響~大衆化する専門性への懸念と期待~」が行われた。
高橋氏は、2022年11月にChatGPTが発表されたことをきっかけに、生成AIが話題になったとして「なぜChatGPTがすごいのか」をChatGPT自身に聞いた。しかし、ChatGPTの回答は指定した500文字をはるかに超える。
高橋氏はそこで、PowerPointのプレゼンテーションの作成を依頼する。ChatGPTにPowerPointを出力する機能はないが、マイクロソフトではPowerPointにChatGPTのエクステンションを用意している。これを活用したところ、それなりの時間とCPUパワーを消費したものの、みごとにプレゼン資料が完成。
完成したパワポは「ChatGPTの機能」「ChatGPTの利用例」「ChatGPTの利点」「ChatGPTの将来展望」「まとめ」という構成になっていた。高橋氏は「昨年12月にも同じことをしたが、格段に良くなっているものの、まだまだ表面的な内容である」と評価する。より充実したものを出力することはできるものの、そのためにはプロンプトなどの技術が必要であることが現状だという。
ChatGPT以前からAIは存在しているが、生成AIやLarge Language Model(LLM)の場合は、事前に大量の学習をすることによって、意味は理解していないものの最もらしい結果が出力できるようになったことに特徴があるという。従来の機械学習は一定以上の学習データを与えると過学習になってしまい、正解率が下がるという常識があった。しかし生成AIでは、ある学習量を超えると急激に正解率が上がる。
ChatGPTは、従来の強化学習や人手による教師付き学習ではなく、自己教師あり学習を中心に拡散モデル、ファインチューニングとしてセッション管理や本文中学習などで構成されている。そのため人手を介さなくても学習データを大量に作れるようになったことがポイントであり、テキスト、音声、画像、動画など複数のデータを統合して処理するマルチモーダルAIとなっていることも特徴であると高橋氏は指摘する。
生成AIのセキュリティと懸念
なおAIのセキュリティについては、社会問題としてのAI、権威付けのAI、そして技術としてのAIの3種類があるため、どのAIにおけるセキュリティを議論するのかを明確にしておく必要があるという。また、AIの基本的な問題として高橋氏は以下の点を挙げる。
- 100%の保証は原理的にできない
- 将来が過去と同じ分布でないと正しく予測できない
- 元分布の範囲外は正しく予測できない
- なぜそうなったかを説明できない
高橋氏は認識すべき生成AIのポイントとして、発明を行うものではないこと、生成AIが自動的に防いでくれるわけではないこと、自律的に連携し成長するものではないことを挙げる。ただ、生成AIによってスピードと量と領域、それに攻撃や事件などの頻度が上がり、底辺のレベルアップが起きる。そのため今後は超スクリプトキディのような動きでも出てくる可能性があるという。
「生成AIが登場した現在は、時代の特異点かもしれない」と高橋氏は語る。マイコンが登場したときのような既視感を感じているためだ。そうした中で高橋氏は、「セキュリティ関係者は新しい技術に消極的な傾向があるものの、利用規約や法制度を理解した上でぜひ使ってみて欲しい」と呼びかける。