ウィズセキュアは、機械学習によってテキストを生成する言語AI「GPT-3(Generative Pre-trained Transformer 3)を用いた新調査で明らかになった事項について発表した。同社は今回の調査により、ChatGPTのサイバー攻撃への悪用の可能性について警鐘を鳴らしている。
同社によれば、大規模言語モデルを用いた場合、たとえ学習データに関連情報が含まれていなくても、スピアフィッシング攻撃に適したメールスレッドの作成、特定の人物の文体の模倣である「テキストディープフェイク」、文章内容への意見の適用、特定の文体での執筆、説得力のあるフェイク記事の作成が可能であることが証明されたという。
そのため同社は、ChatGPTが今後サイバー犯罪や攻撃に用いられるテクノロジーにつながる可能性があると結論づけている。
今回の調査結果について、ウィズセキュアのインテリジェンスリサーチャーであるアンディ・パテルは次のように述べている。
「インターネットに接続できる人なら誰でも強力な大規模言語モデルにアクセスできるようになったという事実は、非常に深刻な問題をもたらします。つまり、私たちが受け取るメッセージやコンテンツは、AIによって書かれたものかもしれないと、まず疑念を抱くことが必要だということです。今後、AIを使用して有害なコンテンツと有用なコンテンツの両方を生成するには、書かれたコンテンツの意味と目的を理解することができる検出の戦略が必要になるのです」
【関連記事】
・AIによるサイバー攻撃対処には新たな技術革新が必要 ウィズセキュアがレポートを発表
・ウィズセキュア、サイバー脅威に関する予測コメントを発表 同社エキスパートたちが来年の想定状況を解説
・セキュリティ投資では「データ侵害防止」と『リモートワーク』が重要視 ウィズセキュアが調査結果を発表