日本からハーバード大、そして起業へ 「AIの脆弱性」研究を社会実装する
Robust Intelligenceを起業した若き秀才として注目を集める大柴行人氏。1995年に日本で生まれ高校を卒業後、米ハーバード大学に進学し、コンピュータサイエンスと統計学を専攻する。その際に「AIの脆弱性」に関する研究をしていた。
「AIに対していろいろなデータを当てはめて、どんなときに“AIが壊れる”のかといった、言わばソフトウェアハッキングのAI版のようなことをしていました。当時AIはすごい魔法の箱だという世の中の認識がある中で、適切に使わないといけないと感じていましたね。そして研究を続けるのか、それともアカデミックな世界と世間とのギャップを埋めるのか、どちらをしたいのか考え、後者を選びました」(大柴氏)
2019年、大学卒業前の数ヶ月間に指導教授だったYaron Singer氏とRobust Intelligenceを共同起業する。当初はハーバード大学近くのボストンで活動していたが、世界有数のベンチャーキャピタルであるSequoia Capitalから資金調達後、シリコンバレーに移転した。
Robust Intelligenceの主な事業は、AIの開発時にモデルをテストする「AI Stress Testing」と、 運用時に継続的にAIモデルを保護する「AI Firewall」、AIの性能劣化を検知し原因を特定する「AI Continious Testing」という、3つのサービスから成るプラットフォーム「Robust Intelligence」の提供だ。AIが生まれてから運用を継続していくというライフサイクルにおいて、健全な状態を保つことを支援する。
米国での顧客企業はPayPalやExpedia、大手HR企業、国防総省。国内では、NEC、NTTデータ、東京海上、セブン銀行など業種業界はさまざまだ。この顔ぶれだけでもAIが多くの業界に浸透しており、そのリスクが課題となっていることがわかる。つまり、AI倫理や品質、AIの公平性といった議論が各所で生まれているのだ。
「たとえば、Expediaであれば、以前作っていた旅行のレコメンデーションに係るAIモデルは、コロナ禍によって使えなくなりました。扱うデータの状況が変わるに従って、AIモデルもチェックしなければならないのです。AIは単体で動くわけでなく、データのパイプライン上で不正なデータや誤ったデータが混ざると、正しい予測ができなくなります。顔認証や不正検知のAIなら、それを騙そうとする攻撃もあります。これらの課題に我々は注目しているのです」(大柴氏)