AI稼働までの時間を短縮
データパイプラインやDataOpsを活用することで、データを中心とした運用が上手く回せるようになり、データサイエンティストはAI活用に集中できるようになったとしましょう。次に現れる課題は、データサイエンティストが生み出したAIが本番環境にデプロイされるまでに時間がかかっているということです。
ある調査によると、40%以上の組織がAIを本番稼動させるのに2ヵ月以上かかり、半数近くの組織は6ヵ月から1年を要しているという結果が得られています(AI Infrastructure Alliance, AI INFRASTRUCTURE ECOSYSTEM OF 2022)。最近のAI技術の発展を見ていると、どんどんと新たな技術やサービスが生み出されており、数ヵ月後の状況ですら見通すのが難しいほどです。自社のAI活用の仮説検証のループを数ヵ月~1年といった期間からなるべく短くしていきたいというのは、ビジネスへの価値を考えると自然なことでしょう。AI活用から本番環境へのデプロイといった以下のようなワークフローを、効率的に実行するための考え方として役に立つのが、「MLOps」という手法です。
名前から分かるかもしれませんが、DataOpsと同じく、アプリケーション開発のプラクティスであるDevOpsの考え方をAI活用に応用したものです。基本的な進め方としては、DevOps/DataOpsのプラクティスと同様、AI活用からモデルデプロイまでの様々なプロセスを自動化し、状況をモニタリングしつつ継続的に改善を行うものです。前編で説明したDataOpsはデータ中心で、MLOpsはAI中心の運用手法となります。そのため、一部では重複している領域もあり、互いに補完する手法となります。
もともと、Googleによって提唱された手法であり、主要なクラウドベンダーからはMLOpsを支援するためのサービスが提供されています。現在では、Googleのエンジニアによってオープンソースで利用できる「Kubeflow」といったソフトウェアも公開されており、オンプレミス環境でも利用が可能です。