
前編では、データの運用という観点からAI活用を加速させるデータパイプラインやDataOpsについて解説しました。後編では、AIモデルが本番環境にデプロイされるまでの時間を短縮するための手法である「MLOps」と、エンタープライズストレージの運用機能について解説します。ストレージインフラからの支援により、データパイプラインやDataOps、MLOpsの実践を進め、自社のAI活用を加速させましょう。
AI稼働までの時間を短縮
データパイプラインやDataOpsを活用することで、データを中心とした運用が上手く回せるようになり、データサイエンティストはAI活用に集中できるようになったとしましょう。次に現れる課題は、データサイエンティストが生み出したAIが本番環境にデプロイされるまでに時間がかかっているということです。
ある調査によると、40%以上の組織がAIを本番稼動させるのに2ヵ月以上かかり、半数近くの組織は6ヵ月から1年を要しているという結果が得られています(AI Infrastructure Alliance, AI INFRASTRUCTURE ECOSYSTEM OF 2022)。最近のAI技術の発展を見ていると、どんどんと新たな技術やサービスが生み出されており、数ヵ月後の状況ですら見通すのが難しいほどです。自社のAI活用の仮説検証のループを数ヵ月~1年といった期間からなるべく短くしていきたいというのは、ビジネスへの価値を考えると自然なことでしょう。AI活用から本番環境へのデプロイといった以下のようなワークフローを、効率的に実行するための考え方として役に立つのが、「MLOps」という手法です。

名前から分かるかもしれませんが、DataOpsと同じく、アプリケーション開発のプラクティスであるDevOpsの考え方をAI活用に応用したものです。基本的な進め方としては、DevOps/DataOpsのプラクティスと同様、AI活用からモデルデプロイまでの様々なプロセスを自動化し、状況をモニタリングしつつ継続的に改善を行うものです。前編で説明したDataOpsはデータ中心で、MLOpsはAI中心の運用手法となります。そのため、一部では重複している領域もあり、互いに補完する手法となります。
もともと、Googleによって提唱された手法であり、主要なクラウドベンダーからはMLOpsを支援するためのサービスが提供されています。現在では、Googleのエンジニアによってオープンソースで利用できる「Kubeflow」といったソフトウェアも公開されており、オンプレミス環境でも利用が可能です。
この記事は参考になりましたか?
- この記事の著者
-
脇 昌弘(ワキ マサヒロ)
ネットアップ合同会社 APAC AI事業開発リード/国内DXセンター長/Partner Manager - Tech Allianceアジア太平洋地域でのAI事業開発をリード。国内においてはDXセンター長として学術系、バイオ戦略系、映像系等の業界活動を推進ながらNVIDIA, Microsoft, ...
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
-
井上 耕平(イノウエ コウヘイ)
ネットアップ合同会社 ソリューションアーキテクト部 ソリューションアーキテクト国内メーカーにて主に製造業向けのIoTの活用ソリューション開発に10年ほど従事。データの収集からAIやBIによるデータの利活用の領域で提案からデリバリーまで幅広く活動。NetAppにおいてはソリューションアーキテクトとして...
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア