運用にビッグデータを活用し、新たな付加価値の提供を
さらにハイブリッドクラウドに求められるものとして「アジリティの追求」があり、「DevOpsスピードの確立」は大きな課題となる。
「そもそもサーバーの構築などはAPIなどで自動化が進み、立ち上げが比較的容易になってきています。しかし、問題は「フローをどのように対応させるのか」、「どうメンテナンスしていくのか」などはまだ十分に自動化されているとはいえません。となると、『いかに手順を実行したいエンドユーザーに渡すか』がカギでしょう」(梅根氏)
確かにいくら自動化しても、自動化のトリガーになる人が動かなければ、結局はIT管理者が自動化を実行せざるを得ない。そうなれば、自動化の範囲を広げる意味でもEnd to Endの自動化が求められる。つまり、必要な時にすぐに必要なものを立ち上げるためには、認証フローもスムーズに連携していることが大切だ。例えば何かサイトを立ち上げる時、走らせる前の容量チェックや他のシステムへの干渉などを事前に確認し、認証処理はポータルの裏側で行うことになる。さらに、作ったものはいつか壊す必要が生じる以上、自動化の処理をライフサイクル管理まで行うことがEnd to Endの自動化のポイントの一つと言える。
そして、DevOpsの観点で言えば、開発担当者からテスト担当、ステージング担当、運用担当まで「各フェーズでいかにつなげていくか」が大切だ。そのためには共通の基盤として、いずれの担当者も同じものを見るような環境が求められる。開発者がボタン一つでリリースすると、テスト環境が構築され、作ったモジュールが置かれ、必要なテストが実行される。終われば開発者にフィードバックされ、環境は壊される。マイクロフォーカスでは、「テスト環境テストのシナリオ」「テストされるモジュール」「モジュールが動く環境」の三位一体で管理していくソリューションを提案しているという。
「こうしたソリューションは言うは簡単ですが、プロセスを標準化することがとても大変です。そのため、エンタープライズのような大規模なお客様の場合は、PoCなどの始めやすい部分から展開して、全体に広げていく方法が良いと思われます。つまり、ツールの話をしながら、どこのプロセスを改善していくかを考えることがポイントとなります」(梅根氏)
そして、パブリッククラウドへの移行における付加価値として「ビッグデータを監視に活用すること」を提案することがあるという。集めた情報で性能などの傾向を見て、普段と違うところを炙り出す方法だ。例えばリアルタイムで取った値が、普段と違う動きをしていたとすれば、動的な閾値の設定で普段と違う数字や傾向が出たらアラートをあげるようにもなっている。
そして、2つ目の「ビッグデータの活用」として、インシデント管理が紹介された。例えばサービスデスクなどにおいて、集まったインシデントに対してビッグデータを適応して「よくある問い合わせ」を上位でランキングしたり、インシデントの分類を自動的に行ったり、できるだけ処理を自動化する仕組みを提供するという。
最後に梅根氏は「これまで紹介してきたものは代表的なものばかりですが、各フェーズで課題はまだまだたくさんあります。特に運用の中でも、単純に監視や調査といった狭義のものだけでなく、モダナイゼーションという長期的な視点で移行を進めるのは大切なこと。ぜひ、マイクロフォーカスエンタープライズのソリューションを活用してほしい」と語り、まとめとした。