時間をかけて行っていた高度な分析もリアルタイム化を目指したい
今週もまた、ビッグデータやインメモリといったキーワードが、IT業界を飛び交っていた。そして、その両方のキーワードを含むソリューションを発表したのがSAS。発表したのは、インメモリ型BI製品の「SAS Visual Analytics」。その特長はHadoopのファイルシステムであるHDFSを内包し、ビッグデータをインメモリのアーキテクチャを使って高速に分析できるというもの。
この製品のエンジンとなるのがLASR Analytic Server。これ、ブレードサーバーを活用し、HDFSとインメモリを用いて大量データを効率よくインメモリ上で分析処理するもの。ブレードサーバーは、基本的にどのベンダーのものでもいい(現時点ではDELLとHPのブレードサーバーが認証されているとのこと)。汎用サーバーに載せるソフトウェアとして提供され、いわゆるアプライアンス製品ではない。ブレードサーバーを活用することで、1台のサーバーに巨大なメモリーを搭載するようなインメモリのソリューションよりも、かなりコスト効率はよくなるとのことだ。
SASに昨年取材をした際には、高速処理性能もあるけど、むしろ高度な分析の仕組みを持っていることこそが同社の強みだと言っていた。もともと強い統計処理に、予測やシミュレーションを加えて高度な分析を行える。SASの仕組みを使えば、高度な分析のPDCAサイクルを回して、予測の精度を上げられるのも大きな特長。そして、そのような高度な分析を行う場合には、多少時間がかかってもいいから、じっくりと腰を据えて分析を行うという見解だった。
これが、ビッグデータの時代になり、高度な分析をしようとするとさらに時間がかかることに。そうなると、当然ながら「より速く」が求められ、高度な分析においてもリアルタイム性が重要になるのだとSASの吉田社長は言う。
分析に時間がかかってしまうと、何らか対処すべき結果が出てもそれをもとに対策を施す時間がない。さらに、分析のシナリオも、処理に時間がかかると1度に1つしか流せないが、高速に処理できれば1度に複数の撓りを流すことも可能に。そうなればより精度の高い分析ができるのは確かだ。
この1年のテクノロジーの進化により、極めて高度な分析をする際にも高速性、リアルタイム性が重要というように、SASの戦略も変化したということになる。
で、それを解決するテクノロジーが、インメモリでありHDFSだったわけだ。
HadoopとMapReduceという組み合わせで使うのではなく、ファイルシステムのHDFS部分だけを切り出しそれに自社テクノロジーを組み合わせるという方法は、今後さらに増えそうだなと感じている。1つの部品としてオープンソースソフトウェアを捉える目もこれからは必要になりそうだ。