ネットアップのビッグデータは「ABC戦略」
ところで、エンタープライズITの一年を振り返ってみれば、災害対策なども話題になったけれど、やはり一番のブレイクは「ビッグデータ」だろう。ここ最近のイベントやセミナーでは、この言葉があちらこちらにちりばめられている。
とはいえ、このビッグデータ、定義は今ひとつはっきりしない。いったいどれくらいの大きさだとビッグデータになるのか。さらには、非構造化データは必須なのか。リレーショナルデータベースで処理していると、たとえ巨大なデータでもビッグデータと呼ばないのか。定義は曖昧で、語る人の立場などにより異なるのが現実だ。そういう意味では、まだまだ「バズワード」の域を出ていない。
そんな中、ストレージベンダーのネットアップが自社のビッグデータ戦略に関する説明会を開催した。ネットアップの見解は、「ビッグデータは単一のものではない」というもの。分析(Analytics)、帯域(Bandwidth)、コンテンツ(Contents)という3つのエリアがあると言い、これらの頭文字をとってビッグデータの「ABC戦略」と呼んでいるとか。分析は、多くのベンダーが参入しているHadoopを活用する領域だ。Apache Hadoopのディストリビューターとしてリーダー的なポジションにあるClouderaと協業しているところに、同社の優位性があると言う。
帯域は大量のデータをいかに迅速に処理できるかという性能に影響を与える領域。ターゲットとするのは、ハイパフォーマンス・コンピューティングなどの領域だ。ここでは、オープンソースのクラスタファイルシステムLustreを活用するとのこと。
コンテンツ部分は、従来同社がストレージベンダーとして実績ある、大容量のコンテンツリポジトリのソリューションが対象とする分野だ。多くのベンダーが「Hadoop = ビッグデータ」と位置づけているが、すでにストエージベンダーとして実績ある部分もビッグデータ領域にマッピングしてしまうあたりは、マーケティング戦略としてはちょっと興味深い。この3つの領域をうまく連携できたりすると、独自の次世代ビッグデータ戦略へと進化しそうだ。とはいえ、「ABC戦略」というネーミングは、ちょっと無理矢理っぽくてあまりいけてるとは思えないけれど。
MSでは社内のビッグデータから
12日には、マイクロソフトが「Big Dataを現場力にカエル ーマイクロソフトからの現実解ー」というテーマで、SQL Server 2012のBI、データウェアハウス機能を中心に紹介するイベントが開催された。この中でマイクロソフトのビッグデータ戦略の現実解が示された。マイクロソフトの言い分は、「まずは社内のビッグデータから」。まだまだ社内に蓄積されている膨大なデータを生かし切れていないのが、多くの企業の現状。まずは、それらをきっちり活用するのが先でしょうというわけだ。
そこで、重要になるのがBIやデータウェアハウスなど、これまでに着実に進化を続けてきた機能群だ。SQL Server 2012ではそのあたりより一層強化されており、それらをうなく使えば社内のビッグデータ活用ができるようになると言う。とはいえ、マイクロソフトのビッグデータ戦略はそれだけではない。Hadoop on Windows Server、そしてHadoop on Windows Azureといった流行の機能もきっちりと準備しているらしい。そして、HadoopとSQL Serverを連携させるコネクタの提供も既に行っている。この「Microsoft SQL Server Connector for Apache Hadoop」は、マイクロソフトのサイトからダウンロードできるので、興味のある人は試してみてはいかがだろうか。
HPの半導体メモリアレイならExadataより速い!
Itaniumから手を引いたOracleに対し、何かと対抗意識を燃やしているHP。今度は半導体メモリアレイを新たに提供開始し、これを使えばOracle Exadataより速いという発表を行った。この半導体メモリアレイ「HP VMA」は、不揮発性メモリを大量に搭載した製品で、サーバーからは普通のストレージのように扱える。似たような製品となるSSDでは、ハードディスクとの互換性を確保するために間にRAIDコントローラーなどが挟まり、それがボトルネックになる。対してVMAは、サーバーやSANゲートウェイのPCIeに直接接続できるので、ボトルネックが発生しないのだ。なので、極めて速い。
SASのハードディスク応答速度が5ミリ秒くらい、VMAはそれが100マイクロ秒くらいになる。つまりは、データへのアクセスが50倍速くなることに。実際にはどんな処理が速くなるかというと、バッチ処理だ。北米の金融サービス企業で動いていたシステムをOracle ExadataとこのVMAでベンチマーク比較を行ったところ、ETLの処理でExadataが7.1分のものがVMAでは5.1分、クエリーの実行時間ではExadataが16秒かかるものがVMAでは4秒しかかからなかったとか。このベンチマークの詳細は、HPのサイトでホワイトペーパーとして公開されている。詳細を知りたい人は、そちらを参照して欲しい。
バッチ処理に限定するならば、こういうコストパフォーマンスに優れた選択肢があるというのがHPの主張。ターゲットは、ずばりOracle ExadataやIBM Netezzaのようなハードウェアとソフトウェアが一体化した専用マシンだそう。HP VMAなら、どんなデータベースも動くのが売りだ。HPだけでなく、メモリを活用しバッチを高速化するソリューションは、今後さまざま登場してくることも予測される。どんなにチューニングしてもこれ以上バッチ処理が速くならないと悩んでいるあなた、一度半導体メモリアレイというものを検討してみてもいいのかもしれない。