高い効率の重複排除は災害対策を低コストで実現する
さらにData Domainでは、重複排除した結果を圧縮している。そのため、重複排除の効果が出にくい初回のアーカイブ処理でも、元のデータの1/2から1/4程度までサイズを削減可能だ。より重複排除効果が発揮される2回目以降となれば、データの種類にもよるが、1/20から1/50程度までデータ量は削減される。このような高い効率でデータ重複排除ができるので、ある企業の例ではデータセンターの床のタイル17枚分ものスペースを占有していたテープライブラリ装置が、Data Domainに移行したことでほんの8Uのサイズに収まってしまったとのこと。
さらにこの重複排除の高効率性は、昨今、とみに需要が高まっている災害対策でも大きな効果を発揮する。災害対策用に遠隔地にバックアップサイトを構築する際、大きなコスト負担となるのがサイト間の回線の太さだ。レプリケーションに十分な回線性能を得ようとすれば、それ相当の専用回線を契約することとなり、これがかなりのコスト負担となる。
Data Domainであれば、重複排除と圧縮の効果で、2回目以降にバックアップサイトに送るべきデータサイズはきわめて小さくできる。なので「あまり速度の速くない回線でも遠隔地サイトへのレプリケーションが可能です。場合によっては、高い専用線ではなくBフレッツなどの通常のインターネット回線でレプリケーションを行っている例もあります」と志間氏は言う。
さらに、Data Domainならローカルなディスクにリアルタイムに書き出すのと並行して、重複排除後のデータをバックアップサイトに送れるので、ほぼリアルタイムにレプリケーションが可能となる。また、Data Domainのレプリケーションは、1対1の一方通行だけではない。たとえば東京と大阪で、それぞれのサイトのバックアップを双方で持ち合う、あるいは多対1で多くのサイトの遠隔地バックアップを1カ所に集約する、多対多のカスケード型でデータを持ち合うなど、柔軟な構成が可能となっている。この柔軟性もまた、データの安全性の確保とコスト削減の両立に寄与する。そのため「Data Domainを採用する顧客の7割くらいは、災害対策構成での導入となっています」とのことだ。
そして、バックアップやアーカイブを行う際に、データサイズがかなり小さくなるだけでは十分ではない。もっとも重要なことは、重複排除されてアーカイブされるデータの安全性、信頼性がきちんと担保されるかだ。「米国でなどでは、この安全性、信頼性の部分が製品の評価でもっともフォーカスされる部分です」と志間氏。
Data Domainでのデータ信頼性は、2つの方法で確保されている。1つがRAID 6による2種類のパリティによるデータの保護だ。そしてもう1つが、Data Domain独自のデータチェックの仕組み。ディスクに書き込むのと同時に、ファイルシステムレベルでデータが読み込み可能かをチェックするのだ。
定期的に全データのチェックを行い、読み込めないデータが発生した場合にはRAIDレベルでの復旧を行う。それでも復元できない場合には、管理者にアラートを表示し、バックアップデータの再取得を促すことが可能だ。この高いデータの信頼性の確保も、Data Domainが市場で評価されている大きな理由となっている。