インテル最新プロセッサーでクラウドコストを最適化! プロセッサーの“真の能力”を引き出す方法を伝授
暗号化、復合化処理を高速化する機能をもつ「第3世代インテル Xeon スケーラブル・プロセッサー」

今やDXのためのITシステムのモダナイズや、増え続けるデータの効率的な活用のために、クラウドの利用は当たり前となった。一方で、データやアプリケーション移行の手間やコスト、セキュリティの懸念などでクラウド化に踏み切れない企業もある。さらにクラウド化を先行して進めてきた企業においても、増え続けるクラウド利用によるコスト増に頭を悩ませているケースも多い。これらクラウドへの移行や活用における様々な課題に対し、インフラ面から解決するにはどのようなアプローチがあるのだろうか。
クラウド移行にともなう“3つの課題”
「クラウド移行には『コストの増大』『セキュリティの担保』、さらに『サステナビリティへの対応』といった課題があります」と話すのは、インテル セールスマーケティンググループ プリンシパルエンジニアの松田貴成氏だ。クラウドにおける課題は一様ではなく、利用目的、成熟度、業務内容や業界規制など、企業の置かれている状況により異なる。これらクラウドを利用する上で複雑化する課題に対し、同社はITインフラの面からどのように支援できるのか。

AWSなど主要クラウドベンダーとの協業で、世界中で利用可能
インテルは、Amazon Web Services(以下、AWS)やMicrosoft Azure、Google Cloudといったメガクラウドベンダーとのパートナーシップで、すべてのリージョン、カントリーでインテルベースのインスタンス(仮想サーバー)が利用できることが課題解決の大前提になると考えている。「インテルベースのインスタンスなら、クラウド事業者や地域を問わず使うことができます。たとえば災害対策で他国のリージョンを利用したいと考えた際に『対応するインスタンスがなく選択できない』ということがありません」と松田氏。
また国内外の主要なクラウド事業者のいずれにおいても、インテルベースのインスタンスは利用できる。このようにインテルベースのインスタンスであれば、様々なパブリッククラウドからプライベートクラウド、オンプレミス、エッジに至るあらゆるところで利用でき、利用者は幅広い選択肢の中から目的や用途に合ったものを自由に選ぶことが可能だ。

コストはインスタンス単体ではなく、トータルで考える
オンデマンドでリソースを追加できる柔軟性は、クラウドの大きな特徴だ。簡単にリソース追加ができるのは便利だが、利用が増えればコストも増加する。経営観点では、迅速かつ柔軟にリソースを追加できる利便性と同時に、コスト最適化も求めるはずだ。「クラウドにおけるコスト削減は単純ではありません。単に安価なインスタンスを選べば良いのではなく、トータルでコストの最適化を考える必要があります」と松田氏は言う。
たとえば、現状ではサービスに対するPCやスマートフォンからのアクセスは、セキュリティを担保するために通信をHTTPSにして暗号化するのが当たり前だ。暗号化すれば、アプリケーションで処理する際には復合化する必要がある。これらの処理に時間がかかると、企業のクラウド利用の利便性が損なわれてしまう。
同社の「第3世代インテル Xeon スケーラブル・プロセッサー」には暗号化、復合化処理を高速化するアクセラレーター機能がある。そのため「新しいインテル Xeon プロセッサーを採用するだけで、価格パフォーマンスが約15%改善でき、別途ソフトウェアを使うことで暗号化、復合化の処理が10%以上も性能改善できます。またインテルのソフトウェア技術も活用すれば、メールを暗号化するTLS接続も第2世代インテル Xeon スケーラブル・プロセッサーと比べ4.2倍の性能となります」と松田氏。セキュリティの担保と性能の向上を、暗号化アクセラレーターで両立できるのだ。
つまりインスタンスの追加費用が発生したとしても、新しいインテル Xeon スケーラブル・プロセッサーのインスタンスを選択してワークロードを最適化できれば、インスタンスを増やすことなく安全性も性能も担保できることとなる。利用するユーザーが多く、処理するサーバーが多いような環境では、その効果はより高まるだろう。

DXを進める中では、たとえばAIや機械学習技術を用いた予測、推論を行うことも多い。その場合、予測モデルの構築にはGPGPU(GPUによる汎用計算)を用いた機械学習専用の環境を用意するだろう。一般にGPGPUはAI、機械学習の学習フェーズにおいて高い処理性能を得られるが、推論フェーズに応用すると費用は高い。これに対し、インテル Xeon スケーラブル・プロセッサーではCPUによる機械学習推論を高速化する機能を搭載している。
この機械学習処理の高速化機能により、インテル Xeon スケーラブル・プロセッサーを利用するAWSの「Amazon EC2 DL1インスタンス」は、現世代のGPUベースのEC2インスタンスと比べ最大で40%の価格パフォーマンスを発揮。「これはインテルが主張しているのではなく、AWSのサイトで明らかにされています[1]。費用が高くなる専用インスタンスではなくインテル Xeon スケーラブル・プロセッサーで推論することが、コスト削減に貢献できる例です」と松田氏は言う。
[1] 「深層学習モデルのコスト効率の高いトレーニングのための Amazon EC2 DL1 インスタンスのご紹介」(AWS)
この記事は参考になりましたか?
- この記事の著者
-
谷川 耕一(タニカワ コウイチ)
EnterpriseZine/DB Online チーフキュレーターかつてAI、エキスパートシステムが流行っていたころに、開発エンジニアとしてIT業界に。その後UNIXの専門雑誌の編集者を経て、外資系ソフトウェアベンダーの製品マーケティング、広告、広報などの業務を経験。現在はフリーランスのITジャーナリスト...
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
【AD】本記事の内容は記事掲載開始時点のものです 企画・制作 株式会社翔泳社
この記事は参考になりましたか?
この記事をシェア