コスト削減に役立つ「Bring-Your-Own」のアプローチ
続いて、「3.最新かつ最高のテクノロジーの活用を目的化」という課題は、最新かつ最高のテクノロジーを使いたいという意欲が、自社のビジネス課題解決への達成志向よりも上回る場合に起こりうる。最新で最高のテクノロジーであるほど、採用にはコストの問題がつきまとう。このとき、テラデータのアプローチはツールを環境に持ち込む「Bring-Your-Own Analytics」(以下、BYOA)、モデルを環境に持ち込む「Bring-Your-Own Model」(以下、BYOM)」を提供することだ。
「Teradata Vantageはミッションクリティカルなプラットフォームであり、低コストかつ高パフォーマンスで、モデルのトレーニングとスコアリングができる。近い将来、AI/MLはユビキタスなものになるだろう。何百万ものモデルが本番環境にデプロイされることになれば、推論コストのマネジメントがますます重要になる。BYOAやBYOMの利用で、モデルのスコアリングにおけるスループットとパフォーマンスが大幅に改善し、ビジネス変革も可能になる」とウィルコックス氏は語る。
BYOAとBYOMについては、スティーブ・マクミラン氏(社長兼CEO)も紹介していたが、「BYOMについては企業のニーズごとに3つの選択肢を提供している」と、ウィルコックス氏は詳細を解説した。元々、言語モデルには、汎用的なタスクを実行できる大規模言語モデル(LLM)と呼ばれるものから、特定のタスクに特化した比較的規模の小さいものまで、さまざまなものがある(そして、その数は増え続けている)。ユースケースによっては、必ずしも有名な汎用LLMを使う必要はない。そこで、テラデータではモデルの規模ごとに「in-DBMS BYOM」「in-Platform BYO-LLM」「Model End-points」という3つのパターンに対応できるようにした。
まず、パラメーター数が1億から1億5000万程度の小規模タスク固有のモデル利用を想定して提供するのが「in-DBMS BYOM」である。Teradata Vantageのデータベースにモデルを持ち込む分、スケーラブルでパフォーマンスの高い推論が可能だ。主にセンチメント分析やトピック検出のようなユースケースを想定している。2つ目の「in-Platform BYO-LLM」とは、in-DBMS BYOMで用いるモデルよりもパラメーター数がより大きく、複雑なタスクでの利用を想定している。最後の「Model End-points」とは、パラメーター数が1兆を超えるLLMでしかできないユースケースを想定している。クラウドサービスプロバイダーの環境にある汎用LLMに、API経由で接続する方法だ。
3つのオプションを提供するのは、テラデータの顧客に「選択の柔軟性」を提供するためだ。また、モデルを“データのある場所”に持ち込むというアプローチは、データサイエンティストのモデルスコアリングの負荷を減らすという、コストメリットを得ることにもつながる。