SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

最新イベントはこちら!

Data Tech 2024

2024年11月21日(木)オンライン開催

EnterpriseZine Day Special

2024年10月16日(火)オンライン開催

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けの講座「EnterpriseZine Academy」や、すべてのITパーソンに向けた「新エバンジェリスト養成講座」などの講座を企画しています。EnterpriseZine編集部ならではの切り口・企画・講師セレクトで、明日を担うIT人材の育成をミッションに展開しております。

お申し込み受付中!

週刊DBオンライン 谷川耕一

生成AIの未来は「企業内データ」活用にあり、Cohesityはバックアップデータ利用で先を行けるか?

「Cohesity Gaia」のバックアップデータを利用するアプローチとは

 生成AIブームは、まだまだ衰えを見せない。とはいえ、大規模言語モデル(LLM)の規模や精度を追求する動きは一段落した感もある。ここ最近は、生成AIを全社展開したもののなかなか利用率が上がらない、自社に蓄積したデータを活用できない、思うような回答が得られないなど、新たな課題も聞こえてくる。自社データを用いて独自にLLMをファインチューニングするのは、どうやらコスト的にも手間的にも容易でないことがわかってきた。そのため、企業内に蓄積されている情報をいかにしてLLMに渡せるかが、企業における生成AIの活用では鍵となる。

バックアップデータを活用、生成AIへの新たなアプローチ

 企業内データを生成AIで活用するため、ベンダーからはそれを実現するためのサービスや機能提供も増え始めた。バックアップからデータプラットフォームにソリューションの幅を広げているCohesityも、企業データを生成AIで活用するために「Cohesity Gaia」の提供を開始した。

 同社はバックアップソリューションから始まり、最近ではデータ管理の効率化やセキュリティを高めるため、積極的にAIや機械学習技術を活用している。2023年には、ユーザー企業における自社データのAI活用を後押しするため、欲しいタイミングで安全にデータを活用するためのフレームワーク「Cohesity Turing」も発表した。

 このCohesity Turingの中で、企業に蓄積されているデータを生成AIで容易に利用できるようにする機能がCohesity Gaiaだ。これはバックアップデータに対してAIと大規模言語モデルを適用するもので、Cohesity Data Cloudに蓄積されている企業データにアクセスして必要なデータを抽出してLLMに渡すことで、ユーザーの質問に適切な回答を返すことができる。

[画像クリックで拡大]

 Cohesityは、これまでも同社のサービスで取得するバックアップデータを、バックアップ/リカバリーに使うだけでなく、さまざまな用途に活用できるように機能追加を行ってきた。たとえば、アプリケーションやデータベース、ファイルサーバーなどから得られるバックアップデータをクラウド上で、あたかもデータレイクのように蓄積して扱えるようにするものがCohesity Data Cloudだ。「バックアップデータをきちんと管理してさまざまな用途で使えるようにし、それを活用することで新たなインサイトを得られるようにします」と言うのは、Cohesity Japan 技術本部本部長の笹 岳二氏だ。

 一般的にバックアップデータを他の用途で使いたいときは、バックアップデータをリストアし、得られたデータを別サーバーなどにコピーして利用する。一方、Cohesityでは“バックアップデータのまま”利用できることが大きな特長だ。つまり、コピーなどせずに、1つのプラットフォームの中でデータを他の用途でも利用できる。

 バックアップデータは世代管理されるが、それをデータレイクとして利用できるために時系列変化を見ることも容易だ。今回提供を開始したCohesity Gaiaでは、バックアップデータに対して自然言語でアクセスし、生成AIに必要なデータをLLMに渡すことで知見を得られる。このとき、質問に対する関連性の高いデータを渡すために、バックアップデータに対してインデックス化を行う

 このインデックス化は、バックアップデータをベクトル化するものであり、RAG(Retrieval-Augmented Generation:検索拡張生成)の手法となる。これにより質問に関連性のあるデータを効率的にバックアップデータから抽出し、LLMに渡せるという。ユーザー権限に応じたアクセスコントロールも実現できるとして「データの安全性も担保されています」と笹氏は説明する。

次のページ
社内データをLLMに渡す手間、バックアップデータで削減されるか

この記事は参考になりましたか?

  • Facebook
  • X
  • Pocket
  • note
週刊DBオンライン 谷川耕一連載記事一覧

もっと読む

この記事の著者

谷川 耕一(タニカワ コウイチ)

EnterpriseZine/DB Online チーフキュレーターかつてAI、エキスパートシステムが流行っていたころに、開発エンジニアとしてIT業界に。その後UNIXの専門雑誌の編集者を経て、外資系ソフトウェアベンダーの製品マーケティング、広告、広報などの業務を経験。現在はフリーランスのITジャーナリスト...

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

EnterpriseZine(エンタープライズジン)
https://enterprisezine.jp/article/detail/19474 2024/04/02 08:00

Job Board

AD

おすすめ

アクセスランキング

アクセスランキング

イベント

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング