Amazon Web Services(AWS)は、Amazon Bedrockの新機能を発表した。
今回の発表は、ユーザー自身のフルマネージドモデルをAmazon Bedrock上で稼働させ、自社の用途に最適なモデルを簡単に見つけ、生成AIアプリケーションへの安全機構を導入できるよう支援し、幅広い基盤モデルの選択肢を提供するものだとしている。
カスタムモデルインポートにより、ユーザー自身のカスタマイズモデルがAmazon Bedrockで利用可能に。運用コストを削減し、アプリケーション開発の加速を支援
医療や金融といった業界の間では、公開されたモデルを自社データを用いて専門領域用途向けにカスタマイズする例が増えているという。ユーザーが自身の専有データを利用してこれらのモデルをカスタマイズする場合、事前学習機能を提供する Amazon SageMakerを利用して、スクラッチでモデルの学習を行う、または、Llama、Mistral、Flan-T5などの公開されたモデルの高度なカスタマイズを行うのが一般的だという。
Amazon Bedrock カスタムモデルインポートを利用することで、ユーザーは自社のカスタムモデルをAmazon Bedrockにインポートして、フルマネージドなAPIとしてアクセスできるようになり、生成AIアプリケーションの構築時により広い選択肢を得ることができるとしている。Amazon SageMakerやその他のツールでカスタマイズしたモデルを数クリックでAmazon Bedrockに追加可能。自動での検証プロセスを経れば、Amazon Bedrockの他の基盤モデルと同様に自社のカスタムモデルにスムーズにアクセスでき、シームレスな拡張性、アプリケーションに対する強力な安全機構、責任あるAIの原則遵守、検索拡張生成(retrieval augmented generation、RAG)によるモデルのナレッジベース拡張、複数ステップのタスクを完了するエージェントの簡単な作成、モデルの継続的な改良のためのファインチューニングの実行といった、現在と同様のメリットをインフラストラクチャを管理する必要なく利用できると述べている。
この新機能により、AWSはユーザーが同じAPIを介してAmazon Bedrockのモデルとユーザー自身のカスタムモデルの組み合わせを簡単に選択できるよう支援するという。現在、Amazon Bedrock カスタムモデルインポートはプレビュー版として提供中。Flan-T5、Llama、Mistralの3つのオープンモデルアーキテクチャに対応しており、今後拡張していく予定だとしている。
モデル評価により、ユーザーのアプリケーションに最適なモデルにアクセス、比較、採用できるよう支援
これまで、組織は新たなモデルが自社の用途に適しているのかを一つひとつ確認するために多くの時間を費やさなければならず、画期的な生成AI体験をエンドユーザーに迅速に提供するのは困難だったという。
今回、一般提供を開始したモデル評価により、Amazon Bedrock上のモデルを迅速に分析、比較でき、モデルの評価にかかる時間を数週間から数時間に短縮。これにより、新たなアプリケーションや体験を速やかに市場に投入できるようになったとしている。事前に定義された評価基準(正確さ、堅牢性など)を選択して自社のデータセットやプロンプトライブラリーをアップロードしたり、組み込まれた公開リソースを選択することで、速やかなスタートが可能に。主観的な基準や微妙な判断が求められるコンテンツについては、ワークフローに人による判断を追加し、特定用途の指標(関連性、スタイル、ブランドボイスなど)に基づくモデルレスポンスを評価することが可能だとしている。
設定プロセスが完了すると、Amazon Bedrockは評価を実行してレポートを生成。ユーザーは重要基準に対するモデルのパフォーマンスを把握し、用途に最適なモデルを迅速に選択することが可能だと述べている。
Guardrails for Amazon Bedrockにより、個人情報や機密情報、冒涜表現や特定の単語を削除し、有害なコンテンツをブロックする保護機能を容易に実行
多くのモデルでは、あらかじめ組み込んだ制御機構を用いて、望ましくない有害なコンテンツのフィルタリングを行っているという。しかし、大多数のユーザーは、生成AIアプリケーションをさらにカスタマイズすることで、関連性があり、企業ポリシーと合致しており、責任あるAI の原則に準拠した応答を返せるようにしたいと考えていると、同社は述べている。
今回、一般提供を開始したGuardrails for Amazon Bedrockは、基盤モデルのネイティブ機能に加え、業界をリードする安全機構を提供することで、有害コンテンツを最大85%ブロックすることを可能とし、現在提供されている他のモデルよりも優れたパフォーマンスを発揮するとしている。
Guardrails for Amazon Bedrockは、組み込み型およびカスタムの安全機構を1つのサービスで提供するとともに、Amazon BedrockのすべてのLLMや、ユーザーがファインチューニングしたモデルと連動するようになっているという。ガードレールを作成するには、ユーザーのアプリケーションのコンテキストにおいて許可されないトピックを自然言語で定義。またヘイトスピーチや、人を傷つける言葉、性的表現、プロンプトインジェクション、脅しなどといった領域をフィルタリングするためのしきい値のほか、個人情報や機密情報、冒涜表現、特定の禁止用語を削除するためのフィルターを設定することも可能だとしている。
モデルの選択肢の拡大:Amazon Titan Text Embeddings V2、Titan Image Generatorの一般提供、CohereとMetaの最新モデル
Amazon Bedrockのみで利用可能なAmazon Titanモデルは、AWSがデータセットでの事前学習を終えており、様々なユースケースに対応し、責任あるAI利用のためのサポートが組み込まれているという。
来週から提供を開始する新しい Amazon Titan Text Embeddings V2モデルは、精度を高めつつ、ストレージとコンピューティングのコストを削減。ユーザーによる柔軟な埋め込みが可能になることで、全体のストレージを最大4分の1にまで減らし、運用コストを削減しながらRAGユースケースで97%の精度を維持し、他の主要モデルよりも優れたパフォーマンスを発揮するとしている。
また、今回一般提供を開始するAmazon Titan Image Generatorにより、広告、e コマース、メディア、エンターテインメントといった業界のユーザーが、自然言語プロンプトを使ってスタジオ品質の画像を制作したり、既存の画像を低コストで強化・編集できるよう支援。加えて、Amazon Titanは作成するすべての画像に目に見えない電子透かしを入れることで、AIで生成された画像の識別を助け、安全・確実で透明性のあるAI技術の開発を促進すると同時に、偽情報の拡散を抑制するという。
また、このモデルは電子透かしの有無をチェックすることもでき、Amazon Titan Image Generatorで生成された画像かどうかを確認するのに役立つとしている。
加えて、2024年4月24日より基盤モデルMeta Llama 3がAmazon Bedrock上で利用可能に。CohereのCommand RおよびCommand R+モデルも近日、提供開始予定だという。
Llama 3は、開発者、研究者、企業が生成AIのアイデアを構築し、実験し、責任を持って拡張するために設計されていると同社は述べている。特にテキストの要約や分類、センチメント分析、言語翻訳、コード生成に適しているという。CohereのCommand R、およびCommand R+モデルは、ユーザーがエンタープライズグレードの生成AIアプリケーションを構築する際に利用できる新しい基盤モデルであり、10の言語に対応し、グローバルなビジネス運営をサポートするRAG機能を備えているとしている。
【関連記事】
・SBI証券、オンライン取引システムをAWSに移行 1日あたり2兆円超の国内株式取引を実行へ
・明治が30年以上使い続けたメインフレームを脱却しAWSに移行へ 「2025年の崖」を回避
・AWSジャパン、Bedrockなど活用した金融セクターの変革に自信 野村ホールディングスでも活用進む