アマゾン ウェブ サービス ジャパン(以下、AWSジャパン)は2024年10月31日、東京都内で「生成AI アップデート」に関する記者説明会を開催した。同社のサービス&テクノロジー事業統括本部 技術本部長である小林正人氏が登壇し、プロンプトエンジニアリングからファインチューニングまで、AWSの生成AI戦略と最新の取り組みについて説明を行った。
25年のAI投資実績を基に自社開発GPUで低コスト化を実現
小林氏は冒頭で「AmazonグループのAI投資は25年以上の歴史がある。生成AIは、まさにゲームチェンジャーとなる技術だ。事業運営から働き方まで、企業活動のあり方を根本から変革する」とAI時代の展望を示し、フルフィルメントセンターでのAmazonロボティクスの活用などを紹介した。従来の人手による商品ピックアップから、AIが制御する自動棚移動システムへと進化し、クラウドコンピューティングを活用した経路最適化により、作業効率の大幅な向上を実現している。
また、顧客向けサービスでの活用例として、米国Amazon.comの商品レビューにおけるLLMの活用の例を挙げた。数百から数千に及ぶ商品レビューを生成AIで要約し、「使いやすさ」「コストパフォーマンス」といったラベルでトピックを整理することで、購買判断をサポートする機能を実装している。
インフラ・開発・利用の3層構造で企業のAI実装を加速
AWSの生成AIサービスは、インフラストラクチャ、アプリケーション開発、アプリケーション利用という3つのレイヤーで構成されている。「各レイヤーで最適なソリューションを選択できる柔軟性と、レイヤー間の連携による相乗効果を重視している」と小林氏は説明する。
インフラストラクチャ層では、NVIDIAのH100/H200 GPUを搭載したインスタンスやAWS独自開発のInferentiaアクセラレーターを提供している。特にInferentiaは、推論処理におけるコストパフォーマンスと省電力性を両立している。
アプリケーション開発層では、Amazon Bedrockを通じて複数の基盤モデルを提供している。アプリケーションへの生成AI機能の実装から、RAG(検索拡張生成)による企業独自データの活用、ハルシネーション対策やセキュリティ確保まで、包括的にサポートしている。
Amazon Bedrock強化:ClaudeやLlamaなど最新モデルに対応
「LLMは日進月歩で進化するため、モデルの選択は最適な品質・コスト・レイテンシーなどの判断からお客様に最適なモデルを選択してもらう」と小林氏は述べた。最近発表されたAnthropicのClaude 3.5 Sonnet v2、MetaのLlama 3.2をはじめ、各種モデルの入出力の方法の違いなどはBedrock側で吸収するため開発を容易にすることも挙げた。
アプリケーション利用層では、Amazon Qによる開発のアシスタント機能を紹介した。自然言語による応答が可能なAmazon Q Business、開発者のプログラミングを効率化するAmazon Q Developer、コンタクトセンターのオペレーションの効率化を図るAmazon Q in Connectなどが用意されている。
国内60社が参画、生成AI実用化で作業効率80%改善の事例も
国内での活用事例も着実に増加している。生成AIの活用が本格化しており、日本国内でも多くの企業が採用している。小林氏はロゴの許諾が得られた企業の一覧を示し、これらの企業は生成AIをPoCではなく、本番利用として活用していると説明した。
料理レシピ動画サービスのクラシル、家計簿アプリのおカネレコ、オンライン英会話のレアジョブの例が紹介された。レアジョブ英会話では、英会話レッスン終了後の講師のアドバイスやポイントのレポート作成に活用している。
特許情報の解析支援を手がけるパテント・リザルトは、生成AIによる情報整理により作業時間を80%削減した。ウェブサイト制作のペライチは、プロンプトエンジニアリングとファインチューニングの組み合わせにより、制作時間を10日から10分へと短縮している。
医療分野では、PLEAKが医師と患者の会話からプロンプトを自動生成し、構造化されたカルテ入力を支援している。IoT分野では、iSmart Technologiesがセンサーデータの解釈と異常検知に生成AIを活用している。
AWSは企業の生成AI導入支援のための仕組みを提供している。「生成AI Contents Hub」は、AWS生成AIサービス概要、業界・目的別ユースケース、生成AIサービスの使い方などを網羅したポータルとなっている。「Generative AI Use Cases JP(GenU)」は、すぐに業務活用・トライアル可能なユースケース集付きの生成AIアプリ実装を提供しており、AWSのアカウントを持っていればすぐに導入してデプロイ可能となっている。
また、AWSは2023年7月からLLM開発支援プログラムを開始し、17の企業・団体にGPUリソースと技術支援を提供し、独自モデルの開発を支援している。経済産業省・NEDOのGENIACプロジェクトでは13の企業・団体が参画し、医薬品開発から自動運転まで、様々な領域でファインチューニングとプロンプトエンジニアリングの検証を進めている。
2024年の新施策である生成AIの活用によってビジネス課題の解決にチャレンジする「AWSジャパン 生成AI実用化推進プログラム」は、当初50社を想定していたが、現在60社を超え、締切を11月22日までに延長した。総額で1,000万USドル規模のクレジットを投資し、企業・団体に、アプローチに応じた支援を提供するAWSサービス利用料負担を軽減し、生成AIの実用化を加速している。
最後に小林氏は「"良いことのためにAIを使う"という方針のもと、AWSは今後も責任あるAIの開発と活用を推進していく」ことを語った。完成品の提供からモデル開発支援、エンタープライズでの実装まで、多様化するニーズに応える包括的なサービス展開を続けていく考えだ。