SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

直近開催のイベントはこちら!

EnterpriseZine編集部ではイベントを随時開催しております

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けの講座「EnterpriseZine Academy」や、すべてのITパーソンに向けた「新エバンジェリスト養成講座」などの講座を企画しています。EnterpriseZine編集部ならではの切り口・企画・講師セレクトで、明日を担うIT人材の育成をミッションに展開しております。

お申し込み受付中!

EnterpriseZine Press

世界を席巻する「生成AIブーム」に日本は乗れているのか?AI研究の第一人者・松尾教授が現況を分析する

「NVIDIA 生成AI Day 2023 Summer 」基調講演レポート

 7月28日、エヌビディア主催によるオンラインイベント「NVIDIA 生成AI Day 2023 Summer」が開催されました。同イベントの基調講演には東京大学大学院 工学系研究科人工物工学研究センターの松尾豊教授が登壇。エヌビディア エンタープライズ事業本部 本部長の井﨑武士氏との対談を通して生成AIをめぐる現状や課題、日本企業と政府の生成AIに対するアプローチなどについて解説を行いました。「インターネットよりも大きな変化をもたらすイノベーション」とも言われる生成AIに対し、日本は今、どのように向き合おうとしているか。AI研究の第一人者が語った“日本企業が取るべき一手”の内容を紹介します。

ChatGPTが人々の心を掴んだワケ

 2023年に入ってから「生成AI」「ChatGPT」といった言葉を聞かない日はないくらい、急速に我々の日常に入り込んできています。生成AIブームの火付け役となったChatGPTは2022年11月にOpenAIによって公開されました。以来、瞬く間に世界中で利用者を増やし、登場からわずか2ヵ月で月間利用者数が1億人に達しています。同じ数字に届くまでにFacebookは42ヵ月、Instagramは26ヵ月、TikTokは13ヵ月かかっており、いかにChatGPTが急速に世界に拡がっていったかがわかります。

画像を説明するテキストなくても可
クリックすると拡大します

 ではなぜ、ChatGPTはそれほどまでに人々の心を掴んだのでしょうか。松尾教授はChatGPTの中核技術である大規模言語モデル(Large Language Model:LLM)のベースとなったGoogle由来のディープラーニングモデル「Transformer」の存在が大きかったと指摘します。ChatGPTをはじめとする生成AIと呼ばれるサービスは、既存のコンテンツ(テキスト、音声、画像、動画、ソースコードなど)を基盤モデルに入力し、その出力結果を新たなコンテンツとして生成します。それらのサービスにおいて現在主流となっている基盤モデルは、TransformerをベースとしたLLMです。OpenAIが開発し、ChatGPTに実装している「GPT」もTransformerから進化したもので、松尾教授は最大の特徴として「ラベル付けされていない大規模なデータセットを使った『自己教師あり学習』により、次の単語を予測すること(Next Word Prediction)に非常に長けている」点だと言います。

画像を説明するテキストなくても可

(左から)エヌビディア エンタープライズ事業本部 本部長 井﨑武士氏、

東京大学大学院 工学系研究科人工物工学研究センター 松尾豊教授

 続けて「人間が文章を理解するときも、時々刻々と変化する言葉を過去の経験や背後の知識をもとに常に“予測”している。AIのモデルが予測するということは、知能にとって非常に本質的な行為」と説明。Transformer系のLLMの登場はAIモデルの予測能力を飛躍的に高めました。

 そして、このLLMの予測能力を高めているのが、前述した「ラベル付けされていない大規模なデータセットを使った自己教師あり学習」という手法です。LLMはデータ量(データセット)、パラメータ数、計算量の3つの数字が従来の手法よりはるかに大きく、特にパラメータ数の巨大化はモデルの精度を著しく高めました。従来のAI学習ではモデルの能力が限定的(1タスクにつき1モデル)であることが多く、データのラベル付けも必要であったことから「パラメータの数は適切にすべき」という意見が主流で、パラメータの数は数億程度に留まっていました。しかし、データのラベル付けを行わない現在のLLMでは数十億から数兆にも上るパラメータが使われており、汎用的な言語モデルの用途にあわせたチューニングが行われ、より複雑な表現が可能になっています。

 たとえばChatGPTで使われている「GPT‐3」のパラメータ数は約1750億、「GPT‐3.5」は約3550億で、最新世代の「GPT-4」のパラメータ数は公開されていませんが、一説には5000億を超えるとも言われています。また、データ量とパラメータが増大すれば当然ながら計算量も大幅に増大することになりました。LLMがもたらしたこのスケーリングの変化も「AIのパラダイムシフト」(松尾教授)を象徴する現象だったと言えます。

次のページ
“先行する”米国企業の取り組みから何を学ぶ?

この記事は参考になりましたか?

  • Facebook
  • Twitter
  • Pocket
  • note
EnterpriseZine Press連載記事一覧

もっと読む

この記事の著者

五味明子(ゴミ アキコ)

IT系出版社で編集者としてキャリアを積んだのち、2011年からフリーランスライターとして活動中。フィールドワークはオープンソース、クラウドコンピューティング、データアナリティクスなどエンタープライズITが中心で海外カンファレンスの取材が多い。
Twitter(@g3akk)や自身のブログでITニュース...

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

EnterpriseZine(エンタープライズジン)
https://enterprisezine.jp/article/detail/18251 2023/08/30 09:00

Job Board

AD

おすすめ

アクセスランキング

アクセスランキング

イベント

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング