• トップ
  • リリース
  • NTTとSakana AI、サステナブルな生成AI社会に向けたAIコンステレーション研究で連携 〜小さく賢い多様なLLMの集合により複雑な社会課題の解決をめざす〜

プレスリリース

日本電信電話株式会社

NTTとSakana AI、サステナブルな生成AI社会に向けたAIコンステレーション研究で連携 〜小さく賢い多様なLLMの集合により複雑な社会課題の解決をめざす〜

(Digital PR Platform) 2023年11月13日(月)15時45分配信 Digital PR Platform

 日本電信電話株式会社(本社:東京都千代田区、代表取締役社長:島田明、以下NTT)とSakana AI株式会社(本社:東京都港区、CEO:David Ha、以下Sakana AI)は、サステナブル社会の実現に向けて、小型で多様なAI同士が協調するアーキテクチャの研究開発に関して協力することを定める連携協定を締結しました。多数のAIモデルがつながり、集合体として動作するアーキテクチャ(AIコンステレーション、後述)の共同検討を開始しし、複雑な社会課題の解決をめざします。

1. 背景
 現在、大規模言語モデル(LLM)をはじめとした生成AIが、様々な業務を効率化し、新たな事業創出をもたらすことが期待されています。一方、その開発にあたっては電力を含む巨大な計算機資源が必要であり大きな課題となっています。
 NTTは、40年以上の自然言語処理技術研究を行ってきたことに加え、光電融合技術をはじめとしたIOWN先端技術の研究開発を推進しています。また、2023年11月1日には、高度な性能を維持しつつ、パラメタ数を大幅に削減した言語モデル「tsuzumi※1」の発表を行いました。
 Sakana AIは、Google Brainの日本部門統括として、複雑系、自律システムの研究を指揮してきたDavid Ha氏と、現在の生成AIの爆発的な普及につながった「トランスフォーマー※2」モデルの提案論文である「Attention Is All You Need※3」の著者の1人であるLlionJones氏が、2023年に東京で立ち上げたAI企業です。Sakana AIは、単一のAIモデルの設計スキルだけでなく、複数のAIを組み合わせるエージェント機能の設計など、AIアーキテクチャ設計スキルも有しています。

 NTTとSakana AIは、これまで培った自然言語処理技術やAIアーキテクチャの設計スキルに基づき、現状の大規模AIモデルの計算量が増大していることの課題に対処していきます。多数の小型AIを分散的に配置し、それらAI同士を効率的に連携させることで、単一のAIモデルの省電力化を推進することに加えて、アーキテクチャ 構造自体からの省電力にも取り組んでいきます。わたしたちは、タスクに応じて必要な小型AIがつながり、集合体として動作するアーキテクチャを、星がつながり星座になっていくイメージをもって、「AIコンステレーション」と名付けました。
 AIコンステレーションでは、環境負荷の低減だけでなく、AI同士を自律的に協調させることで、新たな集合知が生み出される期待もあります。AIコンステレーションにより、今までにない、知識・価値を生み出すことで複雑な社会課題の解決をめざします。

2.連携協定の概要
 本連携では、NTTが有する自然言語処理技術とSakana AIのAIモデル・アーキテクチャの設計スキルを組み合わせ、下記についての共同検討を開始します。
(1)複数の小型AIを連携させるAIコンステレーション技術の創出
(2)新しい価値を創出する言語モデルの構築

3.エンドースメント
〇NTT代表取締役副社長(CTO)川添 雄彦
 NTTグループはIOWN技術を中心として、サステナブル社会の実現に取り組んでいます。光電融合技術などで省電力に取り組むだけなく、計算負荷が低いAIモデルを作ることで、環境負荷を押し下げていくことは重要です。今回、Sakana AI社と連携することで、国内のみならずグローバルに新しいAIアーキテクチャを提供していけると考えています。さらには、AI同士が連携することで、新たな集合知が生まれていく未来にとても期待しています。

〇Sakana AI CEO, David Ha
 Sakana AIは、小さな個々の魚が大きな群れを形成する中で優れた行動判断を行っていくような自然界の法則に着想を得て、分散的、自律的、効率的な新しい言語モデルの開発をめざしています。NTTグループとの連携を通じ、IOWNの理念をAIの分野でもより具体化し、こうした全く新しい技術の開発を進めてまいります。

<用語解説>
※1 tsuzumi:NTTは、軽量でありながら世界トップレベルの日本語処理性能を持つ大規模言語モデル「tsuzumi」を開発しました。「tsuzumi」は英語と日本語に対応し、1GPUやCPUでの推論動作を実現します。更に、視覚や聴覚といったモーダルに対応し、特定の業界や企業組織に特化したチューニングが可能です。
https://www.rd.ntt/research/LLM_tsuzumi.html

※2 トランスフォーマー:それまでに主流だった自然言語処理技術と比較して、AIに学習させる文章量が少ない一方で、精度向上を実現した技術。外国語の翻訳や文章の要約、チャットボットのような文章生成の精度を飛躍的に向上させた。音声や映像処理に活用する技術も提案されており、昨今のAIサービスに革新をもたらした技術。

※3 Attention Is All You Need:Googleを中心とした研究チームから、トランスフォーマー※2モデルが提案された論文。
Proceedings of the 31st International Conference on Neural Information Processing Systems, December 2017, Pages 6000–6010.
https://dl.acm.org/doi/10.5555/3295222.3295349

このページの先頭へ戻る