• トップ
  • リリース
  • メタデータラボ株式会社、日本最大のLLMコミュニティ『ローカルLLMに向き合う会』へGPU/HPCサーバーを無償提供

プレスリリース

  • 記事画像1
  • 記事画像2
  • 記事画像3

メタデータラボ株式会社

メタデータラボ株式会社、日本最大のLLMコミュニティ『ローカルLLMに向き合う会』へGPU/HPCサーバーを無償提供

(PR TIMES) 2024年03月06日(水)17時45分配信 PR TIMES


[画像1: https://prcdn.freetls.fastly.net/release_image/56944/6/56944-6-f01b6bea822ba5fb957fef58b4d70d98-1920x1080.png?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]

【メタデータラボ株式会社とは】
2018年6月からGPU/HPCサーバーの開発、製造、販売を開始しており、「GAN」などの生成モデルの研究を進めており、2021年5月からGPU/HPCサーバーを稼働させられる高負荷データセンターの運用を開始した。

2023年3月には、さまざまなAI研究・開発者に向けて、グラフィックボード、GPU/HPCサーバーのレンタルを開始し、2024年3月6日、日本最大級2000人規模の大規模言語モデル(LLM)開発コミュニティ『ローカルLLMに向き合う会』に向けて、本格的にGPU/HPCサーバーを無償開放する。
【大規模言語モデル(LLM)開発の課題】
現状、大規模言語モデル(LLM)の学習は、従来の開発環境では対応できないほど膨大なGPUサーバーを稼働させ続ける必要があり、冷却性能と電力供給能力が不足しており、学習に数ヶ月、場合によっては数年かかることもあります。

また、研究に必要なGPUサーバーが不足しているため、開発者は十分な分散学習環境と予算が割り当てられておらず、LLMの開発が欧米に比べて進んでいない現状があります。

これらの課題により、日本のLLM開発者は、海外の先進国と比べて満足な開発環境を得られていない現状があります。欧米諸国では、METAやMicrosoftなどの大企業が巨額の投資を行い、大規模な分散学習環境を構築しています。一方、日本では、そのような投資が少なく、多くの開発者が個人で費用を負担して開発を行っている状況です。
【IDCフロンティア 高負荷ハウジングサービスの採用】
そのため、システムの設置と開発運用が可能なデータセンターの検討を新たに開始し、GPU搭載のサーバー群が必要とする高電力の供給と、稼働時の高発熱を安定して冷却できる、株式会社IDCフロンティアの「高負荷ハウジングサービス」を採用するに至りました。

「高負荷ハウジングサービス」では、ラックあたりの供給電力が最大20kVAと大きく、1台当たり2kVAのGPU搭載サーバーを最大10台設置が可能であったこと、高発熱機器でも安定した冷却能力を有していたことが大きな採用理由となった。
[画像2: https://prcdn.freetls.fastly.net/release_image/56944/6/56944-6-3fee38d15d36abdcff9037c8e580c0ce-1000x667.jpg?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]
IDCフロンティアの「高負荷ハウジングサービス」               写真提供:株式会社IDCフロンティア
『ローカルLLMに向き合う会』とは】
サルドラ(@sald_ra)が2023年5月に立ち上げた、日本最大級のローカルLLM専門のユーザーコミュニティである。

2024年3月時点での会員数は2000人を超え、新たな言語モデルの最新情報、ファインチューニングの最適な手法、データセットの効果的な作成方法など、ローカルLLMに関連する幅広いトピックについて情報を共有し合うことを目的としている。
[画像3: https://prcdn.freetls.fastly.net/release_image/56944/6/56944-6-355e2e4e062cc8f34825afa28af4e387-1804x807.png?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]
Discordコミュニティ「ローカルLLMに向き合う会」
【GPU/HPCサーバーを無償提供】
今回の開発環境では「Kubernetes」を採用しており、利点としては、コンテナ化されたアプリケーションのデプロイ、スケーリング、管理を自動化するオープンソースという点になります。

また、コンテナ化技術である「Docker」を多く使用しているAI開発者が、簡単に環境構築をでき、かつ研究ができる点でも多くの開発者が手軽に使用できるシステム環境だと考えています。

弊社は、商用GPUである「NVIDIA L40S」「NVIDIA RTX 6000 Ada」「NVIDIA RTX A5000」で構築した分散学習環境を日本のLLM開発者に無償提供し、安定稼働させることで、国産LLMや生成AIの開発が加速することを目的としている

【メタデータラボ株式会社 概要】
・所在地:大阪府大阪市中央区安土町1丁目7-20 新トヤマビル新館
・代表者:本間 裕二
・設立:2018年6月
・事業内容:BTOメーカー「MDL.make」の運営、デジタルインフラサービスの提供
・URL:https://www.metadatalab.net/



プレスリリース提供:PR TIMES

このページの先頭へ戻る