株式投資情報動画配信 日本インタビュ新聞社 - You Tube

株式投資情報動画配信 日本インタビュ新聞社 - You Tube

2025年04月18日

ABEJA、7BのLLM(大規模言語モデル)と32Bのリーズニングモデルで大手AIを凌駕する性能を達成

■7Bモデルは同規模最高水準、32BリーズニングモデルはOpenAIの最新モデルを上回る性能を実現

 ABEJA<5574>(東証グロース)は4月17日、NEDOのGENIACプロジェクトにおいて、二つの画期的な小型LLM(大規模言語モデル)の開発に成功したと発表。一つは7Bパラメータの「ABEJA Qwen2.5−7B Model」で、同規模モデルの最高水準かつGPT−3.5 Turboを超える精度を実現。もう一つは32Bパラメータの「ABEJA QwQ−32B Reasoning Model」で、OpenAIの「GPT−4o」や「o1−preview」を上回る性能を達成した。

 これらのモデルは「精度とコストのトレードオフ」という課題に対する革新的な解決策であり、小型ながら高精度を実現。「ABEJA Qwen2.5−7B Model」は蒸留技術により32Bモデルの能力を継承し、提案書作成や論理推論などのタスクで実用的な性能とコスト効率を両立。量子化によりエッジデプロイも可能となり、ビジネスプロセスへの適用性が向上した。

 「ABEJA QwQ−32B Reasoning Model」は、数千億パラメータと推測される「OpenAI o1」や6,710億パラメータの「DeepSeek−R1」に対し、わずか320億パラメータでありながら優れた推論能力を発揮。このサイズ効率により、オフィスや工場などの多様なエッジ環境での実装が可能となり、実用性を大幅に高めた。ABEJAは2012年の創業以来、「テクノロジーの力で産業構造を変革する」というミッションのもと、「ゆたかな世界を、実装する」という経営理念の実現に向けたLLMの社会実装を推進している。

◎日刊株式投資情報新聞(無料)登録受付中!


提供 日本インタビュ新聞社 Media-IR at 08:08 | 新製品&新技術NOW