Microsoftの新AIモデル「GRIN-MoE」が業界に革新をもたらす
Microsoftは、コーディングや数学などの複雑なタスクでの性能向上を目指した革新的なAIモデル「GRIN-MoE(Gradient-Informed Mixture-of-Experts)」を発表しました。
- Microsoftが新AIモデル「GRIN-MoE」を発表しました。
- GRIN-MoEは効率と高性能を両立します。
- コーディングや数学で競合を上回ります。
このモデルは、エンタープライズアプリケーションにおいて選択的に一部のパラメータを活性化することで、効率的かつ高性能な動作を実現します。
研究論文「GRIN: GRadient-INformed MoE」に詳述されているように、GRIN-MoEはタスクごとに専門的な「エキスパート」をルーティングし、スパースな計算を行うことでリソース消費を抑えながら高いパフォーマンスを発揮。
GRIN-MoEの革新は「SparseMixer-v2」によるエキスパートルーティングの勾配推定にあり、従来の手法に比べて大幅な効率改善が見込まれます。
この新しいアーキテクチャは、16×3.8億のパラメータを持ち、推論時には6.6億のパラメータのみを活性化するため、計算効率とタスク性能のバランスが取れています。
ベンチマークテストでは、MMLU(多タスク言語理解ベンチマーク)で79.4点、数学問題解決能力を測るGSM-8Kで90.4点、コーディングタスクのHumanEvalで74.4点を記録し、GPT-3.5-turboなどの競合モデルを上回る結果を示しました。
さらに、GRIN-MoEは他のMixture-of-Expertsモデルと比較しても優れた性能を発揮し、エンタープライズAIにおいて効率と性能を両立することが可能です。
特に、金融やヘルスケアなど、強力な推論能力が求められる業界において、コーディングや数理推論における優位性が際立っています。
GRIN-MoEはエキスパート並列化やトークンドロップを必要とせず、限られたデータセンター環境でも効率的に動作できるため、大規模なAIインフラを持たない企業にも適しています。
MicrosoftのGRIN-MoEは、エンタープライズAIの効率性と性能の両立を目指す企業にとって革新的な選択肢となり、AI技術のさらなる発展に貢献する可能性を秘めています。
参考記事:arXiv
「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、朝の通勤時間に読めるメルマガを配信しています。
最新のAI情報を日本最速で受け取りたい方は、以下からご登録ください。
また、弊社紹介資料もご用意しておりますので、併せてご確認ください。