Liquid AI、次世代メモリ効率AIモデルを発表

Liquid-AI 次世代メモリ効率AIモデル 発表

Liquid AIは、MITの研究者が共同創立したスタートアップ企業であり、最新のAI技術「Liquid Foundation Models(LFM)」を発表しました。

このNEWSをAIが簡単要約
  • Liquid AIが新しいAIモデルLFMを発表しました。
  • LFMは従来のモデルよりメモリ効率が高いです。
  • 金融やバイオ分野での活用を目指しています。

このLFMは、現在広く使われているトランスフォーマーアーキテクチャに依存せず、基本原則から設計された新しいマルチモーダルAIモデルです。

特にMetaのLlamaやMicrosoftのPhiシリーズに比べ、同等サイズのLFMモデルはメモリ効率に優れた性能を発揮します。

LFMには、1.3B、3B、40B MoEの3つのバリエーションがあり、最小限のメモリ使用で高度なタスクに対応可能です。

例えば、LFM-3Bはわずか16GBのメモリで動作し、トークン処理効率が高いことが特徴です。

これにより、文書分析やチャットボットなど、長いコンテキスト処理を必要とするアプリケーションに最適です。

Liquid AIは、従来のトランスフォーマーモデルに代わる新しいAIモデルを提供し、金融サービスやバイオテクノロジー、エレクトロニクス分野での活用を目指しています。

現在プレビュー段階であり、ユーザーは推論プレイグラウンドやLambda Chatを通じてモデルにアクセス可能です。

Liquid AIは今後、10月にMITで開催されるローンチイベントに向けて、さらなる改善を目指し、開発者からのフィードバックを集めています。

また、将来的には複数のハードウェアに最適化されたバージョンの提供を予定しています。

参考記事:Liquid AI

生成AIを社内で活用していきたい方へ

「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、朝の通勤時間に読めるメルマガを配信しています。

最新のAI情報を日本最速で受け取りたい方は、以下からご登録ください。

また、弊社紹介資料もご用意しておりますので、併せてご確認ください。

  • URLをコピーしました!
  • URLをコピーしました!
目次