Meta、AIコンパイラモデルを公開
Metaは、コードのコンパイルと最適化を行う新しい大規模言語モデル「Meta Large Language Model Compiler」をリリースしました。
- Metaがコード最適化AIモデルを公開。
- 7Bと13Bの2サイズで高度な機能を提供。
- 従来比61%小さいコード生成が可能。
このモデルは、Code Llamaをベースに開発され、コンパイラの中間表現とアセンブリコードを含む5460億トークンのデータセットで訓練されています。
モデルには7Bと13Bの2つのサイズがあり、さらにファインチューニングされた「LLM Compiler FTD」バージョンも提供。これらのモデルは、コンパイラの動作をエミュレートし、コードサイズの最適化や逆アセンブルなどの高度なタスクを実行可能。
特筆すべきは、LLM Compiler FTDの13Bモデルが、従来のコンパイラオプションと比較して61%のケースでより小さいオブジェクトファイルを生成できることです。
また、逆アセンブリタスクにおいても高い精度を示しています。 これらのモデルは商用利用が可能で、Hugging Faceからダウンロードできます。この技術は、ソフトウェア開発やコンパイラ最適化の分野に大きな影響を与える可能性があると考えられています。
参考記事:Meta
「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、朝の通勤時間に読めるメルマガを配信しています。
最新のAI情報を日本最速で受け取りたい方は、以下からご登録ください。
また、弊社紹介資料もご用意しておりますので、併せてご確認ください。