パラメーター数– tax –
-
【BLOOM】大規模言語モデルの原点!?世界60カ国、1,000人以上の研究者による珠玉のLLMを使ってみた
-
【Skywork 13B】中国がLlama 2を超える!学習トークン3,2兆の中国最強LLM
-
【Japanese Stable LM 3B-4E1T】学習量4兆トークンの日英特化型LLM
-
【Japanese Stable LM Gamma 7B】Stability AI史上最強の日本語LLMが誕生!?
-
【ELYZA-japanese-Llama-2-7b】東大スタートアップの日本語LLMは日本語検定一級合格なるか?
-
【Luminous】ヨーロッパの「OpenAI」が生み出すマルチモーダルAI
-
【LLM-jp-13B】日本最大の130億パラメーターLLMをGPT-4と比較レビューしてみた
-
【Mistral 7B】Llama 2超えの性能を持つLLMらしいので、比較レビューしてみた
-
【Fuyu-8B】超小型なのにGPT-4Vと同じ性能を持つマルチモーダルAI