パラメーター数– tax –
-
【Skywork 13B】中国がLlama 2を超える!学習トークン3,2兆の中国最強LLM
-
【Japanese Stable LM 3B-4E1T】学習量4兆トークンの日英特化型LLM
-
【Japanese Stable LM Gamma 7B】Stability AI史上最強の日本語LLMが誕生!?
-
【Luminous】ヨーロッパの「OpenAI」が生み出すマルチモーダルAI
-
【LLM-jp-13B】日本最大の130億パラメーターLLMをGPT-4と比較レビューしてみた
-
【Mistral 7B】Llama 2超えの性能を持つLLMらしいので、比較レビューしてみた
-
【Fuyu-8B】超小型なのにGPT-4Vと同じ性能を持つマルチモーダルAI
-
【やってみた】Japanese Stable LM Alpha、Stability AIの日本語言語モデルを実践解説
-
【Stable LM-3B】30億パラメーターなのに、小型端末でも動作する超軽量LLM
