パラメーター数– tax –
-
【StableLM 2 1.6B】エロにも使える禁断の小型LLM
-
【LLaMA Pro 8B】脅威の性能!プログラミングや数学特化の改造版Llama 2の使い方〜実践まで
-
【LiteLlama】世界最軽量?わずか0.46Bの超軽量型Llama 2を使ってみた
-
【TinyLlama-1.1B】わずか1.1Bの高性能な超小型版Llama 2を使ってみた
-
【ELYZA-japanese-Llama-2-13b】東大スタートアップがGPT3.5を超えるLLMを開発!使い方〜実践まで
-
【Openchat-3.5-1210】GPT-3.5を超えた最強の7Bモデルを比較レビューしてみた
-
【Swallow】東工大の日本語特化の大規模言語モデル!使い方〜日本語性能比較まで
-
【Phi-2】パラメーター数が25倍のLlama-2-70Bと同等の性能を持つ、Microsoftの最強小型LLM
-
【Mixtral-8x7B】GPT3.5とLlama2 70Bを上回る性能の無料オープンソースを使ってみた