パラメーター数– tax –
-
【Openchat-3.5-1210】GPT-3.5を超えた最強の7Bモデルを比較レビューしてみた
-
【Swallow】東工大の日本語特化の大規模言語モデル!使い方〜日本語性能比較まで
-
【Phi-2】パラメーター数が25倍のLlama-2-70Bと同等の性能を持つ、Microsoftの最強小型LLM
-
【Mixtral-8x7B】GPT3.5とLlama2 70Bを上回る性能の無料オープンソースを使ってみた
-
【OpenChat-3.5】GPT3.5と同等のスペックと言われるLLMを忖度抜きで比較レビューしてみた
-
【Magicoder】ChatGPTとGeminiを超えていると噂の小規模言語モデルを比較レビューしてみた
-
【Meditron-7B】医療情報から違法情報まで出てくる医療特化型のオープンソースを使ってみたら意外な結果に…
-
【Starling-LM-7B-alpha】小型なのにGPT-4と張り合うLLMを使ってみたら日本語対応力が凄かった
-
【Qwen-72B】Llama 2、GPT3.5を大幅に上回る性能のアリババLLMを実際に使ってレビューしてみた