What is this?
Googleのスマートフォン向け言語モデルgemma-3n-E4B-itをGGUFフォーマットに変換したものです。
imatrix dataset
日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
Chat template
<start_of_turn>user
ここにpromptを書きます<end_of_turn>
<start_of_turn>model
Quants
各クオンツとそのベンチマークスコア(Gemini 2.0 Flash採点によるElyza_tasks 100)をまとめておきます。
| クオンツ | スコア | コメント |
|---|---|---|
| BF16 | 3.88 | |
| Q8_0 | 4.01 | |
| Q6_K | ||
| Q5_K_M | 3.84 | |
| Q4_K_M | 4.03 | 推奨 |
| IQ4_XS | 3.87 |
Environment
Windows版llama.cpp-b5780およびllama.cpp-b5818同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
License
gemma license
Developer
- Downloads last month
- 151
Hardware compatibility
Log In
to view the estimation
4-bit
5-bit
6-bit
8-bit
16-bit
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support