What is this?

Googleのスマートフォン向け言語モデルgemma-3n-E4B-itをGGUFフォーマットに変換したものです。

imatrix dataset

日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。

Chat template

<start_of_turn>user
ここにpromptを書きます<end_of_turn>
<start_of_turn>model

Quants

各クオンツとそのベンチマークスコア(Gemini 2.0 Flash採点によるElyza_tasks 100)をまとめておきます。

クオンツ スコア コメント
BF16 3.88
Q8_0 4.01
Q6_K
Q5_K_M 3.84
Q4_K_M 4.03 推奨
IQ4_XS 3.87

Environment

Windows版llama.cpp-b5780およびllama.cpp-b5818同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。

License

gemma license

Developer

Google

Downloads last month
151
GGUF
Model size
7B params
Architecture
gemma3n
Hardware compatibility
Log In to view the estimation

4-bit

5-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support