What is this?

Alibaba Cloudの思考/非思考ハイブリッドMoEモデル、Qwen3-30B-A3Bを日本語imatrixで量子化したものです。

imatrix dataset

日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。

Chat template

<|im_start|>system
ここにSystem Promptを書きます。<|im_end|>
<|im_start|>user
ここにMessageを書きます。<|im_end|>
<|im_start|>assistant

Quants

各クオンツとそのベンチマークスコア(Gemini 2.0 Flash採点によるElyza_tasks 100)をまとめておきます。

  • 思考あり

    クオンツ スコア コメント
    Q8_0 4.41
    Q6_K 4.44
    Q5_K_M 4.46 推奨
    Q4_K_M 4.44
    IQ4_XS 4.43
  • 思考なし

    クオンツ スコア コメント
    Q8_0 4.06
    Q6_K 4.09
    Q5_K_M 4.18 推奨
    Q4_K_M 4.07
    IQ4_XS 3.98

Environment

Windows版llama.cpp-b5218および同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。

License

Apache 2.0

Developer

Alibaba Cloud

Downloads last month
20
GGUF
Model size
31B params
Architecture
qwen3moe
Hardware compatibility
Log In to view the estimation

4-bit

5-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support