What is this?
DeepSeek (深度求索)が公式自らDeepSeek-R1-0528をQwen3-8Bに蒸留したThinkingモデル、DeepSeek-R1-0528-Qwen3-8BをGGUFフォーマットに変換したものです。
imatrix dataset
日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
Note
BF16推論時のElyza_tasks 100スコアは3.95でした(Gemini 2.0 Flashで採点)。
Environment
Windows版llama.cpp-b5215および同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
License
MIT License
Developer
Alibaba Cloud & DeepSeek (深度求索)
- Downloads last month
- 31
Hardware compatibility
Log In
to view the estimation
4-bit
5-bit
16-bit
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support