模型
四个公开参数规格,映射到 base、chat 与量化版本
上游 README 给出了明确的公共模型目录:1.8B、7B、14B、72B,以及对应的 chat、Int4、Int8 变体。
1.8B 到 72BBase 与 Chat量化版本
模型对比表
| 模型 | 开源日期 | 最大长度 | System Prompt | 预训练 token | Q-LoRA 显存 | 2048 token Int4 推理 | 工具调用 |
|---|
| Qwen-1.8B | 23.11.30 | 32K | Yes | 2.2T | 5.8GB | 2.9GB | Yes |
| Qwen-7B | 23.08.03 | 32K | No | 2.4T | 11.5GB | 8.2GB | Yes |
| Qwen-14B | 23.09.25 | 8K | No | 3.0T | 18.7GB | 13.0GB | Yes |
| Qwen-72B | 23.11.30 | 32K | Yes | 3.0T | 61.4GB | 48.9GB | Yes |
这些数值直接镜像自上游 README 模型表,应视为带来源的历史产品数据。
代表性检查点入口
模型卡片
32K context · 2.2T tokens
Qwen-1.8B
最小参数规模的成员也支持 32K 上下文,并在对话模型中强化了 system prompt 能力。
查看链接32K context · 2.4T tokens
Qwen-7B
原始产品线里最适合广泛部署的规格,覆盖 base、chat、Int4 与 Int8 检查点。
查看链接8K context · 3.0T tokens
Qwen-14B
14B 版本进一步提升了代码与中文能力,同时保留工具调用支持。
查看链接32K context · 3.0T tokens
Qwen-72B
原仓库中的旗舰开源版本,兼顾 32K 上下文、强化的 system prompt 与最高的公开评测结果。
查看链接分发与生态入口
ModelScope
模型仓库
同时暴露 ModelScope 与 Hugging Face 的官方模型卡,方便中英文用户在各自常用的分发渠道中获取模型。
查看链接托管 API
DashScope API
如果你不打算自建推理,原始 README 直接给出了托管 API 的入口。
查看链接Agent 框架
Qwen-Agent
工具调用与 Code Interpreter 章节与 Qwen-Agent 的评测和 Agent 工作流直接关联。
查看链接边缘运行时
qwen.cpp
原 README 将 qwen.cpp 作为历史模型线的轻量运行时入口之一。
查看链接