模型

四个公开参数规格,映射到 base、chat 与量化版本

上游 README 给出了明确的公共模型目录:1.8B、7B、14B、72B,以及对应的 chat、Int4、Int8 变体。

1.8B 到 72BBase 与 Chat量化版本

模型对比表

模型开源日期最大长度System Prompt预训练 tokenQ-LoRA 显存2048 token Int4 推理工具调用
Qwen-1.8B23.11.3032KYes2.2T5.8GB2.9GBYes
Qwen-7B23.08.0332KNo2.4T11.5GB8.2GBYes
Qwen-14B23.09.258KNo3.0T18.7GB13.0GBYes
Qwen-72B23.11.3032KYes3.0T61.4GB48.9GBYes

这些数值直接镜像自上游 README 模型表,应视为带来源的历史产品数据。

代表性检查点入口

模型卡片

32K context · 2.2T tokens

Qwen-1.8B

最小参数规模的成员也支持 32K 上下文,并在对话模型中强化了 system prompt 能力。

查看链接

32K context · 2.4T tokens

Qwen-7B

原始产品线里最适合广泛部署的规格,覆盖 base、chat、Int4 与 Int8 检查点。

查看链接

8K context · 3.0T tokens

Qwen-14B

14B 版本进一步提升了代码与中文能力,同时保留工具调用支持。

查看链接

32K context · 3.0T tokens

Qwen-72B

原仓库中的旗舰开源版本,兼顾 32K 上下文、强化的 system prompt 与最高的公开评测结果。

查看链接

分发与生态入口

ModelScope

模型仓库

同时暴露 ModelScope 与 Hugging Face 的官方模型卡,方便中英文用户在各自常用的分发渠道中获取模型。

查看链接

托管 API

DashScope API

如果你不打算自建推理,原始 README 直接给出了托管 API 的入口。

查看链接

Agent 框架

Qwen-Agent

工具调用与 Code Interpreter 章节与 Qwen-Agent 的评测和 Agent 工作流直接关联。

查看链接

边缘运行时

qwen.cpp

原 README 将 qwen.cpp 作为历史模型线的轻量运行时入口之一。

查看链接

来源锚点

模型与变体 | Qwen Code