模型
四个公开参数规格,映射到 base、chat 与量化版本
上游 README 给出了明确的公共模型目录:1.8B、7B、14B、72B,以及对应的 chat、Int4、Int8 变体。
1.8B 到 72BBase 与 Chat量化版本
模型对比表
| 模型 | 开源日期 | 最大长度 | System Prompt | 预训练 token | Q-LoRA 显存 | 2048 token Int4 推理 | 工具调用 |
|---|
| Qwen-1.8B | 23.11.30 | 32K | Yes | 2.2T | 5.8GB | 2.9GB | Yes |
| Qwen-7B | 23.08.03 | 32K | No | 2.4T | 11.5GB | 8.2GB | Yes |
| Qwen-14B | 23.09.25 | 8K | No | 3.0T | 18.7GB | 13.0GB | Yes |
| Qwen-72B | 23.11.30 | 32K | Yes | 3.0T | 61.4GB | 48.9GB | Yes |
这些数值直接镜像自上游 README 模型表,应视为带来源的历史产品数据。
代表性检查点入口
模型卡片
32K context · 2.2T tokens
Qwen-1.8B
最小参数规模的成员也支持 32K 上下文,并在对话模型中强化了 system prompt 能力。
查看链接32K context · 2.4T tokens
Qwen-7B
原始产品线里最适合广泛部署的规格,覆盖 base、chat、Int4 与 Int8 检查点。
查看链接8K context · 3.0T tokens
Qwen-14B
14B 版本进一步提升了代码与中文能力,同时保留工具调用支持。
查看链接32K context · 3.0T tokens
Qwen-72B
原仓库中的旗舰开源版本,兼顾 32K 上下文、强化的 system prompt 与最高的公开评测结果。
查看链接分发与生态入口
ModelScope
模型仓库
同时暴露 ModelScope 与 Hugging Face 的官方模型卡,方便中英文用户在各自常用的分发渠道中获取模型。
查看链接托管 API
DashScope API
如果你不打算自建推理,原始 README 直接给出了托管 API 的入口。
查看链接Agent 框架
Qwen-Agent
工具调用与 Code Interpreter 章节与 Qwen-Agent 的评测和 Agent 工作流直接关联。
查看链接边缘运行时
qwen.cpp
原 README 将 qwen.cpp 作为历史模型线的轻量运行时入口之一。
查看链接完整文档路线
文档页之间按固定顺序镜像,当前页面会在列表中高亮。
围绕历史版 Qwen 产品线整理的运行环境、快速开始与部署相关安装说明。
前往页面原始 Qwen 模型家族的上下文长度、显存信息与公开检查点入口。
前往页面为历史版 Qwen 产品线保留的性能表格,并明确给出来源。
前往页面原始 README 中的 Web UI、CLI、vLLM 与 FastChat 等运行面。
前往页面原始 Qwen 产品线的类 OpenAI 本地 API、函数调用与托管 API 入口。
前往页面原始 README 中关于 system prompt、ReAct、函数调用与 Code Interpreter 的公开内容。
前往页面原始 Qwen 产品线中的长上下文方法说明与评测结果。
前往页面基于 README 公开信息与蓝图边界条件整理的公共 FAQ。
前往页面镜像原始 Qwen README 中的源代码授权、模型协议说明与引用信息。
前往页面