qwen-code 的本地化公共站点

为原始 Qwen 开源产品线构建可部署的双语文档界面

这个站点把只有 README 的上游输入整理成中英文并行的产品与文档体验,覆盖安装、模型、评测、Demo、API、工具调用、长上下文、FAQ、协议和资源中心。

中英文路由对等独立 Next.js 运行时可抓取的文档页面

模型产品线

展示四个原始公开规格及其文档中的显存、上下文长度和变体下载入口。

32K context · 2.2T tokens

Qwen-1.8B

最小参数规模的成员也支持 32K 上下文,并在对话模型中强化了 system prompt 能力。

  • 开源日期: 2023-11-30
  • Q-LoRA: 5.8GB
  • Int4 推理: 2.9GB
  • 工具调用: Yes

32K context · 2.4T tokens

Qwen-7B

原始产品线里最适合广泛部署的规格,覆盖 base、chat、Int4 与 Int8 检查点。

  • 开源日期: 2023-08-03
  • Q-LoRA: 11.5GB
  • Int4 推理: 8.2GB
  • 工具调用: Yes

8K context · 3.0T tokens

Qwen-14B

14B 版本进一步提升了代码与中文能力,同时保留工具调用支持。

  • 开源日期: 2023-09-25
  • Q-LoRA: 18.7GB
  • Int4 推理: 13.0GB
  • 工具调用: Yes

32K context · 3.0T tokens

Qwen-72B

原仓库中的旗舰开源版本,兼顾 32K 上下文、强化的 system prompt 与最高的公开评测结果。

  • 开源日期: 2023-11-30
  • Q-LoRA: 61.4GB
  • Int4 推理: 48.9GB
  • 工具调用: Yes

关键信号

把公共产品面里最重要的数字直接放在首页。

32K

原始公开产品线中的最大上下文

上游表格中,Qwen-1.8B、Qwen-7B 与 Qwen-72B 都给出了 32K 上下文。

3.0T

公开汇报的最高预训练 token 数

README 给出的 Qwen-14B 与 Qwen-72B 预训练 token 数最高达到 3.0T。

98.2%

工具选择最高准确率

在上游中文工具调用评测表中,Qwen-72B-Chat 取得了最高分。

2 种语言

一开始就保持镜像体验

站点在 `/en` 与 `/zh` 下同步维护公共路由和 metadata alternates。

带来源的评测数据

保留历史能力主张,但明确绑定到原始 README 与技术报告,避免让站点假装这些数字是实时更新的。

MMLU 77.4,C-Eval 83.3,GSM8K 78.9

Qwen-72B 的评测上限

上游性能表将 Qwen-72B 放在多数列出的 LLaMA2 与 GPT-3.5 参考模型之前。

Tool selection 最高 98.2%

工具调用是产品面的一部分

README 并没有把函数调用当作附加功能,而是把工具调用、ReAct Prompting 与 Code Interpreter 都独立成章。

32K 上下文与 L-Eval 对照

长上下文主张有表格支撑

长上下文章节给出了具体的 PPL 与 L-Eval 数据,而不是只有营销性描述。

性能预览表

ModelMMLUC-EvalGSM8KMATH
Qwen-1.8B45.356.132.32.3
Qwen-7B58.263.551.711.6
Qwen-14B66.372.161.324.8
Qwen-72B77.483.378.935.2

这是从上游 performance 表中抽取的首页预览子集。

部署与生态

把构建者引向原始运行时触点:ModelScope、Hugging Face、DashScope、FastChat、qwen.cpp 与 Qwen-Agent。

ModelScope

模型仓库

同时暴露 ModelScope 与 Hugging Face 的官方模型卡,方便中英文用户在各自常用的分发渠道中获取模型。

查看链接

托管 API

DashScope API

如果你不打算自建推理,原始 README 直接给出了托管 API 的入口。

查看链接

Agent 框架

Qwen-Agent

工具调用与 Code Interpreter 章节与 Qwen-Agent 的评测和 Agent 工作流直接关联。

查看链接

边缘运行时

qwen.cpp

原 README 将 qwen.cpp 作为历史模型线的轻量运行时入口之一。

查看链接

运行时资源中心

编辑性内容可以从共享文件系统目录读取,无需重新构建应用,从而把发布节奏与部署节奏分离。

来源锚点