Qwen-1.8B
最小参数规模的成员也支持 32K 上下文,并在对话模型中强化了 system prompt 能力。
- 开源日期: 2023-11-30
- Q-LoRA: 5.8GB
- Int4 推理: 2.9GB
- 工具调用: Yes
社区文档站,基于公开的 Qwen 上游材料整理,不应默认视为官方上游主页。
qwen-code 的本地化公共站点
这个站点把只有 README 的上游输入整理成中英文并行的产品与文档体验,覆盖安装、模型、评测、Demo、API、工具调用、长上下文、FAQ、协议和资源中心。
展示四个原始公开规格及其文档中的显存、上下文长度和变体下载入口。
最小参数规模的成员也支持 32K 上下文,并在对话模型中强化了 system prompt 能力。
原始产品线里最适合广泛部署的规格,覆盖 base、chat、Int4 与 Int8 检查点。
14B 版本进一步提升了代码与中文能力,同时保留工具调用支持。
原仓库中的旗舰开源版本,兼顾 32K 上下文、强化的 system prompt 与最高的公开评测结果。
把公共产品面里最重要的数字直接放在首页。
32K
上游表格中,Qwen-1.8B、Qwen-7B 与 Qwen-72B 都给出了 32K 上下文。
3.0T
README 给出的 Qwen-14B 与 Qwen-72B 预训练 token 数最高达到 3.0T。
98.2%
在上游中文工具调用评测表中,Qwen-72B-Chat 取得了最高分。
2 种语言
站点在 `/en` 与 `/zh` 下同步维护公共路由和 metadata alternates。
保留历史能力主张,但明确绑定到原始 README 与技术报告,避免让站点假装这些数字是实时更新的。
上游性能表将 Qwen-72B 放在多数列出的 LLaMA2 与 GPT-3.5 参考模型之前。
README 并没有把函数调用当作附加功能,而是把工具调用、ReAct Prompting 与 Code Interpreter 都独立成章。
长上下文章节给出了具体的 PPL 与 L-Eval 数据,而不是只有营销性描述。
| Model | MMLU | C-Eval | GSM8K | MATH |
|---|---|---|---|---|
| Qwen-1.8B | 45.3 | 56.1 | 32.3 | 2.3 |
| Qwen-7B | 58.2 | 63.5 | 51.7 | 11.6 |
| Qwen-14B | 66.3 | 72.1 | 61.3 | 24.8 |
| Qwen-72B | 77.4 | 83.3 | 78.9 | 35.2 |
这是从上游 performance 表中抽取的首页预览子集。
把构建者引向原始运行时触点:ModelScope、Hugging Face、DashScope、FastChat、qwen.cpp 与 Qwen-Agent。
同时暴露 ModelScope 与 Hugging Face 的官方模型卡,方便中英文用户在各自常用的分发渠道中获取模型。
查看链接如果你不打算自建推理,原始 README 直接给出了托管 API 的入口。
查看链接工具调用与 Code Interpreter 章节与 Qwen-Agent 的评测和 Agent 工作流直接关联。
查看链接原 README 将 qwen.cpp 作为历史模型线的轻量运行时入口之一。
查看链接编辑性内容可以从共享文件系统目录读取,无需重新构建应用,从而把发布节奏与部署节奏分离。
一篇简短的编辑说明,解释如何把只有 README 的输入转成镜像文档路由、发现资产与运行时资源中心。
一则实现说明,解释为什么 `robots.txt`、`sitemap.xml`、`feed.xml` 与 `llms.txt` 对 AI 导向文档站点同样重要。
来源锚点