FAQ
这是面向公共站点的 FAQ,不替代上游 issue 排查
由于本地源输入不包含原始 FAQ 文件,当前页面只保留有 README 依据的运营性问题,并明确指出哪些问题仍应回到上游仓库确认。
有来源约束考虑部署边界考虑本地化
常见问题
这个站点是官方上游仓库吗?
不是。这个站点是基于历史版 `QwenLM/Qwen` README 产品面构建的公共文档层。上游 README 自身已经说明该仓库不再主要维护,并建议关注 `Qwen2`。
真正的模型检查点应该去哪里获取?
应当使用官方的 Hugging Face 与 ModelScope 组织。本网站只负责聚合入口,而不托管模型权重。
网站服务器会直接跑推理吗?
不会。蓝图明确要求把公共 Web 运行时与模型服务基础设施分离。站点负责说明部署方式,但它不是推理服务本身。
如何在不重建应用的情况下发布编辑性内容?
设置 `QWEN_CONTENT_DIR`,并把运行时 JSON 内容放入共享目录。资源页、Feed 与 Sitemap 会在运行时从该目录读取内容。
完整文档路线
文档页之间按固定顺序镜像,当前页面会在列表中高亮。
围绕历史版 Qwen 产品线整理的运行环境、快速开始与部署相关安装说明。
前往页面原始 Qwen 模型家族的上下文长度、显存信息与公开检查点入口。
前往页面为历史版 Qwen 产品线保留的性能表格,并明确给出来源。
前往页面原始 README 中的 Web UI、CLI、vLLM 与 FastChat 等运行面。
前往页面原始 Qwen 产品线的类 OpenAI 本地 API、函数调用与托管 API 入口。
前往页面原始 README 中关于 system prompt、ReAct、函数调用与 Code Interpreter 的公开内容。
前往页面原始 Qwen 产品线中的长上下文方法说明与评测结果。
前往页面基于 README 公开信息与蓝图边界条件整理的公共 FAQ。
前往页面镜像原始 Qwen README 中的源代码授权、模型协议说明与引用信息。
前往页面