Web UI
原始仓库提供 `web_demo.py` 作为快速浏览器演示路径。
社区文档站,基于公开的 Qwen 上游材料整理,不应默认视为官方上游主页。
演示
公共站点应把用户引向 Web UI、CLI、vLLM、FastChat 等运行路径,同时保持文档服务器与模型服务解耦。
上游部署章节首先推荐 vLLM,适合偏服务化的推理场景。
FastChat 负责 controller、worker、Gradio Web Server 与兼容 API Server 的那一层编排。
README 也保留了更轻量的 Web UI、CLI 和 API 入口,方便直接做本地演示。
pip install "fschat[model_worker,webui]"
python -m fastchat.serve.controller
python -m fastchat.serve.vllm_worker --model-path $MODEL_PATH --trust-remote-code --dtype bfloat16
python -m fastchat.serve.gradio_web_server
python -m fastchat.serve.openai_api_server --host localhost --port 8000
原始仓库提供 `web_demo.py` 作为快速浏览器演示路径。
CLI 路径强调流式输出,适合在终端直接验证 prompt 与输出行为。
上游 README 还链接到了 ModelScope Studio 上的 72B Chat 在线演示。
查看链接来源锚点