qwen-code
Qwen Code 是一款专为终端打造的开源 AI 智能体,旨在成为开发者命令行中的得力助手。它深度优化了对 Qwen 系列大模型的支持,能够帮助用户快速理解庞大的代码库、自动执行繁琐的重复性任务,从而显著提升代码交付效率。
这款工具主要解决了开发者在复杂项目维护中面临的上下文理解困难和手工操作低效等痛点。它特别适合习惯使用命令行的软件工程师、全栈开发者以及需要高效处理代码逻辑的技术人员。对于追求工作流自动化且偏好轻量级工具的极客用户而言,Qwen Code 也是理想选择。
其核心技术亮点在于灵活的架构设计:支持多种协议和模型提供商,不仅兼容 OpenAI、Anthropic 等主流 API,还可接入阿里云编码计划或本地部署的密钥。作为开源项目,Qwen Code 框架与 Qwen3-Coder 模型协同进化,确保了前沿能力的即时同步。此外,它内置了丰富的智能体工具(如技能模块和子智能体),提供了类似 Claude Code 的完整代理工作流体验。虽然原生为终端设计,但它也提供了与 VS Code、Zed 及 JetBrains 系列 IDE 的集成选项,完美兼顾了命令行的高效性与现代编辑器的便利性。
使用场景
一位后端工程师需要在周五下班前紧急重构一个遗留的 Node.js 微服务模块,该模块代码逻辑复杂且缺乏文档。
没有 qwen-code 时
- 理解成本极高:开发者必须手动逐行阅读数千行晦涩的旧代码,并在不同文件间反复跳转以理清调用关系,耗时数小时。
- 修改风险巨大:由于缺乏全局视角,手动修改核心逻辑时极易遗漏边缘情况,导致引入难以察觉的回归错误。
- 重复劳动繁琐:编写单元测试和更新相关文档需要完全手工完成,机械性操作占据了大量本应用于逻辑思考的时间。
- 上下文切换频繁:为了查找某个函数的定义或用法,不得不频繁在终端、浏览器文档和 IDE 搜索框之间切换,打断心流。
使用 qwen-code 后
- 秒级代码洞察:直接在终端运行 qwen-code,它能瞬间分析整个代码库,用自然语言清晰解释复杂模块的业务逻辑和数据流向。
- 智能安全重构:只需下达“重构此函数并保证兼容性”的指令,qwen-code 即可自动规划修改步骤,执行代码变更并自我验证,大幅降低出错率。
- 自动化全套产出:一条命令即可让 qwen-code 自动生成覆盖核心场景的单元测试用例,并同步更新对应的 API 文档,实现零手工编码。
- 终端内闭环操作:所有对话、代码查看、编辑和运行均在终端窗口内完成,开发者无需离开命令行环境,保持专注高效的开发节奏。
qwen-code 将原本需要半天的人工排查与重构工作压缩至一小时内完成,让开发者从繁琐的代码维护中解放出来,专注于核心价值交付。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
🎉 新闻
2026年4月15日: Qwen OAuth 免费层级已停止服务。如需继续使用 Qwen Code,请切换至 阿里云 Coding Plan、OpenRouter、Fireworks AI,或使用您自己的 API 密钥。请运行
qwen auth进行配置。2026年4月13日: Qwen OAuth 免费层级政策更新:每日配额调整为 100 次请求(原为 1,000 次)。
2026年4月2日: Qwen3.6-Plus 已上线!请从 阿里云 ModelStudio 获取 API 密钥,通过与 OpenAI 兼容的 API 访问该模型。
2026年2月16日: Qwen3.5-Plus 已上线!
为什么选择 Qwen Code?
Qwen Code 是一款专为终端设计的开源 AI 助手,针对 Qwen 系列模型进行了优化。它可以帮助您理解大型代码库、自动化繁琐任务,并加快开发进度。
- 多协议、灵活的提供商:支持 OpenAI / Anthropic / Gemini 兼容的 API,以及 阿里云 Coding Plan、OpenRouter、Fireworks AI,或使用您自有的 API 密钥。
- 开源、协同进化:框架和 Qwen3-Coder 模型均为开源,并且两者同步发布与迭代。
- 代理式工作流、功能丰富:内置丰富的工具(技能、子代理),提供完整的代理式工作流,带来类似 Claude Code 的体验。
- 以终端为先、IDE 友好:专为习惯于命令行的开发者设计,同时可选集成 VS Code、Zed 和 JetBrains IDE。

安装
快速安装(推荐)
Linux / macOS
bash -c "$(curl -fsSL https://qwen-code-assets.oss-cn-hangzhou.aliyuncs.com/installation/install-qwen.sh)"
Windows(以管理员身份运行)
适用于命令提示符和 PowerShell:
powershell -Command "Invoke-WebRequest 'https://qwen-code-assets.oss-cn-hangzhou.aliyuncs.com/installation/install-qwen.bat' -OutFile (Join-Path $env:TEMP 'install-qwen.bat'); & (Join-Path $env:TEMP 'install-qwen.bat')"
注意:建议在安装完成后重启终端,以确保环境变量生效。
手动安装
前置条件
请确保已安装 Node.js 20 或更高版本。可从 nodejs.org 下载。
NPM
npm install -g @qwen-code/qwen-code@latest
Homebrew(macOS、Linux)
brew install qwen-code
快速开始
# 启动 Qwen Code(交互模式)
qwen
# 在会话中:
/help
/auth
首次使用时,系统会提示您登录。您可以随时运行 /auth 来切换认证方式。
示例提示:
这个项目是做什么的?
请解释一下代码库的结构。
帮我重构这个函数。
为这个模块生成单元测试。
点击观看演示视频
🦞 使用 Qwen Code 处理 Claw 中的编码任务
复制以下提示并粘贴到您的代理中:
将 Qwen Code 用作编码助手。首先获取并阅读此技能参考:
https://raw.githubusercontent.com/QwenLM/qwen-code/refs/heads/main/.qwen/skills/qwen-code-claw/SKILL.md
然后按照其中的说明,通过 acpx 安装、认证并使用 Qwen Code 处理所有编码任务。
认证
Qwen Code 支持以下认证方式:
- API 密钥(推荐):使用来自阿里云 Model Studio(北京 / 国际站)或任何支持的提供商(OpenAI、Anthropic、Google GenAI 等兼容端点)的 API 密钥。
- Coding Plan:订阅阿里云 Coding Plan(北京 / 国际站),按月付费以获得更高的配额。
⚠️ Qwen OAuth 已于 2026 年 4 月 15 日停止服务。 如果您之前使用的是 Qwen OAuth,请切换到上述方法之一。运行
qwen并输入/auth以重新配置。
API 密钥(推荐)
使用 API 密钥连接到阿里云 Model Studio 或其他支持的提供商。支持多种协议:
- 与 OpenAI 兼容:阿里云 ModelStudio、ModelScope、OpenAI、OpenRouter 等 OpenAI 兼容提供商
- Anthropic:Claude 系列模型
- Google GenAI:Gemini 系列模型
推荐的配置方式是编辑 ~/.qwen/settings.json 文件(如果不存在则创建)。该文件允许您在一个地方定义所有可用的模型、API 密钥和默认设置。
快速设置三步法
第一步:创建或编辑 ~/.qwen/settings.json
以下是一个完整示例:
{
"modelProviders": {
"openai": [
{
"id": "qwen3.6-plus",
"name": "qwen3.6-plus",
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"description": "通过 Dashscope 的 Qwen3-Coder",
"envKey": "DASHSCOPE_API_KEY"
}
]
},
"env": {
"DASHSCOPE_API_KEY": "sk-xxxxxxxxxxxxx"
},
"security": {
"auth": {
"selectedType": "openai"
}
},
"model": {
"name": "qwen3.6-plus"
}
}
第二步:理解每个字段
| 字段 | 作用 |
|---|---|
modelProviders |
声明可用的模型以及如何连接这些模型。键如 openai、anthropic、gemini 代表 API 协议。 |
modelProviders[].id |
发送到 API 的模型 ID(例如 qwen3.6-plus、gpt-4o)。 |
modelProviders[].envKey |
存储 API 密钥的环境变量名称。 |
modelProviders[].baseUrl |
API 端点 URL(对于非默认端点是必需的)。 |
env |
存储 API 密钥的备用位置(优先级最低;敏感密钥建议使用 .env 文件或 export 命令)。 |
security.auth.selectedType |
启动时使用的协议(openai、anthropic、gemini、vertex-ai)。 |
model.name |
Qwen Code 启动时默认使用的模型。 |
步骤 3: 启动 Qwen Code — 您的配置会自动生效:
qwen
您可以在任何时候使用 /model 命令在所有已配置的模型之间切换。
更多示例
编码计划(阿里云 ModelStudio)— 固定月费,更高配额
{
"modelProviders": {
"openai": [
{
"id": "qwen3.6-plus",
"name": "qwen3.6-plus(编码计划)",
"baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
"description": "来自 ModelStudio 编码计划的 qwen3.6-plus",
"envKey": "BAILIAN_CODING_PLAN_API_KEY"
},
{
"id": "qwen3.5-plus",
"name": "qwen3.5-plus(编码计划)",
"baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
"description": "来自 ModelStudio 编码计划的启用了思考功能的 qwen3.5-plus",
"envKey": "BAILIAN_CODING_PLAN_API_KEY",
"generationConfig": {
"extra_body": {
"enable_thinking": true
}
}
},
{
"id": "glm-4.7",
"name": "glm-4.7(编码计划)",
"baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
"description": "来自 ModelStudio 编码计划的启用了思考功能的 glm-4.7",
"envKey": "BAILIAN_CODING_PLAN_API_KEY",
"generationConfig": {
"extra_body": {
"enable_thinking": true
}
}
},
{
"id": "kimi-k2.5",
"name": "kimi-k2.5(编码计划)",
"baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
"description": "来自 ModelStudio 编码计划的启用了思考功能的 kimi-k2.5",
"envKey": "BAILIAN_CODING_PLAN_API_KEY",
"generationConfig": {
"extra_body": {
"enable_thinking": true
}
}
}
]
},
"env": {
"BAILIAN_CODING_PLAN_API_KEY": "sk-xxxxxxxxxxxxx"
},
"security": {
"auth": {
"selectedType": "openai"
}
},
"model": {
"name": "qwen3.6-plus"
}
}
订阅编码计划,并在 阿里云 ModelStudio(北京) 或 阿里云 ModelStudio(国际版) 获取您的 API 密钥。
多个提供商(OpenAI + Anthropic + Gemini)
{
"modelProviders": {
"openai": [
{
"id": "gpt-4o",
"name": "GPT-4o",
"envKey": "OPENAI_API_KEY",
"baseUrl": "https://api.openai.com/v1"
}
],
"anthropic": [
{
"id": "claude-sonnet-4-20250514",
"name": "Claude Sonnet 4",
"envKey": "ANTHROPIC_API_KEY"
}
],
"gemini": [
{
"id": "gemini-2.5-pro",
"name": "Gemini 2.5 Pro",
"envKey": "GEMINI_API_KEY"
}
]
},
"env": {
"OPENAI_API_KEY": "sk-xxxxxxxxxxxxx",
"ANTHROPIC_API_KEY": "sk-ant-xxxxxxxxxxxxx",
"GEMINI_API_KEY": "AIzaxxxxxxxxxxxxx"
},
"security": {
"auth": {
"selectedType": "openai"
}
},
"model": {
"name": "gpt-4o"
}
}
启用思考模式(适用于支持的模型,如 qwen3.5-plus)
{
"modelProviders": {
"openai": [
{
"id": "qwen3.5-plus",
"name": "qwen3.5-plus(思考模式)",
"envKey": "DASHSCOPE_API_KEY",
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"generationConfig": {
"extra_body": {
"enable_thinking": true
}
}
}
]
},
"env": {
"DASHSCOPE_API_KEY": "sk-xxxxxxxxxxxxx"
},
"security": {
"auth": {
"selectedType": "openai"
}
},
"model": {
"name": "qwen3.5-plus"
}
}
提示: 您也可以通过 shell 中的
export命令或.env文件设置 API 密钥,它们的优先级高于settings.json→env。有关详细信息,请参阅认证指南。
安全提示: 切勿将 API 密钥提交到版本控制系统。
~/.qwen/settings.json文件位于您的主目录中,应保持私密。
本地模型设置(Ollama / vLLM)
您也可以在本地运行模型——无需 API 密钥或云账户。这不是一种认证方法;相反,您需要使用 modelProviders 字段在 ~/.qwen/settings.json 中配置本地模型端点。
Ollama 设置
- 从 ollama.com 安装 Ollama。
- 拉取一个模型:
ollama pull qwen3:32b。 - 配置
~/.qwen/settings.json:
{
"modelProviders": {
"openai": [
{
"id": "qwen3:32b",
"name": "Qwen3 32B(Ollama)",
"baseUrl": "http://localhost:11434/v1",
"description": "通过 Ollama 在本地运行的 Qwen3 32B"
}
]
},
"security": {
"auth": {
"selectedType": "openai"
}
},
"model": {
"name": "qwen3:32b"
}
}
vLLM 设置
- 安装 vLLM:
pip install vllm。 - 启动服务器:
vllm serve Qwen/Qwen3-32B。 - 配置
~/.qwen/settings.json:
{
"modelProviders": {
"openai": [
{
"id": "Qwen/Qwen3-32B",
"name": "Qwen3 32B (vLLM)",
"baseUrl": "http://localhost:8000/v1",
"description": "Qwen3 32B 在本地通过 vLLM 运行"
}
]
},
"security": {
"auth": {
"selectedType": "openai"
}
},
"model": {
"name": "Qwen/Qwen3-32B"
}
}
使用方法
作为一款开源的终端代理,你可以通过四种主要方式使用 Qwen Code:
- 交互模式(终端 UI)
- 无头模式(脚本、CI)
- IDE 集成(VS Code、Zed)
- TypeScript SDK
交互模式
cd your-project/
qwen
在你的项目文件夹中运行 qwen 即可启动交互式终端 UI。使用 @ 来引用本地文件(例如 @src/main.ts)。
无头模式
cd your-project/
qwen -p "your question"
使用 -p 参数可以在不显示交互式 UI 的情况下运行 Qwen Code,非常适合脚本、自动化和 CI/CD。更多信息请参阅:无头模式。
IDE 集成
你可以在编辑器中使用 Qwen Code(VS Code、Zed 和 JetBrains IDE):
TypeScript SDK
你可以基于 Qwen Code 构建应用,使用 TypeScript SDK:
命令与快捷键
会话命令
/help- 显示可用命令/clear- 清除对话历史/compress- 压缩历史以节省 Token/stats- 显示当前会话信息/bug- 提交 Bug 报告/exit或/quit- 退出 Qwen Code
键盘快捷键
Ctrl+C- 取消当前操作Ctrl+D- 退出(在空行时)Up/Down- 导航命令历史
更多关于 命令 的信息
提示:在 YOLO 模式(
--yolo)下,当检测到图像时,视觉切换会自动进行,无需提示。更多关于 审批模式 的信息
配置
Qwen Code 可以通过 settings.json 文件、环境变量和 CLI 标志进行配置。
| 文件 | 范围 | 描述 |
|---|---|---|
~/.qwen/settings.json |
用户(全局) | 应用于所有 Qwen Code 会话。建议用于 modelProviders 和 env。 |
.qwen/settings.json |
项目 | 仅在该项目中运行 Qwen Code 时生效。会覆盖用户设置。 |
settings.json 中最常用的顶级字段:
| 字段 | 描述 |
|---|---|
modelProviders |
定义按协议可用的模型(openai、anthropic、gemini、vertex-ai)。 |
env |
备用环境变量(如 API 密钥)。优先级低于 shell export 和 .env 文件。 |
security.auth.selectedType |
启动时使用的协议(如 openai)。 |
model.name |
Qwen Code 启动时默认使用的模型。 |
基准测试结果
终端基准性能
| 代理 | 模型 | 准确率 |
|---|---|---|
| Qwen Code | Qwen3-Coder-480A35 | 37.5% |
| Qwen Code | Qwen3-Coder-30BA3B | 31.3% |
生态系统
想要图形界面吗?
- AionUi 一个现代化的 GUI,适用于包括 Qwen Code 在内的命令行 AI 工具
- Gemini CLI Desktop 一个跨平台的桌面/网页/移动端 UI,适用于 Qwen Code
故障排除
如果遇到问题,请查看 故障排除指南。
常见问题:
Qwen OAuth 免费层级已于 2026 年 4 月 15 日停止服务:Qwen OAuth 已不再可用。运行qwen→/auth,然后切换到 API Key 或 Coding Plan。请参阅上方的 认证 部分以获取设置说明。
若要从 CLI 内部报告 Bug,请运行 /bug,并提供简短的标题和复现步骤。
联系我们
- Discord:https://discord.gg/RN7tqZCeDK
- Dingtalk:https://qr.dingtalk.com/action/joingroup?code=v1,k1,+FX6Gf/ZDlTahTIRi8AEQhIaBlqykA0j+eBKKdhLeAE=&_dt_no_comment=1&origin=1
致谢
本项目基于 Google Gemini CLI。我们感谢 Gemini CLI 团队的出色工作。我们的主要贡献在于解析器层面的适配,以更好地支持 Qwen-Coder 模型。
版本历史
v0.14.52026/04/15v0.14.4-preview.12026/04/15v0.14.4-nightly.20260415.9f9ffbf952026/04/15v0.14.4-nightly.20260414.1486e85382026/04/14v0.14.2-nightly.20260410.4d2d4432d2026/04/10v0.14.2-nightly.20260409.f208801b02026/04/09v0.14.5-nightly.20260419.a623655c82026/04/19v0.14.5-nightly.20260418.418acc5482026/04/18v0.15.0-preview.02026/04/17v0.14.5-nightly.20260417.12b24e2d22026/04/17v0.14.5-nightly.20260416.a6612940f2026/04/16v0.14.42026/04/13v0.14.4-preview.02026/04/13v0.14.3-nightly.20260413.7614c8c582026/04/13v0.14.3-nightly.20260412.56392c7392026/04/12v0.14.3-nightly.20260411.55bcec70d2026/04/11v0.14.32026/04/10v0.14.3-preview.02026/04/10v0.14.22026/04/08v0.14.0-preview.62026/04/08常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
n8n
n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
