CoPaw

GitHub
15.2k 2.1k 简单 1 次阅读 今天Apache-2.0Agent语言模型
AI 解读 由 AI 自动生成,仅供参考

QwenPaw 是一款专为个人打造的开源 AI 助手,旨在让用户轻松拥有完全自主控制的智能伙伴。它解决了用户在使用云端 AI 服务时普遍担忧的数据隐私与依赖问题,支持一键部署在本地电脑或私有云上,确保所有记忆与个性化数据仅留存于用户自己的设备中,无需经过第三方托管。

除了基础对话,QwenPaw 具备强大的技能扩展能力,内置了日程管理、文档处理(PDF/Office)及新闻摘要等实用功能,并允许用户通过自定义插件无限拓展其能力边界。更独特的是,它支持多智能体协作模式,用户可以创建多个独立运作的 Agent 分工处理复杂任务,实现更高效的自动化流程。

这款工具非常适合注重数据隐私的普通用户、希望搭建私有化 AI 服务的开发者,以及需要定制化工作流的研究人员。无论是想在本地离线运行以保障安全,还是希望在云端灵活调度,QwenPaw 都提供了极简的安装体验与开放的架构,真正实现了“为你所用,随你成长”的理念。

使用场景

自由职业数据分析师李明需要同时处理多个客户的日报生成、文档摘要及日程提醒任务,且对数据隐私有极高要求。

没有 QwenPaw 时

  • 数据泄露风险高:不得不将敏感客户数据上传至第三方公有云 AI 平台,时刻担忧隐私合规问题。
  • 工具割裂效率低:需要在网页版聊天窗口、本地脚本和日历应用间反复切换,无法在一个界面完成“读取 PDF-分析数据-发送报告”的闭环。
  • 功能扩展门槛高:想要增加“自动抓取行业新闻”或“定制 Excel 处理”功能时,必须重写大量底层代码,难以快速响应客户需求。
  • 记忆上下文丢失:不同客户的对话历史和偏好设置分散在各个浏览器标签页中,每次重启都需要重新交代背景信息。

使用 QwenPaw 后

  • 数据完全自主可控:李明将 QwenPaw 部署在本地服务器,所有客户数据仅在本地流转,彻底消除了上传第三方带来的隐私顾虑。
  • 多通道一站式协作:通过 QwenPaw 统一接入多个聊天应用,直接调用内置的 PDF 处理和新闻摘要技能,在一个对话框内即可完成从文件解析到报告生成的全流程。
  • 技能按需热插拔:利用其易扩展架构,李明轻松加载了自定义的“财经数据清洗”插件,无需修改核心代码即可让助手掌握新技能。
  • 个性化记忆持久化:QwenPaw 为每个客户维护独立的记忆单元,自动关联历史对话与偏好,再次交互时无需重复指令,服务更加连贯智能。

QwenPaw 让李明在确保数据绝对安全的前提下,拥有了一个可无限生长、懂业务且高度集成的私人智能工作流中枢。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU
  • 未说明(支持本地模型部署,具体需求取决于所选模型
  • 若使用 Ollama 等本地推理引擎,需参考对应模型的硬件要求)
内存

未说明

依赖
notes提供多种安装方式:pip 安装、一键脚本安装(自动配置 uv 虚拟环境及 Node.js)、桌面应用测试版。支持通过 Ollama 运行本地模型无需 API Key。Windows 企业版 LTSC 用户需注意 PowerShell 受限语言模式可能导致环境变量配置失败,需手动添加 uv 和 QwenPaw 路径到系统 Path。数据可完全本地部署以保护隐私。
python3.10 ~ <3.14
uv (Python 包管理器)
Node.js (前端资源依赖)
CoPaw hero image

快速开始

QwenPaw

GitHub Repo PyPI Documentation Python Version Last Commit License Code Style GitHub Stars GitHub Forks [![DeepWiki](https://img.shields.io/badge/DeepWiki-Ask_Devin-navy.svg?logo=data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAACwAAAAyCAYAAAAnWDnqAAAAAXNSR0IArs4c6QAAA05JREFUaEPtmUtyEzEQhtWTQyQLHNak2AB7ZnyXZMEjXMGeK/AIi+QuHrMnbChYY7MIh8g01fJoopFb0uhhEqqcbWTp06/uv1saEDv4O3n3dV60RfP947Mm9/SQc0ICFQgzfc4CYZoTPAswgSJCCUJUnAAoRHOAUOcATwbmVLWdGoH//PB8mnKqScAhsD0kYP3j/Yt5LPQe2KvcXmGvRHcDnpxfL2zOYJ1mFwrryWTz0advv1Ut4CJgf5uhDuDj5eUcAUoahrdY/56ebRWeraTjMt/00Sh3UDtjgHtQNHwcRGOC98BJEAEymycmYcWwOprTgcB6VZ5JK5TAJ+fXGLBm3FDAmn6oPPjR4rKCAoJCal2eAiQp2x0vxTPB3ALO2CRkwmDy5WohzBDwSEFKRwPbknEggCPB/imwrycgxX2NzoMCHhPkDwqYMr9tRcP5qNrMZHkVnOjRMWwLCcr8ohBVb1OMjxLwGCvjTikrsBOiA6fNyCrm8V1rP93iVPpwaE+gO0SsWmPiXB+jikdf6SizrT5qKasx5j8ABbHpFTx+vFXp9EnYQmLx02h1QTTrl6eDqxLnGjporxl3NL3agEvXdT0WmEost648sQOYAeJS9Q7bfUVoMGnjo4AZdUMQku50McDcMWcBPvr0SzbTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wD......

QwenPaw

GitHub 仓库 PyPI 文档 Python 版本 最近提交 许可证 代码风格 GitHub 星标 GitHub 分支 [![DeepWiki](https://img.shields.io/badge/DeepWiki-Ask_Devin-navy.svg?logo=data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAACwAAAAyCAYAAAAnWDnqAAAAAXNSR0IArs4c6QAAA05JREFUaEPtmUtyEzEQhtWTQyQLHNak2AB7ZnyXZMEjXMGeK/AIi+QuHrMnbChYY7MIh8g01fJoopFb0uhhEqqcbWTp06/uv1saEDv4O3n3dV60RfP947Mm9/SQc0ICFQgzfc4CYZoTPAswgSJCCUJUnAAoRHOAUOcATwbmVLWdGoH//PB8mnKqScAhsD0kYP3j/Yt5LPQe2KvcXmGvRHcDnpxfL2zOYJ1mFwrryWTz0advv1Ut4CJgf5uhDuDj5eUcAUoahrdY/56ebRWeraTjMt/00Sh3UDtjgHtQNHwcRGOC98BJEAEymycmYcWwOprTgcB6VZ5JK5TAJ+fXGLBm3FDAmn6oPPjR4rKCAoJCal2eAiQp2x0vxTPB3ALO2CRkwmDy5WohzBDwSEFKRwPbknEggCPB/imwrycgxX2NzoMCHhPkDwqYMr9tRcP5qNrMZHkVnOjRMWwLCcr8ohBVb1OMjxLwGCvjTikrsBOiA6fNyCrm8V1rP93iVPpwaE+gO0SsWmPiXB+jikdf6SizrT5qKasx5j8ABbHpFTx+vFXp9EnYQmLx02h1QTTrl6eDqxLnGjporxl3NL3agEvXdT0WmEost648sQOYAeJS9Q7bfUVoMGnjo4AZdUMQku50McDcMWcBPvr0SzbTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai42ppWPKiBagOvaYk8lO7DajerabOZP46Lby5wKjw1HCRx7p9sVMOWGzb/vA1hwiWc6jm3MvQDTAFDfvJqwLzgxwATnCgnp4wDl6Aa+Ax283gghmj+vj7feE2KBBRMW3FzOpLOADl0Isb5587h/U4gGvkt5v60Z1VLG8BhYjbzRwyQZemwAd6cCR5/XFWLYZRIMpX39AR0tjaGGiGzLVyhse5C9RKC6ai......

目录

推荐阅读:


快速入门

选项 1:pip 安装

如果您更喜欢自行管理 Python:

pip install qwenpaw
qwenpaw init --defaults
qwenpaw app

然后在浏览器中打开控制台,地址为 http://127.0.0.1:8088/,以配置您的模型。如需在钉钉、飞书、微信等平台聊天,请参阅 渠道设置 文档。

控制台


选项 2:脚本安装

无需任何 Python 环境配置,一条命令即可完成所有安装。该脚本会自动下载 uv(Python 包管理器),创建虚拟环境,并安装 QwenPaw 及其所有依赖项(包括 Node.js 和前端资源)。注意:在受限网络环境或企业防火墙下可能无法正常工作。

macOS / Linux:

curl -fsSL https://qwenpaw.agentscope.io/install.sh | bash

若需支持 Ollama:

curl -fsSL https://qwenpaw.agentscope.io/install.sh | bash -s -- --extras ollama

若需同时支持多个扩展(例如 Ollama + 本地模型):

curl -fsSL https://qwenpaw.agentscope.io/install.sh | bash -s -- --extras ollama,local

Windows (CMD):

curl -fsSL https://qwenpaw.agentscope.io/install.bat -o install.bat && install.bat

Windows (PowerShell):

irm https://qwenpaw.agentscope.io/install.ps1 | iex

注意:安装程序会自动检查 uv 的状态。如果未安装,它将尝试自动下载并配置。若自动安装失败,请按照屏幕提示操作,或执行 python -m pip install -U uv,然后重新运行安装程序。

⚠️ 针对 Windows Enterprise LTSC 用户的特别说明

如果您使用的是 Windows LTSC 或受严格安全策略约束的企业环境,PowerShell 可能会以 受限语言模式 运行,从而导致以下问题:

  1. 若使用 CMD (.bat):脚本成功执行,但无法写入 Path

    脚本已完成文件安装。由于 受限语言模式,无法自动更新环境变量。请手动按如下步骤配置:

    • 找到安装目录
      • 检查是否已安装 uv:在 CMD 中输入 uv --version。若显示版本号,则只需配置 QwenPaw 的路径;若出现提示 'uv' is not recognized as an internal or external command, operable program or batch file,,则需同时配置两个路径。
      • uv 的路径(根据安装位置选择;若 uv 未成功安装,则使用此路径):通常为 %USERPROFILE%\.local\bin%USERPROFILE%\AppData\Local\uv 或 Python 安装目录中的 Scripts 文件夹。
      • QwenPaw 的路径:通常位于 %USERPROFILE%\.qwenpaw\bin
    • 手动添加到系统的 Path 环境变量
      • 按下 Win + R,输入 sysdm.cpl 并按 Enter 打开系统属性。
      • 点击“高级”→“环境变量”。
      • 在“系统变量”中,找到并选择 Path,然后点击“编辑”。
      • 点击“新建”,依次输入两个目录路径,然后点击确定保存。
  2. 若使用 PowerShell (.ps1):脚本执行中断

由于 受限语言模式,脚本可能无法自动下载 uv

  • 手动安装 uv:请参考 GitHub 发布页面 下载 uv.exe,并将其放置在 %USERPROFILE%\.local\bin%USERPROFILE%\AppData\Local\uv;或者确保已安装 Python,并运行 python -m pip install -U uv
  • 配置 uv 的环境变量:将 uv 目录和 %USERPROFILE%\.qwenpaw\bin 添加到系统的 Path 变量中。
  • 重新运行安装脚本:打开一个新的终端,再次执行安装脚本,以完成 QwenPaw 的安装。
  • 配置 QwenPaw 的环境变量:将 %USERPROFILE%\.qwenpaw\bin 添加到系统的 Path 变量中。

安装完成后,打开一个新的终端并运行:

qwenpaw init --defaults   # 或:qwenpaw init(交互式)
qwenpaw app
安装选项

macOS / Linux:

# 安装特定版本
curl -fsSL ... | bash -s -- --version 1.1.0

# 从源码安装(开发/测试版)
curl -fsSL ... | bash -s -- --from-source

# 升级——只需重新运行安装程序
curl -fsSL ... | bash

# 卸载
qwenpaw uninstall          # 保留配置和数据
qwenpaw uninstall --purge  # 删除所有内容

Windows (PowerShell):

# 安装特定版本
irm ... | iex; .\install.ps1 -Version 0.0.2

# 从源码安装(开发/测试版)
.\install.ps1 -FromSource

# 升级——只需重新运行安装程序
irm ... | iex

# 卸载
qwenpaw uninstall          # 保留配置和数据
qwenpaw uninstall --purge  # 删除所有内容

选项 3:Docker

镜像托管在 Docker Hub 上(agentscope/qwenpaw)。镜像标签:latest(稳定版);pre(PyPI 预发布版)。

docker pull agentscope/qwenpaw:latest
docker run -p 127.0.0.1:8088:8088 \
  -v qwenpaw-data:/app/working \
  -v qwenpaw-secrets:/app/working.secret \
  agentscope/qwenpaw:latest

同时,面向中国用户,该镜像也在阿里云容器镜像服务(ACR)上提供:agentscope-registry.ap-southeast-1.cr.aliyuncs.com/agentscope/qwenpaw(标签相同)。

随后打开 http://127.0.0.1:8088/ 即可进入控制台。配置、内存和技能存储在 qwenpaw-data 卷中;模型提供商的设置和 API 密钥则存储在 qwenpaw-secrets 卷中。若需传递 API 密钥(如 DASHSCOPE_API_KEY),可在 docker run 命令中添加 -e VAR=value--env-file .env

连接宿主机上的 Ollama 或其他服务

在 Docker 容器内,localhost 指的是容器本身,而非宿主机。如果您在宿主机上运行 Ollama(或其他模型服务),并希望 Docker 中的 QwenPaw 能够访问它们,可以采用以下方法之一:

选项 A — 显式绑定宿主机(适用于所有平台):

docker run -p 127.0.0.1:8088:8088 \
  --add-host=host.docker.internal:host-gateway \
  -v qwenpaw-data:/app/working \
  -v qwenpaw-secrets:/app/working.secret \
  agentscope/qwenpaw:latest

然后在 QwenPaw 的 设置 → 模型 中,将基础 URL 更改为 http://host.docker.internal:<端口> — 例如,对于 Ollama 可设置为 http://host.docker.internal:11434,对于 LM Studio 则为 http://host.docker.internal:1234/v1

选项 B — 使用宿主机网络(仅限 Linux):

docker run --network=host \
  -v qwenpaw-data:/app/working \
  -v qwenpaw-secrets:/app/working.secret \
  agentscope/qwenpaw:latest

此时无需进行端口映射(-p),容器会直接共享宿主机网络。请注意,容器的所有端口都会暴露在宿主机上,如果该端口已被占用,可能会导致冲突。

注意:如果您只挂载了 /app/working 而未单独创建 /app/working.secret 卷,则入口脚本会自动将密钥重定向到 /app/working/.secret,从而确保密钥保存在同一卷中。

该镜像是从零开始构建的。如需自行构建镜像,请参阅 scripts/README.md 中的 构建 Docker 镜像 部分,然后推送到您的镜像仓库。


选项 4:部署在阿里云 ECS 上

要在阿里云(ECS)上运行 QwenPaw,可以使用一键部署功能:打开 QwenPaw 在阿里云(ECS)上的部署链接,并按照提示操作。有关详细步骤,请参阅 阿里云开发者:3 分钟部署你的 AI 助手


选项 5:使用 ModelScope

没有本地安装环境? 可以通过 ModelScope Studio 进行一键云端部署。请将 Studio 设置为 非公开,以防止他人控制您的 QwenPaw。


选项 6:桌面应用(Beta 版)

Beta 版说明:桌面应用目前处于 Beta 测试阶段,存在以下已知限制:

  • 兼容性测试不完整:尚未在所有系统版本和硬件配置上进行全面测试。
  • 潜在性能问题:启动时间、内存占用等性能方面可能仍需进一步优化。
  • 功能开发中:部分功能可能不稳定或缺失。

如果您不熟悉命令行工具,可以直接下载并使用 QwenPaw 的桌面应用,而无需手动配置 Python 环境或执行命令。

下载

您可以从 GitHub Releases 下载桌面应用:

  • WindowsQwenPaw-Setup-<version>.exe
  • macOSQwenPaw-<version>-macOS.zip(推荐使用 Apple Silicon 设备)。

功能特点

  • 零配置:下载后双击即可运行,无需安装 Python 或配置环境变量。
  • 跨平台:支持 Windows 10 及以上版本和 macOS 14 及以上版本。
  • 可视化界面:自动打开浏览器界面,无需手动输入地址。
  • ⚠️ Beta 阶段:功能仍在持续改进中,欢迎反馈。

首次启动

重要提示:首次启动可能需要 10–60 秒(具体时间取决于您的系统配置)。应用程序需要初始化 Python 环境并加载依赖项,请耐心等待浏览器窗口自动打开。

macOS:绕过系统安全限制

当您从 Releases 下载 QwenPaw macOS 应用程序时,macOS 可能会显示:“Apple 无法验证‘QwenPaw’是否包含恶意软件”。这是因为该应用未经公证。您仍然可以通过以下方式打开:

  • 右键打开(推荐) 右键单击(或按住 Control 键并单击)QwenPaw 应用程序 → 打开 → 在弹出的对话框中再次点击 打开。这会告知 Gatekeeper 您信任该应用;此后您可以像往常一样双击启动。

  • 在系统设置中允许 如果仍然被阻止,请前往 系统设置 → 隐私与安全性,找到类似“QwenPaw 因来自未识别开发者而被阻止”的提示,并点击 仍要打开允许

  • 移除隔离属性(不推荐大多数用户使用) 在终端中运行: xattr -cr /Applications/QwenPaw.app (或使用解压后的 .app 文件路径)。此操作会清除“从互联网下载”的隔离标记,通常可避免警告出现,但安全性及可控性不如使用“右键 → 打开”方法。

有关详细的使用说明、故障排除及常见问题,请参阅 桌面应用指南


API 密钥

如果您使用 云端大模型 API(例如通义千问、Gemini、OpenAI),在开始聊天前必须配置 API 密钥。在设置有效的密钥之前,QwenPaw 将无法正常工作。详情请参阅官方文档

如何配置:

  1. 控制台(推荐) — 运行 qwenpaw app 后,打开 http://127.0.0.1:8088/设置模型。选择提供商,输入 API 密钥,并启用该提供商和模型。
  2. qwenpaw init — 当您运行 qwenpaw init 时,它会引导您完成大模型提供商和 API 密钥的配置。按照提示选择提供商并输入您的密钥。
  3. 环境变量 — 对于 DashScope,您可以在 shell 中或工作目录下的 .env 文件中设置 DASHSCOPE_API_KEY

需要额外密钥的工具(例如用于网络搜索的 TAVILY_API_KEY)可以在控制台的 设置 → 环境变量 中进行设置,详情请参阅配置

仅使用本地模型? 如果您使用本地模型(llama.cpp / Ollama / LM Studio),则无需任何 API 密钥。

本地模型

QwenPaw 可以在您的设备上完全运行大模型,无需任何 API 密钥或云服务。详情请参阅官方文档

后端 最适合 安装
llama.cpp 跨平台(macOS / Linux / Windows) 无需额外安装;在网页界面上点击“下载 Llama.cpp”。
Ollama 跨平台(需安装 Ollama 服务) 提前安装并启动 Ollama 应用程序。
LM Studio 跨平台(需安装 LM Studio 服务) 提前安装并启动 LM Studio 应用程序。

文档

主题 描述
简介 QwenPaw 是什么以及如何使用它
快速入门 安装并运行(本地或 ModelScope Studio)
控制台 网页界面:聊天和智能体配置
模型 配置云端、本地和自定义提供商
渠道 钉钉、飞书、QQ、Discord、iMessage 等
技能 扩展和自定义功能
MCP 管理 MCP 客户端
记忆 长期记忆
上下文 上下文管理机制
魔法命令 在无需等待 AI 回答的情况下控制对话状态
心跳 定期签到和摘要
多智能体 创建多个智能体并实现协作
配置与工作目录 工作目录和配置文件
CLI 初始化、定时任务、技能、清理
常见问题解答 常见问题及故障排除

完整文档位于此仓库:website/public/docs/


安全特性

QwenPaw 包含多层安全机制,以保护您的数据和系统:

  • 工具防护 — 自动拦截危险的 Shell 命令(如 rm -rf /、fork 恶意软件、反向 Shell 等)。
  • 文件访问防护 — 限制智能体对敏感路径的访问(如 ~/.ssh、密钥文件、系统目录等)。
  • 技能安全扫描 — 在安装技能前自动扫描,检测诸如提示注入、命令注入、硬编码密钥、数据外泄等风险。
  • 本地部署 — 所有数据和内存均存储在本地,不会上传至第三方(当使用云端大模型 API 时,对话内容会发送到相应的 API 提供商)。
  • Web 认证 — 控制台可选登录保护。默认关闭;设置 QWENPAW_AUTH_ENABLED=true 即可启用。详情请参阅Web 认证

详细信息请参阅安全文档


常见问题解答

有关常见问题、故障排除技巧及已知问题,请访问**FAQ 页面**。


保持关注

Star QwenPaw

在 GitHub 上为 QwenPaw 点赞,即可第一时间获取新版本通知。


Roadmap

Area Item Status
Horizontal Expansion More channels, models, skills, MCPs — community contributions welcome Seeking Contributors
Existing Feature Extension Display optimization, download hints, Windows path compatibility, etc. — community contributions welcome Seeking Contributors
Console Web UI Expose more info/config in the Console In Progress
Multi-agent Agentic Ralph Loop In Progress
Multimodal Voice/video calls and real-time interaction In Progress
Small + Large Model Collaboration Multi-model routing; different models for different tasks In Progress
Memory System Experience distillation & skill extraction In Progress
Memory mechanism switching In Progress
Multimodal memory fusion Planned
Context-aware proactive delivery Planned
Sandbox Deeper integration with AgentScope Runtime sandboxes In Progress
Cloud-native Deeper integration with AgentScope Runtime; leverage cloud compute, storage, tools, and skills In Progress
Skills Hub Enrich the AgentScope Skills repository and improve discoverability of high-quality skills Planned

Status: In Progress — actively being worked on; Planned — queued or under design, also welcome contributions; Seeking Contributors — we strongly encourage community contributions.

Install from source

git clone https://github.com/agentscope-ai/QwenPaw.git
cd QwenPaw

# Build console frontend first (required for web UI)
cd console && npm ci && npm run build
cd ..

# Copy console build output to package directory
mkdir -p src/qwenpaw/console
cp -R console/dist/. src/qwenpaw/console/

# Install Python package
pip install -e .
  • Dev (tests, formatting): pip install -e ".[dev,full]"
  • Then: Run qwenpaw init --defaults, then qwenpaw app.

Note for updates: When updating to a new major version after git pull, please also rebuild the frontend, reinstall the package (pip install -e .), restart qwenpaw app, and clear your browser cache with Ctrl+Shift+R (or Cmd+Shift+R on macOS).


Contributing

QwenPaw evolves through open collaboration, and we welcome all forms of contribution! Check the Roadmap above (especially items marked Seeking Contributors) to find areas that interest you, and read CONTRIBUTING to get started. We particularly welcome:

  • Horizontal expansion — new channels, model providers, skills, MCPs.
  • Existing feature extension & refinement — display and interaction improvements, download hints, Windows path compatibility, etc.

Join GitHub Discussions to discuss ideas or pick up tasks.


Why QwenPaw?

QwenPaw stands for Qwen Personal Agent Workstation, and also embodies the wisdom of Qwen and the warmth of a Paw. We hope it is not a cold tool, but an intelligent and warm "little paw" always ready to help—a most intuitive partner in your digital life.


Built by

AgentScope team · AgentScope · AgentScope Runtime · ReMe


Contact us

Discord X (Twitter) DingTalk RedNote
Discord X DingTalk RedNote

Telemetry

QwenPaw collects anonymous usage data during qwenpaw init to help us understand our user base and prioritize improvements. Data is sent once per version — when you upgrade QwenPaw, telemetry is re-collected so we can track version adoption.

What we collect:

  • QwenPaw version (e.g., 0.0.7)
  • Install method (pip, Docker, or desktop app)
  • OS and version (e.g., macOS 14.0, Ubuntu 22.04)
  • Python version (e.g., 3.13)
  • CPU architecture (e.g., x86_64, arm64)
  • GPU availability (yes/no)

What we do NOT collect: No personal data, no files, no credentials, no IP addresses, no identifiable information.

When running qwenpaw init interactively, you will be asked whether to opt in. If you choose --defaults, telemetry is accepted automatically. The prompt appears once per version and never affects QwenPaw's functionality.


License

QwenPaw is released under the Apache License 2.0.


Contributors

All thanks to our contributors:

Contributors

版本历史

v1.1.1-beta.12026/04/13
v1.1.02026/04/12
v1.1.0-beta.12026/04/12
v1.0.22026/04/09
v1.0.2-beta.22026/04/09
v1.0.2-beta.12026/04/08
v1.0.12026/04/03
v1.0.1-beta.22026/04/03
v1.0.1-beta.12026/04/02
v1.0.0.post32026/04/01
v1.0.0.post22026/03/31
v1.0.0.post12026/03/31
v1.0.02026/03/30
v1.0.0-beta.32026/03/30
v1.0.0-beta.22026/03/30
v1.0.0-beta.12026/03/30
v0.2.0.post12026/03/25
v0.2.02026/03/24
v0.1.0.post12026/03/20
v0.1.02026/03/19

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

154.3k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|3天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|4天前
插件Agent图像

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|1周前
语言模型图像Agent