Sage
Sage 是一个专为处理复杂任务而设计的多智能体系统框架,旨在将繁琐的工作流程转化为可靠的任务交付。它通过内置的规划、执行、自检、记忆回溯及工具推荐等智能体,能够自动完成从任务拆解到最终落地的全过程,有效解决了传统自动化脚本难以应对动态变化和多步骤协作的痛点。
无论是需要长期运行的定时任务、基于问卷的数据收集,还是涉及浏览器操作的企业级工作流,Sage 都能提供可视化的进度追踪与实时协作能力。其独特亮点在于强大的全渠道集成与统一工具栈:不仅支持微信、飞书、钉钉等即时通讯工具的消息与文件投递,还融合了 MCP 服务器、浏览器自动化及代码执行能力,并配备沙箱机制以确保运行安全。此外,Sage 提供了直观的工作台,让用户能在一个界面中预览代码、图表、音视频等多种格式的输出结果。
这款工具非常适合开发者构建企业级自动化应用,也适合研究人员探索多智能体协作模式,同时其桌面端、Web 端及 Chrome 插件等多入口设计,让普通用户也能轻松上手,实现个人工作效率的显著提升。凭借开箱即用的部署方案和灵活的环境配置,Sage 成为了连接创意与高效执行的得力助手。
使用场景
某电商运营团队需要每周从多个竞品网站抓取价格数据、分析趋势并生成可视化报告,最后通过企业微信发送给管理层。
没有 Sage 时
- 流程割裂严重:开发人员需分别编写爬虫脚本、数据分析代码和图表生成工具,手动串联各个环节,维护成本极高。
- 异常处理困难:一旦某个网站结构变更或网络波动,整个流程立即中断,缺乏自动重试或自我修正机制,需人工介入排查。
- 协作效率低下:数据整理好后,需人工下载文件再上传至企业微信,无法实现从任务触发到消息送达的全自动闭环。
- 环境安全隐患:直接在本地服务器运行未隔离的爬虫代码,容易因恶意脚本或依赖冲突导致生产环境不稳定。
使用 Sage 后
- 一站式自动执行:利用 Sage 的多智能体规划能力,单个任务即可自动调度“爬取 - 分析 - 绘图”三个专用 Agent 顺序执行,无需人工拼接脚本。
- 自愈与容错机制:内置的自我检查 Agent 能识别数据异常或网页变动,自动尝试调整策略或重试,确保任务长期稳定运行。
- 全链路即时交付:配置好企业微信集成后,报告生成完毕即自动推送至指定群组,支持文件与预览图直接送达,实现真正的无人值守。
- 沙箱隔离运行:所有爬虫与代码执行均在 Sage 提供的沙箱环境中进行,有效隔离潜在风险,保障核心业务系统的安全稳定。
Sage 将原本繁琐、脆弱的人工运维流程,转化为一个可自愈、全自动化且安全的企业级多智能体工作流。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
📸 产品截图
可视化工作台 |
实时协作 |
多格式支持 |
📖 详细文档: https://wiki.sage.zavixai.com/
✨ 核心功能
- 🤖 规划到交付: 内置规划、执行、自我检查、记忆检索和工具建议代理,用于完成复杂任务。
- 🌐 多入口产品界面: 根据工作流程,可通过桌面端、Web 端、CLI 和 Chrome 扩展使用 Sage。
- 🔁 自动化与周期性任务: 运行定时任务、问卷驱动的数据收集流程以及长期运行的操作任务,并可查看进度。
- 💬 全渠道 IM 集成: 支持微信个人号(iLink)、企业微信、飞书和钉钉的消息及文件传输。
- 🧰 统一工具系统: 将内置工具、技能、MCP 服务器、浏览器自动化、搜索和图像生成等功能整合在一个执行栈中。
- 🛡️ 沙箱式执行: 提供本地、直通和远程沙箱选项,以实现更安全的代理运行时隔离。
- 🛠️ 可视化工作台: 在一个工作空间内查看文件、工具输出、代码、图表、Mermaid、Draw.io、音频、视频以及远程预览内容。
- 🏢 企业级基础架构: OAuth2、可配置的身份验证与 CORS、共享服务架构、CI 覆盖以及可部署的跨平台打包。
🚀 快速入门
安装
git clone https://github.com/ZHangZHengEric/Sage.git
cd Sage
运行 Sage
选项 1:一键启动(推荐用于开发)
# 1. 可选:先激活你的虚拟环境
# conda activate your-env
# 2. 设置你的 LLM API 密钥
export SAGE_DEFAULT_LLM_API_KEY="your-api-key"
export SAGE_DEFAULT_LLM_API_BASE_URL="https://api.deepseek.com/v1"
export SAGE_DEFAULT_LLM_MODEL_NAME="deepseek-chat"
# 3. 运行启动脚本
./scripts/dev-up.sh
该脚本将自动:
- 检查 Python(>= 3.10)和 Node.js(>= 18)版本
- 创建配置文件(最小模式:SQLite,无外部依赖)
- 安装依赖并启动后端和前端服务
- 自动创建
logs/server.log - 根据
.env中的SAGE_PORT启动后端服务并进行健康检查
可选覆盖:
# 显式指定 Python 可执行文件
PYTHON_BIN=/path/to/python ./scripts/dev-up.sh
# 使用 uv 替代 python -m pip / python -m ...
USE_UV=1 ./scripts/dev-up.sh
首次使用? 脚本会提示你选择:
- 最小模式:SQLite,无外部依赖(推荐用于快速启动)
- 完整模式:MySQL + Elasticsearch + RustFS(适用于类似生产环境)
启动后,打开:http://localhost:5173
选项 2:桌面应用(推荐给用户)
从 GitHub Releases 下载最新的桌面安装包:
- macOS:
.dmg(Intel 和 Apple Silicon) - Windows:
.exe/.msi - Linux:
.deb(x86_64 / arm64)
桌面安装指南
macOS
- 下载适合你 CPU 架构的
.dmg文件并打开。 - 将
Sage.app拖入Applications文件夹。 - 当前的 macOS 版本尚未经过 Apple 签名或公证。如果出现开发者无法验证或 Apple 无法检查应用是否包含恶意软件的警告,请打开
Applications文件夹,右键点击Sage.app,选择Open,然后在弹出的对话框中再次点击Open。 - 如果 macOS 仍然阻止该应用,请前往
系统设置 -> 隐私与安全性,找到页面底部附近的 Sage 警告,然后点击无论如何打开。 - 如果 macOS 提示应用已损坏或仍拒绝启动,运行以下命令并重试:
xattr -dr com.apple.quarantine /Applications/Sage.app
Windows
- 下载
.exe安装程序并运行。 - 按照安装向导完成安装。
- 如果 Windows SmartScreen 显示警告,点击
更多信息->无论如何运行。
Linux
- 从 GitHub Releases 下载适合你架构的
.deb包。 - 在 Debian/Ubuntu 系统上,你可以直接双击安装,或者运行以下命令:
sudo apt install ./Sage-<version>-<arch>.deb
如果你更倾向于从源码构建桌面应用,可以使用以下命令。
# macOS/Linux
app/desktop/scripts/build.sh release
# Windows
./app/desktop/scripts/build_windows.ps1 release
命令行界面 (CLI):
# 安装可编辑包
pip install -e .
# 配置最低运行时变量
export SAGE_DEFAULT_LLM_API_KEY="your-api-key"
export SAGE_DEFAULT_LLM_API_BASE_URL="https://api.deepseek.com/v1"
export SAGE_DEFAULT_LLM_MODEL_NAME="deepseek-chat"
export SAGE_DB_TYPE="file"
# 诊断本地运行时配置
sage doctor
# 如有需要,创建最小化本地 CLI 配置
sage config init
# 运行一个简单任务
sage run --stats "Say hello briefly."
# 开启交互式聊天会话
sage chat
详细的 CLI 使用说明请参见:
- 英文:docs/en/CLI.md
- 中文:docs/zh/CLI.md
当前的 CLI MVP 仍然沿用现有的 Sage 运行时配置系统,因此 .env 文件和 Shell 环境变量仍然是主要的配置方式。当启用 --json 时,CLI 会发出流事件,并在运行结束后附加一个 cli_stats 事件,以便于结构化的后续检查。
Web 应用(FastAPI + Vue3):
# 启动后端
python -m app.server.main
# 启动前端(在另一个终端)
cd app/server/web
npm install
npm run dev
🏗️ 系统架构
graph TD
User[用户] --> Desktop[💻 桌面应用]
User --> Web[🌐 网页应用]
User --> CLI[⌨️ 命令行工具]
User --> Ext[🧩 Chrome 扩展]
User --> IM[💬 即时通讯渠道]
Desktop --> AppLayer[🧭 应用服务层]
Web --> AppLayer
CLI --> AppLayer
Ext --> AppLayer
IM --> AppLayer
subgraph App[产品层]
AppLayer --> Chat[💬 聊天与会话]
AppLayer --> AgentsUI[🤖 代理管理]
AppLayer --> Tasks[⏰ 任务与自动化]
AppLayer --> Browser[🌐 浏览器桥接]
AppLayer --> Workbench[🛠️ 可视化工作台]
end
subgraph Core[SAgents 核心]
AppLayer --> Runtime[🧠 会话运行时]
Runtime --> Flow[📋 代理流程]
Flow --> Agents["🤖 代理<br/>计划 / 简单 / 光纤 / 自检"]
Agents --> Memory[🧠 记忆检索]
Agents --> Skills[🧩 技能]
Agents --> ToolMgr[🛠️ 工具管理器]
end
subgraph Tools[执行与集成]
ToolMgr --> MCP[🔌 MCP 服务器]
ToolMgr --> BrowserTools[🌍 浏览器自动化]
ToolMgr --> Search[🔎 统一搜索]
ToolMgr --> ImageGen[🎨 图像生成]
ToolMgr --> Questionnaire[📝 问卷调查]
ToolMgr --> IMTools[📨 即时通讯发送]
end
subgraph RuntimeEnv[运行时与基础设施]
Agents --> Sandbox[📦 沙盒运行时]
Sandbox --> Local[本地]
Sandbox --> Pass[直通]
Sandbox --> Remote[远程]
AppLayer <--> Common[🧱 共享通用服务]
Common <--> DB[(SQL 数据库)]
Memory <--> ES[(Elasticsearch)]
Workbench <--> FS[(RustFS / 本地文件)]
Runtime -.-> Obs["👁️ 可观测性<br/>OpenTelemetry"]
end
📅 v1.1.0 新特性
🤖 SAgents 内核更新
- 执行链增强:新增
PlanAgent、SelfCheckAgent、MemoryRecallAgent和ToolSuggestionAgent - 上下文效率:优化用户输入并压缩对话历史,以提升长时间任务的处理效率
- 会话与消息:支持编辑后重新运行,提供更丰富的进度反馈,并改进会话检查流程
- 工具扩展:新增问卷收集流程,优化工具调用的渲染、截断及可观测性
💻 产品层更新
- 新入口:新增 Sage 命令行工具、Chrome 扩展以及浏览器自动化工具
- 工作台升级:扩展对音频、视频、Mermaid、Draw.io 的支持,支持远程文件预览,并丰富工具卡片展示
- 聊天体验:改进进度提示、消息传递流程显示、推理内容呈现以及工作区交互
- IM 集成:进一步扩展对微信个人号(iLink)、企业微信、飞书和钉钉的支持,强化文件消息流
🛡️ 平台与基础设施
- 企业级准备:新增 OAuth2、邮箱验证以及更强的身份认证、CORS 和安全控制
- 沙盒与运行时:重构了本地/直通/远程沙盒支持,并优化了 Node 运行时和 Sidecar 打包
- 共享架构:提取了桌面端和服务器端可复用的
common/服务、模型和架构 - 文档与 CI:重构了文档结构,新增命令行指南,并扩大了 CI/测试覆盖范围
📚 文档
- 📖 完整文档:https://wiki.sage.zavixai.com/
- 📝 发布说明:release_notes/
- 🏗️ 架构:核心运行时和产品层请参阅
sagents/、common/和app/ - 🔧 配置:环境变量和配置文件位于
app/desktop/
🛠️ 开发
项目结构
Sage/
├── sagents/ # SAgents 核心运行时、流程、上下文、工具、沙盒
├── common/ # 共享模型、架构、服务、核心客户端
├── app/
│ ├── desktop/ # 桌面应用(Python 后端 + Vue UI + Tauri 容器)
│ ├── server/ # 服务器应用及网页前端
│ ├── cli/ # Sage 命令行入口和服务
│ └── chrome-extension/ # 浏览器扩展及侧边栏
├── mcp_servers/ # 即时通讯、搜索、调度、图像生成等
├── docs/ # 英文和中文文档
└── release_notes/ # 版本发布说明
贡献
我们欢迎各位贡献!请访问我们的 GitHub Issues 查看任务和讨论。
💖 赞助商
🦌 加入我们的社区
版本历史
desktop-v1.0.232026/04/08desktop-v1.0.212026/04/04desktop-v1.0.202026/04/01desktop-v1.0.192026/03/27desktop-v1.0.182026/03/27desktop-v1.0.172026/03/25desktop-v1.0.162026/03/25desktop-v1.0.152026/03/25desktop-v1.0.142026/03/24desktop-v1.0.132026/03/23desktop-v1.0.122026/03/21desktop-v1.0.112026/03/21desktop-v1.0.102026/03/20desktop-1.0.102026/03/20desktop-v1.0.92026/03/19desktop-v1.0.82026/03/17desktop-v1.0.72026/03/17desktop-v1.0.62026/03/15desktop-v1.0.52026/03/15desktop-v1.0.42026/03/15常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
