Sage

GitHub
1.1k 87 简单 1 次阅读 今天MIT开发框架Agent图像语言模型
AI 解读 由 AI 自动生成,仅供参考

Sage 是一个专为处理复杂任务而设计的多智能体系统框架,旨在将繁琐的工作流程转化为可靠的任务交付。它通过内置的规划、执行、自检、记忆回溯及工具推荐等智能体,能够自动完成从任务拆解到最终落地的全过程,有效解决了传统自动化脚本难以应对动态变化和多步骤协作的痛点。

无论是需要长期运行的定时任务、基于问卷的数据收集,还是涉及浏览器操作的企业级工作流,Sage 都能提供可视化的进度追踪与实时协作能力。其独特亮点在于强大的全渠道集成与统一工具栈:不仅支持微信、飞书、钉钉等即时通讯工具的消息与文件投递,还融合了 MCP 服务器、浏览器自动化及代码执行能力,并配备沙箱机制以确保运行安全。此外,Sage 提供了直观的工作台,让用户能在一个界面中预览代码、图表、音视频等多种格式的输出结果。

这款工具非常适合开发者构建企业级自动化应用,也适合研究人员探索多智能体协作模式,同时其桌面端、Web 端及 Chrome 插件等多入口设计,让普通用户也能轻松上手,实现个人工作效率的显著提升。凭借开箱即用的部署方案和灵活的环境配置,Sage 成为了连接创意与高效执行的得力助手。

使用场景

某电商运营团队需要每周从多个竞品网站抓取价格数据、分析趋势并生成可视化报告,最后通过企业微信发送给管理层。

没有 Sage 时

  • 流程割裂严重:开发人员需分别编写爬虫脚本、数据分析代码和图表生成工具,手动串联各个环节,维护成本极高。
  • 异常处理困难:一旦某个网站结构变更或网络波动,整个流程立即中断,缺乏自动重试或自我修正机制,需人工介入排查。
  • 协作效率低下:数据整理好后,需人工下载文件再上传至企业微信,无法实现从任务触发到消息送达的全自动闭环。
  • 环境安全隐患:直接在本地服务器运行未隔离的爬虫代码,容易因恶意脚本或依赖冲突导致生产环境不稳定。

使用 Sage 后

  • 一站式自动执行:利用 Sage 的多智能体规划能力,单个任务即可自动调度“爬取 - 分析 - 绘图”三个专用 Agent 顺序执行,无需人工拼接脚本。
  • 自愈与容错机制:内置的自我检查 Agent 能识别数据异常或网页变动,自动尝试调整策略或重试,确保任务长期稳定运行。
  • 全链路即时交付:配置好企业微信集成后,报告生成完毕即自动推送至指定群组,支持文件与预览图直接送达,实现真正的无人值守。
  • 沙箱隔离运行:所有爬虫与代码执行均在 Sage 提供的沙箱环境中进行,有效隔离潜在风险,保障核心业务系统的安全稳定。

Sage 将原本繁琐、脆弱的人工运维流程,转化为一个可自愈、全自动化且安全的企业级多智能体工作流。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes支持多种运行模式:开发模式可通过脚本一键启动(自动检查环境),用户可直接下载桌面应用(macOS/Windows/Linux),也支持 CLI 命令行和 Web 应用模式。首次运行可选择最小化模式(仅 SQLite)或全量模式(需 MySQL + Elasticsearch + RustFS)。macOS 未签名版本需手动授权信任。
python3.10+
Node.js>=18
SQLite
MySQL (可选)
Elasticsearch (可选)
RustFS (可选)
FastAPI
Vue3
Tauri
Sage hero image

快速开始

🌟 体验 Sage 的强大功能

cover

英语 简体中文 许可证:MIT Python 3.10+ 版本 DeepWiki Slack

🧠 Sage 代理平台

🎯 从复杂工作到可靠交付

🌟 一个生产就绪的代理平台,用于任务执行、自动化、浏览器工作流、即时通讯消息传递以及企业级部署。


📸 产品截图

Workbench
可视化工作台
Chat
实时协作
Preview
多格式支持

📖 详细文档: https://wiki.sage.zavixai.com/


核心功能

  • 🤖 规划到交付: 内置规划、执行、自我检查、记忆检索和工具建议代理,用于完成复杂任务。
  • 🌐 多入口产品界面: 根据工作流程,可通过桌面端、Web 端、CLI 和 Chrome 扩展使用 Sage。
  • 🔁 自动化与周期性任务: 运行定时任务、问卷驱动的数据收集流程以及长期运行的操作任务,并可查看进度。
  • 💬 全渠道 IM 集成: 支持微信个人号(iLink)、企业微信、飞书和钉钉的消息及文件传输。
  • 🧰 统一工具系统: 将内置工具、技能、MCP 服务器、浏览器自动化、搜索和图像生成等功能整合在一个执行栈中。
  • 🛡️ 沙箱式执行: 提供本地、直通和远程沙箱选项,以实现更安全的代理运行时隔离。
  • 🛠️ 可视化工作台: 在一个工作空间内查看文件、工具输出、代码、图表、Mermaid、Draw.io、音频、视频以及远程预览内容。
  • 🏢 企业级基础架构: OAuth2、可配置的身份验证与 CORS、共享服务架构、CI 覆盖以及可部署的跨平台打包。

🚀 快速入门

安装

git clone https://github.com/ZHangZHengEric/Sage.git
cd Sage

运行 Sage

选项 1:一键启动(推荐用于开发)

# 1. 可选:先激活你的虚拟环境
# conda activate your-env

# 2. 设置你的 LLM API 密钥
export SAGE_DEFAULT_LLM_API_KEY="your-api-key"
export SAGE_DEFAULT_LLM_API_BASE_URL="https://api.deepseek.com/v1"
export SAGE_DEFAULT_LLM_MODEL_NAME="deepseek-chat"

# 3. 运行启动脚本
./scripts/dev-up.sh

该脚本将自动:

  • 检查 Python(>= 3.10)和 Node.js(>= 18)版本
  • 创建配置文件(最小模式:SQLite,无外部依赖)
  • 安装依赖并启动后端和前端服务
  • 自动创建 logs/server.log
  • 根据 .env 中的 SAGE_PORT 启动后端服务并进行健康检查

可选覆盖:

# 显式指定 Python 可执行文件
PYTHON_BIN=/path/to/python ./scripts/dev-up.sh

# 使用 uv 替代 python -m pip / python -m ...
USE_UV=1 ./scripts/dev-up.sh

首次使用? 脚本会提示你选择:

  • 最小模式:SQLite,无外部依赖(推荐用于快速启动)
  • 完整模式:MySQL + Elasticsearch + RustFS(适用于类似生产环境)

启动后,打开:http://localhost:5173

选项 2:桌面应用(推荐给用户)

GitHub Releases 下载最新的桌面安装包:

  • macOS: .dmg(Intel 和 Apple Silicon)
  • Windows: .exe / .msi
  • Linux: .deb(x86_64 / arm64)

桌面安装指南

macOS

  1. 下载适合你 CPU 架构的 .dmg 文件并打开。
  2. Sage.app 拖入 Applications 文件夹。
  3. 当前的 macOS 版本尚未经过 Apple 签名或公证。如果出现开发者无法验证或 Apple 无法检查应用是否包含恶意软件的警告,请打开 Applications 文件夹,右键点击 Sage.app,选择 Open,然后在弹出的对话框中再次点击 Open
  4. 如果 macOS 仍然阻止该应用,请前往 系统设置 -> 隐私与安全性,找到页面底部附近的 Sage 警告,然后点击 无论如何打开
  5. 如果 macOS 提示应用已损坏或仍拒绝启动,运行以下命令并重试:
xattr -dr com.apple.quarantine /Applications/Sage.app

Windows

  1. 下载 .exe 安装程序并运行。
  2. 按照安装向导完成安装。
  3. 如果 Windows SmartScreen 显示警告,点击 更多信息 -> 无论如何运行

Linux

  1. GitHub Releases 下载适合你架构的 .deb 包。
  2. 在 Debian/Ubuntu 系统上,你可以直接双击安装,或者运行以下命令:
sudo apt install ./Sage-<version>-<arch>.deb

如果你更倾向于从源码构建桌面应用,可以使用以下命令。

# macOS/Linux
app/desktop/scripts/build.sh release

# Windows
./app/desktop/scripts/build_windows.ps1 release

命令行界面 (CLI):

# 安装可编辑包
pip install -e .

# 配置最低运行时变量
export SAGE_DEFAULT_LLM_API_KEY="your-api-key"
export SAGE_DEFAULT_LLM_API_BASE_URL="https://api.deepseek.com/v1"
export SAGE_DEFAULT_LLM_MODEL_NAME="deepseek-chat"
export SAGE_DB_TYPE="file"

# 诊断本地运行时配置
sage doctor

# 如有需要,创建最小化本地 CLI 配置
sage config init

# 运行一个简单任务
sage run --stats "Say hello briefly."

# 开启交互式聊天会话
sage chat

详细的 CLI 使用说明请参见:

当前的 CLI MVP 仍然沿用现有的 Sage 运行时配置系统,因此 .env 文件和 Shell 环境变量仍然是主要的配置方式。当启用 --json 时,CLI 会发出流事件,并在运行结束后附加一个 cli_stats 事件,以便于结构化的后续检查。

Web 应用(FastAPI + Vue3):


# 启动后端
python -m app.server.main

# 启动前端(在另一个终端)
cd app/server/web
npm install
npm run dev

🏗️ 系统架构

graph TD
    User[用户] --> Desktop[💻 桌面应用]
    User --> Web[🌐 网页应用]
    User --> CLI[⌨️ 命令行工具]
    User --> Ext[🧩 Chrome 扩展]
    User --> IM[💬 即时通讯渠道]

    Desktop --> AppLayer[🧭 应用服务层]
    Web --> AppLayer
    CLI --> AppLayer
    Ext --> AppLayer
    IM --> AppLayer

    subgraph App[产品层]
        AppLayer --> Chat[💬 聊天与会话]
        AppLayer --> AgentsUI[🤖 代理管理]
        AppLayer --> Tasks[⏰ 任务与自动化]
        AppLayer --> Browser[🌐 浏览器桥接]
        AppLayer --> Workbench[🛠️ 可视化工作台]
    end

    subgraph Core[SAgents 核心]
        AppLayer --> Runtime[🧠 会话运行时]
        Runtime --> Flow[📋 代理流程]
        Flow --> Agents["🤖 代理<br/>计划 / 简单 / 光纤 / 自检"]
        Agents --> Memory[🧠 记忆检索]
        Agents --> Skills[🧩 技能]
        Agents --> ToolMgr[🛠️ 工具管理器]
    end

    subgraph Tools[执行与集成]
        ToolMgr --> MCP[🔌 MCP 服务器]
        ToolMgr --> BrowserTools[🌍 浏览器自动化]
        ToolMgr --> Search[🔎 统一搜索]
        ToolMgr --> ImageGen[🎨 图像生成]
        ToolMgr --> Questionnaire[📝 问卷调查]
        ToolMgr --> IMTools[📨 即时通讯发送]
    end

    subgraph RuntimeEnv[运行时与基础设施]
        Agents --> Sandbox[📦 沙盒运行时]
        Sandbox --> Local[本地]
        Sandbox --> Pass[直通]
        Sandbox --> Remote[远程]
        AppLayer <--> Common[🧱 共享通用服务]
        Common <--> DB[(SQL 数据库)]
        Memory <--> ES[(Elasticsearch)]
        Workbench <--> FS[(RustFS / 本地文件)]
        Runtime -.-> Obs["👁️ 可观测性<br/>OpenTelemetry"]
    end

📅 v1.1.0 新特性

🤖 SAgents 内核更新

  • 执行链增强:新增 PlanAgentSelfCheckAgentMemoryRecallAgentToolSuggestionAgent
  • 上下文效率:优化用户输入并压缩对话历史,以提升长时间任务的处理效率
  • 会话与消息:支持编辑后重新运行,提供更丰富的进度反馈,并改进会话检查流程
  • 工具扩展:新增问卷收集流程,优化工具调用的渲染、截断及可观测性

💻 产品层更新

  • 新入口:新增 Sage 命令行工具、Chrome 扩展以及浏览器自动化工具
  • 工作台升级:扩展对音频、视频、Mermaid、Draw.io 的支持,支持远程文件预览,并丰富工具卡片展示
  • 聊天体验:改进进度提示、消息传递流程显示、推理内容呈现以及工作区交互
  • IM 集成:进一步扩展对微信个人号(iLink)、企业微信、飞书和钉钉的支持,强化文件消息流

🛡️ 平台与基础设施

  • 企业级准备:新增 OAuth2、邮箱验证以及更强的身份认证、CORS 和安全控制
  • 沙盒与运行时:重构了本地/直通/远程沙盒支持,并优化了 Node 运行时和 Sidecar 打包
  • 共享架构:提取了桌面端和服务器端可复用的 common/ 服务、模型和架构
  • 文档与 CI:重构了文档结构,新增命令行指南,并扩大了 CI/测试覆盖范围

查看完整发布说明


📚 文档

  • 📖 完整文档https://wiki.sage.zavixai.com/
  • 📝 发布说明release_notes/
  • 🏗️ 架构:核心运行时和产品层请参阅 sagents/common/app/
  • 🔧 配置:环境变量和配置文件位于 app/desktop/

🛠️ 开发

项目结构

Sage/
├── sagents/                    # SAgents 核心运行时、流程、上下文、工具、沙盒
├── common/                     # 共享模型、架构、服务、核心客户端
├── app/
│   ├── desktop/                # 桌面应用(Python 后端 + Vue UI + Tauri 容器)
│   ├── server/                 # 服务器应用及网页前端
│   ├── cli/                    # Sage 命令行入口和服务
│   └── chrome-extension/       # 浏览器扩展及侧边栏
├── mcp_servers/                # 即时通讯、搜索、调度、图像生成等
├── docs/                       # 英文和中文文档
└── release_notes/              # 版本发布说明

贡献

我们欢迎各位贡献!请访问我们的 GitHub Issues 查看任务和讨论。


💖 赞助商

我们感谢以下赞助商对 Sage 的支持,助力我们不断进步:

Dudu Bus
RcrAI Data

🦌 加入我们的社区

💬 与我们联系

Slack

📱 微信群

微信群二维码

扫描加入我们的微信社区 🦌


由 Sage 团队 ❤️ 打造 🦌

版本历史

desktop-v1.0.232026/04/08
desktop-v1.0.212026/04/04
desktop-v1.0.202026/04/01
desktop-v1.0.192026/03/27
desktop-v1.0.182026/03/27
desktop-v1.0.172026/03/25
desktop-v1.0.162026/03/25
desktop-v1.0.152026/03/25
desktop-v1.0.142026/03/24
desktop-v1.0.132026/03/23
desktop-v1.0.122026/03/21
desktop-v1.0.112026/03/21
desktop-v1.0.102026/03/20
desktop-1.0.102026/03/20
desktop-v1.0.92026/03/19
desktop-v1.0.82026/03/17
desktop-v1.0.72026/03/17
desktop-v1.0.62026/03/15
desktop-v1.0.52026/03/15
desktop-v1.0.42026/03/15

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|3天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|3天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

146.8k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.1k|★★☆☆☆|今天
开发框架图像Agent

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|2天前
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|2天前
语言模型图像Agent