antigravity-workspace-template
antigravity-workspace-template 是一款专为 AI 编程环境设计的开源启动模板,旨在打造通用的多智能体知识库引擎。它通过 ag-refresh 命令自动部署一组智能体集群,深入阅读代码库中的每个模块并生成独立的知识文档;随后利用 ag-ask 功能,将用户的提问精准路由至对应的模块智能体,从而基于真实的源代码、文件路径及 Git 历史提供确切答案。
该工具主要解决了大型项目中 AI 助手因上下文窗口限制而“遗忘”代码细节、产生幻觉或无法掌握项目特定编码风格的问题。传统方式依赖冗长的静态文档,往往效果不佳,而 antigravity-workspace-template 让 AI 能够像人类专家一样“自学”架构,显著提升了回答的准确性和对项目的理解深度。
它非常适合需要管理复杂代码库的软件开发者、技术团队以及希望提升 AI 结对编程效率的研究人员。其独特亮点在于完全去插件化的架构设计,仅依靠标准的 .antigravity/ 文件夹即可工作,完美兼容 Cursor、Claude Code、Windsurf、VS Code 等多种主流 IDE 和大模型,实现了真正的零厂商锁定与跨平台便携性,让任何代码库都能瞬间拥有专属的“多智能体知识大脑”。
使用场景
某后端团队正紧急接手一个拥有数万行代码的遗留微服务项目,需要在两天内修复一个复杂的认证模块漏洞并适配新的 IDE 环境。
没有 antigravity-workspace-template 时
- 上下文迷失:AI 助手面对海量文件只能随机读取片段,频繁产生“幻觉”,给出的代码修改建议往往基于错误的架构理解。
- 风格不一致:每次生成的代码都违背团队原有的命名规范和异常处理习惯,开发者不得不反复手动纠正相同的格式错误。
- 跨工具割裂:在 Cursor、VS Code 和命令行之间切换时,需要为每个工具单独配置规则文档,维护成本极高且容易遗漏。
- 上手门槛高:新成员或 AI 代理无法快速理清模块依赖关系,询问“认证流程如何工作”时,只能得到泛泛而谈的理论解释,缺乏具体文件路径和行号支撑。
使用 antigravity-workspace-template 后
- 精准知识路由:运行
ag-refresh后,多智能体集群自动学习每个模块并生成知识库;询问认证问题时,路由器直接调用对应模块智能体,返回带确切文件路径和行号的源码级答案。 - 规范一次生效:团队只需在
.antigravity/conventions.md中定义一次编码规范,所有 AI 代理即可首次输出符合团队风格的代码,无需重复纠错。 - 全域环境统一:仅凭一个
.antigravity/文件夹,即可让 Claude Code、Windsurf、VS Code 等不同 IDE 共享同一套上下文规则,彻底消除工具间的行为差异。 - 极速架构洞察:AI 能在 43 分钟内自主完成上百个模块的“自学习”,将原本数天的架构梳理时间压缩至分钟级,让开发者立即聚焦核心业务逻辑。
antigravity-workspace-template 通过将静态代码库转化为动态的多智能体知识引擎,从根本上突破了 AI 编程助手的上下文理解天花板。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
为什么选择 Antigravity?
一个 AI 智能体的能力上限 = 它所能读取的上下文质量。
引擎是核心:ag-refresh 部署一个多智能体集群,自主读取你的代码——每个模块都有自己的智能体,生成一份知识文档。ag-ask 将问题路由到合适的智能体,基于真实的代码、文件路径和行号给出答案。
在 OpenClaw(1.2万文件,34.8万星)上使用 MiniMax2.7 测试——模块问答得分为 10/10,43 分钟内自学习了 111 个模块。 完整评估见下文。
传统方法: Antigravity 方法:
CLAUDE.md = 5000 行文档 Claude Code 调用 ask_project("auth 是如何工作的?")
智能体读取所有内容,大多忘记 路由器 → 模块智能体读取实际源码,返回精确答案
幻觉率居高不下 基于真实代码、文件路径和 Git 历史
| 问题 | 不使用 Antigravity | 使用 Antigravity |
|---|---|---|
| 智能体忘记编码风格 | 反复进行相同的修正 | 读取 .antigravity/conventions.md — 第一次就做对 |
| 新代码库入职 | 智能体猜测架构 | ag-refresh → 模块智能体自学习每个模块 |
| 切换 IDE | 各处规则不同 | 一个 .antigravity/ 文件夹 — 每个 IDE 都会读取 |
| 提问“X 是如何工作的?” | 智能体随机读取文件 | ask_project MCP → 路由器将请求路由到负责的模块智能体 |
架构是 文件 + 实时问答引擎,而非插件。可在任何 IDE、任何大模型之间移植,无厂商锁定。
快速开始
选项 A — 引擎:针对你的代码库的多智能体问答(推荐)
# 1. 安装引擎 + CLI
pip install "git+https://github.com/study8677/antigravity-workspace-template.git#subdirectory=cli"
pip install "git+https://github.com/study8677/antigravity-workspace-template.git#subdirectory=engine"
# 2. 使用任何兼容 OpenAI 的 API 密钥配置 .env
cd my-project
cat > .env <<EOF
OPENAI_BASE_URL=https://your-endpoint/v1
OPENAI_API_KEY=your-key
OPENAI_MODEL=your-model
AG_ASK_TIMEOUT_SECONDS=120
EOF
# 3. 构建知识库(模块智能体自学习每个模块)
ag-refresh --workspace .
# 4. 随便提问
ag-ask "这个项目中的 auth 是如何工作的?"
# 5. (可选)注册为 Claude Code 的 MCP 服务器
claude mcp add antigravity ag-mcp -- --workspace $(pwd)
选项 B — 仅上下文文件(任何 IDE,无需大模型)
pip install git+https://github.com/study8677/antigravity-workspace-template.git#subdirectory=cli
ag init my-project && cd my-project
# IDE 入口文件会引导生成 AGENTS.md;动态知识存储在 .antigravity/ 中
功能概览
ag init 将上下文文件注入任何项目中(--force 可覆盖)
│
▼
.antigravity/ 共享知识库 — 每个 IDE 都会从中读取
│
├──► ag-refresh 动态多智能体自学习 → 模块知识文档 + 结构图
├──► ag-ask 路由器 → 模块智能体实时代码证据问答
└──► ag-mcp MCP 服务器 → Claude Code 直接调用
动态多智能体集群 — 在 ag-refresh 过程中,引擎采用 智能功能分组:根据知识图谱中的导入关系、目录位置以及文件名前缀对文件进行分组。源代码直接预加载到智能体上下文中(无需工具调用),构建产物则会被自动过滤掉。每个子智能体在一次大模型调用中分析约 3 万 token 的专注且功能相关的代码。随后,RegistryAgent 会将所有模块总结成一个语义注册表。在 ag-ask 过程中,Router 会读取该注册表,了解 每个模块负责的内容,并将问题路由到正确的模块智能体。由 OpenAI Agent SDK + LiteLLM 提供支持。
GitAgent — 专门用于分析 Git 历史的智能体 — 能够理解谁在何时更改了什么以及原因。
GitNexus 增强(可选) — 安装 GitNexus 可以自动解锁语义搜索、调用图和影响分析功能,供每个模块智能体使用。
CLI 命令
| 命令 | 功能 | 是否需要 LLM? |
|---|---|---|
ag init <dir> |
注入认知架构模板 | 否 |
ag init <dir> --force |
重新注入,覆盖现有文件 | 否 |
ag refresh --workspace <dir> |
知识库刷新流水线的 CLI 方便封装 | 是 |
ag ask "question" --workspace <dir> |
路由项目问答流程的 CLI 方便封装 | 是 |
ag-refresh |
多智能体对代码库的自学习,生成模块知识文档 + conventions.md + structure.md |
是 |
ag-ask "question" |
路由器 → 模块代理/Git 代理路由的问答 | 是 |
ag-mcp --workspace <dir> |
启动 MCP 服务器 — 向 Claude Code 暴露 ask_project + refresh_project |
是 |
ag report "message" |
将发现记录到 .antigravity/memory/ |
否 |
ag log-decision "what" "why" |
记录一项架构决策 | 否 |
ag ask / ag refresh 在同时安装了 cli/ 和 engine/ 时可用。ag-ask / ag-refresh 是仅引擎的入口点。
两个包,一个工作流
antigravity-workspace-template/
├── cli/ # ag CLI — 轻量级,可通过 pip 安装
│ └── templates/ # .cursorrules, CLAUDE.md, .antigravity/, ...
└── engine/ # 多智能体引擎 + 知识库
└── antigravity_engine/
├── _cli_entry.py # ag-ask / ag-refresh / ag-mcp + python -m dispatch
├── config.py # Pydantic 配置
├── hub/ # ★ 核心:多智能体集群
│ ├── agents.py # 路由器 + 模块代理 + Git 代理
│ ├── ask_pipeline.py
│ ├── refresh_pipeline.py
│ ├── ask_tools.py
│ ├── scanner.py
│ ├── structure.py
│ ├── knowledge_graph.py
│ ├── retrieval_graph.py
│ ├── pipeline.py # 兼容性重导出适配层
│ └── mcp_server.py
├── mcp_client.py # MCP 消费者(连接外部工具)
├── memory.py # 持久化交互记忆
├── tools/ # MCP 查询工具 + 扩展
├── skills/ # 技能加载器
└── sandbox/ # 代码执行(本地 / 微沙盒)
CLI (pip install .../cli) — 无 LLM 依赖。注入模板,离线记录报告和决策。
引擎 (pip install .../engine) — 多智能体运行时。支持 ag-ask、ag-refresh、ag-mcp。兼容 Gemini、OpenAI、Ollama 或任何 OpenAI 兼容的 API。
新技能打包更新:
engine/antigravity_engine/skills/graph-retrieval/— 面向图结构的检索工具,用于结构和调用路径推理。engine/antigravity_engine/skills/knowledge-layer/— 项目知识层工具,用于语义上下文整合。
# 安装两者以获得完整体验
pip install "git+https://...#subdirectory=cli"
pip install "git+https://...#subdirectory=engine"
对于在此仓库本身进行本地开发:
python3 -m venv venv
source venv/bin/activate
pip install -e ./cli -e './engine[dev]'
pytest engine/tests cli/tests
工作原理
1. ag init — 注入上下文文件
ag init my-project
# 已经初始化过?使用 --force 覆盖:
ag init my-project --force
创建 AGENTS.md(权威行为规则)、IDE 引导文件(.cursorrules、CLAUDE.md、.windsurfrules、.clinerules、.github/copilot-instructions.md)以及 .antigravity/ 动态上下文文件。
2. ag-refresh — 多智能体自学习
ag-refresh --workspace my-project
8 步流程:
- 扫描代码库(语言、框架、结构)
- 多智能体流水线生成
conventions.md - 生成
structure.md结构地图 - 构建知识图谱(
knowledge_graph.json+ mermaid) - 编写文档/数据/媒体索引
- 智能功能分组 — 根据导入图、目录和前缀对文件进行分组,预加载到上下文中(每个子代理约 3 万 token),过滤掉构建产物(dist、bundles、vendor、编译文件)。每个子代理在一次 LLM 调用中完成深度分析。多组模块会由合并代理处理。
- RefreshGitAgent 分析 git 历史,生成
_git_insights.md - RegistryAgent 读取所有知识产物 → 调用 LLM → 生成
module_registry.md(每个模块 2–3 句话的语义描述,供路由器进行智能路由)
3. ag-ask — 基于路由器的问答
ag-ask "这个项目中的认证是如何工作的?"
路由器读取 structure.md 地图,将问题路由到合适的 模块代理(已加载该模块的知识文档)或 Git 代理(理解 git 历史)。对于跨模块的问题,代理之间可以相互交接。
IDE 兼容性
架构被编码在 文件 中 — 任何读取项目文件的代理都会受益:
| IDE | 配置文件 |
|---|---|
| Cursor | .cursorrules |
| Claude Code | CLAUDE.md |
| Windsurf | .windsurfrules |
| VS Code + Copilot | .github/copilot-instructions.md |
| Gemini CLI / Codex | AGENTS.md |
| Cline | .clinerules |
| Google Antigravity | .antigravity/rules.md |
这些文件均由 ag init 生成:AGENTS.md 是单一的行为准则手册,IDE 特定文件是轻量级引导文件,而 .antigravity/ 则存储共享的动态项目上下文。
高级功能
MCP 服务器 — 让 Claude Code 拥有一个针对你代码库的 ChatGPT
与其阅读数百份文档,Claude Code 可以直接调用 ask_project 作为实时工具 — 由动态多智能体集群提供支持:路由器会将问题路由到合适的模块代理,返回带有文件路径和行号的可靠答案。
设置:
# 安装引擎
pip install "git+https://github.com/study8677/antigravity-workspace-template.git#subdirectory=engine"
# 首先刷新知识库(模块代理会自我学习每个模块)
ag-refresh --workspace /path/to/project
# 在 Claude Code 中注册为 MCP 服务器
claude mcp add antigravity ag-mcp -- --workspace /path/to/project
向 Claude Code 暴露的工具:
| 工具 | 功能 |
|---|---|
ask_project(question) |
路由器 → ModuleAgent/GitAgent 回答代码库相关问题。返回文件路径和行号。 |
refresh_project(quick?) |
在发生重大变更后重建知识库。ModuleAgents 会重新学习代码。 |
动态多智能体集群 — 模块级自学习 + 智能路由
引擎的核心是 为每个代码模块动态创建的智能体集群:
ag-refresh (v2 — 智能分组): ag-ask:
对于每个模块: 路由器(读取 module_registry.md)
┌ 按导入图对文件分组 ├──→ Module_engine(预加载 engine.md)
├ 为每个子智能体预加载 ~30K 个 token ├──→ Module_cli(预加载 cli.md)
├ 过滤掉构建产物 ├──→ GitAgent(预加载 _git.md)
├ 子智能体在一次 LLM 调用中分别分析 └──→ 智能体之间可以相互交接任务
├ 合并智能体的输出
└─ RegistryAgent ────→ registry.md
关键创新:
- 智能分组:文件按知识图谱中的导入关系分组,而非随意按 token 切分。构建产物(dist/、bundles、vendor、编译后的文件)会被自动过滤掉。
- 预加载上下文:源代码直接注入到智能体的指令中——无需任何工具调用。一个以前需要 16 次 LLM 调用的模块,现在只需 1 次。
- 模块注册表:RegistryAgent 总结每个模块的职责。路由器知道 每个模块的作用,从而实现精准路由(“数据库模式”→
src_storage)。
# ModuleAgents 自学您的代码库
ag-refresh
# 仅扫描自上次刷新以来更改的文件
ag-refresh --quick
# 路由器智能地将请求路由到正确的 ModuleAgent
ag-ask "这个项目使用了哪些测试模式?"
# 记录发现和决策(无需 LLM)
ag report "Auth 模块需要重构"
ag log-decision "使用 PostgreSQL" "团队有深厚的专业经验"
支持 Gemini、OpenAI、Ollama 或任何兼容 OpenAI 的 API 端点。由 OpenAI Agent SDK 和 LiteLLM 提供支持。
MCP 集成(消费者端) — 允许智能体调用外部工具
MCPClientManager 使您的智能体能够连接到外部 MCP 服务器(GitHub、数据库等),并自动发现和注册工具。
// mcp_servers.json
{
"servers": [
{
"name": "github",
"transport": "stdio",
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"],
"enabled": true
}
]
}
在 .env 文件中设置 MCP_ENABLED=true。
GitNexus 集成 — 可选的深度代码智能,通过知识图谱实现
GitNexus 是一款 第三方工具,它使用 Tree-sitter AST 解析来构建代码知识图谱。Antigravity 提供了内置的集成钩子——当您单独安装 GitNexus 时,ag-ask 会自动检测到它,并解锁三个额外的工具:
| 工具 | 功能 |
|---|---|
gitnexus_query |
混合搜索(BM25 + 语义)——比 grep 更适合回答“认证是如何工作的?”这样的问题 |
gitnexus_context |
360 度符号视图:调用者、被调用者、引用和定义 |
gitnexus_impact |
影响范围分析——如果更改某个符号,会破坏什么? |
注意: GitNexus 并未与 Antigravity 捆绑在一起。它是一个独立的项目,需要通过 npm 单独安装。Antigravity 在没有它的情况下也能完全正常工作——GitNexus 是用于更深入了解代码的可选增强功能。
启用方法(3 步):
# 1. 安装 GitNexus(需要 Node.js)
npm install -g gitnexus
# 2. 索引您的项目(一次性操作,创建本地知识图谱)
cd my-project
gitnexus analyze .
# 3. 像往常一样使用 ag-ask——GitNexus 工具会自动被检测到
ag-ask "认证流程是如何工作的?"
集成的工作原理: ask_tools.py 会检查系统上是否已安装 gitnexus CLI。如果找到,它会将 gitnexus_query、gitnexus_context 和 gitnexus_impact 注册为每个 ModuleAgent 的附加工具。如果未找到,则这些工具将简单地不存在——零开销,不会产生错误。
沙盒 — 可配置的代码执行环境
| 变量 | 默认值 | 选项 |
|---|---|---|
SANDBOX_TYPE |
local |
local · microsandbox |
SANDBOX_TIMEOUT_SEC |
30 |
秒 |
详情请参阅 沙盒文档。
实际评测:MiniMax2.7 在 OpenClaw 上的性能(12K 个文件,348K 颗星)
使用 MiniMax2.7 免费 API,针对 OpenClaw——最受欢迎的开源 AI 助手(TypeScript + Swift + Kotlin,12,133 个文件)——进行了测试。
刷新结果
$ ag-refresh --workspace /path/to/openclaw
[1/3] 扫描项目... 5000 个文件,0.14 秒
[7/8] ▶ 运行 154 个模块(并发度=8)...
自动拆分:extensions/ → 50 多个子模块(slack、telegram、whatsapp 等)
自动拆分:src/ → 40 多个子模块(agents、gateway、config 等)
[8/8] module_registry ✅ 164 行
总耗时:42 分 52 秒 | 111 份模块文档 | 1.5MB 知识库
询问评估矩阵(11 项测试)
| 类别 | 问题 | 结果 | 质量 |
|---|---|---|---|
| 基本理解 | “这个项目是什么?” | 通过 | 5/5 — 包括赞助商、平台、功能和结构 |
| 技术栈 | “技术栈和框架是什么?” | 超时 | 3/5 — 备用方案提供了语言和框架信息 |
| 模块深入 | “Telegram 集成是如何工作的?” | 通过 | 5/5 — 包括文件列表、架构图、类型和常量 |
| 模块深入 | “Discord 的语音频道呢?” | 通过 | 5/5 — 包括音频管道、代码示例和设计模式 |
| 模块深入 | “WhatsApp 集成呢?” | 通过 | 5/5 — 包括认证流程、插件架构和依赖关系 |
| 幻觉测试 | “这个项目支持 GraphQL 吗?” | 413 | 0/5 — 请求过大,免费 API 无法处理 |
| 架构 | “Gateway 是如何工作的?” | 超时 | 2/5 — 只列出了文件清单,但没有进行分析 |
| 中文查询 | “支持哪些AI模型?” | 超时 | 1/5 — 跨模块查询,需要更快的模型 |
| 技能系统 | “技能系统是什么?” | 超时 | 2/5 — 只列出了技能相关的文件 |
| 测试模式 | “有哪些测试框架?” | 超时 | 2/5 — 仅仅列出了 vitest 的配置文件 |
| 平台列表 | “有哪些消息平台?” | 崩溃 | 0/5 — 出现 413 错误 |
关键发现:自动拆分释放模块级卓越能力
✅ 模块级问答(5/5) ⚠️ 跨模块问题 ❌ 免费 API 限制
────────────────────────── ──────────────────────── ─────────────────
Telegram:架构图 Gateway:超时 大上下文返回413错误
Discord:音频管道 + 代码 测试:超时 限流(429)
WhatsApp:认证 + 插件系统 技术栈:超时
每个模块都有自己的知识文档 需要更快的模型或更高的超时设置
分数
| 维度 | 分数 | 备注 |
|---|---|---|
| 基础问答 | 9/10 | 项目概述非常出色 |
| 模块深度解析 | 10/10 | Telegram/Discord/WhatsApp — 架构图、类型、设计模式 |
| 跨模块 | 3/10 | Gateway、Testing、Skills — 使用免费 API 时出现超时 |
| 总体 | 6.5/10 | 模块问答:即使在 12K 文件的项目中也已具备生产就绪水平。跨模块:需要更快的模型。 |
性能对比
| 指标 | OpenCMO(374 个文件) | OpenClaw(12K 个文件) | 改进幅度 |
|---|---|---|---|
| 刷新时间 | ~10 分钟 | 43 分钟 | 并行 + 自动拆分 |
| 模块文档 | 9 | 111 | 12 倍 |
| 知识库大小 | 540KB | 1.5MB | 2.8 倍 |
| 模块问答质量 | 7/10 | 10/10 | 自动拆分 = 更专注的知识 |
变化之处: 大型模块(如 extensions/ 包含 262 个组,src/ 包含 363 个组)现在会自动拆分为独立的子模块。所有模块并行运行(并发度为 8)。这使得 OpenClaw 的刷新时间从 5 小时以上(从未完成) 缩短到 43 分钟(已完成)。
快速配置以获得最佳效果
# .env — 评估后推荐设置
OPENAI_BASE_URL=https://your-openai-compatible-endpoint/v1
OPENAI_API_KEY=your-key
OPENAI_MODEL=your-model
# 最具影响力的调优:将提问超时从 45 秒提升至 120 秒
AG_ASK_TIMEOUT_SECONDS=120
AG_REFRESH_AGENT_TIMEOUT_SECONDS=180
AG_MODULE_AGENT_TIMEOUT_SECONDS=90
可与任何兼容 OpenAI 的提供商配合使用:NVIDIA、OpenAI、Ollama、vLLM、LM Studio、Groq、MiniMax 等。
早期评估:MiniMax2.7 在 OpenCMO 上(374 个文件,29K 行)
使用兼容 OpenAI 的路由器,针对 OpenCMO 代码库(Python + React/TS,374 个文件),端到端测试了 MiniMax2.7。
提问评估矩阵(18 项测试)
| 类别 | 问题 | 结果 | 质量 |
|---|---|---|---|
| 基本理解 | “这个项目是什么?” | 通过 | 5/5 — 准确总结并包含技术细节 |
| 技术栈 | “使用了哪些技术栈和框架?” | 通过 | 5/5 — 列出了前端、后端及第三方库 |
| 模块列表 | “列出所有主要模块” | 通过 | 5/5 — 表格形式,准确无误 |
| API 路由 | “API 路由是如何工作的?” | 通过 | 5/5 — 路由、端点及客户端代码均正确 |
| 精确定位函数 | “llm.py 中 get_model() 的签名” | 通过 | 5/5 — 文件、行号、逻辑完全准确 |
| 幻觉测试 | “该项目是否支持 GraphQL?” | 通过 | 5/5 — 正确回答“否”,并提供了 4 点证据 |
| 中文提问 | “社区监控支持哪些平台?” | 通过 | 5/5 — 中文回答,表格形式清晰 |
| 数据库表结构 | “列出所有数据库表” | 通过 | 5/5 — 列出了 34 张表,并标明来源文件 |
| 审批流程 | “审批流程是如何运作的?” | 通过 | 5/5 — 完整的状态机流程,附带行号 |
| 复杂架构 | “多智能体是如何工作的?”(120 秒) | 通过 | 5/5 — 列出了 20 个智能体及其通信模式 |
分数
| 维度 | 分数 | 备注 |
|---|---|---|
| 基础问答 | 9/10 | 项目、技术栈、模块 — 非常出色 |
| 代码定位 | 7/10 | 精确定位查询表现优秀;但同名文件可能造成混淆 |
| 幻觉控制 | 9/10 | 不会捏造信息,会给出否定证据 |
| 多语言支持 | 9/10 | 中文问答表现优异 |
| 总体 | 7/10 | 日常代码问答:已具备生产就绪水平。复杂分析:需调整超时时间。 |
文档
| 🇬🇧 英语 | docs/en/ |
| 🇨🇳 中文 | docs/zh/ |
| 🇪🇸 西班牙语 | docs/es/ |
贡献
想法也是一种贡献!请提交 issue 来报告 bug、提出功能建议或探讨架构方案。
贡献者
![]() ⭐ Lling0000 主要贡献者 · 创意建议 · 项目管理员 · 项目构思与反馈 |
![]() Alexander Daza 沙盒 MVP · OpenSpec 工作流 · 技术分析文档 · 哲学理念 |
![]() Chen Yi 首个 CLI 原型 · 753 行代码重构 · DummyClient 提取 · 快速入门文档 |
![]() Subham Sangwan 动态工具与上下文加载 (#4) · 多智能体 swarm 协议 (#3) |
![]() shuofengzhang 内存上下文窗口修复 · MCP 关机优雅处理 (#28) |
![]() goodmorning10 增强 ag ask 上下文加载 — 添加 CONTEXT.md、AGENTS.md 和 memory/*.md 作为上下文来源 (#29)
|
![]() Abhigyan Patwari GitNexus — 代码知识图谱原生集成到 ag ask 中,用于符号搜索、调用图和影响分析
|
![]() BBear0115 技能打包与知识图谱检索优化 · 多语言 README 同步 (#30) |
![]() SunkenCost ag clean 命令 · __main__ 入口保护 (#37)
|
![]() Aravindh Balaji 围绕 AGENTS.md 统一指令界面 (#41)
|
星标历史
许可证
MIT 许可证。详情请参阅 LICENSE。
为 AI 原生开发时代而构建
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备










