antigravity-workspace-template

GitHub
1.1k 230 简单 1 次阅读 今天MITAgent
AI 解读 由 AI 自动生成,仅供参考

antigravity-workspace-template 是一款专为 AI 编程环境设计的开源启动模板,旨在打造通用的多智能体知识库引擎。它通过 ag-refresh 命令自动部署一组智能体集群,深入阅读代码库中的每个模块并生成独立的知识文档;随后利用 ag-ask 功能,将用户的提问精准路由至对应的模块智能体,从而基于真实的源代码、文件路径及 Git 历史提供确切答案。

该工具主要解决了大型项目中 AI 助手因上下文窗口限制而“遗忘”代码细节、产生幻觉或无法掌握项目特定编码风格的问题。传统方式依赖冗长的静态文档,往往效果不佳,而 antigravity-workspace-template 让 AI 能够像人类专家一样“自学”架构,显著提升了回答的准确性和对项目的理解深度。

它非常适合需要管理复杂代码库的软件开发者、技术团队以及希望提升 AI 结对编程效率的研究人员。其独特亮点在于完全去插件化的架构设计,仅依靠标准的 .antigravity/ 文件夹即可工作,完美兼容 Cursor、Claude Code、Windsurf、VS Code 等多种主流 IDE 和大模型,实现了真正的零厂商锁定与跨平台便携性,让任何代码库都能瞬间拥有专属的“多智能体知识大脑”。

使用场景

某后端团队正紧急接手一个拥有数万行代码的遗留微服务项目,需要在两天内修复一个复杂的认证模块漏洞并适配新的 IDE 环境。

没有 antigravity-workspace-template 时

  • 上下文迷失:AI 助手面对海量文件只能随机读取片段,频繁产生“幻觉”,给出的代码修改建议往往基于错误的架构理解。
  • 风格不一致:每次生成的代码都违背团队原有的命名规范和异常处理习惯,开发者不得不反复手动纠正相同的格式错误。
  • 跨工具割裂:在 Cursor、VS Code 和命令行之间切换时,需要为每个工具单独配置规则文档,维护成本极高且容易遗漏。
  • 上手门槛高:新成员或 AI 代理无法快速理清模块依赖关系,询问“认证流程如何工作”时,只能得到泛泛而谈的理论解释,缺乏具体文件路径和行号支撑。

使用 antigravity-workspace-template 后

  • 精准知识路由:运行 ag-refresh 后,多智能体集群自动学习每个模块并生成知识库;询问认证问题时,路由器直接调用对应模块智能体,返回带确切文件路径和行号的源码级答案。
  • 规范一次生效:团队只需在 .antigravity/conventions.md 中定义一次编码规范,所有 AI 代理即可首次输出符合团队风格的代码,无需重复纠错。
  • 全域环境统一:仅凭一个 .antigravity/ 文件夹,即可让 Claude Code、Windsurf、VS Code 等不同 IDE 共享同一套上下文规则,彻底消除工具间的行为差异。
  • 极速架构洞察:AI 能在 43 分钟内自主完成上百个模块的“自学习”,将原本数天的架构梳理时间压缩至分钟级,让开发者立即聚焦核心业务逻辑。

antigravity-workspace-template 通过将静态代码库转化为动态的多智能体知识引擎,从根本上突破了 AI 编程助手的上下文理解天花板。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes该工具主要依赖外部 LLM API(如 OpenAI、Gemini、Ollama 等兼容接口),无需本地部署大模型或专用 GPU。需配置 .env 文件提供 API Key 和端点。支持作为 MCP 服务器与 Claude Code 等 IDE 集成。
python3.10+
OpenAI Agent SDK
LiteLLM
Pydantic
antigravity-workspace-template hero image

快速开始

Antigravity Workspace

AI 工作空间模板

面向任意代码库的多智能体知识引擎。

ag-refresh 构建知识库。ag-ask 回答问题。任何大模型,任何 IDE。

语言:英语 | 中文 | 西班牙语

许可证 Python CI DeepWiki


Cursor Claude Code Windsurf Gemini CLI VS Code Codex Cline Aider

Before vs After Antigravity

为什么选择 Antigravity?

一个 AI 智能体的能力上限 = 它所能读取的上下文质量。

引擎是核心:ag-refresh 部署一个多智能体集群,自主读取你的代码——每个模块都有自己的智能体,生成一份知识文档。ag-ask 将问题路由到合适的智能体,基于真实的代码、文件路径和行号给出答案。

OpenClaw(1.2万文件,34.8万星)上使用 MiniMax2.7 测试——模块问答得分为 10/10,43 分钟内自学习了 111 个模块。 完整评估见下文。

传统方法:              Antigravity 方法:
  CLAUDE.md = 5000 行文档     Claude Code 调用 ask_project("auth 是如何工作的?")
  智能体读取所有内容,大多忘记   路由器 → 模块智能体读取实际源码,返回精确答案
  幻觉率居高不下      基于真实代码、文件路径和 Git 历史
问题 不使用 Antigravity 使用 Antigravity
智能体忘记编码风格 反复进行相同的修正 读取 .antigravity/conventions.md — 第一次就做对
新代码库入职 智能体猜测架构 ag-refresh → 模块智能体自学习每个模块
切换 IDE 各处规则不同 一个 .antigravity/ 文件夹 — 每个 IDE 都会读取
提问“X 是如何工作的?” 智能体随机读取文件 ask_project MCP → 路由器将请求路由到负责的模块智能体

架构是 文件 + 实时问答引擎,而非插件。可在任何 IDE、任何大模型之间移植,无厂商锁定。


快速开始

选项 A — 引擎:针对你的代码库的多智能体问答(推荐)

# 1. 安装引擎 + CLI
pip install "git+https://github.com/study8677/antigravity-workspace-template.git#subdirectory=cli"
pip install "git+https://github.com/study8677/antigravity-workspace-template.git#subdirectory=engine"

# 2. 使用任何兼容 OpenAI 的 API 密钥配置 .env
cd my-project
cat > .env <<EOF
OPENAI_BASE_URL=https://your-endpoint/v1
OPENAI_API_KEY=your-key
OPENAI_MODEL=your-model
AG_ASK_TIMEOUT_SECONDS=120
EOF

# 3. 构建知识库(模块智能体自学习每个模块)
ag-refresh --workspace .

# 4. 随便提问
ag-ask "这个项目中的 auth 是如何工作的?"

# 5. (可选)注册为 Claude Code 的 MCP 服务器
claude mcp add antigravity ag-mcp -- --workspace $(pwd)

选项 B — 仅上下文文件(任何 IDE,无需大模型)

pip install git+https://github.com/study8677/antigravity-workspace-template.git#subdirectory=cli
ag init my-project && cd my-project
# IDE 入口文件会引导生成 AGENTS.md;动态知识存储在 .antigravity/ 中

功能概览

  ag init             将上下文文件注入任何项目中(--force 可覆盖)
       │
       ▼
  .antigravity/       共享知识库 — 每个 IDE 都会从中读取
       │
       ├──► ag-refresh     动态多智能体自学习 → 模块知识文档 + 结构图
       ├──► ag-ask         路由器 → 模块智能体实时代码证据问答
       └──► ag-mcp         MCP 服务器 → Claude Code 直接调用

动态多智能体集群 — 在 ag-refresh 过程中,引擎采用 智能功能分组:根据知识图谱中的导入关系、目录位置以及文件名前缀对文件进行分组。源代码直接预加载到智能体上下文中(无需工具调用),构建产物则会被自动过滤掉。每个子智能体在一次大模型调用中分析约 3 万 token 的专注且功能相关的代码。随后,RegistryAgent 会将所有模块总结成一个语义注册表。在 ag-ask 过程中,Router 会读取该注册表,了解 每个模块负责的内容,并将问题路由到正确的模块智能体。由 OpenAI Agent SDK + LiteLLM 提供支持。

GitAgent — 专门用于分析 Git 历史的智能体 — 能够理解谁在何时更改了什么以及原因。

GitNexus 增强(可选) — 安装 GitNexus 可以自动解锁语义搜索、调用图和影响分析功能,供每个模块智能体使用。


CLI 命令

命令 功能 是否需要 LLM?
ag init <dir> 注入认知架构模板
ag init <dir> --force 重新注入,覆盖现有文件
ag refresh --workspace <dir> 知识库刷新流水线的 CLI 方便封装
ag ask "question" --workspace <dir> 路由项目问答流程的 CLI 方便封装
ag-refresh 多智能体对代码库的自学习,生成模块知识文档 + conventions.md + structure.md
ag-ask "question" 路由器 → 模块代理/Git 代理路由的问答
ag-mcp --workspace <dir> 启动 MCP 服务器 — 向 Claude Code 暴露 ask_project + refresh_project
ag report "message" 将发现记录到 .antigravity/memory/
ag log-decision "what" "why" 记录一项架构决策

ag ask / ag refresh 在同时安装了 cli/engine/ 时可用。ag-ask / ag-refresh 是仅引擎的入口点。


两个包,一个工作流

antigravity-workspace-template/
├── cli/                     # ag CLI — 轻量级,可通过 pip 安装
│   └── templates/           # .cursorrules, CLAUDE.md, .antigravity/, ...
└── engine/                  # 多智能体引擎 + 知识库
    └── antigravity_engine/
        ├── _cli_entry.py    # ag-ask / ag-refresh / ag-mcp + python -m dispatch
        ├── config.py        # Pydantic 配置
        ├── hub/             # ★ 核心:多智能体集群
        │   ├── agents.py    #   路由器 + 模块代理 + Git 代理
        │   ├── ask_pipeline.py
        │   ├── refresh_pipeline.py
        │   ├── ask_tools.py
        │   ├── scanner.py
        │   ├── structure.py
        │   ├── knowledge_graph.py
        │   ├── retrieval_graph.py
        │   ├── pipeline.py  #   兼容性重导出适配层
        │   └── mcp_server.py
        ├── mcp_client.py    # MCP 消费者(连接外部工具)
        ├── memory.py        # 持久化交互记忆
        ├── tools/           # MCP 查询工具 + 扩展
        ├── skills/          # 技能加载器
        └── sandbox/         # 代码执行(本地 / 微沙盒)

CLI (pip install .../cli) — 无 LLM 依赖。注入模板,离线记录报告和决策。

引擎 (pip install .../engine) — 多智能体运行时。支持 ag-askag-refreshag-mcp。兼容 Gemini、OpenAI、Ollama 或任何 OpenAI 兼容的 API。

新技能打包更新:

  • engine/antigravity_engine/skills/graph-retrieval/ — 面向图结构的检索工具,用于结构和调用路径推理。
  • engine/antigravity_engine/skills/knowledge-layer/ — 项目知识层工具,用于语义上下文整合。
# 安装两者以获得完整体验
pip install "git+https://...#subdirectory=cli"
pip install "git+https://...#subdirectory=engine"

对于在此仓库本身进行本地开发:

python3 -m venv venv
source venv/bin/activate
pip install -e ./cli -e './engine[dev]'
pytest engine/tests cli/tests

工作原理

1. ag init — 注入上下文文件

ag init my-project
# 已经初始化过?使用 --force 覆盖:
ag init my-project --force

创建 AGENTS.md(权威行为规则)、IDE 引导文件(.cursorrulesCLAUDE.md.windsurfrules.clinerules.github/copilot-instructions.md)以及 .antigravity/ 动态上下文文件。

2. ag-refresh — 多智能体自学习

ag-refresh --workspace my-project

8 步流程:

  1. 扫描代码库(语言、框架、结构)
  2. 多智能体流水线生成 conventions.md
  3. 生成 structure.md 结构地图
  4. 构建知识图谱(knowledge_graph.json + mermaid)
  5. 编写文档/数据/媒体索引
  6. 智能功能分组 — 根据导入图、目录和前缀对文件进行分组,预加载到上下文中(每个子代理约 3 万 token),过滤掉构建产物(dist、bundles、vendor、编译文件)。每个子代理在一次 LLM 调用中完成深度分析。多组模块会由合并代理处理。
  7. RefreshGitAgent 分析 git 历史,生成 _git_insights.md
  8. RegistryAgent 读取所有知识产物 → 调用 LLM → 生成 module_registry.md(每个模块 2–3 句话的语义描述,供路由器进行智能路由)

3. ag-ask — 基于路由器的问答

ag-ask "这个项目中的认证是如何工作的?"

路由器读取 structure.md 地图,将问题路由到合适的 模块代理(已加载该模块的知识文档)或 Git 代理(理解 git 历史)。对于跨模块的问题,代理之间可以相互交接。


IDE 兼容性

架构被编码在 文件 中 — 任何读取项目文件的代理都会受益:

IDE 配置文件
Cursor .cursorrules
Claude Code CLAUDE.md
Windsurf .windsurfrules
VS Code + Copilot .github/copilot-instructions.md
Gemini CLI / Codex AGENTS.md
Cline .clinerules
Google Antigravity .antigravity/rules.md

这些文件均由 ag init 生成:AGENTS.md 是单一的行为准则手册,IDE 特定文件是轻量级引导文件,而 .antigravity/ 则存储共享的动态项目上下文。


高级功能

MCP 服务器 — 让 Claude Code 拥有一个针对你代码库的 ChatGPT

与其阅读数百份文档,Claude Code 可以直接调用 ask_project 作为实时工具 — 由动态多智能体集群提供支持:路由器会将问题路由到合适的模块代理,返回带有文件路径和行号的可靠答案。

设置:

# 安装引擎
pip install "git+https://github.com/study8677/antigravity-workspace-template.git#subdirectory=engine"

# 首先刷新知识库(模块代理会自我学习每个模块)
ag-refresh --workspace /path/to/project

# 在 Claude Code 中注册为 MCP 服务器
claude mcp add antigravity ag-mcp -- --workspace /path/to/project

向 Claude Code 暴露的工具:

工具 功能
ask_project(question) 路由器 → ModuleAgent/GitAgent 回答代码库相关问题。返回文件路径和行号。
refresh_project(quick?) 在发生重大变更后重建知识库。ModuleAgents 会重新学习代码。
动态多智能体集群 — 模块级自学习 + 智能路由

引擎的核心是 为每个代码模块动态创建的智能体集群

 ag-refresh (v2 — 智能分组):         ag-ask:

 对于每个模块:                          路由器(读取 module_registry.md)
 ┌ 按导入图对文件分组               ├──→ Module_engine(预加载 engine.md)
 ├ 为每个子智能体预加载 ~30K 个 token   ├──→ Module_cli(预加载 cli.md)
 ├ 过滤掉构建产物                    ├──→ GitAgent(预加载 _git.md)
 ├ 子智能体在一次 LLM 调用中分别分析  └──→ 智能体之间可以相互交接任务
 ├ 合并智能体的输出
 └─ RegistryAgent ────→ registry.md

关键创新:

  • 智能分组:文件按知识图谱中的导入关系分组,而非随意按 token 切分。构建产物(dist/、bundles、vendor、编译后的文件)会被自动过滤掉。
  • 预加载上下文:源代码直接注入到智能体的指令中——无需任何工具调用。一个以前需要 16 次 LLM 调用的模块,现在只需 1 次。
  • 模块注册表:RegistryAgent 总结每个模块的职责。路由器知道 每个模块的作用,从而实现精准路由(“数据库模式”→ src_storage)。
# ModuleAgents 自学您的代码库
ag-refresh

# 仅扫描自上次刷新以来更改的文件
ag-refresh --quick

# 路由器智能地将请求路由到正确的 ModuleAgent
ag-ask "这个项目使用了哪些测试模式?"

# 记录发现和决策(无需 LLM)
ag report "Auth 模块需要重构"
ag log-decision "使用 PostgreSQL" "团队有深厚的专业经验"

支持 Gemini、OpenAI、Ollama 或任何兼容 OpenAI 的 API 端点。由 OpenAI Agent SDK 和 LiteLLM 提供支持。

MCP 集成(消费者端) — 允许智能体调用外部工具

MCPClientManager 使您的智能体能够连接到外部 MCP 服务器(GitHub、数据库等),并自动发现和注册工具。

// mcp_servers.json
{
  "servers": [
    {
      "name": "github",
      "transport": "stdio",
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-github"],
      "enabled": true
    }
  ]
}

.env 文件中设置 MCP_ENABLED=true

GitNexus 集成 — 可选的深度代码智能,通过知识图谱实现

GitNexus 是一款 第三方工具,它使用 Tree-sitter AST 解析来构建代码知识图谱。Antigravity 提供了内置的集成钩子——当您单独安装 GitNexus 时,ag-ask 会自动检测到它,并解锁三个额外的工具:

工具 功能
gitnexus_query 混合搜索(BM25 + 语义)——比 grep 更适合回答“认证是如何工作的?”这样的问题
gitnexus_context 360 度符号视图:调用者、被调用者、引用和定义
gitnexus_impact 影响范围分析——如果更改某个符号,会破坏什么?

注意: GitNexus 并未与 Antigravity 捆绑在一起。它是一个独立的项目,需要通过 npm 单独安装。Antigravity 在没有它的情况下也能完全正常工作——GitNexus 是用于更深入了解代码的可选增强功能。

启用方法(3 步):

# 1. 安装 GitNexus(需要 Node.js)
npm install -g gitnexus

# 2. 索引您的项目(一次性操作,创建本地知识图谱)
cd my-project
gitnexus analyze .

# 3. 像往常一样使用 ag-ask——GitNexus 工具会自动被检测到
ag-ask "认证流程是如何工作的?"

集成的工作原理: ask_tools.py 会检查系统上是否已安装 gitnexus CLI。如果找到,它会将 gitnexus_querygitnexus_contextgitnexus_impact 注册为每个 ModuleAgent 的附加工具。如果未找到,则这些工具将简单地不存在——零开销,不会产生错误。

沙盒 — 可配置的代码执行环境
变量 默认值 选项
SANDBOX_TYPE local local · microsandbox
SANDBOX_TIMEOUT_SEC 30

详情请参阅 沙盒文档


实际评测:MiniMax2.7 在 OpenClaw 上的性能(12K 个文件,348K 颗星)

使用 MiniMax2.7 免费 API,针对 OpenClaw——最受欢迎的开源 AI 助手(TypeScript + Swift + Kotlin,12,133 个文件)——进行了测试。

刷新结果

$ ag-refresh --workspace /path/to/openclaw
[1/3] 扫描项目... 5000 个文件,0.14 秒
[7/8] ▶ 运行 154 个模块(并发度=8)...
      自动拆分:extensions/ → 50 多个子模块(slack、telegram、whatsapp 等)
      自动拆分:src/ → 40 多个子模块(agents、gateway、config 等)
[8/8] module_registry ✅ 164 行

总耗时:42 分 52 秒 | 111 份模块文档 | 1.5MB 知识库

询问评估矩阵(11 项测试)

类别 问题 结果 质量
基本理解 “这个项目是什么?” 通过 5/5 — 包括赞助商、平台、功能和结构
技术栈 “技术栈和框架是什么?” 超时 3/5 — 备用方案提供了语言和框架信息
模块深入 “Telegram 集成是如何工作的?” 通过 5/5 — 包括文件列表、架构图、类型和常量
模块深入 “Discord 的语音频道呢?” 通过 5/5 — 包括音频管道、代码示例和设计模式
模块深入 “WhatsApp 集成呢?” 通过 5/5 — 包括认证流程、插件架构和依赖关系
幻觉测试 “这个项目支持 GraphQL 吗?” 413 0/5 — 请求过大,免费 API 无法处理
架构 “Gateway 是如何工作的?” 超时 2/5 — 只列出了文件清单,但没有进行分析
中文查询 “支持哪些AI模型?” 超时 1/5 — 跨模块查询,需要更快的模型
技能系统 “技能系统是什么?” 超时 2/5 — 只列出了技能相关的文件
测试模式 “有哪些测试框架?” 超时 2/5 — 仅仅列出了 vitest 的配置文件
平台列表 “有哪些消息平台?” 崩溃 0/5 — 出现 413 错误

关键发现:自动拆分释放模块级卓越能力

 ✅ 模块级问答(5/5)              ⚠️ 跨模块问题              ❌ 免费 API 限制
 ──────────────────────────             ────────────────────────              ─────────────────
 Telegram:架构图         Gateway:超时                      大上下文返回413错误
 Discord:音频管道 + 代码   测试:超时                        限流(429)
 WhatsApp:认证 + 插件系统 技术栈:超时
每个模块都有自己的知识文档 需要更快的模型或更高的超时设置

分数

维度 分数 备注
基础问答 9/10 项目概述非常出色
模块深度解析 10/10 Telegram/Discord/WhatsApp — 架构图、类型、设计模式
跨模块 3/10 Gateway、Testing、Skills — 使用免费 API 时出现超时
总体 6.5/10 模块问答:即使在 12K 文件的项目中也已具备生产就绪水平。跨模块:需要更快的模型。

性能对比

指标 OpenCMO(374 个文件) OpenClaw(12K 个文件) 改进幅度
刷新时间 ~10 分钟 43 分钟 并行 + 自动拆分
模块文档 9 111 12 倍
知识库大小 540KB 1.5MB 2.8 倍
模块问答质量 7/10 10/10 自动拆分 = 更专注的知识

变化之处: 大型模块(如 extensions/ 包含 262 个组,src/ 包含 363 个组)现在会自动拆分为独立的子模块。所有模块并行运行(并发度为 8)。这使得 OpenClaw 的刷新时间从 5 小时以上(从未完成) 缩短到 43 分钟(已完成)

快速配置以获得最佳效果

# .env — 评估后推荐设置
OPENAI_BASE_URL=https://your-openai-compatible-endpoint/v1
OPENAI_API_KEY=your-key
OPENAI_MODEL=your-model

# 最具影响力的调优:将提问超时从 45 秒提升至 120 秒
AG_ASK_TIMEOUT_SECONDS=120
AG_REFRESH_AGENT_TIMEOUT_SECONDS=180
AG_MODULE_AGENT_TIMEOUT_SECONDS=90

可与任何兼容 OpenAI 的提供商配合使用:NVIDIAOpenAIOllamavLLMLM StudioGroqMiniMax 等。


早期评估:MiniMax2.7 在 OpenCMO 上(374 个文件,29K 行)

使用兼容 OpenAI 的路由器,针对 OpenCMO 代码库(Python + React/TS,374 个文件),端到端测试了 MiniMax2.7

提问评估矩阵(18 项测试)

类别 问题 结果 质量
基本理解 “这个项目是什么?” 通过 5/5 — 准确总结并包含技术细节
技术栈 “使用了哪些技术栈和框架?” 通过 5/5 — 列出了前端、后端及第三方库
模块列表 “列出所有主要模块” 通过 5/5 — 表格形式,准确无误
API 路由 “API 路由是如何工作的?” 通过 5/5 — 路由、端点及客户端代码均正确
精确定位函数 “llm.py 中 get_model() 的签名” 通过 5/5 — 文件、行号、逻辑完全准确
幻觉测试 “该项目是否支持 GraphQL?” 通过 5/5 — 正确回答“否”,并提供了 4 点证据
中文提问 “社区监控支持哪些平台?” 通过 5/5 — 中文回答,表格形式清晰
数据库表结构 “列出所有数据库表” 通过 5/5 — 列出了 34 张表,并标明来源文件
审批流程 “审批流程是如何运作的?” 通过 5/5 — 完整的状态机流程,附带行号
复杂架构 “多智能体是如何工作的?”(120 秒) 通过 5/5 — 列出了 20 个智能体及其通信模式

分数

维度 分数 备注
基础问答 9/10 项目、技术栈、模块 — 非常出色
代码定位 7/10 精确定位查询表现优秀;但同名文件可能造成混淆
幻觉控制 9/10 不会捏造信息,会给出否定证据
多语言支持 9/10 中文问答表现优异
总体 7/10 日常代码问答:已具备生产就绪水平。复杂分析:需调整超时时间。

完整评估报告:artifacts/plan_20260404_opencmo_ask_boundary_eval.md


文档

🇬🇧 英语 docs/en/
🇨🇳 中文 docs/zh/
🇪🇸 西班牙语 docs/es/

贡献

想法也是一种贡献!请提交 issue 来报告 bug、提出功能建议或探讨架构方案。

贡献者


⭐ Lling0000

主要贡献者 · 创意建议 · 项目管理员 · 项目构思与反馈

Alexander Daza

沙盒 MVP · OpenSpec 工作流 · 技术分析文档 · 哲学理念

Chen Yi

首个 CLI 原型 · 753 行代码重构 · DummyClient 提取 · 快速入门文档

Subham Sangwan

动态工具与上下文加载 (#4) · 多智能体 swarm 协议 (#3)

shuofengzhang

内存上下文窗口修复 · MCP 关机优雅处理 (#28)

goodmorning10

增强 ag ask 上下文加载 — 添加 CONTEXT.md、AGENTS.md 和 memory/*.md 作为上下文来源 (#29)

Abhigyan Patwari

GitNexus — 代码知识图谱原生集成到 ag ask 中,用于符号搜索、调用图和影响分析

BBear0115

技能打包与知识图谱检索优化 · 多语言 README 同步 (#30)

SunkenCost

ag clean 命令 · __main__ 入口保护 (#37)

Aravindh Balaji

围绕 AGENTS.md 统一指令界面 (#41)

星标历史

星标历史图表

许可证

MIT 许可证。详情请参阅 LICENSE


📚 完整文档 →

为 AI 原生开发时代而构建

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|4天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|5天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

148.6k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.1k|★★☆☆☆|2天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|今天
插件Agent图像

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|4天前
语言模型图像Agent