SAG
SAG 是一款基于 SQL 驱动的新一代 RAG(检索增强生成)引擎,旨在让机器在不依赖庞大预建图谱的前提下,真正“理解”并关联海量文本数据。它核心解决了传统 RAG 检索精度有限、而现有 GraphRAG 方案维护成本高昂且扩展性差的痛点。
与传统方案不同,SAG 无需预先构建和维护静态知识图谱。它能将原始文档自动拆解为“语义原子事件”,并在用户发起查询的瞬间,动态构建关系网络。通过结合 SQL 精确检索、向量语义搜索与 PageRank 算法,SAG 实现了“召回 - 扩展 - 重排序”的三阶段精准搜索,确保每个回答不仅准确,还能完整追溯信息来源与关联链路。
这款工具非常适合希望部署私有化、可审计知识中台的企业技术团队,也适合寻求高效、易定制本地 RAG 方案的普通开发者。同时,对于深入研究 GraphRAG 或“检索 + 知识图谱”算法的研究人员,SAG 提供的事件中心型动态建图机制也极具参考价值。无论是个人知识管理、团队协作文档梳理,还是复杂的科研文献分析,SAG 都能以低维护成本提供高精度的智能问答支持。
使用场景
某大型电商企业的技术团队正试图从海量的客服对话日志、故障复盘报告和产品需求文档中,挖掘用户投诉的根本原因及关联影响。
没有 SAG 时
- 信息孤岛严重:传统 RAG 仅能基于关键词或简单语义匹配召回片段,无法识别“支付失败”与“数据库锁死”之间跨越多个文档的隐性因果链条。
- 图谱维护成本高昂:若采用传统 GraphRAG,需预先花费数周时间清洗数据并静态构建庞大的知识图谱,一旦业务迭代,图谱即刻过时且难以更新。
- 溯源模糊不清:检索结果往往只给出一个结论,缺乏完整的证据链路,分析师难以判断答案是源自某次特定版本的更新还是历史遗留问题。
- 响应迟钝:面对突发的新型故障模式,静态系统无法动态调整关联逻辑,导致新出现的风险点长期被忽略。
使用 SAG 后
- 动态构建关联网络:SAG 在查询瞬间自动将非结构化文本拆解为“语义原子事件”,实时计算出“支付超时”与“近期索引变更”之间的动态关系网。
- 零预构建负担:无需预先维护复杂的图结构,新产生的故障报告录入后即可立即参与推理,完美适配高频迭代的互联网业务节奏。
- 全链路精准溯源:通过三阶段搜索(Recall → Expand → Rerank),不仅返回根本原因,还清晰展示从现象到根因的完整推导路径和原始文档出处。
- 深度洞察隐含风险:利用 PageRank 算法在动态图中发现人工难以察觉的弱关联,提前预警潜在的连锁反应风险。
SAG 通过将静态的知识库转化为查询时按需生成的动态智能网络,让企业在零维护成本下实现了对复杂业务数据的深度理解与精准决策。
运行环境要求
- Linux
- macOS
- Windows
未说明 (依赖外部 LLM API,本地无明确 GPU 训练/推理强制要求)
未说明 (建议 8GB+ 以运行 Docker 容器及处理文档)

快速开始
🌟 SAG
SQL驱动的RAG引擎 · 查询时自动构建知识图谱
The SQL-Driven Smart Auto Graph Engine
🌟 SAG
SQL驱动的RAG引擎 · 查询时自动构建知识图谱
The SQL-Driven Smart Auto Graph Engine
方法二:Python SDK
import asyncio
from sag import SAGEngine
from sag.modules.load.config import LoadBaseConfig
from sag.modules.extract.config import ExtractBaseConfig
from sag.modules.search.config import SearchBaseConfig
async def main():
# 初始化
engine = SAGEngine(source_config_id="my-project")
# 加载文档
await engine.load(LoadBaseConfig(
type="path",
origin=["./docs/article.md"],
background="技术文档"
))
# 提取事件
await engine.extract(ExtractBaseConfig(
parallel=True,
background="AI大模型文档"
))
# 智能检索
result = await engine.search(SearchBaseConfig(
query="如何优化大模型推理速度?",
depth=2,
top_k=10
))
# 查看结果
for event in result.events:
print(f"[{event.score:.2f}] {event.title}")
print(f" {event.summary}\n")
asyncio.run(main())
方法三:Web界面
- 上传文档:拖拽 Markdown、PDF、HTML
- 自动处理:系统自动加载→提取→索引
- 智能搜索:输入自然语言查询
- 查看结果:浏览事件、线索图谱、来源
🌐 开源版 vs 完整版
功能对比
| 功能 | 开源基础版 | 完整版 |
|---|---|---|
| 核心引擎 | ✅ 完整开源 | ✅ 相同引擎 |
| 文档加载 | ✅ 本地文件 | ✅ 多种信息源 |
| 数据源 | ✅ 手动上传 | ✅ 自动更新 |
| 内容发布 | ❌ | ✅ 一键生成文章/报告 |
| 协作 | ❌ 单用户 | ✅ 团队 + 权限管理 |
| 高级功能 | ❌ | ✅ 智能推荐 + 自动摘要 |
| 云服务 | ❌ 需自建 | ✅ 开箱即用 |
| 支持 | 社区 | 专业技术团队 |
为什么开源基础版?
我们相信:
- 🌍 技术共享:核心算法应该被更多人使用和改进
- 🔧 灵活部署:企业可自建私有化部署
- 🤝 社区驱动:开源社区的反馈让产品更好
- 💡 创新激励:开发者可基于SAG构建自己的应用
什么时候用完整版?
- 需要自动网页追踪和信息流管理
- 想接入更多信息源
- 需要团队协作和权限管理
- 希望零部署,开箱即用
- 需要专业技术支持
体验完整版:https://zleap.ai
📖 深入学习
这一节是给对算法细节感兴趣的开发者和研究人员的简版说明。
🧠 核心理念:Event & Natural Language Vector
SAG 的底层思想可以用两句话概括:
- 事件原子化(Event Atomization)
不再按字符/Token 长度“机械切块”,而是将文档转化为一个个 语义完整、彼此独立 的“事件 (Event)”。 - 自然语言向量(Natural Language Vector)
不只把整段文本编码成向量,而是为每个 Event 抽取多维实体:时间、地点、人物、动作、话题、标签…
它们组成了一个“由自然语言实体构成的向量”。
关键洞察:
- Event 是 原子知识单元
- Entity 是 事件的实体维度
- 事件之间的关系不提前计算,而是 在查询时动态计算
🧮 三阶段搜索算法(Recall → Expand → Rerank)
1. Recall:实体驱动召回(Entity-Based Recall)
目标:从查询语句出发,找到一批高度相关的 实体 + 事件。
- 步骤概要:
- LLM 解析查询:抽取结构化实体(TOPIC、ACTION、PERSON…)
- 向量检索实体:在实体向量空间中搜索
- 用实体查事件(SQL):通过实体 ID 反查事件
- 事件向量检索:直接在 Event 向量上查
- 交集过滤 + 权重反向传播:兼顾语义相似度与实体匹配
2. Expand:基于 BFS 的多跳扩展
目标:通过“共享实体模式”在事件-实体空间做 多跳搜索,找到更深层的相关信息。
做法:
- 将高权重实体视作当前“前沿层”
- 用这些实体在 SQL 中查找新事件
- 对新事件计算相似度和权重,并将权重反向传播给新实体
- 只保留“新出现”的实体,形成下一跳前沿层
- 过程中带有 权重衰减 + 去重,无新实体时自动收敛
特性:
- 与“六度空间理论”类似:任意两个事件,往往可以通过少量中间实体连接
- 深度 2 通常在 精度 / 召回 / 延迟 上达到最优平衡
实体权重示意公式:
$$W(k_i) = \sum_{e_j \in E} \left[ W_{e2}(e_j) \times \frac{count(k_i, e_j)}{\ln(1 + step_{ij})} \right]$$
3. Rerank:基于方向性 PageRank 的排序
在 Recall + Expand 得到的事件子图上,SAG 构建隐式图并运行 加权 PageRank:
- 节点:事件
e - 有向边:共享实体关系,边权由实体权重 + 频次决定:
$$ W(e_i \rightarrow e_j) = \sum_{k \in (e_i \cap e_j)} W_{\text{entity}}(k) \cdot \ln(1 + \text{freq}(k, e_j)) $$
- PageRank 迭代:
$$ \mathrm{PR}(e_j) = \frac{1-d}{N} + d \sum_{e_i \in \mathrm{In}(e_j)} \mathrm{PR}(e_i) \cdot \frac{W(e_i \rightarrow e_j)}{\sum\limits_k W(e_i \rightarrow e_k)} $$
- 最终综合评分(四因子加权):
$$ S(e) = \alpha \cdot \mathrm{PR}(e) + \beta \cdot \mathrm{Sim}(Q, e) + γ \cdot \mathrm{EntityScore}(e) + δ \cdot \mathrm{TimeDecay}(e) $$
其中典型配置:α=0.4,β=0.3,γ=0.2,δ=0.1。
🤝 社区与贡献
加入我们
- 🌐 官网:https://zleap.ai
- 💬 Discord:加入讨论
- 📧 邮箱:contact@zleap.ai
- 🐦 Twitter:@ZleapAI
如何贡献
# 1. Fork并克隆
git clone https://github.com/your-name/SAG.git
# 2. 创建分支
git checkout -b feature/amazing-feature
# 3. 提交更改
git commit -m "feat: add amazing feature"
# 4. 推送
git push origin feature/amazing-feature
# 5. 开启 Pull Request
Commit规范:feat: | fix: | docs: | refactor: | test: | chore:
贡献者墙
🙏 致谢
- 感谢所有贡献者
- 特别感谢302.AI的算力支持
📄 许可证
本项目采用 Apache-2.0 License
⭐ Star History
让信息产生连接,让数据成为资产
Made with ❤️ by Zleap Team
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
