GPT-Agent

GitHub
2.1k 236 简单 1 次阅读 今天MIT数据工具开发框架语言模型插件
AI 解读 由 AI 自动生成,仅供参考

llm-wiki-agent 是一款能自动构建并维护个人知识库的 AI 助手。只需将论文、文章或笔记等源文件放入指定目录,它便能利用 Claude、Codex 或 Gemini 等大模型自动阅读内容,提取关键信息,并生成一个持续更新、内部相互链接的 Wiki 知识库。

它主要解决了传统笔记工具依赖人工整理、知识碎片化以及难以发现内容间关联的痛点。用户无需手动编写条目,llm-wiki-agent 会自动创建人物、项目等实体页面和概念页,并在每次摄入新资料时动态修订全局综述。更独特的是,它能即时标记不同来源间的观点矛盾,防止错误累积,同时生成可视化的知识图谱,直观展示知识点之间的显性与隐性联系。

这款工具特别适合需要长期深耕某一领域的研究人员、开发者及技术爱好者。无论是追踪前沿技术论文、整理会议记录,还是系统化学习复杂框架,它都能帮助用户从被动的“搜索笔记”转变为主动的“知识合成”。无需配置 API 密钥或复杂的 Python 环境,只要拥有支持的 AI 编程助手即可直接使用,让知识管理随着资料的积累而自然生长。

使用场景

一位 AI 研究员正在深入调研“大模型推理优化”课题,需要在两周内消化数十篇技术论文、博客文章及会议笔记。

没有 llm-wiki-agent 时

  • 知识碎片化严重:阅读过的论文散落在文件夹中,关键概念(如"KV Cache"、“投机采样”)仅存在于临时笔记或脑海中,难以形成体系。
  • 人工关联成本极高:发现新论文与旧观点冲突时,需手动翻阅历史文档进行比对,极易遗漏矛盾点或重复劳动。
  • 综述撰写困难:每当需要总结阶段性成果时,必须重新通读所有源文件来提取共性,无法即时获得跨文档的综合视图。
  • 实体追踪缺失:不同文章中提到的同一团队或项目(如"vLLM"、"Meta AI")缺乏统一档案,难以追踪其技术演进路线。

使用 llm-wiki-agent 后

  • 自动构建互联知识库:只需将论文丢入 raw/ 目录并执行 ingest 命令,llm-wiki-agent 即刻自动提取知识,生成带有双向链接的结构化 Wiki 页面。
  • 智能冲突检测与合成:工具在摄入新资料时自动标记与既有知识的矛盾之处,并实时更新 overview.md,提供跨所有来源的动态综述。
  • 实体与概念自动归档:llm-wiki-agent 自动为提及的每个算法、公司及研究者创建独立页面,随着资料增加,这些页面会自动丰富并交叉引用。
  • 可视化知识图谱:通过生成的 graph.html,研究员可直观看到节点间的隐含关系,快速定位核心簇群,无需手动整理思维导图。

llm-wiki-agent 将被动存储转变为主动的知识合成引擎,让研究人员从繁琐的笔记整理中解放,专注于高价值的洞察与创新。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

不需要 GPU(主要依赖外部 LLM API,本地 PDF 转换工具 PyMuPDF4LLM 明确标注无需 GPU)

内存

未说明

依赖
notes该工具本身无需安装复杂的 AI 模型或配置 API Key,核心功能依赖外部代理环境(如 Claude Code, Codex, Gemini CLI 等)。仅在使用本地脚本将 PDF 或文件转换为 Markdown 时,才需要安装上述 Python 依赖库。生成的知识图谱为静态 HTML 文件,无需服务器即可在浏览器查看。
python3.x (需要 Python 运行本地转换脚本,具体版本未说明)
arxiv2markdown (可选,用于 arXiv 论文)
marker-pdf (可选,用于复杂 PDF)
pymupdf4llm (可选,用于快速 PDF 提取)
markitdown (可选,用于文件转换)
tqdm (可选,用于进度条)
GPT-Agent hero image

快速开始

LLM 维基代理

许可证

一种编码代理技能。 将源文档放入 raw/ 目录,并指示代理进行摄取——它会读取这些文档,提取知识,并构建一个持久且相互链接的维基。每新增一份来源,维基就会更加丰富。你无需亲自编写任何内容。

大多数知识工具需要你自己在笔记中搜索信息。而这款工具则会读取你收集的所有内容,并自动生成一个结构化的维基,随着时间推移不断积累——其中已内置交叉引用、自动标记矛盾之处,并完成综合整理。

ingest raw/papers/attention-is-all-you-need.md
wiki/
├── index.md          所有页面的目录——每次摄取时都会更新
├── log.md            每次操作的追加式记录
├── overview.md       跨所有来源的动态综合摘要
├── sources/          每个源文档对应一个概要页
├── entities/         人物、公司、项目——自动创建
├── concepts/         思想、框架、方法——自动创建
└── syntheses/        查询答案以维基页面形式归档
graph/
├── graph.json        持久化的节点/边数据(SHA256 缓存)
└── graph.html        交互式的 vis.js 可视化图——可在任意浏览器中打开

安装

要求: Claude CodeCodexGemini CLI,或任何能够读取配置文件的代理。

git clone https://github.com/SamurAIGPT/llm-wiki-agent.git
cd llm-wiki-agent

在你的代理中打开即可——无需 API 密钥或 Python 环境配置:

claude      # 读取 CLAUDE.md + .claude/commands/(支持斜杠命令)
codex       # 读取 AGENTS.md
opencode    # 读取 AGENTS.md
gemini      # 读取 GEMINI.md

使用

所有代理都理解自然语言和简短触发词:

ingest raw/papers/my-paper.md              # 将来源摄入维基
query: what are the main themes?           # 从维基页面中综合回答
lint                                       # 查找孤立页面、矛盾点和空白
build graph                                # 根据所有维基链接构建 graph.html

纯英文同样适用:

“将这篇论文摄入:raw/papers/llama2.md”
“维基对注意力机制是怎么说的?”
“检查各来源之间是否存在矛盾”
“构建知识图谱,并告诉我连接最紧密的节点”

Claude Code 还提供了 /wiki-ingest/wiki-query/wiki-lint/wiki-graph 等斜杠命令(通过 .claude/commands/)。这些命令仅适用于 Claude Code;其他代理则使用上述自然语言触发词,效果完全相同。

可处理任何 Markdown 格式的来源——文章、论文、书籍章节、会议记录、日记条目、研究总结等。

你能得到什么

持久性维基——结构化的 Markdown 页面,会在不同会话间持续累积。与聊天不同,不会丢失任何信息。

实体页面——对于所有在来源中提到的人物、公司或项目,都会自动创建页面。每当新来源提及它们时,页面都会更新。

概念页面——对于每个关键思想或框架,都会自动创建页面,并与所有讨论它们的来源建立交叉引用。

动态概述——wiki/overview.md 会在每次摄取时更新,以反映你所阅读内容的当前综合情况。

矛盾标记——当新来源与现有主张相矛盾时,会在摄取时立即标记出来,而不是等到查询时才被发现。

知识图谱——graph.html 将每个维基页面表示为节点,每个 [[wikilink]] 表示为边,并将 Claude 推断出的隐含关系用虚线表示。社区检测功能会将相关主题聚类在一起。

Lint 报告——包括孤立页面、失效链接、缺失的实体页面以及数据缺口,并提供补充来源的建议。

使用场景

研究

数周内深入研究某一主题——阅读论文、文章、报告。

/wiki-ingest raw/papers/attention-is-all-you-need.md
/wiki-ingest raw/papers/llama2.md
/wiki-ingest raw/papers/rag-survey.md

# 维基会自动创建实体页面(Meta AI、Google Brain)和
# 概念页面(注意力机制、RLHF、上下文窗口)。

/wiki-query “减少幻觉的主要方法有哪些?”
/wiki-query “各模型的上下文窗口大小是如何演变的?”

/wiki-lint
# → “缺少关于专家混合模型的资料——可以考虑 Mixtral 论文”

最终你会得到一个结构化、相互链接的参考资料,而不是一堆你再也不会打开的 PDF 文件。


阅读一本书

每读完一章就将其录入系统。为书中的人物、主题和论点创建页面。

/wiki-ingest raw/book/chapter-01.md
/wiki-ingest raw/book/chapter-02.md

# 维基会自动创建人物和主题页面。

/wiki-query “主角的动机是如何发展的?”
/wiki-query “作者目前的论述中存在哪些矛盾?”

/wiki-graph   # → graph.html 展示了每个人物/主题及其相互联系

就像托尔金门户网站这样的粉丝维基一样——随着阅读进度逐步构建,所有交叉引用工作都由代理完成。


个人知识库

跟踪目标、健康状况、习惯和自我提升——录入日记条目、文章和播客笔记。

/wiki-ingest raw/journal/2026-01-week1.md
/wiki-ingest raw/articles/huberman-sleep-protocol.md
/wiki-ingest raw/articles/atomic-habits-summary.md

/wiki-query “我的日记中关于精力方面出现了哪些规律?”
/wiki-query “我尝试过哪些习惯,结果如何?”

维基会随着时间的推移构建起一个结构化的知识体系。诸如“睡眠”、“锻炼”、“深度工作”之类的概念,会从你录入的每一个来源中不断积累证据。


商业 / 团队情报

输入会议记录、项目文档和客户通话记录。

/wiki-ingest raw/meetings/q1-planning-transcript.md
/wiki-ingest raw/docs/product-roadmap-2026.md
/wiki-ingest raw/calls/customer-interview-acme.md

/wiki-query “客户来电中提到最多的功能需求是什么?”
/wiki-query “第一季度做出了哪些决策,其背后的逻辑是什么?”

/wiki-lint
# → “项目 X 在 5 个页面中被提及,但没有专门的页面”
# → “路线图与客户访谈中关于功能 Y 优先级的说法相矛盾”

由于代理会承担起无人愿意做的维护工作,因此维基始终保持最新状态。


竞争分析

长期跟踪一家公司、某个市场或某项技术的发展。

/wiki-ingest raw/competitors/openai-announcements.md
/wiki-ingest raw/market/ai-funding-report-q1.md

/wiki-query “OpenAI 和 Anthropic 在安全策略上有什么不同?”
/wiki-query “过去六个月里,哪些公司发布了多模态模型?”
/wiki-query “截至今日的竞争格局概览”
# → 代理会展示答案,然后询问是否要将其保存为综合页面

图谱

两遍构建流程:

  1. 确定性 — 解析所有维基页面中的 [[维基链接]] → 标记为 EXTRACTED 的边
  2. 语义性 — 代理推断维基链接未捕捉到的隐含关系 → 标记为 INFERRED(带置信度分数)或 AMBIGUOUS 的边

Louvain 社区检测算法按主题对节点进行聚类。SHA256 缓存机制确保仅重新处理已更改的页面。输出是一个自包含的 graph.html 文件——无需服务器,可在任何浏览器中打开。

CLAUDE.md / AGENTS.md

模式文件告诉代理如何维护维基——页面格式、导入/查询/校验/图谱工作流、命名规范。这是关键配置文件。编辑它即可根据您的领域定制行为。

代理 模式文件
Claude Code CLAUDE.md
Codex / OpenCode AGENTS.md
Gemini CLI GEMINI.md

这与 RAG 的不同之处

RAG LLM 维基代理
每次查询都重新推导知识 只编译一次,保持最新状态
原始片段作为检索单元 结构化的维基页面
无交叉引用 预先构建的交叉引用
矛盾可能在查询时才显现 在导入时即被标记
无法积累 每个来源都使维基更加丰富

Obsidian 集成

该维基旨在与 Obsidian 无缝浏览。由于代理会维护一致的 [[维基链接]],您可以在自己的 vault 中获得一个自然增长的知识图谱。

Vault 符号链接模式

如果您希望将 LLM 维基代理仓库与主个人 vault 分开,请使用符号链接:

  1. 将工作用的代理仓库保留在例如 ~/llm-wiki-agent
  2. 在您的主 Obsidian vault 中创建一个符号链接:
    ln -sfn ~/llm-wiki-agent/wiki ~/your-obsidian-vault/wiki
    
  3. 使用 Obsidian Web Clipper 或直接写入代理仓库的 raw/ 目录,以排队待导入的内容。

注意: 如果您日后移动本地仓库目录,请记得更新符号链接,否则 wiki/ 目录在 Obsidian 中会显示为缺失。

推荐的 .obsidian 配置

  • 图谱视图: 过滤掉 index.mdlog.md(例如 -file:index.md -file:log.md),以免它们成为 Obsidian 图谱中的引力井。
  • Dataview: 使用社区插件 Dataview 查询代理自动注入的 YAML 前置元数据(例如 type: source, tags: [diary])。

转换文件、PDF 和 arXiv 论文

维基接受 Markdown 文件作为输入。请使用 files_to_md.py 转换文件,或使用 tools/pdf2md.py 转换 PDF 和 arXiv 论文后再进行导入:

python tools/files_to_md.py --input_dir  ../raw/

# 可选:如果用户希望删除源文件
python tools/files_to_md.py --input_dir ../raw/ --delete_source

或者,如果用户想使用 arXiv 上的论文:

# arXiv 论文——按 ID 或 URL(使用 arxiv2md,无需解析 PDF)
python tools/pdf2md.py 2401.12345
python tools/pdf2md.py https://arxiv.org/abs/2401.12345

# 本地 PDF——自动选择最佳可用后端
python tools/pdf2md.py paper.pdf
python tools/pdf2md.py paper.pdf --backend marker     # 复杂的多栏布局
python tools/pdf2md.py paper.pdf --backend pymupdf4llm # 快速、轻量级

# 自定义输出路径
python tools/pdf2md.py paper.pdf -o raw/papers/my-paper.md

然后按常规方式导入:

ingest raw/papers/my-paper.md

至少安装一个转换后端:

后端 安装 最适合
arxiv2md pip install arxiv2markdown arXiv 论文(利用结构化来源,避免 PDF 解析)
Marker pip install marker-pdf 复杂的学术 PDF,包含多栏布局、表格和公式
PyMuPDF4LLM pip install pymupdf4llm 从纯文本 PDF 中快速提取内容(无需 GPU)
markitdown pip install markitdown 用于将文件转换为 Markdown
tqdm pip install tqdm 转换过程中显示进度条

小贴士

  • 使用 tools/files_to_md.py 将文件转换为 Markdown 再导入——参见转换文件、PDF 和 arXiv 论文
  • 使用 tools/pdf2md.py 将 PDF 和 arXiv 论文转换为 Markdown 再导入——参见转换文件、PDF 和 arXiv 论文
  • 查询结果会首先显示——随后代理会询问您是否要将其保存为综合页面。您的探索成果会像导入的来源一样不断累积。
  • 维基是一个 Git 仓库——免费提供版本历史。
  • tools/ 中的独立 Python 脚本无需编码代理即可运行(需设置 ANTHROPIC_API_KEY)。

技术栈

NetworkX + Louvain + Claude + vis.js。无需服务器、无需数据库,完全在本地运行。所有内容均为纯 Markdown 文件。

相关项目

许可证

MIT 许可证——详情请参阅 LICENSE

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|2周前
Agent开发框架图像

n8n

n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。

184.7k|★★☆☆☆|今天
数据工具开发框架Agent

AutoGPT

AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。

183.6k|★★★☆☆|今天
Agent语言模型插件

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

161.1k|★★☆☆☆|今天
开发框架Agent语言模型

opencode

OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信

144.3k|★☆☆☆☆|4天前
Agent插件