GPT-Agent
llm-wiki-agent 是一款能自动构建并维护个人知识库的 AI 助手。只需将论文、文章或笔记等源文件放入指定目录,它便能利用 Claude、Codex 或 Gemini 等大模型自动阅读内容,提取关键信息,并生成一个持续更新、内部相互链接的 Wiki 知识库。
它主要解决了传统笔记工具依赖人工整理、知识碎片化以及难以发现内容间关联的痛点。用户无需手动编写条目,llm-wiki-agent 会自动创建人物、项目等实体页面和概念页,并在每次摄入新资料时动态修订全局综述。更独特的是,它能即时标记不同来源间的观点矛盾,防止错误累积,同时生成可视化的知识图谱,直观展示知识点之间的显性与隐性联系。
这款工具特别适合需要长期深耕某一领域的研究人员、开发者及技术爱好者。无论是追踪前沿技术论文、整理会议记录,还是系统化学习复杂框架,它都能帮助用户从被动的“搜索笔记”转变为主动的“知识合成”。无需配置 API 密钥或复杂的 Python 环境,只要拥有支持的 AI 编程助手即可直接使用,让知识管理随着资料的积累而自然生长。
使用场景
一位 AI 研究员正在深入调研“大模型推理优化”课题,需要在两周内消化数十篇技术论文、博客文章及会议笔记。
没有 llm-wiki-agent 时
- 知识碎片化严重:阅读过的论文散落在文件夹中,关键概念(如"KV Cache"、“投机采样”)仅存在于临时笔记或脑海中,难以形成体系。
- 人工关联成本极高:发现新论文与旧观点冲突时,需手动翻阅历史文档进行比对,极易遗漏矛盾点或重复劳动。
- 综述撰写困难:每当需要总结阶段性成果时,必须重新通读所有源文件来提取共性,无法即时获得跨文档的综合视图。
- 实体追踪缺失:不同文章中提到的同一团队或项目(如"vLLM"、"Meta AI")缺乏统一档案,难以追踪其技术演进路线。
使用 llm-wiki-agent 后
- 自动构建互联知识库:只需将论文丢入
raw/目录并执行ingest命令,llm-wiki-agent 即刻自动提取知识,生成带有双向链接的结构化 Wiki 页面。 - 智能冲突检测与合成:工具在摄入新资料时自动标记与既有知识的矛盾之处,并实时更新
overview.md,提供跨所有来源的动态综述。 - 实体与概念自动归档:llm-wiki-agent 自动为提及的每个算法、公司及研究者创建独立页面,随着资料增加,这些页面会自动丰富并交叉引用。
- 可视化知识图谱:通过生成的
graph.html,研究员可直观看到节点间的隐含关系,快速定位核心簇群,无需手动整理思维导图。
llm-wiki-agent 将被动存储转变为主动的知识合成引擎,让研究人员从繁琐的笔记整理中解放,专注于高价值的洞察与创新。
运行环境要求
- Linux
- macOS
- Windows
不需要 GPU(主要依赖外部 LLM API,本地 PDF 转换工具 PyMuPDF4LLM 明确标注无需 GPU)
未说明

快速开始
LLM 维基代理
一种编码代理技能。 将源文档放入 raw/ 目录,并指示代理进行摄取——它会读取这些文档,提取知识,并构建一个持久且相互链接的维基。每新增一份来源,维基就会更加丰富。你无需亲自编写任何内容。
大多数知识工具需要你自己在笔记中搜索信息。而这款工具则会读取你收集的所有内容,并自动生成一个结构化的维基,随着时间推移不断积累——其中已内置交叉引用、自动标记矛盾之处,并完成综合整理。
ingest raw/papers/attention-is-all-you-need.md
wiki/
├── index.md 所有页面的目录——每次摄取时都会更新
├── log.md 每次操作的追加式记录
├── overview.md 跨所有来源的动态综合摘要
├── sources/ 每个源文档对应一个概要页
├── entities/ 人物、公司、项目——自动创建
├── concepts/ 思想、框架、方法——自动创建
└── syntheses/ 查询答案以维基页面形式归档
graph/
├── graph.json 持久化的节点/边数据(SHA256 缓存)
└── graph.html 交互式的 vis.js 可视化图——可在任意浏览器中打开
安装
要求: Claude Code、Codex、Gemini CLI,或任何能够读取配置文件的代理。
git clone https://github.com/SamurAIGPT/llm-wiki-agent.git
cd llm-wiki-agent
在你的代理中打开即可——无需 API 密钥或 Python 环境配置:
claude # 读取 CLAUDE.md + .claude/commands/(支持斜杠命令)
codex # 读取 AGENTS.md
opencode # 读取 AGENTS.md
gemini # 读取 GEMINI.md
使用
所有代理都理解自然语言和简短触发词:
ingest raw/papers/my-paper.md # 将来源摄入维基
query: what are the main themes? # 从维基页面中综合回答
lint # 查找孤立页面、矛盾点和空白
build graph # 根据所有维基链接构建 graph.html
纯英文同样适用:
“将这篇论文摄入:raw/papers/llama2.md”
“维基对注意力机制是怎么说的?”
“检查各来源之间是否存在矛盾”
“构建知识图谱,并告诉我连接最紧密的节点”
Claude Code 还提供了 /wiki-ingest、/wiki-query、/wiki-lint、/wiki-graph 等斜杠命令(通过 .claude/commands/)。这些命令仅适用于 Claude Code;其他代理则使用上述自然语言触发词,效果完全相同。
可处理任何 Markdown 格式的来源——文章、论文、书籍章节、会议记录、日记条目、研究总结等。
你能得到什么
持久性维基——结构化的 Markdown 页面,会在不同会话间持续累积。与聊天不同,不会丢失任何信息。
实体页面——对于所有在来源中提到的人物、公司或项目,都会自动创建页面。每当新来源提及它们时,页面都会更新。
概念页面——对于每个关键思想或框架,都会自动创建页面,并与所有讨论它们的来源建立交叉引用。
动态概述——wiki/overview.md 会在每次摄取时更新,以反映你所阅读内容的当前综合情况。
矛盾标记——当新来源与现有主张相矛盾时,会在摄取时立即标记出来,而不是等到查询时才被发现。
知识图谱——graph.html 将每个维基页面表示为节点,每个 [[wikilink]] 表示为边,并将 Claude 推断出的隐含关系用虚线表示。社区检测功能会将相关主题聚类在一起。
Lint 报告——包括孤立页面、失效链接、缺失的实体页面以及数据缺口,并提供补充来源的建议。
使用场景
研究
数周内深入研究某一主题——阅读论文、文章、报告。
/wiki-ingest raw/papers/attention-is-all-you-need.md
/wiki-ingest raw/papers/llama2.md
/wiki-ingest raw/papers/rag-survey.md
# 维基会自动创建实体页面(Meta AI、Google Brain)和
# 概念页面(注意力机制、RLHF、上下文窗口)。
/wiki-query “减少幻觉的主要方法有哪些?”
/wiki-query “各模型的上下文窗口大小是如何演变的?”
/wiki-lint
# → “缺少关于专家混合模型的资料——可以考虑 Mixtral 论文”
最终你会得到一个结构化、相互链接的参考资料,而不是一堆你再也不会打开的 PDF 文件。
阅读一本书
每读完一章就将其录入系统。为书中的人物、主题和论点创建页面。
/wiki-ingest raw/book/chapter-01.md
/wiki-ingest raw/book/chapter-02.md
# 维基会自动创建人物和主题页面。
/wiki-query “主角的动机是如何发展的?”
/wiki-query “作者目前的论述中存在哪些矛盾?”
/wiki-graph # → graph.html 展示了每个人物/主题及其相互联系
就像托尔金门户网站这样的粉丝维基一样——随着阅读进度逐步构建,所有交叉引用工作都由代理完成。
个人知识库
跟踪目标、健康状况、习惯和自我提升——录入日记条目、文章和播客笔记。
/wiki-ingest raw/journal/2026-01-week1.md
/wiki-ingest raw/articles/huberman-sleep-protocol.md
/wiki-ingest raw/articles/atomic-habits-summary.md
/wiki-query “我的日记中关于精力方面出现了哪些规律?”
/wiki-query “我尝试过哪些习惯,结果如何?”
维基会随着时间的推移构建起一个结构化的知识体系。诸如“睡眠”、“锻炼”、“深度工作”之类的概念,会从你录入的每一个来源中不断积累证据。
商业 / 团队情报
输入会议记录、项目文档和客户通话记录。
/wiki-ingest raw/meetings/q1-planning-transcript.md
/wiki-ingest raw/docs/product-roadmap-2026.md
/wiki-ingest raw/calls/customer-interview-acme.md
/wiki-query “客户来电中提到最多的功能需求是什么?”
/wiki-query “第一季度做出了哪些决策,其背后的逻辑是什么?”
/wiki-lint
# → “项目 X 在 5 个页面中被提及,但没有专门的页面”
# → “路线图与客户访谈中关于功能 Y 优先级的说法相矛盾”
由于代理会承担起无人愿意做的维护工作,因此维基始终保持最新状态。
竞争分析
长期跟踪一家公司、某个市场或某项技术的发展。
/wiki-ingest raw/competitors/openai-announcements.md
/wiki-ingest raw/market/ai-funding-report-q1.md
/wiki-query “OpenAI 和 Anthropic 在安全策略上有什么不同?”
/wiki-query “过去六个月里,哪些公司发布了多模态模型?”
/wiki-query “截至今日的竞争格局概览”
# → 代理会展示答案,然后询问是否要将其保存为综合页面
图谱
两遍构建流程:
- 确定性 — 解析所有维基页面中的
[[维基链接]]→ 标记为EXTRACTED的边 - 语义性 — 代理推断维基链接未捕捉到的隐含关系 → 标记为
INFERRED(带置信度分数)或AMBIGUOUS的边
Louvain 社区检测算法按主题对节点进行聚类。SHA256 缓存机制确保仅重新处理已更改的页面。输出是一个自包含的 graph.html 文件——无需服务器,可在任何浏览器中打开。
CLAUDE.md / AGENTS.md
模式文件告诉代理如何维护维基——页面格式、导入/查询/校验/图谱工作流、命名规范。这是关键配置文件。编辑它即可根据您的领域定制行为。
| 代理 | 模式文件 |
|---|---|
| Claude Code | CLAUDE.md |
| Codex / OpenCode | AGENTS.md |
| Gemini CLI | GEMINI.md |
这与 RAG 的不同之处
| RAG | LLM 维基代理 |
|---|---|
| 每次查询都重新推导知识 | 只编译一次,保持最新状态 |
| 原始片段作为检索单元 | 结构化的维基页面 |
| 无交叉引用 | 预先构建的交叉引用 |
| 矛盾可能在查询时才显现 | 在导入时即被标记 |
| 无法积累 | 每个来源都使维基更加丰富 |
Obsidian 集成
该维基旨在与 Obsidian 无缝浏览。由于代理会维护一致的 [[维基链接]],您可以在自己的 vault 中获得一个自然增长的知识图谱。
Vault 符号链接模式
如果您希望将 LLM 维基代理仓库与主个人 vault 分开,请使用符号链接:
- 将工作用的代理仓库保留在例如
~/llm-wiki-agent - 在您的主 Obsidian vault 中创建一个符号链接:
ln -sfn ~/llm-wiki-agent/wiki ~/your-obsidian-vault/wiki - 使用 Obsidian Web Clipper 或直接写入代理仓库的
raw/目录,以排队待导入的内容。
注意: 如果您日后移动本地仓库目录,请记得更新符号链接,否则
wiki/目录在 Obsidian 中会显示为缺失。
推荐的 .obsidian 配置
- 图谱视图: 过滤掉
index.md和log.md(例如-file:index.md -file:log.md),以免它们成为 Obsidian 图谱中的引力井。 - Dataview: 使用社区插件 Dataview 查询代理自动注入的 YAML 前置元数据(例如
type: source,tags: [diary])。
转换文件、PDF 和 arXiv 论文
维基接受 Markdown 文件作为输入。请使用 files_to_md.py 转换文件,或使用 tools/pdf2md.py 转换 PDF 和 arXiv 论文后再进行导入:
python tools/files_to_md.py --input_dir ../raw/
# 可选:如果用户希望删除源文件
python tools/files_to_md.py --input_dir ../raw/ --delete_source
或者,如果用户想使用 arXiv 上的论文:
# arXiv 论文——按 ID 或 URL(使用 arxiv2md,无需解析 PDF)
python tools/pdf2md.py 2401.12345
python tools/pdf2md.py https://arxiv.org/abs/2401.12345
# 本地 PDF——自动选择最佳可用后端
python tools/pdf2md.py paper.pdf
python tools/pdf2md.py paper.pdf --backend marker # 复杂的多栏布局
python tools/pdf2md.py paper.pdf --backend pymupdf4llm # 快速、轻量级
# 自定义输出路径
python tools/pdf2md.py paper.pdf -o raw/papers/my-paper.md
然后按常规方式导入:
ingest raw/papers/my-paper.md
至少安装一个转换后端:
| 后端 | 安装 | 最适合 |
|---|---|---|
| arxiv2md | pip install arxiv2markdown |
arXiv 论文(利用结构化来源,避免 PDF 解析) |
| Marker | pip install marker-pdf |
复杂的学术 PDF,包含多栏布局、表格和公式 |
| PyMuPDF4LLM | pip install pymupdf4llm |
从纯文本 PDF 中快速提取内容(无需 GPU) |
| markitdown | pip install markitdown |
用于将文件转换为 Markdown |
| tqdm | pip install tqdm |
转换过程中显示进度条 |
小贴士
- 使用
tools/files_to_md.py将文件转换为 Markdown 再导入——参见转换文件、PDF 和 arXiv 论文 - 使用
tools/pdf2md.py将 PDF 和 arXiv 论文转换为 Markdown 再导入——参见转换文件、PDF 和 arXiv 论文 - 查询结果会首先显示——随后代理会询问您是否要将其保存为综合页面。您的探索成果会像导入的来源一样不断累积。
- 维基是一个 Git 仓库——免费提供版本历史。
tools/中的独立 Python 脚本无需编码代理即可运行(需设置ANTHROPIC_API_KEY)。
技术栈
NetworkX + Louvain + Claude + vis.js。无需服务器、无需数据库,完全在本地运行。所有内容均为纯 Markdown 文件。
相关项目
- graphify — 基于图的知识抽取技能(图层设计的灵感来源)
- 万尼瓦尔·布什的 Memex(1945) — 与此愿景最为相似的早期设想
许可证
MIT 许可证——详情请参阅 LICENSE。
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
n8n
n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。
AutoGPT
AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信