[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SamurAIGPT--GPT-Agent":3,"tool-SamurAIGPT--GPT-Agent":62},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":59,"last_commit_at":60,"category_tags":61,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,27],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":82,"forks":83,"last_commit_at":84,"license":85,"difficulty_score":24,"env_os":86,"env_gpu":87,"env_ram":88,"env_deps":89,"category_tags":98,"github_topics":99,"view_count":24,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":139},10011,"SamurAIGPT\u002FGPT-Agent","GPT-Agent","A personal knowledge base that builds and maintains itself. Drop in sources — Claude (or Codex\u002FGemini) reads them, extracts knowledge, and maintains a persistent interlinked wiki. Works with Claude Code, Codex, OpenCode, Gemini CLI. No API key needed.","llm-wiki-agent 是一款能自动构建并维护个人知识库的 AI 助手。只需将论文、文章或笔记等源文件放入指定目录，它便能利用 Claude、Codex 或 Gemini 等大模型自动阅读内容，提取关键信息，并生成一个持续更新、内部相互链接的 Wiki 知识库。\n\n它主要解决了传统笔记工具依赖人工整理、知识碎片化以及难以发现内容间关联的痛点。用户无需手动编写条目，llm-wiki-agent 会自动创建人物、项目等实体页面和概念页，并在每次摄入新资料时动态修订全局综述。更独特的是，它能即时标记不同来源间的观点矛盾，防止错误累积，同时生成可视化的知识图谱，直观展示知识点之间的显性与隐性联系。\n\n这款工具特别适合需要长期深耕某一领域的研究人员、开发者及技术爱好者。无论是追踪前沿技术论文、整理会议记录，还是系统化学习复杂框架，它都能帮助用户从被动的“搜索笔记”转变为主动的“知识合成”。无需配置 API 密钥或复杂的 Python 环境，只要拥有支持的 AI 编程助手即可直接使用，让知识管理随着资料的积累而自然生长。","# LLM Wiki Agent\n\n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-MIT-blue.svg)](LICENSE)\n\n**A coding agent skill.** Drop source documents into `raw\u002F` and tell the agent to ingest them — it reads them, extracts knowledge, and builds a persistent interlinked wiki. Every new source makes the wiki richer. You never write it.\n\n> Most knowledge tools make you search your own notes. This one reads everything you've collected and writes a structured wiki that compounds over time — cross-references already built, contradictions already flagged, synthesis already done.\n\n```\ningest raw\u002Fpapers\u002Fattention-is-all-you-need.md\n```\n\n```\nwiki\u002F\n├── index.md          catalog of all pages — updated on every ingest\n├── log.md            append-only record of every operation\n├── overview.md       living synthesis across all sources\n├── sources\u002F          one summary page per source document\n├── entities\u002F         people, companies, projects — auto-created\n├── concepts\u002F         ideas, frameworks, methods — auto-created\n└── syntheses\u002F        query answers filed back as wiki pages\ngraph\u002F\n├── graph.json        persistent node\u002Fedge data (SHA256-cached)\n└── graph.html        interactive vis.js visualization — open in any browser\n```\n\n## Install\n\n**Requires:** [Claude Code](https:\u002F\u002Fclaude.ai\u002Fcode), [Codex](https:\u002F\u002Fopenai.com\u002Fcodex), [Gemini CLI](https:\u002F\u002Fgithub.com\u002Fgoogle-gemini\u002Fgemini-cli), or any agent that reads a config file.\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002Fllm-wiki-agent.git\ncd llm-wiki-agent\n```\n\nOpen in your agent — no API key or Python setup needed:\n\n```bash\nclaude      # reads CLAUDE.md + .claude\u002Fcommands\u002F (slash commands available)\ncodex       # reads AGENTS.md\nopencode    # reads AGENTS.md\ngemini      # reads GEMINI.md\n```\n\n## Usage\n\nAll agents understand natural language and shorthand triggers:\n\n```\ningest raw\u002Fpapers\u002Fmy-paper.md              # ingest a source into the wiki\nquery: what are the main themes?           # synthesize answer from wiki pages\nlint                                       # find orphans, contradictions, gaps\nbuild graph                                # build graph.html from all wikilinks\n```\n\nPlain English works too:\n```\n\"Ingest this paper: raw\u002Fpapers\u002Fllama2.md\"\n\"What does the wiki say about attention mechanisms?\"\n\"Check for contradictions across sources\"\n\"Build the knowledge graph and tell me the most connected nodes\"\n```\n\n**Claude Code** also provides `\u002Fwiki-ingest`, `\u002Fwiki-query`, `\u002Fwiki-lint`, `\u002Fwiki-graph` as slash commands (via `.claude\u002Fcommands\u002F`). These are Claude Code-specific — other agents use the natural language triggers above, which work identically.\n\nWorks with any markdown source — articles, papers, book chapters, meeting notes, journal entries, research summaries.\n\n## What You Get\n\n**Persistent wiki** — structured markdown pages that accumulate across sessions. Unlike chat, nothing is lost.\n\n**Entity pages** — auto-created for every person, company, or project mentioned across sources. Updated each time a new source references them.\n\n**Concept pages** — auto-created for every key idea or framework. Cross-referenced to every source that discusses them.\n\n**Living overview** — `wiki\u002Foverview.md` is revised on every ingest to reflect the current synthesis across everything you've read.\n\n**Contradiction flags** — when a new source contradicts an existing claim, it's flagged at ingest time, not buried until query time.\n\n**Knowledge graph** — `graph.html` shows every wiki page as a node, every `[[wikilink]]` as an edge, and Claude-inferred implicit relationships as dotted edges. Community detection clusters related topics.\n\n**Lint reports** — orphan pages, broken links, missing entity pages, data gaps with suggested sources to fill them.\n\n## Use Cases\n\n### Research\n\nGoing deep on a topic over weeks — reading papers, articles, reports.\n\n```\n\u002Fwiki-ingest raw\u002Fpapers\u002Fattention-is-all-you-need.md\n\u002Fwiki-ingest raw\u002Fpapers\u002Fllama2.md\n\u002Fwiki-ingest raw\u002Fpapers\u002Frag-survey.md\n\n# Wiki builds entity pages (Meta AI, Google Brain) and\n# concept pages (Attention, RLHF, Context Window) automatically.\n\n\u002Fwiki-query \"What are the main approaches to reducing hallucination?\"\n\u002Fwiki-query \"How has context window size evolved across models?\"\n\n\u002Fwiki-lint\n# → \"No sources on mixture-of-experts — consider the Mixtral paper\"\n```\n\nBy the end you have a structured, interlinked reference — not a folder of PDFs you'll never reopen.\n\n---\n\n### Reading a Book\n\nFile each chapter as you go. Build out pages for characters, themes, arguments.\n\n```\n\u002Fwiki-ingest raw\u002Fbook\u002Fchapter-01.md\n\u002Fwiki-ingest raw\u002Fbook\u002Fchapter-02.md\n\n# Wiki creates entity and theme pages automatically.\n\n\u002Fwiki-query \"How has the protagonist's motivation evolved?\"\n\u002Fwiki-query \"What contradictions exist in the author's argument so far?\"\n\n\u002Fwiki-graph   # → graph.html shows every character\u002Ftheme and how they connect\n```\n\nThink fan wikis like Tolkien Gateway — built as you read, with the agent doing all the cross-referencing.\n\n---\n\n### Personal Knowledge Base\n\nTrack goals, health, habits, self-improvement — file journal entries, articles, podcast notes.\n\n```\n\u002Fwiki-ingest raw\u002Fjournal\u002F2026-01-week1.md\n\u002Fwiki-ingest raw\u002Farticles\u002Fhuberman-sleep-protocol.md\n\u002Fwiki-ingest raw\u002Farticles\u002Fatomic-habits-summary.md\n\n\u002Fwiki-query \"What patterns show up in my journal entries about energy?\"\n\u002Fwiki-query \"What habits have I tried and what was the outcome?\"\n```\n\nThe wiki builds a structured picture over time. Concepts like \"Sleep\", \"Exercise\", \"Deep Work\" accumulate evidence from every source filed.\n\n---\n\n### Business \u002F Team Intelligence\n\nFeed in meeting transcripts, project docs, customer calls.\n\n```\n\u002Fwiki-ingest raw\u002Fmeetings\u002Fq1-planning-transcript.md\n\u002Fwiki-ingest raw\u002Fdocs\u002Fproduct-roadmap-2026.md\n\u002Fwiki-ingest raw\u002Fcalls\u002Fcustomer-interview-acme.md\n\n\u002Fwiki-query \"What feature requests have come up most across customer calls?\"\n\u002Fwiki-query \"What decisions were made in Q1 and what was the rationale?\"\n\n\u002Fwiki-lint\n# → \"Project X mentioned in 5 pages but no dedicated page\"\n# → \"Roadmap contradicts customer interview on priority of feature Y\"\n```\n\nThe wiki stays current because the agent does the maintenance no one wants to do.\n\n---\n\n### Competitive Analysis\n\nTrack a company, market, or technology over time.\n\n```\n\u002Fwiki-ingest raw\u002Fcompetitors\u002Fopenai-announcements.md\n\u002Fwiki-ingest raw\u002Fmarket\u002Fai-funding-report-q1.md\n\n\u002Fwiki-query \"How do OpenAI and Anthropic differ on safety approach?\"\n\u002Fwiki-query \"Which companies announced multimodal models in the last 6 months?\"\n\u002Fwiki-query \"Competitive landscape summary as of today\"\n# → agent shows the answer, then asks if you want to save it as a synthesis page\n```\n\n## The Graph\n\nTwo-pass build:\n\n1. **Deterministic** — parses all `[[wikilinks]]` across wiki pages → edges tagged `EXTRACTED`\n2. **Semantic** — agent infers implicit relationships not captured by wikilinks → edges tagged `INFERRED` (with confidence score) or `AMBIGUOUS`\n\nLouvain community detection clusters nodes by topic. SHA256 cache means only changed pages are reprocessed. Output is a self-contained `graph.html` — no server, opens in any browser.\n\n## CLAUDE.md \u002F AGENTS.md\n\nThe schema file tells the agent how to maintain the wiki — page formats, ingest\u002Fquery\u002Flint\u002Fgraph workflows, naming conventions. This is the key config file. Edit it to customize behavior for your domain.\n\n| Agent | Schema file |\n|---|---|\n| Claude Code | `CLAUDE.md` |\n| Codex \u002F OpenCode | `AGENTS.md` |\n| Gemini CLI | `GEMINI.md` |\n\n## What Makes This Different from RAG\n\n| RAG | LLM Wiki Agent |\n|---|---|\n| Re-derives knowledge every query | Compiles once, keeps current |\n| Raw chunks as retrieval unit | Structured wiki pages |\n| No cross-references | Cross-references pre-built |\n| Contradictions surface at query time (maybe) | Flagged at ingest time |\n| No accumulation | Every source makes the wiki richer |\n\n## Obsidian Integration\n\nThe wiki is designed to be browsed seamlessly in [Obsidian](https:\u002F\u002Fobsidian.md). Since the agent maintains consistent `[[wikilinks]]`, you get a naturally growing knowledge graph in your vault.\n\n### Vault Symlink Pattern\nIf you want to keep the LLM Wiki Agent repository separate from your main personal vault, use symlinks:\n1. Keep your working agent repository at e.g., `~\u002Fllm-wiki-agent`\n2. Create a symlink from your main Obsidian vault:\n   ```bash\n   ln -sfn ~\u002Fllm-wiki-agent\u002Fwiki ~\u002Fyour-obsidian-vault\u002Fwiki\n   ```\n3. Use the [Obsidian Web Clipper](https:\u002F\u002Fobsidian.md\u002Fclipper) or write directly to `raw\u002F` in the agent repo to queue items for ingestion.\n\n> **Note:** If you ever move your local repo directory, remember to update the symlink, otherwise the `wiki\u002F` directory will appear missing in Obsidian.\n\n### Recommended .obsidian Config\n- **Graph View:** Filter out `index.md` and `log.md` (e.g. `-file:index.md -file:log.md`) to avoid them becoming gravity wells in your Obsidian graph.\n- **Dataview:** Use the community plugin [Dataview](https:\u002F\u002Fblacksmithgu.github.io\u002Fobsidian-dataview\u002F) to query the YAML frontmatter the agent automatically injects (e.g., `type: source`, `tags: [diary]`).\n\n## Converting Files, PDFs, and arXiv Papers\n\nThe wiki ingests Markdown files. Use `files_to_md.py` to convert files or `tools\u002Fpdf2md.py` to convert PDFs and arXiv papers before ingesting:\n\n```bash\npython tools\u002Ffiles_to_md.py --input_dir  ..\u002Fraw\u002F\n\n# optionally, if users would like to delete source files:\npython tools\u002Ffiles_to_md.py --input_dir ..\u002Fraw\u002F --delete_source\n```\n\nOr if users want to use papers from arXiv:\n\n```bash\n# arXiv papers — by ID or URL (uses arxiv2md, no PDF parsing needed)\npython tools\u002Fpdf2md.py 2401.12345\npython tools\u002Fpdf2md.py https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.12345\n\n# Local PDFs — auto-selects the best available backend\npython tools\u002Fpdf2md.py paper.pdf\npython tools\u002Fpdf2md.py paper.pdf --backend marker     # complex multi-column layouts\npython tools\u002Fpdf2md.py paper.pdf --backend pymupdf4llm # fast, lightweight\n\n# Custom output path\npython tools\u002Fpdf2md.py paper.pdf -o raw\u002Fpapers\u002Fmy-paper.md\n```\n\nThen ingest as usual:\n```\ningest raw\u002Fpapers\u002Fmy-paper.md\n```\n\nInstall at least one conversion backend:\n\n| Backend | Install | Best for |\n|---|---|---|\n| [arxiv2md](https:\u002F\u002Fgithub.com\u002Fryansingman\u002Farxiv2md) | `pip install arxiv2markdown` | arXiv papers (uses structured source, avoids PDF parsing) |\n| [Marker](https:\u002F\u002Fgithub.com\u002FVikParuchuri\u002Fmarker) | `pip install marker-pdf` | Complex academic PDFs with multi-column layouts, tables, equations |\n| [PyMuPDF4LLM](https:\u002F\u002Fgithub.com\u002Fpymupdf\u002FRAG) | `pip install pymupdf4llm` | Fast extraction from native-text PDFs (no GPU needed) |\n[markitdown](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fmarkitdown) | `pip install markitdown` | for converting files to markdown\n[tqdm](https:\u002F\u002Fgithub.com\u002Ftqdm\u002Ftqdm) | `pip install tqdm` | for progress bar during conversion\n\n## Tips\n\n- Use `tools\u002Ffiles_to_md.py` to convert files to Markdown before injesting — see [Converting Files, PDFs, and arXiv Papers](#converting-files-pdfs-and-arxiv-papers)\n- Use `tools\u002Fpdf2md.py` to convert PDFs and arXiv papers to Markdown before ingesting — see [Converting Files, PDFs, and arXiv Papers](#converting-files-pdfs-and-arxiv-papers)\n- Query answers are shown first — the agent then asks if you want to file them as synthesis pages. Your explorations compound just like ingested sources\n- The wiki is a git repo — version history for free\n- Standalone Python scripts in `tools\u002F` work without a coding agent (require `ANTHROPIC_API_KEY`)\n\n## Tech Stack\n\nNetworkX + Louvain + Claude + vis.js. No server, no database, runs entirely locally. Everything is plain markdown files.\n\n## Related\n\n- [graphify](https:\u002F\u002Fgithub.com\u002Fsafishamsi\u002Fgraphify) — graph-based knowledge extraction skill (inspiration for the graph layer)\n- [Vannevar Bush's Memex (1945)](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FMemex) — the original vision this resembles\n\n## License\n\nMIT License — see [LICENSE](LICENSE) for details.\n","# LLM 维基代理\n\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-MIT-blue.svg)](LICENSE)\n\n**一种编码代理技能。** 将源文档放入 `raw\u002F` 目录，并指示代理进行摄取——它会读取这些文档，提取知识，并构建一个持久且相互链接的维基。每新增一份来源，维基就会更加丰富。你无需亲自编写任何内容。\n\n> 大多数知识工具需要你自己在笔记中搜索信息。而这款工具则会读取你收集的所有内容，并自动生成一个结构化的维基，随着时间推移不断积累——其中已内置交叉引用、自动标记矛盾之处，并完成综合整理。\n\n```\ningest raw\u002Fpapers\u002Fattention-is-all-you-need.md\n```\n\n```\nwiki\u002F\n├── index.md          所有页面的目录——每次摄取时都会更新\n├── log.md            每次操作的追加式记录\n├── overview.md       跨所有来源的动态综合摘要\n├── sources\u002F          每个源文档对应一个概要页\n├── entities\u002F         人物、公司、项目——自动创建\n├── concepts\u002F         思想、框架、方法——自动创建\n└── syntheses\u002F        查询答案以维基页面形式归档\ngraph\u002F\n├── graph.json        持久化的节点\u002F边数据（SHA256 缓存）\n└── graph.html        交互式的 vis.js 可视化图——可在任意浏览器中打开\n```\n\n## 安装\n\n**要求：** [Claude Code](https:\u002F\u002Fclaude.ai\u002Fcode)、[Codex](https:\u002F\u002Fopenai.com\u002Fcodex)、[Gemini CLI](https:\u002F\u002Fgithub.com\u002Fgoogle-gemini\u002Fgemini-cli)，或任何能够读取配置文件的代理。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002Fllm-wiki-agent.git\ncd llm-wiki-agent\n```\n\n在你的代理中打开即可——无需 API 密钥或 Python 环境配置：\n\n```bash\nclaude      # 读取 CLAUDE.md + .claude\u002Fcommands\u002F（支持斜杠命令）\ncodex       # 读取 AGENTS.md\nopencode    # 读取 AGENTS.md\ngemini      # 读取 GEMINI.md\n```\n\n## 使用\n\n所有代理都理解自然语言和简短触发词：\n\n```\ningest raw\u002Fpapers\u002Fmy-paper.md              # 将来源摄入维基\nquery: what are the main themes?           # 从维基页面中综合回答\nlint                                       # 查找孤立页面、矛盾点和空白\nbuild graph                                # 根据所有维基链接构建 graph.html\n```\n\n纯英文同样适用：\n```\n“将这篇论文摄入：raw\u002Fpapers\u002Fllama2.md”\n“维基对注意力机制是怎么说的？”\n“检查各来源之间是否存在矛盾”\n“构建知识图谱，并告诉我连接最紧密的节点”\n```\n\n**Claude Code** 还提供了 `\u002Fwiki-ingest`、`\u002Fwiki-query`、`\u002Fwiki-lint`、`\u002Fwiki-graph` 等斜杠命令（通过 `.claude\u002Fcommands\u002F`）。这些命令仅适用于 Claude Code；其他代理则使用上述自然语言触发词，效果完全相同。\n\n可处理任何 Markdown 格式的来源——文章、论文、书籍章节、会议记录、日记条目、研究总结等。\n\n## 你能得到什么\n\n**持久性维基**——结构化的 Markdown 页面，会在不同会话间持续累积。与聊天不同，不会丢失任何信息。\n\n**实体页面**——对于所有在来源中提到的人物、公司或项目，都会自动创建页面。每当新来源提及它们时，页面都会更新。\n\n**概念页面**——对于每个关键思想或框架，都会自动创建页面，并与所有讨论它们的来源建立交叉引用。\n\n**动态概述**——`wiki\u002Foverview.md` 会在每次摄取时更新，以反映你所阅读内容的当前综合情况。\n\n**矛盾标记**——当新来源与现有主张相矛盾时，会在摄取时立即标记出来，而不是等到查询时才被发现。\n\n**知识图谱**——`graph.html` 将每个维基页面表示为节点，每个 `[[wikilink]]` 表示为边，并将 Claude 推断出的隐含关系用虚线表示。社区检测功能会将相关主题聚类在一起。\n\n**Lint 报告**——包括孤立页面、失效链接、缺失的实体页面以及数据缺口，并提供补充来源的建议。\n\n## 使用场景\n\n### 研究\n\n数周内深入研究某一主题——阅读论文、文章、报告。\n\n```\n\u002Fwiki-ingest raw\u002Fpapers\u002Fattention-is-all-you-need.md\n\u002Fwiki-ingest raw\u002Fpapers\u002Fllama2.md\n\u002Fwiki-ingest raw\u002Fpapers\u002Frag-survey.md\n\n# 维基会自动创建实体页面（Meta AI、Google Brain）和\n# 概念页面（注意力机制、RLHF、上下文窗口）。\n\n\u002Fwiki-query “减少幻觉的主要方法有哪些？”\n\u002Fwiki-query “各模型的上下文窗口大小是如何演变的？”\n\n\u002Fwiki-lint\n# → “缺少关于专家混合模型的资料——可以考虑 Mixtral 论文”\n```\n\n最终你会得到一个结构化、相互链接的参考资料，而不是一堆你再也不会打开的 PDF 文件。\n\n---\n\n### 阅读一本书\n\n每读完一章就将其录入系统。为书中的人物、主题和论点创建页面。\n\n```\n\u002Fwiki-ingest raw\u002Fbook\u002Fchapter-01.md\n\u002Fwiki-ingest raw\u002Fbook\u002Fchapter-02.md\n\n# 维基会自动创建人物和主题页面。\n\n\u002Fwiki-query “主角的动机是如何发展的？”\n\u002Fwiki-query “作者目前的论述中存在哪些矛盾？”\n\n\u002Fwiki-graph   # → graph.html 展示了每个人物\u002F主题及其相互联系\n```\n\n就像托尔金门户网站这样的粉丝维基一样——随着阅读进度逐步构建，所有交叉引用工作都由代理完成。\n\n---\n\n### 个人知识库\n\n跟踪目标、健康状况、习惯和自我提升——录入日记条目、文章和播客笔记。\n\n```\n\u002Fwiki-ingest raw\u002Fjournal\u002F2026-01-week1.md\n\u002Fwiki-ingest raw\u002Farticles\u002Fhuberman-sleep-protocol.md\n\u002Fwiki-ingest raw\u002Farticles\u002Fatomic-habits-summary.md\n\n\u002Fwiki-query “我的日记中关于精力方面出现了哪些规律？”\n\u002Fwiki-query “我尝试过哪些习惯，结果如何？”\n\n```\n\n维基会随着时间的推移构建起一个结构化的知识体系。诸如“睡眠”、“锻炼”、“深度工作”之类的概念，会从你录入的每一个来源中不断积累证据。\n\n---\n\n### 商业 \u002F 团队情报\n\n输入会议记录、项目文档和客户通话记录。\n\n```\n\u002Fwiki-ingest raw\u002Fmeetings\u002Fq1-planning-transcript.md\n\u002Fwiki-ingest raw\u002Fdocs\u002Fproduct-roadmap-2026.md\n\u002Fwiki-ingest raw\u002Fcalls\u002Fcustomer-interview-acme.md\n\n\u002Fwiki-query “客户来电中提到最多的功能需求是什么？”\n\u002Fwiki-query “第一季度做出了哪些决策，其背后的逻辑是什么？”\n\n\u002Fwiki-lint\n# → “项目 X 在 5 个页面中被提及，但没有专门的页面”\n# → “路线图与客户访谈中关于功能 Y 优先级的说法相矛盾”\n```\n\n由于代理会承担起无人愿意做的维护工作，因此维基始终保持最新状态。\n\n---\n\n### 竞争分析\n\n长期跟踪一家公司、某个市场或某项技术的发展。\n\n```\n\u002Fwiki-ingest raw\u002Fcompetitors\u002Fopenai-announcements.md\n\u002Fwiki-ingest raw\u002Fmarket\u002Fai-funding-report-q1.md\n\n\u002Fwiki-query “OpenAI 和 Anthropic 在安全策略上有什么不同？”\n\u002Fwiki-query “过去六个月里，哪些公司发布了多模态模型？”\n\u002Fwiki-query “截至今日的竞争格局概览”\n# → 代理会展示答案，然后询问是否要将其保存为综合页面\n```\n\n## 图谱\n\n两遍构建流程：\n\n1. **确定性** — 解析所有维基页面中的 `[[维基链接]]` → 标记为 `EXTRACTED` 的边\n2. **语义性** — 代理推断维基链接未捕捉到的隐含关系 → 标记为 `INFERRED`（带置信度分数）或 `AMBIGUOUS` 的边\n\nLouvain 社区检测算法按主题对节点进行聚类。SHA256 缓存机制确保仅重新处理已更改的页面。输出是一个自包含的 `graph.html` 文件——无需服务器，可在任何浏览器中打开。\n\n## CLAUDE.md \u002F AGENTS.md\n\n模式文件告诉代理如何维护维基——页面格式、导入\u002F查询\u002F校验\u002F图谱工作流、命名规范。这是关键配置文件。编辑它即可根据您的领域定制行为。\n\n| 代理 | 模式文件 |\n|---|---|\n| Claude Code | `CLAUDE.md` |\n| Codex \u002F OpenCode | `AGENTS.md` |\n| Gemini CLI | `GEMINI.md` |\n\n## 这与 RAG 的不同之处\n\n| RAG | LLM 维基代理 |\n|---|---|\n| 每次查询都重新推导知识 | 只编译一次，保持最新状态 |\n| 原始片段作为检索单元 | 结构化的维基页面 |\n| 无交叉引用 | 预先构建的交叉引用 |\n| 矛盾可能在查询时才显现 | 在导入时即被标记 |\n| 无法积累 | 每个来源都使维基更加丰富 |\n\n## Obsidian 集成\n\n该维基旨在与 [Obsidian](https:\u002F\u002Fobsidian.md) 无缝浏览。由于代理会维护一致的 `[[维基链接]]`，您可以在自己的 vault 中获得一个自然增长的知识图谱。\n\n### Vault 符号链接模式\n如果您希望将 LLM 维基代理仓库与主个人 vault 分开，请使用符号链接：\n1. 将工作用的代理仓库保留在例如 `~\u002Fllm-wiki-agent`\n2. 在您的主 Obsidian vault 中创建一个符号链接：\n   ```bash\n   ln -sfn ~\u002Fllm-wiki-agent\u002Fwiki ~\u002Fyour-obsidian-vault\u002Fwiki\n   ```\n3. 使用 [Obsidian Web Clipper](https:\u002F\u002Fobsidian.md\u002Fclipper) 或直接写入代理仓库的 `raw\u002F` 目录，以排队待导入的内容。\n\n> **注意：** 如果您日后移动本地仓库目录，请记得更新符号链接，否则 `wiki\u002F` 目录在 Obsidian 中会显示为缺失。\n\n### 推荐的 .obsidian 配置\n- **图谱视图：** 过滤掉 `index.md` 和 `log.md`（例如 `-file:index.md -file:log.md`），以免它们成为 Obsidian 图谱中的引力井。\n- **Dataview：** 使用社区插件 [Dataview](https:\u002F\u002Fblacksmithgu.github.io\u002Fobsidian-dataview\u002F) 查询代理自动注入的 YAML 前置元数据（例如 `type: source`, `tags: [diary]`）。\n\n## 转换文件、PDF 和 arXiv 论文\n维基接受 Markdown 文件作为输入。请使用 `files_to_md.py` 转换文件，或使用 `tools\u002Fpdf2md.py` 转换 PDF 和 arXiv 论文后再进行导入：\n\n```bash\npython tools\u002Ffiles_to_md.py --input_dir  ..\u002Fraw\u002F\n\n# 可选：如果用户希望删除源文件\npython tools\u002Ffiles_to_md.py --input_dir ..\u002Fraw\u002F --delete_source\n```\n\n或者，如果用户想使用 arXiv 上的论文：\n\n```bash\n# arXiv 论文——按 ID 或 URL（使用 arxiv2md，无需解析 PDF）\npython tools\u002Fpdf2md.py 2401.12345\npython tools\u002Fpdf2md.py https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.12345\n\n# 本地 PDF——自动选择最佳可用后端\npython tools\u002Fpdf2md.py paper.pdf\npython tools\u002Fpdf2md.py paper.pdf --backend marker     # 复杂的多栏布局\npython tools\u002Fpdf2md.py paper.pdf --backend pymupdf4llm # 快速、轻量级\n\n# 自定义输出路径\npython tools\u002Fpdf2md.py paper.pdf -o raw\u002Fpapers\u002Fmy-paper.md\n```\n\n然后按常规方式导入：\n```\ningest raw\u002Fpapers\u002Fmy-paper.md\n```\n\n至少安装一个转换后端：\n\n| 后端 | 安装 | 最适合 |\n|---|---|---|\n| [arxiv2md](https:\u002F\u002Fgithub.com\u002Fryansingman\u002Farxiv2md) | `pip install arxiv2markdown` | arXiv 论文（利用结构化来源，避免 PDF 解析） |\n| [Marker](https:\u002F\u002Fgithub.com\u002FVikParuchuri\u002Fmarker) | `pip install marker-pdf` | 复杂的学术 PDF，包含多栏布局、表格和公式 |\n| [PyMuPDF4LLM](https:\u002F\u002Fgithub.com\u002Fpymupdf\u002FRAG) | `pip install pymupdf4llm` | 从纯文本 PDF 中快速提取内容（无需 GPU） |\n|[markitdown](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fmarkitdown) | `pip install markitdown` | 用于将文件转换为 Markdown |\n|[tqdm](https:\u002F\u002Fgithub.com\u002Ftqdm\u002Ftqdm) | `pip install tqdm` | 转换过程中显示进度条 |\n\n## 小贴士\n- 使用 `tools\u002Ffiles_to_md.py` 将文件转换为 Markdown 再导入——参见[转换文件、PDF 和 arXiv 论文](#converting-files-pdfs-and-arxiv-papers)\n- 使用 `tools\u002Fpdf2md.py` 将 PDF 和 arXiv 论文转换为 Markdown 再导入——参见[转换文件、PDF 和 arXiv 论文](#converting-files-pdfs-and-arxiv-papers)\n- 查询结果会首先显示——随后代理会询问您是否要将其保存为综合页面。您的探索成果会像导入的来源一样不断累积。\n- 维基是一个 Git 仓库——免费提供版本历史。\n- `tools\u002F` 中的独立 Python 脚本无需编码代理即可运行（需设置 `ANTHROPIC_API_KEY`）。\n\n## 技术栈\nNetworkX + Louvain + Claude + vis.js。无需服务器、无需数据库，完全在本地运行。所有内容均为纯 Markdown 文件。\n\n## 相关项目\n- [graphify](https:\u002F\u002Fgithub.com\u002Fsafishamsi\u002Fgraphify) — 基于图的知识抽取技能（图层设计的灵感来源）\n- [万尼瓦尔·布什的 Memex（1945）](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FMemex) — 与此愿景最为相似的早期设想\n\n## 许可证\nMIT 许可证——详情请参阅 [LICENSE](LICENSE)。","# LLM Wiki Agent 快速上手指南\n\nLLM Wiki Agent 是一个基于大语言模型（LLM）的编码代理技能。它能自动读取你提供的源文档（如论文、笔记、报告），提取知识并构建一个持久化、相互链接的维基知识库。随着新资料的加入，知识库会自动更新、综合信息并标记矛盾点，无需人工维护。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Linux \u002F macOS \u002F Windows (WSL)\n- **核心依赖**：必须安装以下任一支持读取配置文件的 AI 编程代理工具：\n  - [Claude Code](https:\u002F\u002Fclaude.ai\u002Fcode) (推荐)\n  - [Codex](https:\u002F\u002Fopenai.com\u002Fcodex)\n  - [Gemini CLI](https:\u002F\u002Fgithub.com\u002Fgoogle-gemini\u002Fgemini-cli)\n  - 或其他兼容 `AGENTS.md`\u002F`CLAUDE.md` 配置的代理工具\n- **可选依赖**（用于文件转换）：\n  - Python 3.8+\n  - `pip` 包管理器\n\n### 前置依赖安装\n若需处理 PDF 或 arXiv 论文，建议预先安装以下转换后端（任选其一或多个）：\n\n```bash\n# 处理 arXiv 论文（推荐，无需解析 PDF）\npip install arxiv2markdown\n\n# 处理复杂学术 PDF（多栏、公式、表格）\npip install marker-pdf\n\n# 快速提取纯文本 PDF\npip install pymupdf4llm\n\n# 通用文件转换\npip install markitdown tqdm\n```\n\n> **提示**：国内用户可使用清华或阿里镜像加速安装，例如：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple arxiv2markdown`\n\n## 安装步骤\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002Fllm-wiki-agent.git\n   cd llm-wiki-agent\n   ```\n\n2. **启动代理**\n   无需配置 API Key 或额外 Python 环境，直接在终端调用已安装的 AI 代理即可。代理会自动读取目录下的配置文件（`CLAUDE.md`, `AGENTS.md` 等）。\n\n   ```bash\n   # 如果你使用 Claude Code\n   claude\n\n   # 如果你使用 Codex 或 OpenCode\n   codex\n\n   # 如果你使用 Gemini CLI\n   gemini\n   ```\n\n## 基本使用\n\n所有操作均可通过自然语言或简短指令触发。\n\n### 1. 导入文档 (Ingest)\n将 Markdown 格式的源文件放入 `raw\u002F` 目录，然后指示代理导入。代理会自动解析内容、创建实体\u002F概念页面并更新知识图谱。\n\n```bash\n# 自然语言方式\n\"Ingest this paper: raw\u002Fpapers\u002Fattention-is-all-you-need.md\"\n\n# 或使用简短指令\ningest raw\u002Fpapers\u002Fattention-is-all-you-need.md\n```\n\n> **注意**：如果源文件是 PDF 或非 Markdown 格式，请先使用工具转换：\n> ```bash\n> python tools\u002Fpdf2md.py paper.pdf -o raw\u002Fpapers\u002Fmy-paper.md\n> ingest raw\u002Fpapers\u002Fmy-paper.md\n> ```\n\n### 2. 查询知识 (Query)\n直接向代理提问，它会基于已构建的维基进行综合回答。\n\n```bash\n# 自然语言方式\n\"What does the wiki say about attention mechanisms?\"\n\n# 或使用简短指令\nquery: what are the main themes?\n```\n\n*代理回答后，会询问是否将该答案保存为新的合成页面（Synthesis Page），选择“是”即可让知识库自我进化。*\n\n### 3. 维护与可视化\n- **检查矛盾与缺失**：\n  ```bash\n  lint\n  # 或自然语言：\"Check for contradictions across sources\"\n  ```\n- **生成知识图谱**：\n  ```bash\n  build graph\n  # 生成后可在浏览器打开 graph\u002Fgraph.html 查看交互式图谱\n  ```\n\n### 4. Claude Code 专属斜杠命令\n如果你使用的是 **Claude Code”，还可以直接使用以下快捷命令：\n\n```bash\n\u002Fwiki-ingest raw\u002Fpapers\u002Fmy-paper.md\n\u002Fwiki-query \"How has context window size evolved?\"\n\u002Fwiki-lint\n\u002Fwiki-graph\n```\n\n### 输出结构说明\n执行导入后，`wiki\u002F` 目录下将自动生成以下结构：\n- `index.md`: 所有页面的目录\n- `overview.md`: 跨所有来源的动态综合概述\n- `entities\u002F`: 自动创建的人物、公司、项目页面\n- `concepts\u002F`: 自动创建的概念、框架、方法页面\n- `graph\u002Fgraph.html`: 本地可打开的知识图谱可视化文件","一位 AI 研究员正在深入调研“大模型推理优化”课题，需要在两周内消化数十篇技术论文、博客文章及会议笔记。\n\n### 没有 llm-wiki-agent 时\n- **知识碎片化严重**：阅读过的论文散落在文件夹中，关键概念（如\"KV Cache\"、“投机采样”）仅存在于临时笔记或脑海中，难以形成体系。\n- **人工关联成本极高**：发现新论文与旧观点冲突时，需手动翻阅历史文档进行比对，极易遗漏矛盾点或重复劳动。\n- **综述撰写困难**：每当需要总结阶段性成果时，必须重新通读所有源文件来提取共性，无法即时获得跨文档的综合视图。\n- **实体追踪缺失**：不同文章中提到的同一团队或项目（如\"vLLM\"、\"Meta AI\"）缺乏统一档案，难以追踪其技术演进路线。\n\n### 使用 llm-wiki-agent 后\n- **自动构建互联知识库**：只需将论文丢入 `raw\u002F` 目录并执行 `ingest` 命令，llm-wiki-agent 即刻自动提取知识，生成带有双向链接的结构化 Wiki 页面。\n- **智能冲突检测与合成**：工具在摄入新资料时自动标记与既有知识的矛盾之处，并实时更新 `overview.md`，提供跨所有来源的动态综述。\n- **实体与概念自动归档**：llm-wiki-agent 自动为提及的每个算法、公司及研究者创建独立页面，随着资料增加，这些页面会自动丰富并交叉引用。\n- **可视化知识图谱**：通过生成的 `graph.html`，研究员可直观看到节点间的隐含关系，快速定位核心簇群，无需手动整理思维导图。\n\nllm-wiki-agent 将被动存储转变为主动的知识合成引擎，让研究人员从繁琐的笔记整理中解放，专注于高价值的洞察与创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSamurAIGPT_llm-wiki-agent_52616d60.png","SamurAIGPT","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSamurAIGPT_e72b3e66.png",null,"https:\u002F\u002Fgithub.com\u002FSamurAIGPT",[78],{"name":79,"color":80,"percentage":81},"Python","#3572A5",100,2106,236,"2026-04-19T23:37:04","MIT","Linux, macOS, Windows","不需要 GPU（主要依赖外部 LLM API，本地 PDF 转换工具 PyMuPDF4LLM 明确标注无需 GPU）","未说明",{"notes":90,"python":91,"dependencies":92},"该工具本身无需安装复杂的 AI 模型或配置 API Key，核心功能依赖外部代理环境（如 Claude Code, Codex, Gemini CLI 等）。仅在使用本地脚本将 PDF 或文件转换为 Markdown 时，才需要安装上述 Python 依赖库。生成的知识图谱为静态 HTML 文件，无需服务器即可在浏览器查看。","3.x (需要 Python 运行本地转换脚本，具体版本未说明)",[93,94,95,96,97],"arxiv2markdown (可选，用于 arXiv 论文)","marker-pdf (可选，用于复杂 PDF)","pymupdf4llm (可选，用于快速 PDF 提取)","markitdown (可选，用于文件转换)","tqdm (可选，用于进度条)",[16,14,36,27],[100,101,102,103,104,105,106,107,108,109,110],"llm","knowledge-base","wiki","claude-code","knowledge-graph","obsidian","markdown","codex","rag","gemini","personal-knowledge-management","2026-03-27T02:49:30.150509","2026-04-20T17:01:56.769654",[114,119,124,129,134],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},44962,"如何将 PDF 文件或 arXiv 论文转换为 Markdown 格式以供知识库摄入？","由于知识库仅支持 Markdown 格式，需要先进行转换。推荐方案如下：\n1. **arXiv 论文（最佳方案）**：使用 `arxiv2md` 工具，它直接拉取结构化源码，避免 PDF 解析问题，对数学公式和表格支持更好。\n   ```bash\n   pip install arxiv2markdown\n   arxiv2md 2401.12345 -o raw\u002Fpapers\u002Fattention-is-all-you-need.md\n   ```\n2. **本地 PDF 文件**：\n   - **复杂布局\u002F公式\u002F表格**：推荐使用 `Marker` (`pip install marker-pdf`)，整体质量最佳。\n   - **纯文本 PDF\u002F轻量快速**：推荐使用 `PyMuPDF4LLM` (`pip install pymupdf4llm`)，无需 GPU。","https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002Fllm-wiki-agent\u002Fissues\u002F35",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},44963,"运行 `flask db init` 时出现 `KeyError: 'google_client_id'` 错误怎么办？","这是因为缺少必要的环境变量配置。解决方法是：\n1. 参考项目中的 `.env.example` 文件，创建自己的 `.env` 文件。\n2. 在其中填入所需的 Google OAuth 凭据（如 `google_client_id` 和 `google_client_secret`）。\n3. 确保已按照 `steps_to_run.md` 中的详细步骤完成 Google OAuth 凭据的设置。修复后的版本会在缺少凭据时提供更友好的错误提示。","https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002Fllm-wiki-agent\u002Fissues\u002F6",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},44964,"`\u002Fwiki-query` 命令的 `--save` 标志是在查询前还是查询后保存结果？","这是一个文档表述引起的误解。实际的工作流是**先显示答案，再询问是否保存**（事后模式），而不是在运行查询前就决定保存。\nREADME 文档中的 `--save` 示例让人误以为需要预先提交决定。实际上，智能体代理会先展示查询结果，用户阅读后如果觉得有价值，可以选择将其归档为综合页面。建议忽略文档中关于预先标记 `--save` 的描述，遵循“先查询预览，后决定保存”的实际交互流程。","https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002Fllm-wiki-agent\u002Fissues\u002F28",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},44965,"连续运行 `build_graph.py` 导致推断边丢失或可视化标签重叠严重怎么办？","这是两个已知问题，已有修复方案：\n1. **缓存状态丢失**：旧版缓存只存储文件哈希，导致第二次运行时无法加载之前推断的边。修复方案是升级 `graph\u002F.cache.json` 结构，同时存储哈希和关系数组 `{\"hash\": \"...\", \"edges\": [...]}`，以便哈希匹配时直接复用数据。\n2. **可视化标签重叠**：长文本标签直接渲染在画布上导致不可读。修复方案是将 LLM 生成的描述映射到边的 `title` 属性（作为悬停提示），而将 `label` 设为空字符串。这样画布保持整洁，详细信息仅在鼠标悬停时显示。\n这些修复已合并到主分支（参见 PR #13）。","https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002Fllm-wiki-agent\u002Fissues\u002F12",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},44966,"点击 Google 登录按钮没有任何反应，但服务器和客户端均已启动，如何排查？","如果服务器和客户端启动正常但登录无响应，通常是配置问题。请按以下步骤排查：\n1. **检查浏览器控制台日志**：按 F12 打开开发者工具，查看 Console 标签页是否有具体的 JavaScript 错误或网络请求失败信息。\n2. **检查代理配置**：确保客户端配置中的 proxy 地址正确（例如尝试将 `localhost` 改为 `127.0.0.1`）。\n3. **验证 OAuth 凭据**：确认 Google Cloud Console 中设置的授权重定向 URI 与本地运行地址完全一致。","https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002Fllm-wiki-agent\u002Fissues\u002F2",[]]