[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-NateBJones-Projects--OB1":3,"tool-NateBJones-Projects--OB1":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",145895,2,"2026-04-08T11:32:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":75,"languages":76,"stars":109,"forks":110,"last_commit_at":111,"license":112,"difficulty_score":113,"env_os":114,"env_gpu":114,"env_ram":114,"env_deps":115,"category_tags":123,"github_topics":124,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":134,"updated_at":135,"faqs":136,"releases":165},5612,"NateBJones-Projects\u002FOB1","OB1","Open Brain — The infrastructure layer for your thinking. One database, one AI gateway, one chat channel — any AI plugs in. No middleware, no SaaS.","OB1（Open Brain）是一个专为个人思维打造的开源基础设施，旨在成为你所有 AI 工具的“统一大脑”。它通过提供一个共享的向量数据库、统一的 AI 网关和聊天通道，让 Claude、ChatGPT、Cursor 等不同 AI 模型能够访问同一份持久化的个人记忆与上下文信息。\n\n长期以来，用户在不同 AI 工具间切换时面临数据孤岛问题，导致每次对话都需重新输入背景，缺乏连续性。OB1 解决了这一痛点，它不是传统的笔记应用，而是一个支持向量搜索的开放协议系统，确保无论使用何种 AI，都能基于完整的个人知识库进行交互，且无需依赖复杂的中间件或 SaaS 服务链。\n\n该项目特别适合希望构建个性化 AI 生态的开发者、技术爱好者以及注重数据主权的高级用户。虽然上手需要一定的动手能力（如部署数据库和配置网关），但官方提供了详尽的无代码搭建指南和分阶段扩展教程，涵盖从家庭知识库到职业人脉管理等实用场景。\n\nOB1 的核心亮点在于其“可组合”的设计理念：通过模块化扩展，用户可以逐步构建起管理日程、饮食、家居维护乃至求职流程的智能代理系统，让分散的数据真正产生联动价值，实现跨场景的智能协同。","\u003Cp align=\"center\">\n  \u003Cimg src=\".github\u002Fob1-logo-wide.png\" alt=\"Open Brain\" width=\"600\">\n\u003C\u002Fp>\n\n\u003Ch1 align=\"center\">Open Brain\u003C\u002Fh1>\n\nThe infrastructure layer for your thinking. One database, one AI gateway, one chat channel. Any AI you use can plug in. No middleware, no SaaS chains, no Zapier.\n\nThis isn't a notes app. It's a database with vector search and an open protocol — built so that every AI tool you use shares the same persistent memory of you. Claude, ChatGPT, Cursor, Claude Code, whatever ships next month. One brain. All of them.\n\n> Open Brain was created by [Nate B. Jones](https:\u002F\u002Fnatesnewsletter.substack.com\u002F). Follow the [Substack](https:\u002F\u002Fnatesnewsletter.substack.com\u002F) for updates, discussion, and the companion prompt pack. Join the [Discord](https:\u002F\u002Fdiscord.gg\u002FCgh9WJEkeG) for real-time help and community.\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F80a79b09-f323-42c6-b11b-de10bb6fa36f\n\n## Getting Started\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F85208d73-112b-4204-82fd-d03b6c397a8b\n\nNever built an Open Brain? Start here:\n\n1. **[Setup Guide](docs\u002F01-getting-started.md)** — Build the full system (database, AI gateway, Slack capture, MCP server) in about 45 minutes. No coding experience needed. Or watch the [video walkthrough](https:\u002F\u002Fvimeo.com\u002F1174979042\u002Ff883f6489a) (~27 min).\n2. **[AI-Assisted Setup](docs\u002F04-ai-assisted-setup.md)** — Prefer building with Cursor, Claude Code, or another AI coding tool? Point it at this repo and go. Same system, different workflow.\n3. **[Companion Prompts](docs\u002F02-companion-prompts.md)** — Five prompts that help you migrate your memories, discover use cases, and build the capture habit.\n4. **Then pick Extension 1** and start building.\n\n**If you hit a wall:** We built a [FAQ](docs\u002F03-faq.md) that covers the most common questions and gotchas. And if you need real-time help, we created dedicated AI assistants that know this system inside and out: a [Claude Skill](https:\u002F\u002Fwww.notion.so\u002Fproduct-templates\u002FOpen-Brain-Companion-Claude-Skill-31a5a2ccb526802797caeb37df3ba3cb?source=copy_link), a [ChatGPT Custom GPT](https:\u002F\u002Fchatgpt.com\u002Fg\u002Fg-69a892b6a7708191b00e48ff655d5597-nate-jones-open-brain-assistant), and a [Gemini GEM](https:\u002F\u002Fgemini.google.com\u002Fgem\u002F1fDsAENjhdku-3RufY7ystbS1Md8MtDCg?usp=sharing). Use whichever one matches the AI tool you already use.\n\n## Extensions — The Learning Path\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fcc477f00-bb6b-4f96-9f7d-a6bcd0cf8b60\n\nBuild these in order. Each one teaches new concepts through something you'll actually use. By the end, your agent manages your household, your schedule, your meals, your professional network, and your career — all interconnected.\n\n| # | Extension | What You Build | Difficulty |\n| --- | --------- | -------------- | ---------- |\n| 1 | [Household Knowledge Base](extensions\u002Fhousehold-knowledge\u002F) | Home facts your agent can recall instantly | Beginner |\n| 2 | [Home Maintenance Tracker](extensions\u002Fhome-maintenance\u002F) | Scheduling and history for home upkeep | Beginner |\n| 3 | [Family Calendar](extensions\u002Ffamily-calendar\u002F) | Multi-person schedule coordination | Intermediate |\n| 4 | [Meal Planning](extensions\u002Fmeal-planning\u002F) | Recipes, meal plans, shared grocery lists | Intermediate |\n| 5 | [Professional CRM](extensions\u002Fprofessional-crm\u002F) | Contact tracking wired into your thoughts | Intermediate |\n| 6 | [Job Hunt Pipeline](extensions\u002Fjob-hunt\u002F) | Application tracking and interview pipeline | Advanced |\n\nExtensions compound. Your CRM knows about thoughts you've captured. Your meal planner checks who's home this week. Your job hunt contacts automatically become professional network contacts. This is what happens when your agent can see across your whole system.\n\n## Primitives: Concepts That Compound\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff488e495-fe2a-4ccc-a834-fc6ab5a0ed41\n\nSome concepts show up in multiple extensions. Learn them once, apply them everywhere.\n\n| Primitive | What It Teaches | Used By |\n| --------- | --------------- | ------- |\n| [Row Level Security](primitives\u002Frls\u002F) | PostgreSQL policies for multi-user data isolation | Extensions 4, 5, 6 |\n| [Shared MCP Server](primitives\u002Fshared-mcp\u002F) | Giving others scoped access to parts of your brain | Extension 4 |\n\n## Community Contributions\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F9454662f-2648-4928-8723-f7d52e94e9b8\n\nBeyond the curated learning path, the community builds and shares real tools that real people use. Every contribution below was reviewed, approved, and merged by the maintainer team. Look for the **Community Contribution** badge in each README.\n\n### [`\u002Frecipes`](recipes\u002F) — Import Your Data\n\nPull your digital life into Open Brain. Each recipe handles a specific data source — parsing, deduplication, embedding, and ingestion included.\n\n| Recipe | What It Does | Contributor |\n| ------ | ------------ | ----------- |\n| [ChatGPT Import](recipes\u002Fchatgpt-conversation-import\u002F) | Parse ChatGPT data exports, filter trivial conversations, summarize via LLM | [@matthallett1](https:\u002F\u002Fgithub.com\u002Fmatthallett1) |\n| [Perplexity Import](recipes\u002Fperplexity-conversation-import\u002F) | Import Perplexity AI search history and memory entries | [@demarant](https:\u002F\u002Fgithub.com\u002Fdemarant) |\n| [Obsidian Vault Import](recipes\u002Fobsidian-vault-import\u002F) | Parse and import Obsidian vault notes with full metadata | [@snapsynapse](https:\u002F\u002Fgithub.com\u002Fsnapsynapse) |\n| [X\u002FTwitter Import](recipes\u002Fx-twitter-import\u002F) | Import tweets, DMs, and Grok chats from X data exports | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n| [Instagram Import](recipes\u002Finstagram-import\u002F) | Import DMs, comments, and captions from Instagram exports | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n| [Google Activity Import](recipes\u002Fgoogle-activity-import\u002F) | Import Google Search, Gmail, Maps, YouTube, Chrome history from Takeout | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n| [Grok (xAI) Import](recipes\u002Fgrok-export-import\u002F) | Import Grok conversation exports with MongoDB-style date handling | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n| [Journals\u002FBlogger Import](recipes\u002Fjournals-blogger-import\u002F) | Import Atom XML blog archives from Blogger\u002FJournals | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n| [Email History Import](recipes\u002Femail-history-import\u002F) | Pull your Gmail archive into searchable thoughts | [@matthallett1](https:\u002F\u002Fgithub.com\u002Fmatthallett1) |\n\n### [`\u002Frecipes`](recipes\u002F) — Tools & Workflows\n\nStandalone capabilities that make your Open Brain smarter.\n\n| Recipe | What It Does | Contributor |\n| ------ | ------------ | ----------- |\n| [Auto-Capture Protocol](recipes\u002Fauto-capture\u002F) | Stores ACT NOW items and session summaries in Open Brain at session close using the reusable Auto-Capture skill | [@jaredirish](https:\u002F\u002Fgithub.com\u002Fjaredirish) |\n| [Panning for Gold](recipes\u002Fpanning-for-gold\u002F) | Mine brain dumps and voice transcripts for actionable ideas — battle-tested across 13+ sessions | [@jaredirish](https:\u002F\u002Fgithub.com\u002Fjaredirish) |\n| [Claudeception](recipes\u002Fclaudeception\u002F) | Self-improving system that creates new skills from work sessions — skills that create other skills | [@jaredirish](https:\u002F\u002Fgithub.com\u002Fjaredirish) |\n| [Schema-Aware Routing](recipes\u002Fschema-aware-routing\u002F) | LLM-powered routing that distributes unstructured text across multiple database tables | [@claydunker-yalc](https:\u002F\u002Fgithub.com\u002Fclaydunker-yalc) |\n| [Fingerprint Dedup Backfill](recipes\u002Ffingerprint-dedup-backfill\u002F) | Backfill content fingerprints and safely remove duplicate thoughts | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n| [Source Filtering](recipes\u002Fsource-filtering\u002F) | Filter thoughts by source and backfill missing metadata for early imports | [@matthallett1](https:\u002F\u002Fgithub.com\u002Fmatthallett1) |\n| [Life Engine](recipes\u002Flife-engine\u002F) | Self-improving personal assistant — calendar, habits, health, proactive briefings via Telegram or Discord | [@justfinethanku](https:\u002F\u002Fgithub.com\u002Fjustfinethanku) |\n| [Life Engine Video](recipes\u002Flife-engine-video\u002F) | Add-on that renders Life Engine briefings as short animated videos with voiceover | [@justfinethanku](https:\u002F\u002Fgithub.com\u002Fjustfinethanku) |\n| [Daily Digest](recipes\u002Fdaily-digest\u002F) | Automated daily summary of recent thoughts delivered via email or Slack | OB1 Team |\n| [Research-to-Decision Workflow](recipes\u002Fresearch-to-decision-workflow\u002F) | Composition recipe that chains canonical skills into operator and investor research, synthesis, meeting, and memo workflows | [@NateBJones](https:\u002F\u002Fgithub.com\u002FNateBJones) |\n\n### [`\u002Fskills`](skills\u002F) — Agent Skills\n\nPlain-text skill packs you can drop into Claude Code, Codex, or other AI clients that support reusable prompts\u002Frules. These are the canonical reusable building blocks that recipes and other contributions can depend on.\n\n| Skill | What It Does | Contributor |\n| ----- | ------------ | ----------- |\n| [Auto-Capture Skill Pack](skills\u002Fauto-capture\u002F) | Captures ACT NOW items and session summaries to Open Brain when a session ends | [@jaredirish](https:\u002F\u002Fgithub.com\u002Fjaredirish) |\n| [Competitive Analysis Skill Pack](skills\u002Fcompetitive-analysis\u002F) | Builds competitor briefs, pricing comparisons, market maps, and strategic recommendations | [@NateBJones](https:\u002F\u002Fgithub.com\u002FNateBJones) |\n| [Financial Model Review Skill Pack](skills\u002Ffinancial-model-review\u002F) | Reviews an existing model for assumption quality, structural risk, and scenario gaps | [@NateBJones](https:\u002F\u002Fgithub.com\u002FNateBJones) |\n| [Deal Memo Drafting Skill Pack](skills\u002Fdeal-memo-drafting\u002F) | Turns existing diligence materials into structured deal, IC, or partnership memos | [@NateBJones](https:\u002F\u002Fgithub.com\u002FNateBJones) |\n| [Research Synthesis Skill Pack](skills\u002Fresearch-synthesis\u002F) | Synthesizes source sets into findings, contradictions, confidence markers, and next questions | [@NateBJones](https:\u002F\u002Fgithub.com\u002FNateBJones) |\n| [Meeting Synthesis Skill Pack](skills\u002Fmeeting-synthesis\u002F) | Converts meeting notes or transcripts into decisions, action items, risks, and follow-up artifacts | [@NateBJones](https:\u002F\u002Fgithub.com\u002FNateBJones) |\n| [Panning for Gold Skill Pack](skills\u002Fpanning-for-gold\u002F) | Turns brain dumps and transcripts into evaluated idea inventories | [@jaredirish](https:\u002F\u002Fgithub.com\u002Fjaredirish) |\n| [Claudeception Skill Pack](skills\u002Fclaudeception\u002F) | Extracts reusable lessons from work sessions into new skills | [@jaredirish](https:\u002F\u002Fgithub.com\u002Fjaredirish) |\n\n### [`\u002Fdashboards`](dashboards\u002F) — Frontend Templates\n\nHost on Vercel or Netlify, pointed at your Supabase backend. Two community-built options — pick the framework you prefer.\n\n| Dashboard | What It Does | Contributor |\n| --------- | ------------ | ----------- |\n| [Open Brain Dashboard](dashboards\u002Fopen-brain-dashboard\u002F) | SvelteKit dashboard with MCP proxy and Supabase auth | [@headcrest](https:\u002F\u002Fgithub.com\u002Fheadcrest) |\n| [Open Brain Dashboard (Next.js)](dashboards\u002Fopen-brain-dashboard-next\u002F) | Full-featured Next.js dashboard — 8 pages, dark theme, smart ingest, quality auditing | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n\n### [`\u002Fintegrations`](integrations\u002F) — New Connections\n\nMCP server extensions, alternative deployment targets, and capture sources beyond Slack.\n\n| Integration | What It Does | Contributor |\n| ----------- | ------------ | ----------- |\n| [Kubernetes Deployment](integrations\u002Fkubernetes-deployment\u002F) | Fully self-hosted K8s deployment with PostgreSQL + pgvector — no Supabase required | [@velo](https:\u002F\u002Fgithub.com\u002Fvelo) |\n| [Slack Capture](integrations\u002Fslack-capture\u002F) | Quick-capture thoughts via Slack messages with auto-embedding and classification | Core |\n| [Discord Capture](integrations\u002Fdiscord-capture\u002F) | Discord bot that captures messages into Open Brain, mirroring the Slack pattern | Core |\n\n### [`\u002Fprimitives`](primitives\u002F) — Reusable Patterns\n\n| Primitive | What It Does | Contributor |\n| --------- | ------------ | ----------- |\n| [Content Fingerprint Dedup](primitives\u002Fcontent-fingerprint-dedup\u002F) | SHA-256 deduplication for thought ingestion — prevents duplicates across all import recipes | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n\n## Using a Contribution\n\n1. Browse the category tables above or the folders in the repo\n2. Open the contribution's folder and read the README\n3. Every README has prerequisites, step-by-step instructions, expected outcomes, and troubleshooting\n4. Most contributions involve running SQL, deploying an edge function, or hosting frontend code — the README tells you exactly what to do\n\n## Contributing\n\nRead [CONTRIBUTING.md](CONTRIBUTING.md) for the full details. The short version:\n\n- **Extensions** are curated — discuss with maintainers before submitting\n- **Primitives** should be referenced by 2+ extensions to justify extraction\n- **Recipes, schemas, dashboards, integrations, and skills** are open for community contributions\n- Every PR runs through an automated review agent that checks structure, secrets, SQL safety, dependencies, and documentation quality\n- If the agent passes, a human admin reviews for quality and clarity\n- Your contribution needs a README with real instructions and a `metadata.json` with structured info\n\n## Community\n\n- **[Discord](https:\u002F\u002Fdiscord.gg\u002FCgh9WJEkeG)** — Real-time help, show-and-tell, contributor discussion\n- **[Substack](https:\u002F\u002Fnatesnewsletter.substack.com\u002F)** — Updates, deep dives, and the story behind Open Brain\n\n## Who Maintains This\n\nBuilt by Nate B. Jones's team. Matt Hallett is the first community admin and repo manager. PRs are reviewed by the automated agent + human admins.\n\n## License\n\n[FSL-1.1-MIT](LICENSE.md)\n","\u003Cp align=\"center\">\n  \u003Cimg src=\".github\u002Fob1-logo-wide.png\" alt=\"Open Brain\" width=\"600\">\n\u003C\u002Fp>\n\n\u003Ch1 align=\"center\">Open Brain\u003C\u002Fh1>\n\n你思维的基础设施层。一个数据库、一个AI网关、一个聊天通道。无论你使用哪种AI，都能轻松接入。无需中间件、无需SaaS链条、无需Zapier。\n\n这并不是一款笔记应用。它是一个具备向量搜索功能的数据库，并采用开放协议——旨在让你所使用的每款AI工具共享同一份关于你的持久记忆。无论是Claude、ChatGPT、Cursor、Claude Code，还是下个月即将推出的任何新工具，都将成为你“大脑”的一部分。一个大脑，所有工具共用。\n\n> Open Brain由[Nate B. Jones](https:\u002F\u002Fnatesnewsletter.substack.com\u002F)创建。请关注[Substack](https:\u002F\u002Fnatesnewsletter.substack.com\u002F)以获取最新动态、讨论内容及配套提示包。加入[Discord](https:\u002F\u002Fdiscord.gg\u002FCgh9WJEkeG)社区，获得实时帮助与交流。\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F80a79b09-f323-42c6-b11b-de10bb6fa36f\n\n## 开始使用\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F85208d73-112b-4204-82fd-d03b6c397a8b\n\n从未搭建过Open Brain？从这里开始：\n\n1. **[设置指南](docs\u002F01-getting-started.md)** — 在约45分钟内搭建完整系统（数据库、AI网关、Slack捕获、MCP服务器）。无需编程经验。或者观看[视频教程](https:\u002F\u002Fvimeo.com\u002F1174979042\u002Ff883f6489a)（约27分钟）。\n2. **[AI辅助设置](docs\u002F04-ai-assisted-setup.md)** — 更倾向于使用Cursor、Claude Code或其他AI编码工具来搭建吗？只需将这些工具指向本仓库即可。同样的系统，不同的工作流程。\n3. **[配套提示](docs\u002F02-companion-prompts.md)** — 五个提示，帮助你迁移过往记忆、发掘应用场景并养成持续捕获的习惯。\n4. **然后选择扩展1**，开始构建吧。\n\n**如果你遇到困难：** 我们整理了一份[常见问题解答](docs\u002F03-faq.md)，涵盖了最常见的问题和陷阱。若需实时帮助，我们还创建了专门的AI助手，对整个系统了如指掌：一个[Claude技能](https:\u002F\u002Fwww.notion.so\u002Fproduct-templates\u002FOpen-Brain-Companion-Claude-Skill-31a5a2ccb526802797caeb37df3ba3cb?source=copy_link)，一个[ChatGPT自定义GPT](https:\u002F\u002Fchatgpt.com\u002Fg\u002Fg-69a892b6a7708191b00e48ff655d5597-nate-jones-open-brain-assistant)，以及一个[Gemini GEM](https:\u002F\u002Fgemini.google.com\u002Fgem\u002F1fDsAENjhdku-3RufY7ystbS1Md8MtDCg?usp=sharing)。请根据你正在使用的AI工具选择合适的助手。\n\n## 扩展——学习路径\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fcc477f00-bb6b-4f96-9f7d-a6bcd0cf8b60\n\n请按顺序构建这些扩展。每个扩展都会通过实际可用的功能教你新的概念。最终，你的代理将管理你的家庭事务、日程安排、饮食计划、职业人脉以及职业生涯——所有这些都将相互关联。\n\n| 序号 | 扩展名称 | 你将构建的内容 | 难度 |\n| --- | --------- | -------------- | ---------- |\n| 1 | [家庭知识库](extensions\u002Fhousehold-knowledge\u002F) | 家庭信息，供你的代理即时调用 | 初级 |\n| 2 | [家居维护跟踪器](extensions\u002Fhome-maintenance\u002F) | 家居保养的日程安排与历史记录 | 初级 |\n| 3 | [家庭日历](extensions\u002Ffamily-calendar\u002F) | 多人日程协调 | 中级 |\n| 4 | [膳食计划](extensions\u002Fmeal-planning\u002F) | 食谱、餐单及共享购物清单 | 中级 |\n| 5 | [职业CRM](extensions\u002Fprofessional-crm\u002F) | 联系人管理，与你的思考无缝衔接 | 中级 |\n| 6 | [求职管道](extensions\u002Fjob-hunt\u002F) | 求职申请跟踪与面试流程管理 | 高级 |\n\n这些扩展是层层递进的。你的CRM会了解你已捕获的记忆；你的膳食计划会查看本周在家的人；而你的求职联系人也会自动成为职业网络中的成员。这就是当你的代理能够贯穿整个系统时会发生的事情。\n\n## 原语：可复用的基础概念\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff488e495-fe2a-4ccc-a834-fc6ab5a0ed41\n\n有些概念会在多个扩展中出现。只需学习一次，便可在各处应用。\n\n| 原语 | 教学内容 | 应用范围 |\n| --------- | --------------- | ------- |\n| [行级安全](primitives\u002Frls\u002F) | PostgreSQL多用户数据隔离策略 | 扩展4、5、6 |\n| [共享MCP服务器](primitives\u002Fshared-mcp\u002F) | 向他人授予对你大脑部分区域的有限访问权限 | 扩展4 |\n\n## 社区贡献\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F9454662f-2648-4928-8723-f7d52e94e9b8\n\n除了官方精心设计的学习路径之外，社区还不断开发并分享真实用户正在使用的实用工具。以下每一项贡献都经过维护团队的审核、批准并合并入主分支。请在每个README文件中查找“社区贡献”徽章。\n\n### [`\u002Frecipes`](recipes\u002F) — 导入你的数据\n\n将你的数字生活接入Open Brain。每条配方都针对特定的数据源，包含解析、去重、嵌入和入库等步骤。\n\n| 配方 | 功能 | 贡献者 |\n| ------ | ------------ | ----------- |\n| [ChatGPT导入](recipes\u002Fchatgpt-conversation-import\u002F) | 解析ChatGPT数据导出文件，过滤无关对话，并通过LLM进行摘要 | [@matthallett1](https:\u002F\u002Fgithub.com\u002Fmatthallett1) |\n| [Perplexity导入](recipes\u002Fperplexity-conversation-import\u002F) | 导入Perplexity AI的搜索历史和记忆条目 | [@demarant](https:\u002F\u002Fgithub.com\u002Fdemarant) |\n| [Obsidian vault导入](recipes\u002Fobsidian-vault-import\u002F) | 解析并导入Obsidian vault笔记，保留完整元数据 | [@snapsynapse](https:\u002F\u002Fgithub.com\u002Fsnapsynapse) |\n| [X\u002FTwitter导入](recipes\u002Fx-twitter-import\u002F) | 从X平台的数据导出文件中导入推文、私信及Grok聊天记录 | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n| [Instagram导入](recipes\u002Finstagram-import\u002F) | 从Instagram导出文件中导入私信、评论和帖子说明 | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n| [Google活动导入](recipes\u002Fgoogle-activity-import\u002F) | 从Google Takeout中导入搜索、Gmail、地图、YouTube和Chrome浏览历史 | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n| [Grok (xAI)导入](recipes\u002Fgrok-export-import\u002F) | 导入Grok对话导出文件，并采用MongoDB风格的日期处理 | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n| [Journals\u002FBlogger导入](recipes\u002Fjournals-blogger-import\u002F) | 从Blogger\u002FJournals的Atom XML博客存档中导入内容 | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n| [邮件历史导入](recipes\u002Femail-history-import\u002F) | 将你的Gmail档案提取为可搜索的记忆 | [@matthallett1](https:\u002F\u002Fgithub.com\u002Fmatthallett1) |\n\n### [`\u002Frecipes`](recipes\u002F) — 工具与工作流\n\n独立的功能模块，让您的 Open Brain 更加智能。\n\n| 配方 | 功能描述 | 贡献者 |\n| ------ | ------------ | ----------- |\n| [自动捕获协议](recipes\u002Fauto-capture\u002F) | 使用可复用的自动捕获技能，在会话结束时将“立即行动”事项和会话摘要存储到 Open Brain 中 | [@jaredirish](https:\u002F\u002Fgithub.com\u002Fjaredirish) |\n| [淘金](recipes\u002Fpanning-for-gold\u002F) | 从思维导图和语音转录中挖掘可操作的想法——已在13次以上的会话中经过实战检验 | [@jaredirish](https:\u002F\u002Fgithub.com\u002Fjaredirish) |\n| [Claudeception](recipes\u002Fclaudeception\u002F) | 自我改进系统，能够从工作会话中创建新技能——这些技能还能再创造其他技能 | [@jaredirish](https:\u002F\u002Fgithub.com\u002Fjaredirish) |\n| [基于模式的路由](recipes\u002Fschema-aware-routing\u002F) | 基于大语言模型的路由功能，可将非结构化文本分配到多个数据库表中 | [@claydunker-yalc](https:\u002F\u002Fgithub.com\u002Fclaydunker-yalc) |\n| [指纹去重回填](recipes\u002Ffingerprint-dedup-backfill\u002F) | 回填内容指纹并安全地移除重复的思想 | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n| [来源过滤](recipes\u002Fsource-filtering\u002F) | 按来源过滤思想，并为早期导入的数据补全缺失的元数据 | [@matthallett1](https:\u002F\u002Fgithub.com\u002Fmatthallett1) |\n| [生活引擎](recipes\u002Flife-engine\u002F) | 自我改进的个人助理——日历、习惯、健康，以及通过 Telegram 或 Discord 提供的主动简报 | [@justfinethanku](https:\u002F\u002Fgithub.com\u002Fjustfinethanku) |\n| [生活引擎视频](recipes\u002Flife-engine-video\u002F) | 附加组件，可将生活引擎简报渲染成带有旁白的短视频 | [@justfinethanku](https:\u002F\u002Fgithub.com\u002Fjustfinethanku) |\n| [每日摘要](recipes\u002Fdaily-digest\u002F) | 自动化的每日最新思想摘要，通过电子邮件或 Slack 发送 | OB1 团队 |\n| [研究到决策工作流](recipes\u002Fresearch-to-decision-workflow\u002F) | 组合配方，将标准技能串联成针对运营和投资的研究、综合、会议及备忘录工作流 | [@NateBJones](https:\u002F\u002Fgithub.com\u002FNateBJones) |\n\n### [`\u002Fskills`](skills\u002F) — 代理技能\n\n纯文本技能包，您可以将其直接放入 Claude Code、Codex 或其他支持可复用提示\u002F规则的 AI 客户端中。这些是配方和其他贡献可以依赖的标准可复用构建块。\n\n| 技能 | 功能描述 | 贡献者 |\n| ----- | ------------ | ----------- |\n| [自动捕获技能包](skills\u002Fauto-capture\u002F) | 在会话结束时将“立即行动”事项和会话摘要捕获到 Open Brain 中 | [@jaredirish](https:\u002F\u002Fgithub.com\u002Fjaredirish) |\n| [竞争分析技能包](skills\u002Fcompetitive-analysis\u002F) | 构建竞争对手简报、定价对比、市场地图以及战略建议 | [@NateBJones](https:\u002F\u002Fgithub.com\u002FNateBJones) |\n| [财务模型审查技能包](skills\u002Ffinancial-model-review\u002F) | 审查现有模型的假设质量、结构风险及情景缺口 | [@NateBJones](https:\u002F\u002Fgithub.com\u002FNateBJones) |\n| [交易备忘录起草技能包](skills\u002Fdeal-memo-drafting\u002F) | 将现有的尽职调查材料转化为结构化的交易、内部沟通或合作备忘录 | [@NateBJones](https:\u002F\u002Fgithub.com\u002FNateBJones) |\n| [研究综合技能包](skills\u002Fresearch-synthesis\u002F) | 将资料集综合成发现、矛盾点、置信度指标以及后续问题 | [@NateBJones](https:\u002F\u002Fgithub.com\u002FNateBJones) |\n| [会议综合技能包](skills\u002Fmeeting-synthesis\u002F) | 将会议记录或转录稿转化为决策、行动项、风险及后续成果 | [@NateBJones](https:\u002F\u002Fgithub.com\u002FNateBJones) |\n| [淘金技能包](skills\u002Fpanning-for-gold\u002F) | 将思维导图和转录稿转化为经过评估的想法清单 | [@jaredirish](https:\u002F\u002Fgithub.com\u002Fjaredirish) |\n| [Claudeception 技能包](skills\u002Fclaudeception\u002F) | 从工作会话中提取可复用的经验教训，形成新技能 | [@jaredirish](https:\u002F\u002Fgithub.com\u002Fjaredirish) |\n\n### [`\u002Fdashboards`](dashboards\u002F) — 前端模板\n\n可在 Vercel 或 Netlify 上托管，并指向您的 Supabase 后端。社区构建了两个选项——您可以选择自己喜欢的框架。\n\n| 控制面板 | 功能描述 | 贡献者 |\n| --------- | ------------ | ----------- |\n| [Open Brain 控制面板](dashboards\u002Fopen-brain-dashboard\u002F) | 带有 MCP 代理和 Supabase 认证的 SvelteKit 控制面板 | [@headcrest](https:\u002F\u002Fgithub.com\u002Fheadcrest) |\n| [Open Brain 控制面板 (Next.js)](dashboards\u002Fopen-brain-dashboard-next\u002F) | 全功能 Next.js 控制面板——8 个页面、暗色主题、智能摄入、质量审计 | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n\n### [`\u002Fintegrations`](integrations\u002F) — 新连接\n\nMCP 服务器扩展、替代部署目标以及除 Slack 之外的捕获源。\n\n| 集成 | 功能描述 | 贡献者 |\n| ----------- | ------------ | ----------- |\n| [Kubernetes 部署](integrations\u002Fkubernetes-deployment\u002F) | 完全自托管的 K8s 部署，配备 PostgreSQL + pgvector——无需 Supabase | [@velo](https:\u002F\u002Fgithub.com\u002Fvelo) |\n| [Slack 捕获](integrations\u002Fslack-capture\u002F) | 通过 Slack 消息快速捕获想法，自动嵌入和分类 | 核心团队 |\n| [Discord 捕获](integrations\u002Fdiscord-capture\u002F) | 一个将消息捕获到 Open Brain 的 Discord 机器人，模仿 Slack 的模式 | 核心团队 |\n\n### [`\u002Fprimitives`](primitives\u002F) — 可复用模式\n\n| 原语 | 功能描述 | 贡献者 |\n| --------- | ------------ | ----------- |\n| [内容指纹去重](primitives\u002Fcontent-fingerprint-dedup\u002F) | 思想摄入中的 SHA-256 去重——防止所有导入配方中的重复 | [@alanshurafa](https:\u002F\u002Fgithub.com\u002Falanshurafa) |\n\n## 如何使用一项贡献\n\n1. 浏览上面的分类表格或仓库中的文件夹\n2. 打开该贡献的文件夹并阅读 README 文件\n3. 每个 README 都包含先决条件、分步说明、预期结果以及故障排除信息\n4. 大多数贡献需要运行 SQL、部署边缘函数或托管前端代码——README 会明确告知您具体操作步骤\n\n## 如何贡献\n\n请阅读 [CONTRIBUTING.md](CONTRIBUTING.md)，了解完整细节。简而言之：\n\n- **扩展**需经审核——提交前请与维护者讨论\n- **原语**应被至少 2 个扩展引用，以证明其提取的必要性\n- **配方、模式、控制面板、集成和技能**均欢迎社区贡献\n- 每个 PR 都会经过自动化评审代理检查其结构、密钥、SQL 安全性、依赖关系及文档质量\n- 如果代理通过，人工管理员会进一步审查质量和清晰度\n- 您的贡献需要包含带有实际说明的 README 文件，以及包含结构化信息的 `metadata.json`\n\n## 社区\n\n- **[Discord](https:\u002F\u002Fdiscord.gg\u002FCgh9WJEkeG)**——实时帮助、展示交流、贡献者讨论\n- **[Substack](https:\u002F\u002Fnatesnewsletter.substack.com\u002F)**——更新、深度解析以及 Open Brain 背后的故事\n\n## 谁在维护\n\n由 Nate B. Jones 的团队构建。Matt Hallett 是首位社区管理员和仓库管理者。拉取请求由自动化工具加上人工管理员共同审核。\n\n## 许可证\n\n[FSL-1.1-MIT](LICENSE.md)","# OB1 (Open Brain) 快速上手指南\n\nOB1 是一个专为 AI 设计的基础设施层，旨在构建统一的“大脑”。它通过一个数据库、一个 AI 网关和一个聊天通道，让 Claude、ChatGPT、Cursor 等所有 AI 工具共享同一份持久化记忆（向量搜索），无需中间件或 SaaS 链条。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求和前置依赖：\n\n*   **操作系统**：macOS, Linux 或 Windows (WSL2 推荐)。\n*   **Node.js**：版本 18 或更高（用于运行脚本和本地服务）。\n    *   检查命令：`node -v`\n*   **Git**：用于克隆代码库。\n*   **包管理器**：推荐使用 `pnpm` 或 `npm`。\n*   **数据库后端**：\n    *   **推荐方案**：[Supabase](https:\u002F\u002Fsupabase.com\u002F) 免费账户（提供托管的 PostgreSQL + pgvector 支持，配置最简单）。\n    *   **自托管方案**：本地 Docker 环境（需安装 Docker Desktop），用于运行 PostgreSQL 和 pgvector 扩展。\n*   **AI 客户端**：已安装并配置好任意支持的 AI 工具（如 Cursor, Claude Code, ChatGPT Desktop 等）。\n*   **捕获渠道（可选）**：Slack 或 Discord 账号（用于快速记录想法）。\n\n> **注意**：本项目主要依赖云服务和标准开源协议，目前暂无官方指定的中国镜像源。国内开发者若访问 GitHub 或 Supabase 较慢，建议配置本地网络加速工具或使用国内云厂商兼容 S3\u002FPostgreSQL 的服务自行部署数据库层。\n\n## 安装步骤\n\n### 1. 克隆项目\n打开终端，执行以下命令获取源代码：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fnatebjones\u002Fopen-brain.git\ncd open-brain\n```\n\n### 2. 安装依赖\n使用 npm 或 pnpm 安装基础依赖：\n\n```bash\nnpm install\n# 或者\npnpm install\n```\n\n### 3. 配置系统（45 分钟快速构建）\nOB1 提供了详细的设置向导。你需要配置数据库连接、AI 网关密钥以及捕获通道。\n\n**方式 A：手动跟随文档设置（推荐新手）**\n参考项目内的 `docs\u002F01-getting-started.md` 文档，按步骤完成：\n1.  创建 Supabase 项目并运行 SQL 初始化脚本。\n2.  复制 `.env.example` 为 `.env` 并填入你的 API Keys（Supabase URL\u002FKey, AI Provider Key 等）。\n3.  配置 Slack\u002FDiscord Bot 以启用消息捕获功能。\n\n**方式 B：AI 辅助设置（适合熟悉 Cursor\u002FClaude Code 的用户）**\n如果你习惯使用 AI 编程助手，可以直接让 AI 读取当前仓库并执行设置：\n\n```bash\n# 在 Cursor 或 Claude Code 中打开当前目录，然后输入提示词：\n\"Point to this repo and help me set up the full system (database, AI gateway, Slack capture, MCP server) following docs\u002F01-getting-started.md\"\n```\n\n### 4. 验证安装\n完成配置后，运行初始测试脚本（如果项目中包含）或通过发送一条测试消息到配置的 Slack\u002FDiscord 频道，确认数据是否成功写入数据库并可被向量检索。\n\n## 基本使用\n\nOB1 的核心在于“捕获”与“检索”。一旦安装完成，你可以通过以下方式开始使用：\n\n### 1. 捕获记忆 (Capture)\n向配置的捕获通道（如 Slack 频道或 Discord 频道）发送消息。系统会自动：\n*   解析消息内容。\n*   生成向量嵌入 (Embedding)。\n*   存入 PostgreSQL 数据库。\n\n**示例（在 Slack 中）：**\n```text\n今天学到了关于 RAG 架构的新知识：检索增强生成可以有效减少大模型幻觉，关键在于向量数据库的召回率。\n```\n\n### 2. 调用 AI 助手 (Query)\n在你的 AI 编辑器（如 Cursor 或 Claude Code）中，通过 MCP (Model Context Protocol) 连接到 OB1，或者直接询问已接入 OB1 的 AI 机器人。\n\n**示例（在 Cursor 聊天框中）：**\n```text\n@open-brain 我最近记录了哪些关于 RAG 架构的想法？请总结一下。\n```\n\nAI 将检索数据库中的相关记忆，并结合上下文给出回答。\n\n### 3. 扩展功能 (Extensions)\n系统内置了渐进式的学习路径，建议按顺序构建以下扩展以发挥最大效用：\n\n1.  **家庭知识库** (`extensions\u002Fhousehold-knowledge\u002F`)：让 Agent 记住家庭基本信息。\n2.  **维护追踪器** (`extensions\u002Fhome-maintenance\u002F`)：记录房屋维护历史。\n3.  **家庭日历** (`extensions\u002Ffamily-calendar\u002F`)：协调多人日程。\n\n你可以直接运行对应的扩展脚本来激活这些功能模块。\n\n---\n*提示：本指南仅涵盖核心安装与基础使用。如需导入历史数据（如 ChatGPT 记录、Obsidian 笔记），请参阅项目 `\u002Frecipes` 目录下的导入工具。*","自由职业开发者李明每天需要在 Cursor 写代码、用 Claude 规划架构、通过 ChatGPT 查询文档，并在 Slack 中与客户沟通需求。\n\n### 没有 OB1 时\n- **记忆割裂**：在 Cursor 中讨论的技术方案，切换到 Claude 时需要重新粘贴上下文，AI 无法“记得”之前的决策。\n- **重复劳动**：每次开启新对话都要手动整理项目背景、客户偏好和技术栈限制，耗费大量时间。\n- **信息孤岛**：Slack 里的客户反馈与代码库中的实现逻辑互不相通，导致需求理解出现偏差。\n- **工具依赖**：为了同步数据不得不使用 Zapier 或各类 SaaS 中间件，增加了配置复杂度和隐私风险。\n- **缺乏沉淀**：零散的对话记录无法形成统一的知识库，个人经验随着会话结束而流失。\n\n### 使用 OB1 后\n- **统一记忆**：所有 AI 工具（Cursor、Claude、ChatGPT）自动共享同一个向量数据库，瞬间调用过往的项目决策和用户偏好。\n- **零上下文切换**：无需手动复制粘贴，直接在新对话中延续之前的思路，AI 像拥有长期记忆一样理解项目全貌。\n- **全域互联**：Slack 捕获的客户指令自动转化为开发任务，与代码库中的修改记录实时关联，确保执行无误。\n- **去中介化**：摒弃了复杂的 SaaS 链条和中间件，本地部署的单一网关让数据流转更私密、高效。\n- **知识复利**：每一次交互都沉淀为永久记忆，随着使用时间增长，OB1 越来越懂李明的思维习惯和业务逻辑。\n\nOB1 将分散的 AI 工具整合为一个拥有持续记忆的统一大脑，让开发者从繁琐的上下文管理中解放出来，专注于真正的创造。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNateBJones-Projects_OB1_ad11d417.png","NateBJones-Projects","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FNateBJones-Projects_7292d199.png",null,"https:\u002F\u002Fgithub.com\u002FNateBJones-Projects",[77,81,85,89,93,97,101,105],{"name":78,"color":79,"percentage":80},"TypeScript","#3178c6",54.1,{"name":82,"color":83,"percentage":84},"Python","#3572A5",23.5,{"name":86,"color":87,"percentage":88},"JavaScript","#f1e05a",13.6,{"name":90,"color":91,"percentage":92},"PLpgSQL","#336790",4.7,{"name":94,"color":95,"percentage":96},"Svelte","#ff3e00",3.4,{"name":98,"color":99,"percentage":100},"CSS","#663399",0.4,{"name":102,"color":103,"percentage":104},"HTML","#e34c26",0.2,{"name":106,"color":107,"percentage":108},"Dockerfile","#384d54",0.1,1291,223,"2026-04-08T11:40:58","NOASSERTION",4,"未说明",{"notes":116,"python":114,"dependencies":117},"该项目是一个基于数据库和 AI 网关的基础设施层，核心依赖 PostgreSQL 数据库（需支持 pgvector 插件）用于向量搜索。它并非传统的本地 AI 模型运行工具，因此未明确列出 GPU、Python 版本或特定深度学习库（如 PyTorch）的要求。用户可以通过 Supabase 托管后端，或使用提供的 Kubernetes 方案进行完全自托管。主要功能通过 Slack、Discord 等渠道捕获数据，并兼容各种 AI 工具（如 Claude, ChatGPT）作为客户端。",[118,119,120,121,122],"PostgreSQL","pgvector","Supabase (可选)","MCP Server","Slack\u002FDiscord API",[13],[125,126,127,128,129,130,131,132,133],"ai-agents","mcp","memory-layer","memory-layer-for-ai","open-brain","open-source","personal-knowledge","personal-knowledge-management","supabase","2026-03-27T02:49:30.150509","2026-04-09T01:25:03.177531",[137,142,146,151,156,160],{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},25487,"如何管理随着扩展增加而导致的上下文权重（Context Weight）累积问题？","可以通过实施“范围化 MCP（Scoped MCPs）”策略或参考新增的《MCP 工具审计与优化指南》来解决。具体方法包括：\n1. 按用例拆分服务器：将捕获（capture）、查询（query）和管理（admin）功能分离到不同的 MCP 服务器中，用户仅在需要时连接相关服务器。\n2. 合并冗余工具：使用三种合并模式来整合重复的工具定义，减少 AI 客户端持有的上下文总量。\n3. 定期审计：使用提供的提示词套件（prompt kits）对工具进行审计，评估上下文权重和路由准确性。\n该指南已链接到所有扩展的 README 中，帮助用户在积累更多工具时进行管理。","https:\u002F\u002Fgithub.com\u002FNateBJones-Projects\u002FOB1\u002Fissues\u002F36",{"id":143,"question_zh":144,"answer_zh":145,"source_url":141},25488,"当用户提示涉及多个领域（如同时需要日历和联系人信息）时，系统如何决定调用哪个 MCP 服务器？","目前主要依赖两种方法：\n1. **范围化模型**：用户需手动仅连接当前对话相关的 MCP 服务器，依靠用户的纪律性来管理上下文和路由。\n2. **统一路由模式**：社区正在推进架构抽象层（DB adapter 和 Embedding adapter），未来可能实现单个 MCP 服务器暴露所有工具并内部处理路由。目前建议参考“架构感知路由模式（schema-aware routing pattern）”的相关贡献代码，或等待统一的 MCP 路由层实现。",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},25489,"如何在不依赖云端 API（如 OpenRouter）的情况下生成本地嵌入（Embeddings）？","可以使用 Ollama 在本地生成嵌入，完全替代云端步骤。具体方案如下：\n1. **环境准备**：安装并运行 Ollama（推荐模型 `nomic-embed-text` 或 `mxbai-embed-large`），确保 Python 3.10+ 和现有的 Supabase 设置正常。\n2. **运行脚本**：使用社区提供的 `embed-local.py` 脚本（或类似 Recipe），它接受文本输入（stdin、文件或参数），调用本地 Ollama 生成向量，并直接插入 Supabase 的 `thoughts` 表。\n3. **架构适配**：如果需要更深层集成，需创建嵌入适配器（Embedding Adapter）来封装 OpenRouter 或 Ollama 调用，并注意不同模型的向量维度（如 1536 维）需在 Schema 初始化时参数化，不能硬编码。","https:\u002F\u002Fgithub.com\u002FNateBJones-Projects\u002FOB1\u002Fissues\u002F31",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},25490,"在使用 MCP 服务器保存想法时，遇到\"Could not find the function public.upsert_thought\"错误怎么办？","这是因为数据库 Schema 中缺少或版本过旧的 `upsert_thought` 函数。解决方法是重新运行更新后的 SQL 命令：\n1. 访问官方文档的 [Step 2.6](https:\u002F\u002Fgithub.com\u002FNateBJones-Projects\u002FOB1\u002Fblob\u002Fmain\u002Fdocs\u002F01-getting-started.md)。\n2. 执行包含 `CREATE OR REPLACE FUNCTION upsert_thought...` 的 SQL 块。\n由于使用了 `CREATE OR REPLACE`，这将覆盖现有的旧函数并修复缺失问题。请确保执行的是最新版本的 SQL，因为早期版本可能存在索引约束定义的缺陷。","https:\u002F\u002Fgithub.com\u002FNateBJones-Projects\u002FOB1\u002Fissues\u002F145",{"id":157,"question_zh":158,"answer_zh":159,"source_url":155},25491,"执行 upsert_thought 函数时报错\"there is no unique or exclusion constraint matching the ON CONFLICT specification\"，如何修复？","该错误是因为 `ON CONFLICT` 子句引用的唯一约束与表定义不匹配，特别是涉及部分唯一索引（Partial Unique Index）时。修复步骤如下：\n1. 检查 `thoughts` 表的索引定义，确认是否存在针对 `content_fingerprint` 的部分唯一索引（通常带有 `WHERE content_fingerprint IS NOT NULL` 条件）。\n2. 更新 `upsert_thought` 函数中的 `ON CONFLICT` 子句，必须显式包含相同的 `WHERE` 条件。正确的 SQL 片段应为：\n```sql\nON CONFLICT (content_fingerprint) WHERE content_fingerprint IS NOT NULL DO UPDATE\n  SET updated_at = now(),\n      metadata = thoughts.metadata || COALESCE(EXCLUDED.metadata, '{}'::jsonb)\n```\n3. 重新部署修正后的函数即可解决冲突匹配问题。",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},25492,"如何将视频素材添加到项目的 README 文件中？","可以直接将视频文件作为评论（Comment）上传到 GitHub Issue（例如专用的视频收集 Issue #18）。GitHub 会自动为上传的文件生成 CDN URL，这些 URL 可以直接嵌入到 README 中作为内联视频播放器渲染。无需手动托管视频，只需在 Issue 评论区拖放文件即可获取链接。","https:\u002F\u002Fgithub.com\u002FNateBJones-Projects\u002FOB1\u002Fissues\u002F18",[]]