[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Mnehmos--mnehmos.multi-agent.framework":3,"tool-Mnehmos--mnehmos.multi-agent.framework":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":65,"owner_location":65,"owner_email":76,"owner_twitter":65,"owner_website":77,"owner_url":78,"languages":79,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":96,"env_os":97,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":101,"github_topics":65,"view_count":32,"oss_zip_url":65,"oss_zip_packed_at":65,"status":17,"created_at":102,"updated_at":103,"faqs":104,"releases":105},4947,"Mnehmos\u002Fmnehmos.multi-agent.framework","mnehmos.multi-agent.framework",null,"mnehmos.multi-agent.framework 是一个旨在将大型语言模型从单纯的“聊天机器人”升级为具备完整行为能力的“数字有机体”的开源框架。它借鉴生物神经系统架构，为 AI 大脑构建了包含感知、反射、记忆和行动的闭环系统，解决了传统 AI 缺乏长期记忆、无法自主协调复杂任务以及难以像生物一样对环境做出即时反应的问题。\n\n该框架特别适合 AI 开发者、研究人员以及希望构建高度自主智能体的工程师使用。其核心亮点在于独特的分层架构设计：中央层（Central）负责认知与规划，躯体层（Somatic）执行文件操作等自愿行动，自主层（Autonomic）处理后台记忆与多智能体协作，而反射层（Reflex）则能在信息进入大脑前快速拦截无效输入。此外，项目深度集成 MCP（模型上下文协议）生态，提供了一套模块化工具库，涵盖电脑自动化、语义搜索、学术调研甚至游戏引擎功能。通过这套系统，用户可以轻松搭建出不仅能对话，更能像生物一样感知环境、保留记忆并自主执行复杂工作流的智能代理。","# Agentic Nervous System\n\n> Your LLM is a brain in a jar. Give it a nervous system.\n\nA biological architecture for artificial minds. Sensation, reflex, memory, and action—organized into coherent loops that turn chatbots into organisms.\n\n🌐 **Website**: UNDER CONSTRUCTION! [mnehmos.github.io\u002Fmnehmos.multi-agent.framework](https:\u002F\u002Fmnehmos.github.io\u002Fmnehmos.multi-agent.framework)\n\n📖 **Blog Post**: [From Chatbot to Organism](https:\u002F\u002Fmnehmos.github.io\u002FMnehmos\u002Fblog\u002Ffrom-chatbot-to-organism\u002F)\n\n---\n\n## MCP Ecosystem\n\n| Server | Layer | Description |\n|--------|-------|-------------|\n| [![OODA MCP](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🦾_OODA_MCP-Somatic-f59e0b)](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.ooda.mcp) | Somatic | 62 tools for computer automation: files, screen, keyboard, mouse, batch ops |\n| [![Synch MCP](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F💭_Synch_MCP-Autonomic-3b82f6)](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.synch.mcp) | Autonomic | Memory persistence, agent handoff, file locks, bug tracking |\n| [![Index Foundry](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F📚_Index_Foundry-Autonomic-3b82f6)](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.index-foundry.mcp) | Autonomic | RAG pipelines, document Q&A, semantic search |\n| [![Trace MCP](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F⚡_Trace_MCP-Reflex-ef4444)](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.trace.mcp) | Reflex | Schema validation, contract enforcement, type scaffolding |\n| [![arXiv MCP](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F📄_arXiv_MCP-Central-a855f7)](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.arxiv.mcp) | Central | Academic paper search for Deep Research mode |\n| [![ChatRPG](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🎮_ChatRPG-Game-10b981)](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.chatrpg.game) | Game Engine | D&D 5e combat, characters, encounters |\n\n---\n\n## The Architecture\n\n```\n┌─────────────────────────────────────────────────────────────────────┐\n│                    CENTRAL (BRAIN) - Cognition                      │\n│    Orchestrator • Architect • Planner • Ask • Deep Research        │\n│         ↑ Receives sensory input   ↓ Sends motor commands          │\n├─────────────────────────────────────────────────────────────────────┤\n│                   SOMATIC (BODY) - Voluntary Action                 │\n│         Red Phase • Green Phase • Blue Phase • Code • Debug        │\n│              ↑ Tool results   ↓ Tool invocations                   │\n├─────────────────────────────────────────────────────────────────────┤\n│                AUTONOMIC (SUBCONSCIOUS) - Background                │\n│              Memory • Synch MCP • Index Foundry MCP                 │\n│           State persistence, retrieval, agent coordination         │\n├─────────────────────────────────────────────────────────────────────┤\n│              REFLEX (SPINAL CORD) - Immediate.                     │\n│                     (UNDER CONSTRUCTION)                            │\n│                Trace MCP • Schema Validation • Contracts            │\n│              Rejects bad inputs before cognition                    │\n└─────────────────────────────────────────────────────────────────────┘\n```\n\n---\n\n## Quick Start\n\n### 1. Copy the baseline templates\n\n```bash\n# Create .roo directory in your project\nmkdir -p .roo\n\n# Copy templates\ncp templates\u002Fcustom_modes.yaml .roo\u002F\ncp templates\u002Funiversal\u002FAGENTS.md .\n```\n\n**Files to copy:**\n- [`templates\u002Fcustom_modes.yaml`](templates\u002Fcustom_modes.yaml) → `.roo\u002Fcustom_modes.yaml`\n- [`templates\u002Funiversal\u002FAGENTS.md`](templates\u002Funiversal\u002FAGENTS.md) → `AGENTS.md` (project root)\n\n### 2. Add global instructions\n\nCopy [`templates\u002Fcustom-instructions-for-all-modes.md`](templates\u002Fcustom-instructions-for-all-modes.md) content to your IDE's global instructions field.\n\n### 3. (Optional) Add MCP tools\n\nInstall tools to extend capabilities. See [`templates\u002Ftools\u002F`](templates\u002Ftools\u002F) for integration docs:\n\n| Tier | Tool | Layer | Integration Guide |\n|------|------|-------|-------------------|\n| 2 | [OODA MCP](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.ooda.mcp) | Somatic | [`ooda-mcp.md`](templates\u002Ftools\u002Fooda-mcp.md) |\n| 3 | [Synch MCP](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.synch.mcp) | Autonomic | [`synch-mcp.md`](templates\u002Ftools\u002Fsynch-mcp.md) |\n| 3 | [Index Foundry](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.index-foundry.mcp) | Autonomic | [`index-foundry-mcp.md`](templates\u002Ftools\u002Findex-foundry-mcp.md) |\n| 4 | [Trace MCP](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.trace.mcp) | Reflex | [`trace-mcp.md`](templates\u002Ftools\u002Ftrace-mcp.md) |\n\n---\n\n## Template Tiers\n\nProgressive enhancement—start simple, add capabilities as needed:\n\n| Tier | Components | What You Get |\n|------|------------|--------------|\n| **0** | Baseline templates | Toolless coordination with 13 modes |\n| **1** | + Native tools | File I\u002FO, command execution |\n| **2** | + OODA MCP | Full computer automation (62 tools) |\n| **3** | + Synch + Index Foundry | Memory persistence + RAG |\n| **4** | + Trace MCP | Schema validation layer |\n\nEach tier preserves all contracts from previous tiers.\n\n---\n\n## The 13 Modes\n\n### Central (Brain)\n| Mode | Purpose |\n|------|---------|\n| 🔄 Orchestrator | Task decomposition, delegation, integration |\n| 🏛️ Architect | System design, ADRs, contracts |\n| 📋 Planner | Task maps, backlogs, dependencies |\n| ❓ Ask | Clarification, research synthesis |\n| 🔎 Deep Research | Multi-source investigation |\n| 🔬 Deep Scope | Issue scoping |\n\n### Somatic (Body)\n| Mode | Purpose |\n|------|---------|\n| 🔴 Red Phase | Write failing tests |\n| 🟢 Green Phase | Minimal implementation |\n| 🔵 Blue Phase | Refactor with green tests |\n| 💻 Code | Complex implementation |\n| 🐛 Debug | Root cause analysis |\n\n### Autonomic (Subconscious)\n| Mode | Purpose |\n|------|---------|\n| 📁 Memory | Documentation, knowledge management |\n| 🗄️ Index Foundry | RAG pipeline specialist |\n\n---\n\n## Core Contracts\n\n### OODA Loop\n\nAll work follows Observe → Orient → Decide → Act:\n\n1. **Observe** 👁️ — Read the task, scan files, check tests\n2. **Orient** 🧭 — Map what exists vs what's needed\n3. **Decide** 🎯 — Choose approach with lowest risk\n4. **Act** ⚡ — Execute one step, validate, repeat\n\n### TDD Cycle\n\n```\n🔴 RED    →  Write failing tests\n🟢 GREEN  →  Minimal implementation\n🔵 BLUE   →  Refactor with green tests\n```\n\n### Boomerang Protocol\n\nEvery completed task returns structured data:\n\n```json\n{\n  \"type\": \"task-completed\",\n  \"task_id\": \"auth-impl-001\",\n  \"from\": \"green-phase\",\n  \"status\": \"success\",\n  \"files_changed\": [\"src\u002Fauth\u002Fjwt.ts\"],\n  \"tests_run\": [\"npm test -- auth\"],\n  \"summary\": \"Implemented JWT validation\"\n}\n```\n\n---\n\n## IDE Support\n\nTemplates for every major AI-assisted IDE:\n\n| IDE | Template Location |\n|-----|-------------------|\n| Roo Code | `templates\u002Fcustom_modes.yaml` |\n| Claude Code | `templates\u002Fclaude-code\u002FCLAUDE.md` |\n| Cursor | `templates\u002Fcursor\u002Frules\u002F_global.mdc` |\n| Copilot | `templates\u002Fcopilot\u002Fcopilot-instructions.md` |\n\n---\n\n## File Structure\n\n| Path | Description |\n|------|-------------|\n| [`templates\u002Fcustom_modes.yaml`](templates\u002Fcustom_modes.yaml) | Mode definitions (13 modes with layer mappings) |\n| [`templates\u002Fcustom-instructions-for-all-modes.md`](templates\u002Fcustom-instructions-for-all-modes.md) | Global contracts (paste into IDE) |\n| [`templates\u002Funiversal\u002FAGENTS.md`](templates\u002Funiversal\u002FAGENTS.md) | Universal agent contract (OODA + TDD + Scope) |\n| **Tool Integration** | |\n| [`templates\u002Ftools\u002Fooda-mcp.md`](templates\u002Ftools\u002Fooda-mcp.md) | OODA MCP integration (Somatic layer) |\n| [`templates\u002Ftools\u002Fsynch-mcp.md`](templates\u002Ftools\u002Fsynch-mcp.md) | Synch MCP integration (Autonomic layer) |\n| [`templates\u002Ftools\u002Findex-foundry-mcp.md`](templates\u002Ftools\u002Findex-foundry-mcp.md) | Index Foundry integration (Autonomic layer) |\n| [`templates\u002Ftools\u002Ftrace-mcp.md`](templates\u002Ftools\u002Ftrace-mcp.md) | Trace MCP integration (Reflex layer) |\n\n---\n\n## Philosophy\n\n### Why a Nervous System?\n\nLLMs are stateless text predictors. They have:\n- ✅ High intelligence\n- ❌ No agency\n- ❌ No persistent memory\n- ❌ No sensory-motor integration\n\nA nervous system provides:\n- **Closed loops** of action and sensation\n- **Reflexes** that reject bad inputs immediately\n- **Autonomic processes** that maintain state\n- **Central coordination** of specialized capabilities\n\n### From Chatbot to Organism\n\n```\nChatbot:    User → LLM → Response\n                   ↑\n                   └── (no feedback)\n\nOrganism:   Environment → Senses → Brain → Motor → Environment\n                 ↑                              ↓\n                 └──────── Feedback ────────────┘\n```\n\n---\n\n## Support\n\n- ☕ [Buy Me a Coffee](https:\u002F\u002Fbuymeacoffee.com\u002FMnehmos)\n- 🐛 [Report Issues](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.multi-agent.framework\u002Fissues)\n- 💬 [Discussions](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.multi-agent.framework\u002Fdiscussions)\n\n---\n\n## License\n\nMIT\n","# 代理神经系统\n\n> 你的大语言模型就像一个装在罐子里的大脑。为它赋予神经系统吧。\n\n一种用于人工心智的生物架构。感知、反射、记忆和行动——被组织成连贯的循环，将聊天机器人转变为有机体。\n\n🌐 **网站**: 正在建设中！[mnehmos.github.io\u002Fmnehmos.multi-agent.framework](https:\u002F\u002Fmnehmos.github.io\u002Fmnehmos.multi-agent.framework)\n\n📖 **博客文章**: [从聊天机器人到有机体](https:\u002F\u002Fmnehmos.github.io\u002FMnehmos\u002Fblog\u002Ffrom-chatbot-to-organism\u002F)\n\n---\n\n## MCP 生态系统\n\n| 服务器 | 层级 | 描述 |\n|--------|-------|-------------|\n| [![OODA MCP](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🦾_OODA_MCP-Somatic-f59e0b)](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.ooda.mcp) | 躯体层 | 62种用于计算机自动化的工具：文件、屏幕、键盘、鼠标、批处理操作 |\n| [![Synch MCP](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F💭_Synch_MCP-Autonomic-3b82f6)](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.synch.mcp) | 自律层 | 内存持久化、代理交接、文件锁、缺陷跟踪 |\n| [![Index Foundry](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F📚_Index_Foundry-Autonomic-3b82f6)](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.index-foundry.mcp) | 自律层 | RAG 流水线、文档问答、语义搜索 |\n| [![Trace MCP](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F⚡_Trace_MCP-Reflex-ef4444)](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.trace.mcp) | 反射层 | 模式验证、合约执行、类型脚手架 |\n| [![arXiv MCP](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F📄_arXiv_MCP-Central-a855f7)](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.arxiv.mcp) | 中枢层 | 面向深度研究模式的学术论文搜索 |\n| [![ChatRPG](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🎮_ChatRPG-Game-10b981)](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.chatrpg.game) | 游戏引擎 | D&D 5e 战斗、角色、遭遇 |\n\n---\n\n## 架构图\n\n```\n┌─────────────────────────────────────────────────────────────────────┐\n│                    CENTRAL (BRAIN) - 认知                      │\n│    协调者 • 架构师 • 计划员 • 提问 • 深度研究        │\n│         ↑ 接收感官输入   ↓ 发送运动指令          │\n├─────────────────────────────────────────────────────────────────────┤\n│                   SOMATIC (BODY) - 自愿行动                 │\n│         红色阶段 • 绿色阶段 • 蓝色阶段 • 编码 • 调试        │\n│              ↑ 工具结果   ↓ 工具调用                   │\n├─────────────────────────────────────────────────────────────────────┤\n│                AUTONOMIC (SUBCONSCIOUS) - 后台                │\n│              内存 • Synch MCP • Index Foundry MCP                 │\n│           状态持久化、检索、代理协调         │\n├─────────────────────────────────────────────────────────────────────┤\n│              REFLEX (SPINAL CORD) - 立即响应。                     │\n│                     （建设中）                            │\n│                Trace MCP • 模式验证 • 合约            │\n│              在认知之前拒绝不良输入                    │\n└─────────────────────────────────────────────────────────────────────┘\n```\n\n---\n\n## 快速入门\n\n### 1. 复制基础模板\n\n```bash\n# 在项目中创建 .roo 目录\nmkdir -p .roo\n\n# 复制模板\ncp templates\u002Fcustom_modes.yaml .roo\u002F\ncp templates\u002Funiversal\u002FAGENTS.md .\n```\n\n**需要复制的文件:**\n- [`templates\u002Fcustom_modes.yaml`](templates\u002Fcustom_modes.yaml) → `.roo\u002Fcustom_modes.yaml`\n- [`templates\u002Funiversal\u002FAGENTS.md`](templates\u002Funiversal\u002FAGENTS.md) → `AGENTS.md`（项目根目录）\n\n### 2. 添加全局指令\n\n将 [`templates\u002Fcustom-instructions-for-all-modes.md`](templates\u002Fcustom-instructions-for-all-modes.md) 的内容复制到你的 IDE 的全局指令字段中。\n\n### 3. （可选）添加 MCP 工具\n\n安装工具以扩展功能。请参阅 [`templates\u002Ftools\u002F`](templates\u002Ftools\u002F) 中的集成文档：\n\n| 等级 | 工具 | 层级 | 集成指南 |\n|------|------|-------|-------------------|\n| 2 | [OODA MCP](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.ooda.mcp) | 躯体层 | [`ooda-mcp.md`](templates\u002Ftools\u002Fooda-mcp.md) |\n| 3 | [Synch MCP](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.synch.mcp) | 自律层 | [`synch-mcp.md`](templates\u002Ftools\u002Fsynch-mcp.md) |\n| 3 | [Index Foundry](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.index-foundry.mcp) | 自律层 | [`index-foundry-mcp.md`](templates\u002Ftools\u002Findex-foundry-mcp.md) |\n| 4 | [Trace MCP](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.trace.mcp) | 反射层 | [`trace-mcp.md`](templates\u002Ftools\u002Ftrace-mcp.md) |\n\n---\n\n## 模板等级\n\n渐进增强——从简单开始，根据需要逐步添加功能：\n\n| 等级 | 组件 | 你将获得什么 |\n|------|------------|--------------|\n| **0** | 基础模板 | 无工具协作，支持 13 种模式 |\n| **1** | + 原生工具 | 文件 I\u002FO、命令执行 |\n| **2** | + OODA MCP | 完整的计算机自动化（62 种工具） |\n| **3** | + Synch + Index Foundry | 内存持久化 + RAG |\n| **4** | + Trace MCP | 模式验证层 |\n\n每个等级都保留了前一等级的所有契约。\n\n---\n\n## 13 种模式\n\n### 中枢（大脑）\n| 模式 | 目的 |\n|------|---------|\n| 🔄 协调者 | 任务分解、委派、整合 |\n| 🏛️ 架构师 | 系统设计、ADR、合同 |\n| 📋 计划员 | 任务地图、待办事项、依赖关系 |\n| ❓ 提问 | 澄清问题、研究综述 |\n| 🔎 深度研究 | 多源调查 |\n| 🔬 深度范围 | 问题界定 |\n\n### 躯体（身体）\n| 模式 | 目的 |\n|------|---------|\n| 🔴 红色阶段 | 编写失败的测试 |\n| 🟢 绿色阶段 | 最小化实现 |\n| 🔵 蓝色阶段 | 在绿色测试下重构 |\n| 💻 编码 | 复杂实现 |\n| 🐛 调试 | 根因分析 |\n\n### 自律（潜意识）\n| 模式 | 目的 |\n|------|---------|\n| 📁 内存 | 文档记录、知识管理 |\n| 🗄️ Index Foundry | RAG 流水线专家 |\n\n---\n\n## 核心契约\n\n### OODA 循环\n\n所有工作遵循观察 → 定位 → 决策 → 行动：\n\n1. **观察** 👁️ — 阅读任务、扫描文件、检查测试\n2. **定位** 🧭 — 对比现有与所需\n3. **决策** 🎯 — 选择风险最低的方法\n4. **行动** ⚡ — 执行一步，验证，重复\n\n### TDD 循环\n\n```\n🔴 RED    →  编写失败的测试\n🟢 GREEN  →  最小化实现\n🔵 BLUE   →  在绿色测试下重构\n```\n\n### 回旋镖协议\n\n每个完成的任务都会返回结构化数据：\n\n```json\n{\n  \"type\": \"task-completed\",\n  \"task_id\": \"auth-impl-001\",\n  \"from\": \"green-phase\",\n  \"status\": \"success\",\n  \"files_changed\": [\"src\u002Fauth\u002Fjwt.ts\"],\n  \"tests_run\": [\"npm test -- auth\"],\n  \"summary\": \"实现了 JWT 验证\"\n}\n```\n\n---\n\n## IDE 支持\n\n适用于各大 AI 辅助 IDE 的模板：\n\n| IDE | 模板位置 |\n|-----|-------------------|\n| Roo Code | `templates\u002Fcustom_modes.yaml` |\n| Claude Code | `templates\u002Fclaude-code\u002FCLAUDE.md` |\n| Cursor | `templates\u002Fcursor\u002Frules\u002F_global.mdc` |\n| Copilot | `templates\u002Fcopilot\u002Fcopilot-instructions.md` |\n\n---\n\n## 文件结构\n\n| 路径 | 描述 |\n|------|-------------|\n| [`templates\u002Fcustom_modes.yaml`](templates\u002Fcustom_modes.yaml) | 模式定义（13种模式，包含层映射） |\n| [`templates\u002Fcustom-instructions-for-all-modes.md`](templates\u002Fcustom-instructions-for-all-modes.md) | 全局契约（粘贴到 IDE 中） |\n| [`templates\u002Funiversal\u002FAGENTS.md`](templates\u002Funiversal\u002FAGENTS.md) | 通用智能体契约（OODA + TDD + 范围） |\n| **工具集成** | |\n| [`templates\u002Ftools\u002Fooda-mcp.md`](templates\u002Ftools\u002Fooda-mcp.md) | OODA MCP 集成（躯体层） |\n| [`templates\u002Ftools\u002Fsynch-mcp.md`](templates\u002Ftools\u002Fsynch-mcp.md) | Synch MCP 集成（自主层） |\n| [`templates\u002Ftools\u002Findex-foundry-mcp.md`](templates\u002Ftools\u002Findex-foundry-mcp.md) | Index Foundry 集成（自主层） |\n| [`templates\u002Ftools\u002Ftrace-mcp.md`](templates\u002Ftools\u002Ftrace-mcp.md) | Trace MCP 集成（反射层） |\n\n---\n\n## 哲学\n\n### 为什么需要神经系统？\n\n大语言模型是无状态的文本预测器。它们具备：\n- ✅ 高度智能\n- ❌ 缺乏自主性\n- ❌ 缺乏持久记忆\n- ❌ 缺乏感觉-运动整合能力\n\n而神经系统则能提供：\n- **闭环**的动作与感知反馈\n- **反射机制**，可立即拒绝不良输入\n- **自主过程**，用于维持系统状态\n- **中央协调**，以整合各专业能力\n\n### 从聊天机器人到有机体\n\n```\n聊天机器人：    用户 → LLM → 回应\n                   ↑\n                   └── （无反馈）\n\n有机体：   环境 → 感官 → 大脑 → 运动 → 环境\n                 ↑                              ↓\n                 └──────── 反馈 ────────────┘\n```\n\n---\n\n## 支持\n\n- ☕ [请我喝杯咖啡](https:\u002F\u002Fbuymeacoffee.com\u002FMnehmos)\n- 🐛 [报告问题](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.multi-agent.framework\u002Fissues)\n- 💬 [讨论区](https:\u002F\u002Fgithub.com\u002FMnehmos\u002Fmnehmos.multi-agent.framework\u002Fdiscussions)\n\n---\n\n## 许可证\n\nMIT","# mnehmos.multi-agent.framework 快速上手指南\n\n本指南旨在帮助开发者快速将大语言模型（LLM）从简单的聊天机器人升级为具备“感知、反射、记忆和行动”能力的智能体有机体。该框架基于生物神经系统架构，适用于 Roo Code、Claude Code、Cursor 等主流 AI 辅助 IDE。\n\n## 环境准备\n\n在开始之前，请确保满足以下前置条件：\n\n*   **操作系统**：Linux, macOS 或 Windows (WSL2 推荐)\n*   **核心依赖**：\n    *   Git (用于克隆模板)\n    *   Node.js (v18+, 用于运行 MCP 服务器)\n    *   支持的 AI IDE：Roo Code, Claude Code, Cursor, GitHub Copilot 等\n*   **项目基础**：一个已初始化的代码项目目录\n\n> **注意**：目前官方未提供中国镜像源，建议配置全局网络代理以确保 `git clone` 和 `npm install` 顺利执行。\n\n## 安装步骤\n\n### 1. 获取基础模板\n\n你可以通过克隆仓库或直接下载所需文件来获取框架的核心配置文件。以下是基于命令行的高效操作方式：\n\n```bash\n# 假设你已在项目根目录\n# 创建 .roo 配置目录\nmkdir -p .roo\n\n# 如果你已经克隆了框架仓库 (例如在 ..\u002Fmnehmos.multi-agent.framework)\n# 复制模式定义文件\ncp ..\u002Fmnehmos.multi-agent.framework\u002Ftemplates\u002Fcustom_modes.yaml .roo\u002F\n\n# 复制通用智能体契约文件到项目根目录\ncp ..\u002Fmnehmos.multi-agent.framework\u002Ftemplates\u002Funiversal\u002FAGENTS.md .\n```\n\n*如果没有克隆仓库，请直接前往 GitHub 仓库下载以下两个文件并放置到对应位置：*\n*   `templates\u002Fcustom_modes.yaml` → 放入项目的 `.roo\u002F` 目录\n*   `templates\u002Funiversal\u002FAGENTS.md` → 放入项目根目录\n\n### 2. 配置全局指令\n\n为了让 IDE 识别所有模式的契约，需要配置全局指令：\n\n1.  打开文件 `templates\u002Fcustom-instructions-for-all-modes.md` (位于框架源码中)。\n2.  复制其全部内容。\n3.  在你的 IDE 设置中找到 **\"Global Instructions\"** (全局指令) 或 **\"System Prompt\"** 字段。\n4.  将内容粘贴进去并保存。\n\n### 3. (可选) 集成 MCP 工具扩展能力\n\n根据需求分层级安装 MCP (Model Context Protocol) 服务器，以赋予智能体更多能力：\n\n| 层级 | 功能描述 | 安装参考文档 |\n| :--- | :--- | :--- |\n| **Tier 2** | **躯体层 (Somatic)**: 电脑自动化 (文件\u002F屏幕\u002F键盘\u002F鼠标) | `templates\u002Ftools\u002Fooda-mcp.md` |\n| **Tier 3** | **自主层 (Autonomic)**: 记忆持久化 & RAG 检索 | `templates\u002Ftools\u002Fsynch-mcp.md` \u003Cbr> `templates\u002Ftools\u002Findex-foundry-mcp.md` |\n| **Tier 4** | **反射层 (Reflex)**: 输入验证与契约强制执行 | `templates\u002Ftools\u002Ftrace-mcp.md` |\n\n*具体安装命令请参考上述对应的 `.md` 文档，通常涉及在 IDE 的 MCP 配置中添加 server 路径。*\n\n## 基本使用\n\n安装完成后，框架会自动激活 **13 种专用模式**。你无需手动切换复杂的参数，只需在对话中指定模式名称或让 AI 根据任务自动调度。\n\n### 核心工作流示例\n\n#### 场景：开发一个新的用户认证功能\n\n**1. 规划阶段 (Central - Brain)**\n在对话框中输入：\n```text\n@Planner 请为 JWT 认证功能制定任务地图，分析现有依赖并列出待办事项。\n```\n*系统将调用 `Planner` 模式，输出任务分解和依赖关系。*\n\n**2. 架构设计 (Central - Brain)**\n```text\n@Architect 基于上述计划，设计认证模块的系统架构，并生成 ADR (架构决策记录)。\n```\n*系统将调用 `Architect` 模式，定义接口契约和数据结构。*\n\n**3. 测试驱动开发 (Somatic - Body)**\n利用内置的 TDD 循环（红 - 绿 - 蓝）：\n```text\n@Red-Phase 为登录接口编写失败的测试用例。\n```\n*(等待测试失败)*\n```text\n@Green-Phase 实现最小化的登录逻辑以通过测试。\n```\n*(等待测试通过)*\n```text\n@Blue-Phase 重构代码，保持测试绿色并优化结构。\n```\n\n**4. 深度研究 (Central - Brain)**\n如果需要查阅最新的安全最佳实践：\n```text\n@Deep-Research 调研 2024 年最新的 JWT 安全漏洞及防御策略，并更新我们的实现方案。\n```\n\n### 核心协议说明\n\n在使用过程中的所有交互都遵循以下核心协议，确保输出的结构化：\n\n*   **OODA 循环**: 所有任务自动遵循 观察 (Observe) → 调整 (Orient) → 决策 (Decide) → 行动 (Act) 的闭环。\n*   **回旋镖协议 (Boomerang Protocol)**: 每个任务完成后，智能体会返回标准的 JSON 状态报告，包含变更文件、运行测试及摘要，便于后续环节衔接。\n\n```json\n\u002F\u002F 任务完成后的典型返回结构\n{\n  \"type\": \"task-completed\",\n  \"task_id\": \"auth-impl-001\",\n  \"from\": \"green-phase\",\n  \"status\": \"success\",\n  \"files_changed\": [\"src\u002Fauth\u002Fjwt.ts\"],\n  \"tests_run\": [\"npm test -- auth\"],\n  \"summary\": \"Implemented JWT validation\"\n}\n```\n\n通过以上步骤，你的 LLM 已从单一的文本生成器转变为具备完整神经系统的智能开发伙伴。","一位全栈开发者正试图让 AI 助手独立修复一个涉及前端界面错乱、后端逻辑错误及数据库不一致的复杂生产事故。\n\n### 没有 mnehmos.multi-agent.framework 时\n- **感知缺失**：AI 仅能基于文本对话猜测问题，无法像“躯体神经系统”一样直接操控鼠标点击复现 bug 或读取屏幕实时状态。\n- **记忆断层**：在多轮调试中，AI 经常遗忘之前的尝试路径和文件锁状态，导致重复执行无效操作甚至引发冲突。\n- **反应迟钝**：缺乏“反射弧”机制，错误的代码格式或违规的参数输入需经过漫长的中央思考后才被驳回，浪费大量算力与时间。\n- **协作混乱**：多个任务（如搜索文档、编写代码、运行测试）串行处理，缺乏自主神经系统的后台同步能力，整体效率极低。\n\n### 使用 mnehmos.multi-agent.framework 后\n- **具身感知**：通过 OODA MCP（躯体层），AI 能直接控制键鼠操作浏览器复现故障，并截取屏幕画面进行视觉分析，精准定位 UI 异常。\n- **持久记忆**：Synch MCP（自主层）自动维护会话状态与文件锁，确保多步操作中的数据一致性，让 AI 像拥有长期记忆般连贯工作。\n- **即时反射**：Trace MCP（反射层）在指令进入核心大脑前即刻拦截非法输入与类型错误，将无效尝试阻断在毫秒级之内。\n- **并行协同**：中央大脑统筹规划，自主神经系统后台并行执行文献检索（arXiv MCP）与索引构建，实现“思考”与“背景处理”的高效解耦。\n\nmnehmos.multi-agent.framework 将原本孤立的聊天机器人升级为具备感知、记忆与反射能力的有机智能体，使复杂工程问题的解决从“纸上谈兵”变为“实地作战”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMnehmos_mnehmos.multi-agent.framework_456f9110.png","Mnehmos","Vario","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMnehmos_0c5267ef.png","MCP Developer and Workflow automation | Looking for work\r\n\r\n","Mnehmos@gmail.com","https:\u002F\u002Fgithub.com\u002FMnehmos\u002FMnehmos","https:\u002F\u002Fgithub.com\u002FMnehmos",[80,84,88],{"name":81,"color":82,"percentage":83},"Astro","#ff5a03",81.2,{"name":85,"color":86,"percentage":87},"CSS","#663399",10,{"name":89,"color":90,"percentage":91},"JavaScript","#f1e05a",8.9,540,67,"2026-04-05T18:57:58","MIT",4,"未说明",{"notes":99,"python":97,"dependencies":100},"该工具并非传统的 Python 库或模型，而是一套用于 AI 辅助 IDE（如 Roo Code, Claude Code, Cursor, Copilot）的配置模板和多智能体架构框架。其核心运行依赖于外部 MCP（Model Context Protocol）服务器（如 OODA MCP, Synch MCP 等），这些服务器需单独安装和配置。用户主要需要按照文档将 YAML 和 Markdown 模板文件复制到项目目录，并在 IDE 中配置全局指令。具体的系统资源需求取决于所连接的大语言模型后端及所选用的 MCP 工具（例如涉及屏幕自动化或本地 RAG 时会有额外需求），框架本身无特定的 GPU、内存或 Python 版本硬性要求。",[97],[13,14],"2026-03-27T02:49:30.150509","2026-04-07T17:02:19.189280",[],[]]