[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-wangziqi06--724-office":3,"tool-wangziqi06--724-office":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150720,2,"2026-04-11T11:33:10",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":73,"owner_company":73,"owner_location":73,"owner_email":73,"owner_twitter":73,"owner_website":73,"owner_url":75,"languages":76,"stars":81,"forks":82,"last_commit_at":83,"license":84,"difficulty_score":32,"env_os":85,"env_gpu":86,"env_ram":87,"env_deps":88,"category_tags":102,"github_topics":73,"view_count":32,"oss_zip_url":73,"oss_zip_packed_at":73,"status":17,"created_at":103,"updated_at":104,"faqs":105,"releases":106},6624,"wangziqi06\u002F724-office","724-office","7\u002F24 Office — Self-evolving AI Agent system. 36 tools, 10,000 lines pure Python, modular architecture, MCP plugins, three-layer memory, nudge system, AI mirror, 24\u002F7 production.","724-office 是一个全天候运行的自进化 AI 智能体系统，旨在为用户提供持续、自主的生产力支持。它不依赖 LangChain 等重型框架，仅用约一万行纯 Python 代码构建，解决了传统 AI 应用架构臃肿、难以长期稳定运行及缺乏自我修正能力的痛点。\n\n该系统特别适合希望深入理解 AI 智能体底层逻辑的开发者、研究人员，以及需要定制化自动化办公解决方案的技术团队。普通用户也可通过其集成的群聊、日程管理及多媒体处理功能获得高效协助。\n\n724-office 的核心亮点在于其独特的“自进化”机制：具备三层记忆系统（会话、压缩长时记忆、向量检索），能像人类一样积累经验；内置“轻推系统”可自动检测并纠正模型不使用工具的惰性行为；支持运行时动态创建新工具，甚至能编写代码修复自身错误。此外，其模块化架构、多租户路由管理及可视化的行为分析报告，使其成为一个既轻量又强大的生产级 AI 基础设施，真正实现了 7×24 小时的无人值守运行。","# 7\u002F24 Office -- Self-Evolving AI Agent System\n\nA production-running AI agent built in **~10,000 lines of pure Python** with **zero framework dependency**. No LangChain, no LlamaIndex, no CrewAI -- just the standard library + a few small packages.\n\n**36 tools. 20 files. Modular architecture. Runs 24\u002F7.**\n\nBuilt solo with AI co-development tools. Production 24\u002F7 across multiple users.\n\n## What's New in v2.0\n\n- **Modular tool architecture** -- Split from monolithic `tools.py` into 7 domain modules\n- **Group chat support** -- Independent container for group conversations with @-mention gating\n- **AI Mirror** -- Behavioral profile reports (`soul_report`) + future-self dialogue mode (`future_self`)\n- **Nudge system** -- Structural behavior correction: auto-detects when LLM has tools but doesn't use them\n- **Dynamic tool filtering** -- 5 context profiles (voice\u002Fscheduler\u002Fgroup\u002Fdiagnostic\u002Fdefault) to reduce token waste\n- **Budget-aware system prompt** -- Token budget tracking during system prompt assembly\n- **Inactivity guard** -- Auto-skip cron tasks for dormant users (3-day threshold)\n- **Circuit breaker** -- Disable tools after 3 consecutive failures per session\n- **Interactive visualization** -- ECharts-based HTML pages via `render_page` (line\u002Fbar\u002Fpie\u002Fradar\u002Ftable\u002Freport)\n- **Container reconciliation** -- Router auto-rebuilds missing containers from routing table on startup\n- **Exponential backoff retry** -- Messaging API calls retry 3x with 2\u002F4\u002F8s delays\n- **Session auto-archiving** -- Daily black box recording of all conversations\n\n## Features\n\n- **Tool Use Loop** -- OpenAI-compatible function calling with automatic retry, up to 20 iterations per conversation\n- **Three-Layer Memory** -- Session history + LLM-compressed long-term memory + LanceDB vector retrieval\n- **MCP\u002FPlugin System** -- Connect external MCP servers via JSON-RPC (stdio or HTTP), hot-reload without restart\n- **Runtime Tool Creation** -- The agent can write, save, and load new Python tools at runtime (`create_tool`)\n- **Self-Repair** -- Daily self-check, session health diagnostics, error log analysis, auto-notification on failure\n- **Cron Scheduling** -- One-shot and recurring tasks, persistent across restarts, timezone-aware, inactivity guard\n- **Multi-Tenant Router** -- Docker-based auto-provisioning, one container per user, health-checked, reconciliation\n- **Multimodal** -- Image\u002Fvideo\u002Ffile\u002Fvoice\u002Flink handling, ASR (speech-to-text), vision via base64\n- **Web Search** -- Multi-engine (Tavily, Bocha, GitHub, HuggingFace) with auto-routing and dual-engine default\n- **Video Processing** -- Trim (with intelligent silence detection), add BGM, AI video generation via API\n- **Messaging Integration** -- Pluggable messaging platform with debounce, message splitting, streaming media upload\n- **Group Chat** -- Independent container, @-mention gating, context buffer (last 20 messages), speaker identification\n\n## Architecture\n\n```\n                    +-----------------+\n                    |  Messaging      |\n                    |  Platform       |\n                    +--------+--------+\n                             |\n                    +--------v--------+\n                    |   router.py     |  Multi-tenant routing\n                    |  Auto-provision |  Container reconciliation\n                    |  Group routing  |  Health checking\n                    +--------+--------+\n                             |\n                    +--------v--------+\n                    | xiaowang.py     |  Entry point\n                    |  HTTP server    |  Callback handling\n                    |  Debounce       |  Media download\u002FASR\n                    |  Group support  |  Inactivity tracking\n                    +--------+--------+\n                             |\n                    +--------v--------+\n                    |    llm.py       |  Tool Use Loop (core)\n                    |  Budget-aware   |  Session management\n                    |  system prompt  |  Nudge integration\n                    |  Multimodal     |  Memory injection\n                    +--------+--------+\n                             |\n     +----------+----+------+------+----+-----------+\n     |          |    |             |    |           |\n+----v-----+ +-v----v--+ +-------v-+ +-v--------+ |\n| tools_    | |tools_   | |tools_   | |tools_    | |\n| messaging | |admin    | |search   | |video     | |\n| send\u002Ffile | |exec\u002Fdiag| |web\u002Fmem  | |trim\u002Fbgm  | |\n| schedule  | |plugin   | |recall   | |generate  | |\n+-----------+ |MCP      | +---------+ +----------+ |\n              +----+----+                           |\n              +----v----+  +----------+  +----------v--+\n              |tools_   |  |tools_    |  |  nudge.py   |\n              |page     |  |mirror    |  |  5 rules    |\n              |ECharts  |  |soul rpt  |  |  auto-hint  |\n              |6 types  |  |future    |  +-------------+\n              +---------+  |self      |\n                           +----------+\n              +--------------+--------------+\n              |              |              |\n       +------v------+  +---v--------+  +--v-----------+\n       | memory.py   |  |scheduler.py|  | archive.py   |\n       | 3-layer     |  | cron+once  |  | daily black  |\n       | compress    |  | inactivity |  | box recorder |\n       | deduplicate |  | guard      |  +--------------+\n       | retrieve    |  +------------+\n       +------+------+\n              |\n       +------v------+\n       |mcp_client.py|  JSON-RPC over stdio\u002FHTTP\n       | Auto-reconnect + Hot-reload\n       +-------------+\n```\n\n## Memory System\n\n```\nLayer 1: Session (short-term)\n  - Last 40 messages per session, JSON files\n  - Overflow triggers compression\n  - Auto-archive sessions >100KB\n\nLayer 2: Compressed (long-term)\n  - LLM extracts structured facts from evicted messages\n  - Deduplication via cosine similarity (threshold: 0.92)\n  - Stored as vectors in LanceDB\n\nLayer 3: Retrieval (active recall)\n  - User message -> embedding -> vector search\n  - Top-K relevant memories injected into system prompt\n  - Budget-aware injection (tracks token usage)\n```\n\n## Tool List (36 built-in)\n\n| Category | Module | Tools |\n|----------|--------|-------|\n| Core | `tools_admin` | `exec`, `message` |\n| Files | `tools_admin` | `read_file`, `write_file`, `edit_file`, `list_files` |\n| Scheduling | `tools_messaging` | `schedule`, `list_schedules`, `remove_schedule` |\n| Media Send | `tools_messaging` | `send_image`, `send_file`, `send_video`, `send_link`, `send_location`, `send_namecard` |\n| Video | `tools_video` | `trim_video` (auto-cut silence), `add_bgm`, `generate_video` |\n| Search | `tools_search` | `web_search` (Tavily+Bocha dual-engine), `search_nearby` (geocoding+POI), `search_memory`, `recall` |\n| Visualization | `tools_page` | `render_page` (line\u002Fbar\u002Fpie\u002Fradar\u002Ftable\u002Freport via ECharts) |\n| AI Mirror | `tools_mirror` | `soul_report` (behavioral profile HTML), `future_self` (dialogue mode) |\n| Diagnostics | `tools_admin` | `self_check`, `diagnose`, `task_history`, `code_audit`, `asr_check`, `daily_digest` |\n| Memory | `tools_admin` | `compact_memory`, `compact_guides` |\n| Plugins | `tools_admin` | `create_tool`, `list_custom_tools`, `remove_tool` |\n| MCP | `tools_admin` | `reload_mcp` |\n\n## Module Structure\n\n| File | Lines | Responsibility |\n|------|-------|---------------|\n| `xiaowang.py` | ~1040 | Entry: config, HTTP server, callbacks, debounce, ASR, group support |\n| `llm.py` | ~1260 | LLM API + tool use loop + budget-aware system prompt + nudge integration |\n| `tools.py` | ~37 | Orchestration layer (imports domain modules) |\n| `tools_base.py` | ~314 | Registry + @tool decorator + dynamic filtering + circuit breaker |\n| `tools_messaging.py` | ~550 | Message\u002Ffile\u002Fschedule\u002Flocation\u002Fnamecard tools |\n| `tools_admin.py` | ~860 | Exec\u002Ffile ops\u002Fdiagnostics\u002Fplugins\u002FMCP management |\n| `tools_mirror.py` | ~716 | AI Mirror: soul_report + future_self |\n| `tools_page.py` | ~470 | Interactive HTML page generation (ECharts) |\n| `tools_search.py` | ~293 | Multi-engine web search + memory search |\n| `tools_video.py` | ~394 | Video trim\u002FBGM\u002Fgeneration |\n| `messaging.py` | ~447 | Messaging platform API wrapper + CDN upload\u002Fdownload |\n| `memory.py` | ~1100 | Three-layer memory (session + compressed + vector) |\n| `scheduler.py` | ~652 | Cron + one-shot scheduling + inactivity guard |\n| `router.py` | ~500+ | Multi-tenant Docker router + auto-provisioning + reconciliation |\n| `mcp_client.py` | ~342 | MCP protocol client (JSON-RPC, zero new deps) |\n| `nudge.py` | ~190 | Nudge system: detect tool misuse, auto-inject hints |\n| `archive.py` | ~204 | Daily session archiving (black box recorder) |\n| `audit.py` | ~448 | Automated 11-check code audit |\n\n## Quick Start\n\n### Option 1: Direct Run\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fwangziqi06\u002F724-office.git\ncd 724-office\ncp config.example.json config.json\n# Edit config.json with your API keys\n\npip install croniter lancedb websocket-client pilk numpy httpx beautifulsoup4 pydub jieba fpdf2\n\nmkdir -p workspace\u002Fmemory workspace\u002Ffiles\npython3 xiaowang.py\n```\n\n### Option 2: Docker Deployment (Recommended)\n\n```bash\n# Copy Dockerfile.example -> Dockerfile\n# Copy docker-compose.example.yml -> docker-compose.yml\n# Edit .env with your credentials\n\ndocker compose build\ndocker compose up -d\n```\n\nThe agent starts an HTTP server on port 8080. Point your messaging platform webhook to `http:\u002F\u002FYOUR_SERVER:8080\u002F`.\n\n## Configuration\n\nSee `config.example.json` for the full configuration structure. Key sections:\n\n- **models** -- LLM providers (any OpenAI-compatible API) with fallback chain\n- **messaging** -- Messaging platform credentials and endpoints\n- **memory** -- Three-layer memory system settings (embedding API, similarity threshold)\n- **asr** -- Speech-to-text API credentials\n- **video_api** -- AI video generation API\n- **mcp_servers** -- MCP server connections (stdio or HTTP transport)\n- **page_base_url** -- Base URL for generated visualization pages\n\n## Design Principles\n\n1. **Zero framework dependency** -- Every line is visible and debuggable. No magic. No hidden abstractions.\n2. **Modular tools** -- Adding a capability = adding one `@tool`-decorated function in the appropriate domain module.\n3. **Edge-deployable** -- Designed to run on Jetson Orin Nano (8GB RAM, ARM64). RAM budget under 2GB.\n4. **Self-evolving** -- The agent can create new tools at runtime, diagnose its own issues, and notify the owner.\n5. **Structural behavior correction** -- Don't fix agent mistakes with prompts. Add nudges, hooks, and validation.\n6. **Build for deletion** -- Every module should be cleanly removable when the model gets smarter.\n7. **Context is the scarcest resource** -- Token budget is the core design constraint, not compute.\n\n## License\n\nMIT\n","# 7\u002F24 办公室 -- 自进化 AI 代理系统\n\n一个在生产环境中运行的 AI 代理，由 **约 10,000 行纯 Python** 构建而成，**无任何框架依赖**。不使用 LangChain、LlamaIndex 或 CrewAI——仅依靠标准库和少量小型第三方包。\n\n**36 种工具，20 个文件，模块化架构，全天候运行。**\n\n由一人借助 AI 协同开发工具独立构建，在多用户环境下实现 24\u002F7 全天候生产运行。\n\n## v2.0 新特性\n\n- **模块化工具架构**——从单体的 `tools.py` 拆分为 7 个领域模块\n- **群聊支持**——为群组对话提供独立容器，并引入 @提及权限控制\n- **AI 镜像**——行为画像报告（`soul_report`）+ 未来自我对话模式（`future_self`）\n- **提示系统**——结构化行为纠正：自动检测 LLM 虽有工具却未使用的情况\n- **动态工具过滤**——5 种上下文配置文件（语音\u002F日程\u002F群组\u002F诊断\u002F默认），以减少 token 浪费\n- **预算感知系统提示**——在组装系统提示时跟踪 token 预算\n- **非活跃保护**——对休眠用户（超过 3 天无操作）自动跳过定时任务\n- **熔断机制**——每个会话中连续失败 3 次后禁用相关工具\n- **交互式可视化**——通过 `render_page` 使用 ECharts 生成 HTML 页面（折线图\u002F柱状图\u002F饼图\u002F雷达图\u002F表格\u002F报告）\n- **容器协调**——路由器在启动时会根据路由表自动重建缺失的容器\n- **指数退避重试**——消息 API 调用将进行 3 次重试，延迟分别为 2\u002F4\u002F8 秒\n- **会话自动归档**——每日记录所有对话的黑盒日志\n\n## 功能特性\n\n- **工具使用循环**——兼容 OpenAI 的函数调用功能，具备自动重试机制，每轮对话最多可尝试 20 次\n- **三层记忆体系**——会话历史 + LLM 压缩的长期记忆 + LanceDB 向量检索\n- **MCP\u002F插件系统**——通过 JSON-RPC（stdin 或 HTTP）连接外部 MCP 服务器，支持热加载无需重启\n- **运行时工具创建**——代理可在运行时编写、保存并加载新的 Python 工具（`create_tool`）\n- **自我修复**——每日自检、会话健康诊断、错误日志分析，并在出现故障时自动通知\n- **Cron 定时调度**——支持一次性与周期性任务，任务状态持久化且不受重启影响，具备时区感知与非活跃保护功能\n- **多租户路由**——基于 Docker 的自动资源调配，每个用户独享一个容器，定期健康检查并进行容器协调\n- **多模态支持**——可处理图片、视频、文件、语音及链接等媒体；内置 ASR（语音转文本）功能，并可通过 base64 解析图像内容\n- **网络搜索**——集成多搜索引擎（Tavily、Bocha、GitHub、HuggingFace），具备自动路由与双引擎默认策略\n- **视频处理**——智能静音检测剪辑、添加背景音乐，以及通过 API 进行 AI 视频生成\n- **消息集成**——可插拔的消息平台，支持防抖、消息拆分及流式媒体上传\n- **群聊功能**——独立容器、@提及权限控制、上下文缓冲区（最近 20 条消息）、发言者识别\n\n## 系统架构\n\n```\n                    +-----------------+\n                    |  消息平台       |\n                    +--------+--------+\n                             |\n                    +--------v--------+\n                    |   router.py     |  多租户路由\n                    |  自动调配       |  容器协调\n                    |  群组路由       |  健康检查\n                    +--------+--------+\n                             |\n                    +--------v--------+\n                    | xiaowang.py     |  入口点\n                    |  HTTP 服务器    |  回调处理\n                    |  防抖           |  媒体下载\u002FASR\n                    |  群聊支持       |  非活跃追踪\n                    +--------+--------+\n                             |\n                    +--------v--------+\n                    |    llm.py       |  工具使用循环（核心）\n                    |  预算感知       |  会话管理\n                    |  系统提示       |  提示系统集成\n                    |  多模态         |  记忆注入\n                    +--------+--------+\n                             |\n     +----------+----+------+------+----+-----------+\n     |          |    |             |    |           |\n+----v-----+ +-v----v--+ +-------v-+ +-v--------+ |\n| tools_    | |tools_   | |tools_   | |tools_    | |\n| messaging | |admin    | |search   | |video     | |\n| send\u002Ffile | |exec\u002Fdiag| |web\u002Fmem  | |trim\u002Fbgm  | |\n| schedule  | |plugin   | |recall   | |generate  | |\n+-----------+ |MCP      | +---------+ +----------+ |\n              +----+----+                           |\n              +----v----+  +----------+  +----------v--+\n              |tools_   |  |tools_    |  |  nudge.py   |\n              |page     |  |mirror    |  |  5 条规则    |\n              |ECharts  |  |soul rpt  |  |  自动提示    |\n              |6 types  |  |future    |  +-------------+\n              |self      |\n              +----------+\n              +--------------+--------------+\n              |              |              |\n       +------v------+  +---v--------+  +--v-----------+\n       | memory.py   |  |scheduler.py|  | archive.py   |\n       | 三层         |  | cron+once  |  | 日常黑盒记录 |\n       | 压缩         |  | 非活跃保护|  | 机密存储     |\n       | 去重         |  | 保护       |  +--------------+\n       | 检索         |  +------------+\n       +------+------+\n              |\n       +------v------+\n       |mcp_client.py|  JSON-RPC over stdio\u002FHTTP\n       | 自动重连 + 热加载\n       +-------------+\n```\n\n## 记忆系统\n\n```\n第一层：会话记忆（短期）\n  - 每个会话保留最近 40 条消息，以 JSON 文件形式存储\n  - 当超出容量时触发压缩\n  - 对于超过 100KB 的会话，自动归档\n\n第二层：压缩记忆（长期）\n  - LLM 从被驱逐的消息中提取结构化事实\n  - 采用余弦相似度进行去重（阈值为 0.92）\n  - 存储为向量形式，存入 LanceDB 数据库\n\n第三层：检索记忆（主动回忆）\n  - 用户输入消息 -> 文本嵌入 -> 向量检索\n  - 将最相关的 K 条记忆注入到系统提示中\n  - 注入过程考虑 token 预算，实时跟踪用量\n```\n\n## 工具列表（36个内置）\n\n| 分类 | 模块 | 工具 |\n|----------|--------|-------|\n| 核心 | `tools_admin` | `exec`, `message` |\n| 文件 | `tools_admin` | `read_file`, `write_file`, `edit_file`, `list_files` |\n| 调度 | `tools_messaging` | `schedule`, `list_schedules`, `remove_schedule` |\n| 媒体发送 | `tools_messaging` | `send_image`, `send_file`, `send_video`, `send_link`, `send_location`, `send_namecard` |\n| 视频 | `tools_video` | `trim_video`（自动剪掉静音部分）、`add_bgm`、`generate_video` |\n| 搜索 | `tools_search` | `web_search`（Tavily+Bocha双引擎）、`search_nearby`（地理编码+POI）、`search_memory`、`recall` |\n| 可视化 | `tools_page` | `render_page`（通过ECharts绘制折线图\u002F柱状图\u002F饼图\u002F雷达图\u002F表格\u002F报告） |\n| AI镜像 | `tools_mirror` | `soul_report`（行为画像HTML）、`future_self`（对话模式） |\n| 诊断 | `tools_admin` | `self_check`, `diagnose`, `task_history`, `code_audit`, `asr_check`, `daily_digest` |\n| 内存 | `tools_admin` | `compact_memory`, `compact_guides` |\n| 插件 | `tools_admin` | `create_tool`, `list_custom_tools`, `remove_tool` |\n| MCP | `tools_admin` | `reload_mcp` |\n\n## 模块结构\n\n| 文件 | 行数 | 职责 |\n|------|-------|---------------|\n| `xiaowang.py` | ~1040 | 入口：配置、HTTP服务器、回调、防抖、ASR、群组支持 |\n| `llm.py` | ~1260 | LLM API + 工具使用循环 + 预算感知系统提示 + 提醒集成 |\n| `tools.py` | ~37 | 协调层（导入各领域模块） |\n| `tools_base.py` | ~314 | 注册表 + @tool装饰器 + 动态过滤 + 熔断机制 |\n| `tools_messaging.py` | ~550 | 消息\u002F文件\u002F日程\u002F位置\u002F名片相关工具 |\n| `tools_admin.py` | ~860 | 执行\u002F文件操作\u002F诊断\u002F插件\u002FMCP管理 |\n| `tools_mirror.py` | ~716 | AI镜像：灵魂报告 + 未来自我 |\n| `tools_page.py` | ~470 | 交互式HTML页面生成（ECharts） |\n| `tools_search.py` | ~293 | 多引擎网络搜索 + 记忆搜索 |\n| `tools_video.py` | ~394 | 视频剪辑\u002F添加背景音乐\u002F视频生成 |\n| `messaging.py` | ~447 | 消息平台API封装 + CDN上传\u002F下载 |\n| `memory.py` | ~1100 | 三层记忆系统（会话记忆 + 压缩记忆 + 向量记忆） |\n| `scheduler.py` | ~652 | Cron定时任务 + 一次性调度 + 非活跃保护 |\n| `router.py` | ~500+ | 多租户Docker路由器 + 自动调配 + 对账 |\n| `mcp_client.py` | ~342 | MCP协议客户端（JSON-RPC，无新增依赖） |\n| `nudge.py` | ~190 | 提醒系统：检测工具误用，自动注入提示 |\n| `archive.py` | ~204 | 每日会话归档（黑盒记录器） |\n| `audit.py` | ~448 | 自动化11项代码审计 |\n\n## 快速开始\n\n### 方案一：直接运行\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fwangziqi06\u002F724-office.git\ncd 724-office\ncp config.example.json config.json\n# 编辑config.json以填写您的API密钥\n\npip install croniter lancedb websocket-client pilk numpy httpx beautifulsoup4 pydub jieba fpdf2\n\nmkdir -p workspace\u002Fmemory workspace\u002Ffiles\npython3 xiaowang.py\n```\n\n### 方案二：Docker部署（推荐）\n\n```bash\n# 将Dockerfile.example复制为Dockerfile\n# 将docker-compose.example.yml复制为docker-compose.yml\n# 编辑.env文件以填写您的凭证\n\ndocker compose build\ndocker compose up -d\n```\n\n该代理会在8080端口启动HTTP服务器。请将您的消息平台Webhook指向`http:\u002F\u002FYOUR_SERVER:8080\u002F`。\n\n## 配置\n\n完整配置结构请参见`config.example.json`。关键部分包括：\n\n- **models** -- LLM提供商（任何兼容OpenAI的API），并设置备用链路\n- **messaging** -- 消息平台的凭证和接口地址\n- **memory** -- 三层记忆系统的设置（嵌入式API、相似度阈值）\n- **asr** -- 语音转文本API的凭证\n- **video_api** -- AI视频生成API\n- **mcp_servers** -- MCP服务器连接信息（stdin或HTTP传输）\n- **page_base_url** -- 生成可视化页面的基础URL\n\n## 设计原则\n\n1. **零框架依赖** -- 每一行代码都清晰可见且可调试。没有魔法，没有隐藏的抽象。\n2. **模块化工具** -- 添加一项功能只需在相应领域模块中添加一个`@tool`装饰的函数。\n3. **边缘部署** -- 设计目标是在Jetson Orin Nano（8GB内存，ARM64架构）上运行。内存预算低于2GB。\n4. **自我进化** -- 该代理可以在运行时创建新工具、诊断自身问题，并通知所有者。\n5. **结构性行为修正** -- 不要用提示来纠正代理的错误，而是添加提醒、钩子和验证机制。\n6. **为删除而构建** -- 当模型变得更智能时，每个模块都应该能够被干净地移除。\n7. **上下文是最稀缺的资源** -- 设计的核心约束是token预算，而非计算能力。\n\n## 许可证\n\nMIT","# 724-office 快速上手指南\n\n724-office 是一个基于纯 Python 构建的自进化 AI Agent 系统，无需 LangChain 等重型框架，仅依赖标准库和少量轻量包。它支持多租户路由、三层记忆系统、动态工具创建及可视化报表生成，适合在生产环境中 24\u002F7 运行。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux \u002F macOS (Windows 需 WSL2)\n- **Python 版本**: Python 3.8+\n- **硬件建议**: 最低 2GB 可用内存（专为边缘设备如 Jetson Orin Nano 优化）\n- **网络**: 需访问 OpenAI 兼容 API 及外部服务（搜索、视频生成等）\n\n### 前置依赖\n确保已安装 `git`、`python3` 和 `pip`。若使用 Docker 部署，需安装 `Docker` 和 `Docker Compose`。\n\n## 安装步骤\n\n### 方案一：直接运行（推荐开发调试）\n\n1. **克隆项目**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fwangziqi06\u002F724-office.git\n   cd 724-office\n   ```\n\n2. **配置密钥**\n   复制示例配置文件并填入你的 API Keys（LLM、消息平台、ASR 等）：\n   ```bash\n   cp config.example.json config.json\n   # 请使用编辑器修改 config.json\n   ```\n\n3. **安装依赖**\n   建议使用国内镜像源加速安装：\n   ```bash\n   pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple croniter lancedb websocket-client pilk numpy httpx beautifulsoup4 pydub jieba fpdf2\n   ```\n\n4. **初始化目录**\n   ```bash\n   mkdir -p workspace\u002Fmemory workspace\u002Ffiles\n   ```\n\n5. **启动服务**\n   ```bash\n   python3 xiaowang.py\n   ```\n\n### 方案二：Docker 部署（推荐生产环境）\n\n1. **准备配置文件**\n   ```bash\n   cp Dockerfile.example Dockerfile\n   cp docker-compose.example.yml docker-compose.yml\n   # 编辑 .env 文件填入凭证\n   ```\n\n2. **构建并启动**\n   ```bash\n   docker compose build\n   docker compose up -d\n   ```\n\n## 基本使用\n\n启动成功后，Agent 将在 **8080 端口** 运行 HTTP 服务器。\n\n1. **配置消息平台回调**\n   将你的消息平台（如微信、飞书、钉钉等）的 Webhook 地址指向：\n   `http:\u002F\u002FYOUR_SERVER_IP:8080\u002F`\n\n2. **交互示例**\n   在消息平台中直接向 Agent 发送指令，系统将自动识别意图并调用工具：\n   - **自然对话**: \"帮我总结一下今天的新闻\"（自动调用 `web_search`）\n   - **文件操作**: \"把刚才的内容保存到 summary.txt\"（自动调用 `write_file`）\n   - **数据可视化**: \"画一个展示本周销量的柱状图\"（自动调用 `render_page` 生成 ECharts HTML）\n   - **定时任务**: \"每天早上 9 点提醒我查看邮件\"（自动调用 `schedule`）\n\n3. **验证运行状态**\n   查看终端日志，确认无报错且出现 `Server started` 相关提示。若启用诊断工具，可发送“自检”触发 `self_check` 工具查看系统健康度。","某初创团队的技术负责人需要为多位客户部署定制化的 24 小时智能客服代理，同时要求系统能根据业务反馈自动进化并处理复杂的群聊协作。\n\n### 没有 724-office 时\n- **架构臃肿且维护难**：依赖 LangChain 等重型框架，代码耦合度高，一旦某个组件升级容易导致整个服务崩溃，排查问题耗时极长。\n- **缺乏持续记忆与自愈力**：代理无法跨会话记住用户偏好，遇到工具调用失败时直接“死机”，需要人工重启服务或手动修复日志。\n- **资源浪费严重**：无论用户是否活跃，系统都全量加载所有工具和上下文，导致 Token 消耗巨大且响应延迟高。\n- **群聊协作混乱**：难以区分群组中的提及消息，无法在多人对话中精准识别发言者身份，常出现答非所问的情况。\n\n### 使用 724-office 后\n- **轻量模块化运行**：基于纯 Python 标准库构建的模块化架构，将工具拆分为 7 个独立域模块，支持热插拔 MCP 插件，系统稳定性显著提升。\n- **三层记忆与自我修复**：利用会话历史、压缩长时记忆和向量检索构成的三层记忆体系，配合“断路器”和每日自检机制，自动从错误中恢复并归档黑盒记录。\n- **智能节流与动态过滤**：通过“轻推系统（Nudge）”监测工具使用情况，结合 5 种动态上下文配置文件，仅在必要时加载工具，大幅降低 Token 成本。\n- **精准的群聊网关**：独立的群聊容器支持 @提及门控和说话人识别，确保代理只在被需要时介入，并能准确理解多人协作语境。\n\n724-office 通过零框架依赖的轻量架构和自进化机制，将原本脆弱的单次对话脚本转变为可全天候稳定运行、具备自我修复能力的生产级多租户智能体系统。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwangziqi06_724-office_fca16658.png","wangziqi06",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fwangziqi06_ab7d23f5.png","https:\u002F\u002Fgithub.com\u002Fwangziqi06",[77],{"name":78,"color":79,"percentage":80},"Python","#3572A5",100,1084,164,"2026-04-11T08:10:11","MIT","Linux, macOS","未说明 (设计用于边缘设备如 Jetson Orin Nano，主要依赖 API 调用而非本地推理)","最低 2GB (推荐 8GB+ 以支持多租户 Docker 部署)",{"notes":89,"python":90,"dependencies":91},"该工具无大型框架依赖（如 LangChain），主要通过 API 调用 LLM。支持两种运行方式：直接运行或推荐的 Docker 多租户部署。若使用 Docker 模式，需预先安装 Docker 和 Docker Compose。配置需填写各类 API Key（LLM、消息平台、ASR、视频生成等）。架构设计轻量，旨在占用内存低于 2GB 的情况下在边缘设备运行。","3.x (具体版本未说明，需支持所列依赖库)",[92,93,94,95,96,97,98,99,100,101],"croniter","lancedb","websocket-client","pilk","numpy","httpx","beautifulsoup4","pydub","jieba","fpdf2",[13,14],"2026-03-27T02:49:30.150509","2026-04-11T22:10:57.797663",[],[]]