[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-supermemoryai--supermemory-mcp":3,"tool-supermemoryai--supermemory-mcp":61},[4,17,27,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[14,26],"插件",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[26,14,35,13],"图像",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":10,"last_commit_at":42,"category_tags":43,"status":16},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[26,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":50,"last_commit_at":51,"category_tags":52,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,35,14,13],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":16},8553,"spec-kit","github\u002Fspec-kit","Spec Kit 是一款专为提升软件开发效率而设计的开源工具包，旨在帮助团队快速落地“规格驱动开发”（Spec-Driven Development）模式。传统开发中，需求文档往往与代码实现脱节，导致沟通成本高且结果不可控；而 Spec Kit 通过将规格说明书转化为可执行的指令，让 AI 直接依据明确的业务场景生成高质量代码，从而减少从零开始的随意编码，确保产出结果的可预测性。\n\n该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程，用户只需通过简单的命令行操作，即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念，支持社区扩展与预设模板，允许用户根据特定技术栈定制开发流程。此外，Spec Kit 强调官方维护的安全性，提供稳定的版本管理，帮助开发者在享受 AI 红利的同时，依然牢牢掌握架构设计的主动权，真正实现从“凭感觉写代码”到“按规格建系统”的转变。",88749,"2026-04-17T09:48:14",[15,35,14,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":72,"owner_website":78,"owner_url":79,"languages":80,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":94,"env_deps":95,"category_tags":98,"github_topics":99,"view_count":10,"oss_zip_url":76,"oss_zip_packed_at":76,"status":16,"created_at":102,"updated_at":103,"faqs":104,"releases":105},8911,"supermemoryai\u002Fsupermemory-mcp","supermemory-mcp","Your memories are in ChatGPT... But nowhere else. Universal Memory MCP makes your memories available to every single LLM. No logins or paywall. One command to set it up.","supermemory-mcp 是一款旨在打破大模型记忆壁垒的开源工具。在日常使用中，用户与 ChatGPT 等特定模型交互产生的宝贵记忆和上下文，往往无法迁移到其他大语言模型中，形成了数据孤岛。supermemory-mcp 通过通用的记忆协议（MCP），让用户的历史记忆能够无缝同步并服务于每一个接入的大模型，真正实现了“一次记录，处处可用”。\n\n这款工具特别适合希望在不同 AI 助手间保持对话连续性、构建个性化知识库的普通用户、开发者及研究人员。其核心亮点在于极致的便捷性与开放性：无需注册登录，没有付费门槛，仅需一条命令即可完成配置。它基于高性能的 Supermemory API 构建，支持快速扩展，同时也为有需求的用户提供自托管选项，只需配置 API 密钥即可私有化部署。无论是想将记忆带入任意 MCP 客户端的进阶玩家，还是寻求简单高效记忆管理方案的大众用户，supermemory-mcp 都能让跨模型的智能体验变得流畅自然。","# Supermemory MCP - Universal Memory across LLMs\n\n> [!WARNING] \n> MCP v1 is being deprecated. Please get the latest version from [app.supermemory.ai](https:\u002F\u002Fapp.supermemory.ai).\n> While this repo is maintained and still active, the code for it will be maintained in this moonorepo here https:\u002F\u002Fgithub.com\u002Fsupermemoryai\u002Fsupermemory\u002Ftree\u002Fmain\u002Fapps\u002Fmcp\n\n[![Universal Memory MCP - Your memories, in every LLM you use. | Product Hunt](https:\u002F\u002Fapi.producthunt.com\u002Fwidgets\u002Fembed-image\u002Fv1\u002Ftop-post-badge.svg?post_id=954861&theme=neutral&period=daily&t=1749339045428)](https:\u002F\u002Fwww.producthunt.com\u002Fproducts\u002Fsupermemory?embed=true&utm_source=badge-top-post-badge&utm_medium=badge&utm_source=badge-universal-memory-mcp)\n\n\nClick below for one click install with `.dxt`\n\n\u003Ca href=\"https:\u002F\u002Fassets.supermemory.ai\u002Fmcp-dxt.dxt\">\n  \u003Cimg  width=\"280\" alt=\"Install with Claude DXT\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsupermemoryai_supermemory-mcp_readme_43cb181a8c1e.png\" \u002F>\n\u003C\u002Fa>\n\nRead a detailed blog about it - https:\u002F\u002Fsupermemory.ai\u002Fblog\u002Fthe-ux-and-technicalities-of-awesome-mcps \n\n**Your memories are in ChatGPT... But nowhere else. Universal Memory MCP makes your memories available to every single LLM. No logins or paywall. One command to set it up.**\n\nWhich means you can carry your memories to any MCP client. and it just works!\n\n## Demo (Click on the image for video!)\n\n[![Demo Video](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsupermemoryai_supermemory-mcp_readme_88eadb3b6b3a.png)](https:\u002F\u002Fyoutu.be\u002FST6BR3vT5Xw)\n\n## Getting Started\n\nTo get started, just visit https:\u002F\u002Fapp.supermemory.ai, and follow the instructions on the page.\n\n## Features\n\n- 🚀 Built on top of the [Supermemory API](https:\u002F\u002Fsupermemory.ai), extremely fast and scalable.\n- ✅ No login required\n- 😱 Completely free to use\n- Extremely simple setup.\n\n## Self-hosting\n\nTo self host, get an API key at https:\u002F\u002Fconsole.supermemory.ai, and then simply add it in the `.env` file with `SUPERMEMORY_API_KEY=`\n","# 超级记忆 MCP - 跨大语言模型的通用记忆\n\n> [!WARNING] \n> MCP v1 即将弃用。请访问 [app.supermemory.ai](https:\u002F\u002Fapp.supermemory.ai) 获取最新版本。\n> 尽管本仓库仍被维护且处于活跃状态，但其代码将统一维护在该 monorepo 中：https:\u002F\u002Fgithub.com\u002Fsupermemoryai\u002Fsupermemory\u002Ftree\u002Fmain\u002Fapps\u002Fmcp\n\n[![通用记忆 MCP - 您的记忆，存在于您使用的每一个大语言模型中。| Product Hunt](https:\u002F\u002Fapi.producthunt.com\u002Fwidgets\u002Fembed-image\u002Fv1\u002Ftop-post-badge.svg?post_id=954861&theme=neutral&period=daily&t=1749339045428)](https:\u002F\u002Fwww.producthunt.com\u002Fproducts\u002Fsupermemory?embed=true&utm_source=badge-top-post-badge&utm_medium=badge&utm_source=badge-universal-memory-mcp)\n\n\n点击下方链接，使用 `.dxt` 文件一键安装。\n\n\u003Ca href=\"https:\u002F\u002Fassets.supermemory.ai\u002Fmcp-dxt.dxt\">\n  \u003Cimg  width=\"280\" alt=\"使用 Claude DXT 安装\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsupermemoryai_supermemory-mcp_readme_43cb181a8c1e.png\" \u002F>\n\u003C\u002Fa>\n\n阅读详细博文了解更多信息：https:\u002F\u002Fsupermemory.ai\u002Fblog\u002Fthe-ux-and-technicalities-of-awesome-mcps \n\n**您的记忆目前只存在于 ChatGPT 中……而在其他地方却无处可寻。通用记忆 MCP 让您的记忆能够被任意大语言模型所调用。无需登录，也无付费墙。只需一条命令即可完成设置。**\n\n这意味着您可以将记忆带到任何支持 MCP 的客户端，并且它会自动生效！\n\n## 演示（点击图片观看视频！）\n\n[![演示视频](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsupermemoryai_supermemory-mcp_readme_88eadb3b6b3a.png)](https:\u002F\u002Fyoutu.be\u002FST6BR3vT5Xw)\n\n## 快速上手\n\n要开始使用，只需访问 https:\u002F\u002Fapp.supermemory.ai，并按照页面上的说明操作即可。\n\n## 核心特性\n\n- 🚀 基于 [Supermemory API](https:\u002F\u002Fsupermemory.ai) 构建，速度极快且具备高度可扩展性。\n- ✅ 无需登录\n- 😱 完全免费使用\n- 设置极其简单。\n\n## 自托管\n\n如需自托管，请前往 https:\u002F\u002Fconsole.supermemory.ai 获取 API 密钥，然后将其添加到 `.env` 文件中，格式为 `SUPERMEMORY_API_KEY=`。","# Supermemory MCP 快速上手指南\n\nSupermemory MCP 是一个通用的记忆层工具，旨在让您的记忆数据在不同的 LLM（大语言模型）之间无缝流转。无需登录或付费，即可在任何支持 MCP 的客户端中使用您的记忆。\n\n> **注意**：MCP v1 版本正在逐步弃用。虽然本仓库仍在维护，但建议新用户访问 [app.supermemory.ai](https:\u002F\u002Fapp.supermemory.ai) 获取最新版本和详细文档。核心代码已迁移至 monorepo 架构。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (WSL2 推荐)。\n*   **运行时依赖**：\n    *   Node.js (v18 或更高版本)\n    *   npm 或 pnpm\n*   **MCP 客户端**：已安装并配置好支持 MCP 协议的 AI 编辑器或客户端（如 Claude Desktop, Cursor, Windsurf 等）。\n*   **网络环境**：能够正常访问 `supermemory.ai` 相关服务。\n\n## 安装步骤\n\n您可以选择以下两种方式进行安装：\n\n### 方式一：一键安装（推荐）\n\n如果您使用支持 `.dxt` 格式的客户端（如 Claude Desktop），可以直接点击下方链接进行一键安装：\n\n[![Install with Claude DXT](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F9b0fa2a0-a954-41ee-ac9e-da6e63fc0881)](https:\u002F\u002Fassets.supermemory.ai\u002Fmcp-dxt.dxt)\n\n### 方式二：手动配置\n\n1.  **获取项目代码**（如需自托管或查看源码）：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fsupermemoryai\u002Fsupermemory.git\n    cd supermemory\u002Fapps\u002Fmcp\n    ```\n\n2.  **安装依赖**：\n    ```bash\n    npm install\n    # 或者\n    pnpm install\n    ```\n\n3.  **配置环境变量**（仅自托管需要）：\n    如果您打算自托管服务，请访问 [console.supermemory.ai](https:\u002F\u002Fconsole.supermemory.ai) 获取 API Key，并在项目根目录创建 `.env` 文件：\n    ```bash\n    echo \"SUPERMEMORY_API_KEY=your_api_key_here\" > .env\n    ```\n    *注：直接使用官方云服务无需此步骤，也无需登录。*\n\n4.  **集成到 MCP 客户端**：\n    在您使用的 AI 客户端配置文件（通常是 `claude_desktop_config.json` 或类似文件）中添加以下配置：\n\n    ```json\n    {\n      \"mcpServers\": {\n        \"supermemory\": {\n          \"command\": \"npx\",\n          \"args\": [\"-y\", \"@supermemoryai\u002Fmcp\"]\n        }\n      }\n    }\n    ```\n    *如果是本地开发版本，将 `command` 改为 `node`，`args` 改为指向本地入口文件的路径。*\n\n## 基本使用\n\n安装完成后，无需额外命令即可在对话中激活记忆功能。\n\n1.  **启动您的 MCP 客户端**（例如 Claude Desktop 或 Cursor）。\n2.  **开始对话**：直接在聊天窗口中像往常一样与 AI 交流。\n3.  **自动记忆**：\n    *   当您提供重要信息时，Supermemory 会自动提取并存储。\n    *   在后续的对话中（即使切换了不同的 LLM 模型或客户端），AI 都能自动调用之前存储的记忆上下文。\n\n**示例场景**：\n> **用户**：我喜欢使用 Python 进行数据分析，偏好使用 Pandas 库。\n> *(系统自动记录偏好)*\n>\n> **用户**（在新会话或不同模型中）：帮我写一个读取 CSV 文件的脚本。\n> **AI**：好的，既然您偏好使用 **Python** 和 **Pandas**，这是为您生成的代码...\n\n只需访问 [app.supermemory.ai](https:\u002F\u002Fapp.supermemory.ai) 即可查看和管理已存储的记忆片段。","自由职业开发者小林每天需要在 Claude、Llama 3 和本地部署的 Mistral 等多个不同的大模型间切换，以完成代码重构、文档撰写和方案评审等多样化任务。\n\n### 没有 supermemory-mcp 时\n- **记忆孤岛严重**：在 ChatGPT 中调试好的项目背景和偏好设置，切换到 Claude 时必须重新口述一遍，无法自动同步。\n- **重复劳动繁琐**：每次开启新会话或更换模型客户端，都要手动复制粘贴大量的上下文信息（如技术栈版本、API 密钥规则）。\n- **协作体验割裂**：由于不同模型“记不住”之前的交互历史，导致连续性的开发思路经常中断，需要反复解释前因后果。\n- **成本与门槛高**：若想实现跨平台记忆同步，往往需要购买昂贵的企业版服务或配置复杂的数据库中间件。\n\n### 使用 supermemory-mcp 后\n- **全域记忆互通**：只需一次命令安装，之前在任意模型中沉淀的项目记忆自动同步到所有支持的 LLM 客户端，真正实现“一处记录，处处可用”。\n- **零配置启动**：无需登录账号或支付费用，打开新的模型界面即可直接调用历史上下文，立即进入工作状态。\n- **流畅无缝切换**：从小林常用的 Claude 切换到本地 Mistral 进行隐私敏感任务时，模型依然清楚项目的架构细节，对话连续性不再中断。\n- **极简部署维护**：基于 Supermemory API 构建，无需自建服务器或维护复杂的后端逻辑，一行命令即可完成环境搭建。\n\nsupermemory-mcp 打破了大模型间的记忆壁垒，让开发者能以零成本实现跨平台的个性化智能协作体验。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsupermemoryai_supermemory-mcp_88eadb3b.png","supermemoryai","supermemory","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsupermemoryai_e2c0fdab.png","Give infinite context to your LLMs.",null,"dhravya@supermemory.com","https:\u002F\u002Fsupermemory.com","https:\u002F\u002Fgithub.com\u002Fsupermemoryai",[81,85],{"name":82,"color":83,"percentage":84},"TypeScript","#3178c6",99.6,{"name":86,"color":87,"percentage":88},"CSS","#663399",0.4,1679,178,"2026-04-16T06:41:17","MIT","","未说明",{"notes":96,"python":94,"dependencies":97},"该工具为 MCP（Model Context Protocol）客户端插件，主要通过 .dxt 文件一键安装或作为代码库运行。无需本地登录或付费，核心功能依赖 Supermemory API。若需自托管，需在 .env 文件中配置 SUPERMEMORY_API_KEY。README 中未提及具体的操作系统、GPU、内存、Python 版本及依赖库要求，推测其运行环境需求取决于宿主 MCP 客户端或极简的 API 调用环境。",[],[15,26],[100,101],"cloudflare","mcp","2026-03-27T02:49:30.150509","2026-04-18T14:24:40.333540",[],[]]