memory-bank-mcp
memory-bank-mcp 是一款基于模型上下文协议(MCP)构建的远程记忆库管理服务,灵感源自 Cline Memory Bank 项目。它旨在解决传统基于文件的记忆库在多项目管理中面临的分散、结构不一致及访问受限等痛点。通过将本地文件转化为集中式服务,memory-bank-mcp 让 AI 助手能够安全、高效地跨项目读取和更新上下文信息,同时严格维持文件结构的规范性。
这款工具特别适合正在使用 Cline、Roo Code、Cursor 或 Claude Desktop 等 AI 编程助手的开发者。对于需要维护复杂项目文档、长期任务状态或团队知识库的用户而言,它能显著提升 AI 对项目背景的理解能力与连续性。
其核心技术亮点在于强大的多项目支持与安全隔离机制。memory-bank-mcp 不仅支持按项目划分目录和自动验证文件结构,还内置了防止路径遍历的安全策略,确保不同项目的记忆数据互不干扰。此外,它提供了类型安全的远程操作接口,涵盖读写更新、项目列举及文件查询等功能,并允许用户灵活配置自动审批策略,在保障安全的前提下优化交互体验。无论是个人开发者管理多个代码库,还是团队协同构建知识系统,memory-bank-mcp 都能提供一个稳定可靠的底层记忆支撑。
使用场景
某全栈开发者同时维护三个微服务项目,需要 AI 助手在跨项目切换时准确记住每个项目的架构决策、待办事项和技术债务。
没有 memory-bank-mcp 时
- 上下文频繁丢失:每次切换项目对话,AI 都会“失忆”,开发者不得不反复粘贴之前的架构文档或重新描述背景。
- 文件管理混乱:各项目的记忆文件散落在不同文件夹中,缺乏统一结构,AI 难以自动定位正确的参考文档。
- 操作风险高:AI 在尝试更新记忆文件时可能误写其他项目数据,缺乏隔离机制导致潜在的数据污染。
- 协作效率低:团队成员无法通过统一接口远程访问或验证特定项目的记忆库,只能依赖本地文件传输。
使用 memory-bank-mcp 后
- 上下文无缝衔接:memory-bank-mcp 为每个项目建立独立目录,AI 通过 MCP 协议自动加载对应项目的记忆文件,切换项目时无需重复背景介绍。
- 结构标准化:强制统一的文件结构和路径校验,确保 AI 总能按预期读取“产品需求”或“技术栈”等关键信息。
- 安全隔离保障:内置的项目隔离机制防止路径遍历攻击,AI 只能在授权范围内读写,彻底杜绝误改其他项目数据的风险。
- 远程协同增强:支持远程访问和类型安全的操作,团队成员可直接让 AI 列出所有项目或检查特定文件的最新状态,协作更流畅。
memory-bank-mcp 将分散的本地笔记转化为集中、安全且可远程调用的智能记忆中枢,让 AI 真正成为懂项目历史的长期合作伙伴。
运行环境要求
- Linux
- macOS
- Windows
无 GPU 需求
未说明

快速开始
内存库 MCP 服务器
一个基于模型上下文协议(MCP)的远程内存库管理服务器实现,灵感来源于 Cline Memory Bank。
概述
Memory Bank MCP 服务器将传统的基于文件的内存库转换为集中式服务,具备以下功能:
- 通过 MCP 协议提供对内存库文件的远程访问
- 支持多项目内存库管理
- 维护一致的文件结构和验证机制
- 确保各项目内存库之间的适当隔离
功能特性
多项目支持
- 项目专用目录
- 文件结构强制执行
- 防止路径遍历攻击
- 项目列表功能
- 按项目列出文件
远程可访问性
- 完整的 MCP 协议实现
- 类型安全的操作
- 合理的错误处理
- 通过项目隔离确保安全性
核心操作
- 读取/写入/更新内存库文件
- 列出可用项目
- 列出项目中的文件
- 验证项目是否存在
- 安全的只读操作
安装
要通过 Smithery 自动安装用于 Claude Desktop 的 Memory Bank 服务器:
npx -y @smithery/cli install @alioshr/memory-bank-mcp --client claude
这将自动设置 MCP 服务器配置。或者,您也可以按照下面的“配置”部分手动配置服务器。
快速入门
- 在您的设置中配置 MCP 服务器(参见下方的“配置”部分)
- 开始在您的 AI 助手中使用内存库工具
与 Cline/Roo Code 配合使用
Memory Bank MCP 服务器需要在您的 Cline MCP 设置文件中进行配置。具体位置取决于您的设置:
- 对于 Cline 扩展:
~/Library/Application Support/Cursor/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json - 对于 Roo Code VS Code 扩展:
~/Library/Application Support/Code/User/globalStorage/rooveterinaryinc.roo-cline/settings/mcp_settings.json
将以下配置添加到您的 MCP 设置中:
{
"allpepper-memory-bank": {
"command": "npx",
"args": ["-y", "@allpepper/memory-bank-mcp"],
"env": {
"MEMORY_BANK_ROOT": "<path-to-bank>"
},
"disabled": false,
"autoApprove": [
"memory_bank_read",
"memory_bank_write",
"memory_bank_update",
"list_projects",
"list_project_files"
]
}
}
配置详情
MEMORY_BANK_ROOT:存储项目内存库的目录(例如/path/to/memory-bank)disabled:设置为false以启用服务器autoApprove:无需用户明确批准的操作列表:memory_bank_read:读取内存库文件memory_bank_write:创建新的内存库文件memory_bank_update:更新现有内存库文件list_projects:列出可用项目list_project_files:列出项目中的文件
与 Cursor 配合使用
对于 Cursor,请打开设置 -> 功能 -> 添加 MCP 服务器 -> 添加以下内容:
env MEMORY_BANK_ROOT=<path-to-bank> npx -y @allpepper/memory-bank-mcp@latest
与 Claude 配合使用
- Claude 桌面配置文件:
~/Library/Application Support/Claude/claude_desktop_config.json - Claude Code 配置文件:
~/.claude.json
- 找到配置文件
- 找到名为
mcpServers的属性 - 粘贴以下内容:
"allPepper-memory-bank": {
"type": "stdio",
"command": "npx",
"args": [
"-y",
"@allpepper/memory-bank-mcp@latest"
],
"env": {
"MEMORY_BANK_ROOT": "YOUR PATH"
}
}
自定义 AI 指令
本节包含应粘贴到 AI 自定义指令中的指令,适用于 Cline、Claude 或 Cursor,以及其他任何 MCP 客户端。您应该复制并粘贴这些规则。有关参考,请参阅 custom-instructions.md,其中包含了这些规则。
开发
基本开发命令:
# 安装依赖
npm install
# 构建项目
npm run build
# 运行测试
npm run test
# 监视模式下运行测试
npm run test:watch
# 使用 ts-node 直接运行服务器以快速测试
npm run dev
使用 Docker 运行
构建 Docker 镜像:
docker build -t memory-bank-mcp:local .运行 Docker 容器进行测试:
docker run -i --rm \ -e MEMORY_BANK_ROOT="/mnt/memory_bank" \ -v /path/to/memory-bank:/mnt/memory_bank \ --entrypoint /bin/sh \ memory-bank-mcp:local \ -c "ls -la /mnt/memory_bank"添加 MCP 配置,例如针对 Roo Code:
"allpepper-memory-bank": { "command": "docker", "args": [ "run", "-i", "--rm", "-e", "MEMORY_BANK_ROOT", "-v", "/path/to/memory-bank:/mnt/memory_bank", "memory-bank-mcp:local" ], "env": { "MEMORY_BANK_ROOT": "/mnt/memory_bank" }, "disabled": false, "alwaysAllow": [ "list_projects", "list_project_files", "memory_bank_read", "memory_bank_update", "memory_bank_write" ] }
贡献
欢迎贡献!请按照以下步骤操作:
- 分支仓库
- 创建功能分支 (
git checkout -b feature/amazing-feature) - 提交更改 (
git commit -m '添加惊人功能') - 推送到分支 (
git push origin feature/amazing-feature) - 打开拉取请求
开发指南
- 所有新代码均使用 TypeScript
- 维护整个代码库的类型安全性
- 为新功能添加测试
- 根据需要更新文档
- 遵循现有代码风格和模式
测试
- 为新功能编写单元测试
- 包含多项目场景测试
- 彻底测试错误情况
- 验证类型约束
- 适当地模拟文件系统操作
许可证
本项目采用 MIT 许可证授权——详情请参阅 LICENSE 文件。
致谢
本项目实现了最初在Cline Memory Bank中记录的记忆库概念,并在此基础上扩展了远程功能和多项目支持。
常见问题
相似工具推荐
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
gstack
gstack 是 Y Combinator CEO Garry Tan 亲自开源的一套 AI 工程化配置,旨在将 Claude Code 升级为你的虚拟工程团队。面对单人开发难以兼顾产品战略、架构设计、代码审查及质量测试的挑战,gstack 提供了一套标准化解决方案,帮助开发者实现堪比二十人团队的高效产出。 这套配置特别适合希望提升交付效率的创始人、技术负责人,以及初次尝试 Claude Code 的开发者。gstack 的核心亮点在于内置了 15 个具有明确职责的 AI 角色工具,涵盖 CEO、设计师、工程经理、QA 等职能。用户只需通过简单的斜杠命令(如 `/review` 进行代码审查、`/qa` 执行测试、`/plan-ceo-review` 规划功能),即可自动化处理从需求分析到部署上线的全链路任务。 所有操作基于 Markdown 和斜杠命令,无需复杂配置,完全免费且遵循 MIT 协议。gstack 不仅是一套工具集,更是一种现代化的软件工厂实践,让单人开发者也能拥有严谨的工程流程。
codex
Codex 是 OpenAI 推出的一款轻量级编程智能体,专为在终端环境中高效运行而设计。它允许开发者直接在命令行界面与 AI 交互,完成代码生成、调试、重构及项目维护等任务,无需频繁切换至浏览器或集成开发环境,从而显著提升了编码流程的连贯性与专注度。 这款工具主要解决了传统 AI 辅助编程中上下文割裂的问题。通过将智能体本地化运行,Codex 能够更紧密地结合当前工作目录的文件结构,提供更具针对性的代码建议,同时支持以自然语言指令驱动复杂的开发操作,让“对话即编码”成为现实。 Codex 非常适合习惯使用命令行的软件工程师、全栈开发者以及技术研究人员。对于追求极致效率、偏好键盘操作胜过图形界面的极客用户而言,它更是理想的结对编程伙伴。 其独特亮点在于灵活的部署方式:既可作为全局命令行工具通过 npm 或 Homebrew 一键安装,也能无缝对接现有的 ChatGPT 订阅计划(如 Plus 或 Pro),直接复用账户权益。此外,它还提供了从纯文本终端到桌面应用的多形态体验,并支持基于 API 密钥的深度定制,充分满足不同场景下的开发需求。

