Memoh
Memoh 是一个支持私有化部署、全天候运行的 AI 智能体平台。它允许用户创建多个拥有独立“长期记忆”的 AI 机器人,并将它们连接到 Telegram、Discord、飞书、微信、邮件等多种通讯渠道,实现跨平台的持续交互。
针对传统 AI 助手往往“聊完即忘”且难以在本地持久运行的痛点,Memoh 为每个机器人提供了独立的容器化运行环境。这就好比给每个 AI 分配了一台专属的虚拟电脑,它们不仅拥有独立的文件系统和网络空间,还能记住与不同用户的过往对话细节,真正实现了具备连续性的智能陪伴。此外,它还支持通过 MCP 协议调用外部工具,让 AI 能够执行命令、浏览网页或处理文件。
这款工具非常适合希望搭建私人 AI 助理的技术爱好者、需要多角色协作的开发团队,以及注重数据隐私、希望在本地掌控 AI 记忆的普通用户。其核心技术亮点在于“容器化隔离”与“混合记忆引擎”:基于 Go 语言构建使其轻量高效,能在边缘设备上流畅运行;同时采用云端推理结合本地记忆存储的混合架构,既保证了智能水平,又确保了数据隐私安全。通过直观的图形化界面,用户无需编写代码即可轻松配置和管理自己的 AI 军团。
使用场景
某独立开发者希望构建一个能 24 小时待命、自动处理 GitHub Issue 并同步通知到 Discord 社区的智能助手,同时确保代码库敏感数据不泄露。
没有 Memoh 时
- 记忆断层严重:每次重启脚本或切换会话,AI 就“失忆”了,无法关联用户几天前提到的需求细节,导致重复沟通。
- 环境隔离困难:为了让 AI 执行代码测试,不得不开放宿主机的完整权限,一旦 AI 被注入恶意指令,整个开发服务器面临风险。
- 多平台对接繁琐:需要分别编写 Telegram、Discord 和邮件的适配代码,维护多套回调逻辑,开发成本极高。
- 隐私顾虑重重:为了获得长期记忆能力,被迫将聊天记录和用户上下文上传至第三方云端服务,核心业务逻辑存在泄露隐患。
使用 Memoh 后
- 持久化长记忆:Memoh 为每个 Bot 分配独立的容器化存储空间,自动提取并保存关键事实,即使服务重启也能精准回忆上周讨论的技术方案。
- 原生容器隔离:每个 AI 助手运行在独立的容器中,拥有专属文件系统和网络沙箱,即便执行危险命令也仅影响当前容器,宿主机安然无恙。
- 零代码多端集成:通过图形化界面即可一键连接 Discord、Telegram 等多个渠道,同一个 Bot 大脑在不同平台间无缝切换,身份自动识别。
- 本地优先架构:敏感索引和记忆数据默认存储在本地,仅将推理任务发送至云端模型,既享受了大模型的智能,又牢牢锁住了数据隐私。
Memoh 让开发者能以极低的运维成本,拥有一组具备独立“大脑”和安全沙箱的 24 小时在线智能员工。
运行环境要求
- Linux
- macOS
未说明 (主要依赖云端推理或本地轻量级模型,核心服务由 Go 编写)
未说明 (描述为 Lightweight & Fast,适用于边缘设备)

快速开始
Memoh 是一个始终在线、容器化的 AI 代理系统。您可以创建多个 AI 机器人,每个机器人运行在独立的隔离容器中,并拥有持久化内存,通过 Telegram、Discord、飞书、QQ、Matrix、企业微信、微信、电子邮件或内置的 Web UI 与它们交互。机器人可以执行命令、编辑文件、浏览网页、通过 MCP 调用外部工具,并记住一切——就像为每个机器人配备了一台独立的计算机和大脑。
快速开始
一键安装(**需要 Docker):
curl -fsSL https://memoh.sh | sudo sh
静默安装并使用所有默认设置:curl -fsSL ... | sudo sh -s -- -y
或者手动安装:
git clone --depth 1 https://github.com/memohai/Memoh.git
cd Memoh
cp conf/app.docker.toml config.toml
# 编辑 config.toml
sudo docker compose up -d
安装特定版本:
curl -fsSL https://memoh.sh | sudo MEMOH_VERSION=v0.6.0 sh使用 CN 镜像加速镜像拉取:
curl -fsSL https://memoh.sh | sudo USE_CN_MIRROR=true sh在 macOS 上,或者如果您的用户属于
docker用户组,则无需使用sudo。
启动后访问 http://localhost:8082。默认登录账号:admin / admin123
有关自定义配置和生产环境部署,请参阅 DEPLOYMENT.md。
为什么选择 Memoh?
Memoh 的设计宗旨是实现始终在线的连续性——让 AI 始终保持在线状态,而记忆则始终属于您。
- 轻量级且快速:采用 Go 语言构建,适合作为家庭或工作室的基础架构,在边缘设备上也能高效运行。
- 默认容器化:每个机器人运行在独立的隔离容器中,拥有自己的文件系统、网络和工具。
- 混合架构:云端推理用于前沿模型的能力,本地优先的记忆和索引则确保隐私。
- 多用户友好:明确的共享与隐私边界,适用于不同用户和机器人之间的协作。
- 全图形化配置:通过现代化的 Web UI 配置机器人、频道、MCP、技能以及所有设置——无需编写代码。
功能特性
核心功能
- 🤖 多机器人与多用户:创建多个机器人,它们可以进行私聊、群聊或彼此对话。机器人能够在群聊中区分不同用户,记住每个人的上下文,并支持跨平台的身份绑定。
- 📦 容器化:每个机器人运行在独立的 isolated containerd 容器中,拥有专属的文件系统和网络——就像拥有一台独立的计算机。支持快照、数据导出/导入以及版本管理。
- 🧠 记忆工程:基于 LLM 的事实提取、混合检索(稠密 + 稀疏 + BM25)、24 小时上下文加载、记忆压缩与重建。可插拔后端:内置(关闭 / 稀疏 / 稠密)、Mem0、OpenViking。
- 💬 9 种通信渠道:Telegram、Discord、飞书、QQ、Matrix、企业微信、微信、电子邮件(Mailgun / SMTP / Gmail OAuth),以及内置的 Web UI——提供统一的流式传输、富文本和附件支持。
代理能力
- 🔧 MCP(模型上下文协议):全面支持 MCP(HTTP / SSE / Stdio / OAuth)。连接外部工具服务器以扩展功能;每个机器人管理自己独立的 MCP 连接。
- 🌐 浏览器自动化:通过 Playwright 使用无头 Chromium/Firefox——导航、点击、填写表单、截图、读取无障碍树、管理标签页。
- 🎭 技能与子代理:通过模块化技能文件定义机器人的个性;将复杂任务委派给具有独立上下文的子代理。
- ⏰ 自动化:基于 Cron 的定时任务和周期性心跳,实现机器人自主运行。
管理功能
- 🖥️ Web UI:现代化仪表盘(Vue 3 + Tailwind CSS)——流式聊天、工具调用可视化、文件管理器、所有设置的可视化配置界面。支持深色/浅色主题及多语言切换。
- 🔐 访问控制:基于优先级的 ACL 规则,支持允许/拒绝操作,可根据频道身份、频道类型或对话范围进行限制。
- 🧪 多模型支持:任何兼容 OpenAI、Anthropic 或 Google 的大模型提供商。支持为每个机器人分配不同的模型、提供商 OAuth 认证,以及自动模型导入。
- 🚀 一键部署:使用 Docker Compose 实现自动迁移、containerd 设置和 CNI 网络配置。
内存系统
Memoh 的内存系统围绕内存提供者构建——这些可插拔的后端决定了机器人如何存储、检索和管理长期记忆。
| 提供者 | 描述 |
|---|---|
| 内置 | 自托管,随 Memoh 一起提供。三种模式:关闭(基于文件,无向量搜索)、稀疏(通过本地模型生成神经稀疏向量,无需 API 费用)、稠密(通过 Qdrant 进行嵌入式语义搜索)。 |
| Mem0 | 基于 Mem0 API 的 SaaS 内存服务。 |
| OpenViking | 自托管或 SaaS 内存服务,拥有自己的 API。 |
每个机器人会绑定一个内存提供者。在聊天过程中,机器人会自动从每一轮对话中提取关键事实,并将其存储为结构化记忆。每当收到新消息时,机器人会通过混合搜索检索最相关的记忆,并将其注入到自身的上下文中——从而在多次对话中实现个性化的长期记忆。
其他功能还包括记忆压缩(合并冗余条目)、重建、手动创建/编辑,以及向量流形可视化(Top-K 分布与累积分布函数曲线)。有关设置详情,请参阅 文档。
画廊
![]() |
![]() |
![]() |
| 聊天 | 容器 | 提供商 |
![]() |
![]() |
![]() |
| 文件管理器 | 定时任务 | Token 使用量 |
架构
flowchart TB
subgraph 客户端 [" 客户端 "]
direction LR
CH["渠道<br/>Telegram · Discord · 飞书 · QQ<br/>Matrix · 微信企业号 · 微信 · 邮件"]
WEB["Web UI (Vue 3 :8082)"]
end
CH & WEB --> API
subgraph 服务器 [" 服务器 · Go :8080 "]
API["REST API 和渠道适配器"]
subgraph 代理 [" 进程内 AI 代理 "]
TWILIGHT["Twilight AI SDK<br/>OpenAI · Anthropic · Google"]
CONV["对话流程<br/>流式处理 · 情感分析 · 循环检测"]
end
subgraph 工具提供商 [" 工具提供商 "]
direction LR
T_CORE["记忆 · 网络搜索<br/>日程 · 联系人 · 收件箱"]
T_EXT["容器 · 邮件 · 浏览器<br/>子代理 · 技能 · TTS<br/>MCP 联盟"]
end
API --> 代理 --> 工具提供商
end
PG[("PostgreSQL")]
QD[("Qdrant")]
BROWSER["浏览器网关<br/>(Playwright :8083)"]
subgraph 工作空间 [" 工作空间容器 · containerd "]
direction LR
BA["机器人 A"] ~~~ BB["机器人 B"] ~~~ BC["机器人 C"]
end
服务器 --- PG
服务器 --- QD
工具提供商 -.-> 浏览器
工具提供商 -- "gRPC 桥接 UDS" --> 工作空间
为本项目诞生的子项目
- Twilight AI — 一个轻量级、符合 Go 语言习惯的 AI SDK — 受 Vercel AI SDK 启发。与供应商无关(OpenAI、Anthropic、Google),提供一流的流式处理、工具调用、MCP 支持和嵌入功能。
路线图
更多详情请参阅 路线图。
开发
开发环境搭建请参考 CONTRIBUTING.md。
星标历史
贡献者
许可证: AGPLv3
版权所有 © 2026 Memoh。保留所有权利。
版本历史
v0.7.0-beta.12026/04/04v0.6.32026/04/02v0.6.22026/04/01v0.6.12026/03/31v0.6.02026/03/30v0.6.0-beta.52026/03/29v0.6.0-beta.42026/03/29v0.6.0-beta.32026/03/28v0.6.0-beta.22026/03/28v0.6.0-beta.12026/03/28v0.5.02026/03/16v0.5.0-beta.12026/03/14v0.4.32026/03/11v0.4.22026/03/07v0.4.12026/03/07v0.4.02026/03/07v0.3.12026/03/04v0.3.02026/03/04v0.2.02026/03/01v0.2.0-beta.12026/03/01常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。






