deepchat
DeepChat 是一款功能强大的开源 AI 智能体桌面平台,旨在将多样的大语言模型、实用工具与智能体工作流统一整合到一个简洁的界面中。它解决了用户在面对分散的 AI 服务、复杂的本地部署以及缺乏统一操作入口时的痛点,让用户无需在不同网页或终端之间切换,即可流畅地调用云端 API(如 OpenAI、Gemini、Anthropic)或本地运行的 Ollama 模型。
这款工具特别适合开发者、技术研究人员以及希望深度定制 AI 工作流的高级用户。除了基础的多模型对话功能,DeepChat 的核心亮点在于其对前沿协议的支持:通过 MCP(模型上下文协议)实现丰富的工具调用能力,并独家集成 ACP(智能体客户端协议),允许用户将兼容的智能体作为“一等公民”直接在专属工作区中运行和管理。这种设计不仅提升了交互效率,更为构建复杂的自动化任务提供了灵活的基础设施。无论是需要快速验证想法的原型开发,还是构建长期的个人智能助手体系,DeepChat 都能提供稳定且开放的解决方案,帮助用户轻松连接强大的 AI 能力与个人数字世界。
使用场景
某全栈开发者需要在本地调试一个复杂的电商数据分析流程,既要调用云端大模型生成代码,又要让 AI 读取本地数据库并执行 Python 脚本进行实时验证。
没有 deepchat 时
- 模型切换繁琐:需要在浏览器标签页、Postman 和本地终端之间反复跳转,手动复制粘贴提示词和代码片段,上下文极易断裂。
- 本地数据隔离:云端 AI 无法直接访问本地 SQLite 数据库或文件系统,开发者必须手动导出 CSV 上传,处理完再下载,效率极低且存在隐私风险。
- 工具链割裂:想让 AI 调用自定义的 Python 分析脚本,需自行编写复杂的 API 包装层或使用不稳定的第三方插件,开发门槛高。
- 工作流不连贯:缺乏统一的界面来管理“思考 - 调用工具 - 执行代码 - 反馈结果”的闭环,调试过程如同拼凑碎片。
使用 deepchat 后
- 统一交互入口:在 deepchat 桌面端即可无缝切换 Ollama 本地模型与 Cloud API,所有对话历史与上下文在一个窗口内完整保留。
- 原生本地连接:通过 MCP(模型上下文协议)配置,AI 能直接安全地读取本地数据库和文件,无需任何数据导出导入操作。
- 智能工具调用:利用 ACP 集成,将自定义的 Python 数据分析脚本注册为 Agent 工具,AI 可自动识别意图并直接调用执行,返回结构化结果。
- 可视化工作流:内置的专用工作区 UI 清晰展示 Agent 的思考路径与工具调用日志,开发者可实时监控并干预执行过程。
deepchat 将分散的模型、本地数据与自定义工具融合为统一的智能代理工作台,让开发者从繁琐的集成工作中解放,专注于核心业务逻辑的创新。
运行环境要求
- Windows
- macOS
- Linux
未说明
未说明

快速开始
DeepChat - 强大的开源AI智能体平台
DeepChat是一个功能丰富的开源AI智能体平台,统一了模型、工具和智能体:多LLM聊天、MCP工具调用以及ACP智能体集成。
📑 目录
- 📑 目录
- 🚀 项目介绍
- 💡 为什么选择DeepChat
- 🔥 主要特性
- 🧩 ACP集成(智能体客户端协议)
- 🤖 支持的模型提供商
- 🔍 使用场景
- 📦 快速入门
- 💻 开发指南
- 👥 社区与贡献
- ⭐ 星标历史
- 👨💻 贡献者
- 📃 许可证
🚀 项目介绍
DeepChat是一个强大的开源AI智能体平台,将模型、工具和智能体运行时整合到一个桌面应用中。无论您使用的是OpenAI、Gemini、Anthropic等云端API,还是本地部署的Ollama模型,DeepChat都能为您提供流畅的用户体验。
除了聊天功能外,DeepChat还支持智能体工作流:通过MCP(模型上下文协议)实现丰富的工具调用,并提供独特的ACP(智能体客户端协议)集成,使您能够以专用的工作区界面将兼容ACP的智能体作为一等公民“模型”运行。
|
|
💡 为什么选择DeepChat
与其他AI工具相比,DeepChat具有以下独特优势:
- 统一的多模型管理:一个应用即可支持几乎所有主流LLM,无需在多个应用之间切换
- 无缝的本地模型集成:内置Ollama支持,让您无需命令行操作即可管理和使用本地模型
- 智能体协议生态:内置MCP支持工具调用(代码执行、网页访问等),而内置ACP支持则可将外部智能体以原生工作区用户体验接入DeepChat
- 强大的搜索增强:支持多种搜索引擎,使AI响应更加准确及时,并提供可快速定制的非标准网页搜索范式
- 注重隐私:本地数据存储和网络代理支持降低了信息泄露的风险
- 商业友好:采用Apache License 2.0开源许可,既适合商业用途也适用于个人使用
🔥 主要特性
- 🌐 支持多家云端大模型服务商:DeepSeek、OpenAI、Kimi、Grok、Gemini、Anthropic 等
- 🏠 支持本地模型部署:
- 集成 Ollama,提供全面的管理功能
- 无需命令行操作,即可控制和管理 Ollama 模型的下载、部署与运行
- 🚀 丰富且易用的聊天功能
- 基于行业领先的 CodeMirror 实现完整的 Markdown 渲染及代码块展示
- 多窗口 + 多标签架构,支持全方位的多会话并行操作,使用大模型如同使用浏览器般流畅,非阻塞式体验带来卓越效率
- 支持 Artifacts 渲染,实现多样化的结果呈现;集成 MCP 后显著降低 Token 消耗
- 消息支持重试生成多种变体;对话可自由分叉,确保始终有合适的思路可供选择
- 支持图像、Mermaid 流程图等多模态内容渲染;兼容 GPT-4o、Gemini、Grok 的文本转图像能力
- 支持在内容中高亮显示外部信息源,如搜索结果
- 🔍 强大的搜索扩展能力
- 内置通过 MCP 模式与 BoSearch、Brave Search 等领先搜索 API 的集成,使模型能够智能决策何时进行搜索
- 支持 Google、Bing、百度、搜狗公众号等主流搜索引擎,通过模拟用户浏览网页的方式,让大模型像人类一样读取搜索引擎结果
- 支持任意搜索引擎的读取;只需配置一个搜索助手模型,即可连接各类搜索来源——无论是内网资源、无 API 引擎,还是垂直领域搜索引擎——作为模型的信息输入源
- 🔧 出色的 MCP(模型上下文协议)支持
- 完整支持 MCP 协议中的 Resources/Prompts/Tools 三大核心能力
- 支持语义工作流,通过理解任务的含义和上下文,实现更复杂、更智能的自动化
- 极其友好的配置界面
- 美观清晰的工具调用展示
- 详细的工具调用调试窗口,自动格式化工具参数和返回数据
- 内置 Node.js 运行环境;npx/node 类似的服务无需额外配置,开箱即用
- 支持 StreamableHTTP/SSE/Stdio 协议传输
- 支持 inMemory 服务,内置代码执行、网页信息获取、文件操作等实用工具,无需二次安装即可满足大多数常见场景
- 通过内置的 MCP 服务,将视觉模型能力转化为任何模型均可使用的通用函数
- 🤝 ACP(Agent Client Protocol)代理集成
- 将 ACP 兼容的代理(内置或自定义指令)作为可选“模型”运行
- 提供 ACP 工作区 UI,用于展示代理提供的结构化计划、工具调用及终端输出
- 💻 多平台支持:Windows、macOS、Linux
- 🎨 美观友好的界面,以用户为中心的设计,精心打造的明暗双色主题
- 🔗 丰富的 DeepLink 支持:可通过链接发起对话,实现与其他应用的无缝集成。同时支持一键安装 MCP 服务,简单快捷
- 🚑 安全优先的设计:聊天数据和配置数据预留了加密接口及代码混淆能力
- 🛡️ 隐私保护:支持屏幕投射隐藏、网络代理等隐私保护措施,降低信息泄露风险
- 💰 企业友好
- 开源友好,基于 Apache License 2.0 协议,企业无忧使用
- 企业集成仅需少量配置代码修改,即可启用预留的加密混淆安全功能
- 代码结构清晰,模型提供商与 MCP 服务高度解耦,可低成本自由定制
- 架构合理,数据交互与 UI 行为分离,充分利用 Electron 能力,摒弃简单的 Web 封装,性能优异
更多关于如何使用这些功能的详细说明,请参阅 用户指南。
🧩 ACP 集成(Agent Client Protocol)
DeepChat 内置支持 Agent Client Protocol (ACP),允许您将外部代理运行时集成到 DeepChat 中,并获得原生的 UI 体验。启用后,ACP 代理将以一级条目的形式出现在模型选择器中,您可以在 DeepChat 内直接使用编码代理和任务代理。
快速入门:
- 打开 设置 → ACP 代理 并启用 ACP
- 启用内置 ACP 代理,或添加自定义的 ACP 兼容指令
- 在模型选择器中选择 ACP 代理,即可开始代理会话
如需探索兼容的代理和客户端生态,请访问:https://agentclientprotocol.com/overview/clients
🤖 支持的模型提供商
兼容任何采用 OpenAI/Gemini/Anthropic API 格式的模型提供商
🔍 使用场景
DeepChat 适用于多种 AI 应用场景:
- 日常助手:回答问题、提供建议、辅助写作与创作
- 开发辅助:代码生成、调试、解决技术难题
- 学习工具:概念讲解、知识探索、学习指导
- 内容创作:文案撰写、创意灵感、内容优化
- 数据分析:数据解读、图表生成、报告撰写
📦 快速开始
下载与安装
您可以通过以下几种方式安装 DeepChat:
选项 1:GitHub Releases
从 GitHub Releases 页面下载适合您系统的最新版本:
- Windows:
.exe安装文件 - macOS:
.dmg安装文件 - Linux:
.AppImage或.deb安装文件
选项 2:官方网站
从 官方网站 下载。
选项 3:Homebrew(仅限 macOS)
对于 macOS 用户,可以使用 Homebrew 安装 DeepChat:
brew install --cask deepchat
配置模型
- 启动 DeepChat 应用程序
- 点击设置图标
- 选择“模型提供商”选项卡
- 添加您的 API 密钥或配置本地 Ollama
开始对话
- 点击“+”按钮创建新对话
- 选择您想要使用的模型
- 开始与您的 AI 助手交流
有关入门和使用所有功能的完整指南,请参阅 用户指南。
💻 开发指南
请阅读 贡献指南。
Windows 和 Linux 由 GitHub Action 打包。 关于 Mac 的签名和打包,请参考 Mac 发布指南。
安装依赖
$ pnpm install
$ pnpm run installRuntime
# 如果出现错误:No module named 'distutils'
$ pip install setuptools
- 对于 Windows:为了让非管理员用户能够创建符号链接和硬链接,请在设置中启用“开发者模式”,或者使用管理员账户。否则
pnpm操作将会失败。
开始开发
$ pnpm run dev
构建
# 对于 Windows
$ pnpm run build:win
# 对于 macOS
$ pnpm run build:mac
# 对于 Linux
$ pnpm run build:linux
# 指定架构打包
$ pnpm run build:win:x64
$ pnpm run build:win:arm64
$ pnpm run build:mac:x64
$ pnpm run build:mac:arm64
$ pnpm run build:linux:x64
$ pnpm run build:linux:arm64
有关开发、项目结构和架构的更详细指南,请参阅 开发者指南。
👥 社区与贡献
DeepChat 是一个活跃的开源社区项目,我们欢迎各种形式的贡献:
请查看 贡献指南,了解更多参与项目的方式。
⭐ 星标历史
👨💻 贡献者
感谢您考虑为 DeepChat 做出贡献!贡献指南可在 贡献指南 中找到。
🙏🏻 感谢
本项目借助以下优秀库构建而成:
📃 许可证
版本历史
v1.0.12026/04/02v1.0.02026/03/31v1.0.0-beta.72026/03/27v1.0.0-beta.62026/03/24v1.0.0-beta.52026/03/22v1.0.0-beta.42026/03/18v1.0.0-beta.22026/03/13v1.0.0-beta.12026/03/10v0.5.82026/02/09v0.5.72026/02/05v0.5.6-beta.52026/01/16v0.5.6-beta.42026/01/06v0.5.6-beta.32025/12/27v0.5.52025/12/19v0.5.32025/12/13v0.5.22025/12/05v0.5.12025/12/02v0.5.02025/11/26v0.4.92025/11/23v0.4.82025/11/21常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。



