anything-llm
AnythingLLM 是一款主打隐私与便捷的全能型 AI 生产力工具,旨在让用户在本地轻松构建专属的私有化大语言模型应用。它完美解决了用户在使用公共 AI 服务时面临的数据隐私担忧、复杂的部署配置以及高昂的使用门槛等痛点。
通过 AnythingLLM,用户可以直观地“与文档对话”,将各类文件转化为可交互的知识库,还能利用 AI 智能体自动化处理复杂工作流。其独特的技术亮点在于“开箱即用”的设计理念:默认在本地设备运行,无需繁琐的环境搭建或参数调优,同时支持多用户协作与高度定制化配置,既保障了数据安全,又提供了企业级的功能深度。
这款工具非常适合注重数据隐私的企业团队、希望私有化部署 AI 知识的科研人员,以及不愿被复杂技术劝退的普通用户。无论是开发者想要快速验证本地模型,还是职场人士希望安全地分析内部文档,AnythingLLM 都能提供一个无需妥协、功能完备且运行流畅的一站式解决方案,让每个人都能拥有自己的私人 AI 助手。
使用场景
某中型科技公司的法务团队需要快速从数百份历史合同和内部合规文档中检索特定条款,以应对突发的审计需求。
没有 anything-llm 时
- 数据隐私风险高:团队不敢将敏感合同上传至公共 AI 平台,担心商业机密泄露,只能放弃使用高效的 AI 辅助。
- 检索效率极低:成员不得不手动打开几十个 PDF 文件逐个搜索关键词,耗时数小时且容易遗漏关键信息。
- 部署门槛过高:尝试搭建本地私有化大模型时,被复杂的环境配置、依赖安装和 GPU 调试劝退,项目迟迟无法落地。
- 协作困难:缺乏统一的多用户入口,每个人都在自己的电脑上维护独立的脚本,知识无法在团队内共享。
使用 anything-llm 后
- 原生隐私保护:anything-llm 默认在本地设备运行,所有合同数据不出内网,法务团队可放心地让 AI 处理核心机密文档。
- 秒级智能问答:将所有文档拖入 anything-llm 构建知识库后,团队成员可直接用自然语言提问(如“找出所有关于违约赔偿的条款”),瞬间获得精准答案及出处。
- 零摩擦启动:无需任何复杂配置或编写代码,下载桌面端即可直接使用,非技术背景的法务人员也能在 5 分钟内完成部署。
- 无缝团队协作:anything-llm 支持多用户管理,团队可共享同一个合同知识库,统一对外的回答标准,大幅提升协作效率。
anything-llm 通过“零配置本地部署”与“文档对话”能力,让企业在确保数据绝对隐私的前提下,瞬间将静态文档库转化为可交互的智能知识引擎。
运行环境要求
- Linux
- macOS
- Windows
- 非必需(支持纯 CPU 运行或连接外部 LLM 服务)
- 若本地运行开源模型,需求取决于具体模型大小
未说明(取决于是否本地运行大模型及文档处理量)

快速开始
AnythingLLM: 你一直在寻找的一站式 AI 应用。
与你的文档聊天,使用 AI 代理,高度可配置,支持多用户,无需繁琐的设置。
AnythingLLM: 您一直在寻找的一站式AI应用。
与您的文档聊天,使用AI智能体,高度可配置,支持多用户,无需繁琐的设置。
👉 AnythingLLM桌面版(Mac、Windows和Linux)!立即下载
与您的文档聊天。通过AI智能体自动化复杂的工作流。高度可配置,支持多用户,经过实战考验——默认情况下可在本地运行,无需任何设置即可轻松上手。

产品概述
AnythingLLM是一款一站式AI应用,让您无需妥协即可构建一个功能齐全的私有ChatGPT。连接您喜爱的本地或云端大模型,导入您的文档,几分钟内即可开始聊天。开箱即用,内置智能体、多用户支持、向量数据库和文档处理管道——无需额外配置。
AnythingLLM还支持多用户模式,您可以为每个用户控制访问权限和使用体验,同时确保实例的安全性以及您的知识产权不受影响。
AnythingLLM的亮点功能
- 智能工具选择 为您的模型启用无限工具,同时将每次查询的token消耗降低多达80%
- 无代码AI智能体构建器
- 完全兼容MCP协议
- 多模态支持(包括闭源和开源大模型!)
- 自定义AI智能体
- 👤 多用户实例支持及权限管理 仅限Docker版本
- 🦾 工作空间内的智能体(如浏览网页等)
- 💬 适用于您网站的自定义嵌入式聊天组件 仅限Docker版本
- 📖 支持多种文档类型(PDF、TXT、DOCX等)
- 直观的聊天界面,支持拖放上传和来源引用。
- 适合任何云环境的生产级部署。
- 兼容所有主流的闭源和开源大模型提供商。
- 针对大型文档集进行了内置优化——成本更低,响应速度更快,优于其他聊天界面。
- 提供完整的开发者API,方便自定义集成!
- …还有更多功能——只需几分钟安装,亲身体验吧。
支持的 LLM、嵌入模型、语音模型和向量数据库
大型语言模型 (LLMs):
- 任何兼容 llama.cpp 的开源模型
- OpenAI
- OpenAI(通用)
- Azure OpenAI
- AWS Bedrock
- Anthropic
- NVIDIA NIM(聊天模型)
- Google Gemini Pro
- Hugging Face(聊天模型)
- Ollama(聊天模型)
- LM Studio(所有模型)
- LocalAI(所有模型)
- Together AI(聊天模型)
- Fireworks AI(聊天模型)
- Perplexity(聊天模型)
- OpenRouter(聊天模型)
- DeepSeek(聊天模型)
- Mistral
- Groq
- Cohere
- KoboldCPP
- LiteLLM
- Text Generation Web UI
- Apipie
- xAI
- Z.AI(聊天模型)
- Novita AI(聊天模型)
- PPIO
- Gitee AI
- Moonshot AI
- Microsoft Foundry Local
- CometAPI(聊天模型)
- Docker Model Runner
- PrivateModeAI(聊天模型)
- SambaNova Cloud(聊天模型)
- Lemonade by AMD
嵌入模型:
音频转录模型:
- AnythingLLM 内置(默认)
- OpenAI
TTS(文本到语音)支持:
- 浏览器原生内置(默认)
- PiperTTSLocal — 在浏览器中运行
- OpenAI TTS
- ElevenLabs
- 任何兼容 OpenAI 的 TTS 服务。
STT(语音到文本)支持:
- 浏览器原生内置(默认)
向量数据库:
技术概览
这个单体仓库由六个主要部分组成:
frontend:一个基于 viteJS 和 React 的前端,您可以运行它来轻松创建和管理 LLM 可以使用的所有内容。server:一个 NodeJS express 服务器,用于处理所有交互,并进行向量数据库管理和 LLM 交互。collector:一个 NodeJS express 服务器,用于处理和解析来自 UI 的文档。docker:Docker 指令和构建流程,以及从源代码构建的信息。embed:用于生成和创建 网页嵌入小部件 的子模块。browser-extension:用于 Chrome 浏览器扩展 的子模块。
🛳 自托管
Mintplex Labs 和社区维护着多种部署方法、脚本和模板,您可以使用它们在本地运行 AnythingLLM。请参阅下表,了解如何在您首选的环境中部署,或进行自动部署。
| Docker | AWS | GCP | Digital Ocean | Render.com |
|---|---|---|---|---|
![]() |
![]() |
| Railway | RepoCloud | Elestio | Northflank |
|---|---|---|---|
![]() |
或者无需 Docker 即可搭建生产级 AnythingLLM 实例 →
开发环境设置方法
yarn setup:用于填充应用程序各部分所需的.env文件(从仓库根目录开始)。- 请先填写这些文件再继续操作。确保
server/.env.development已填写,否则系统将无法正常工作。
- 请先填写这些文件再继续操作。确保
yarn dev:server:在本地启动服务器(从仓库根目录开始)。yarn dev:frontend:在本地启动前端(从仓库根目录开始)。yarn dev:collector:随后运行文档收集器(从仓库根目录开始)。
遥测与隐私
Mintplex Labs Inc. 的 AnythingLLM 包含一项遥测功能,用于收集匿名使用信息。
关于 AnythingLLM 的遥测与隐私更多信息
为什么?
我们使用这些信息来帮助我们了解 AnythingLLM 的使用情况,以便优先处理新功能和错误修复,并提升 AnythingLLM 的性能和稳定性。
退出选项
在您的服务器或 Docker 的 .env 设置中,将 DISABLE_TELEMETRY 设置为“true”,即可退出遥测功能。您也可以在应用内通过侧边栏 > Privacy 并关闭遥测功能来实现退出。
您明确跟踪哪些内容?
我们仅会跟踪有助于我们做出产品和路线图决策的使用详情,具体包括:
您的安装类型(Docker 或 Desktop)
文档被添加或移除的时间。我们不会收集关于文档本身的任何信息,只记录事件的发生。这能帮助我们了解产品的使用情况。
当前使用的向量数据库类型。这有助于我们在该提供商推出更新时确定功能优先级。
当前使用的 LLM 提供商及模型标签。这有助于我们在该提供商或特定模型、或两者的组合推出更新时确定功能优先级,例如推理型与常规型、多模态模型等。
聊天消息发送的时间。这是最频繁发生的“事件”,能够帮助我们了解该项目在所有安装中的日常活动情况。同样地,我们仅发送事件本身——不会收集聊天内容或性质的相关信息。
您可以通过查找所有调用 Telemetry.sendTelemetry 的位置来验证这些说法。此外,这些事件也会写入输出日志中,因此如果您启用了日志记录功能,还可以查看实际发送的具体数据。我们绝不会收集 IP 地址或其他可识别身份的信息。我们的遥测服务提供商是 PostHog——一个开源的遥测数据收集服务。
我们非常重视隐私保护,并希望您能理解,我们希望通过匿名方式了解工具的使用情况,而无需烦人的弹窗调查,从而打造一款真正值得使用的工具。这些匿名数据将绝不与第三方共享。
👋 参与贡献
- 参与 AnythingLLM 的贡献 —— 如何为 AnythingLLM 做出贡献。
💖 赞助商
高级赞助商
所有赞助者











































🌟 贡献者
🔗 More Products
- VectorAdmin: An all-in-one GUI & tool-suite for managing vector databases.
- OpenAI Assistant Swarm: Turn your entire library of OpenAI assistants into one single army commanded from a single agent.
Copyright © 2026 Mintplex Labs.
This project is MIT licensed.
版本历史
v1.12.02026/04/02v1.11.22026/03/18v1.11.12026/03/02v1.11.02026/02/18v1.10.02026/01/22v1.9.12025/12/09v1.9.02025/10/09v1.8.52025/08/15v1.8.42025/07/16v1.8.32025/07/09v1.8.22025/06/10v1.8.12025/05/06v1.8.02025/04/18v1.7.82025/03/27v1.7.62025/03/19v1.7.52025/03/04v1.7.42025/02/18v1.4.02025/01/29v1.3.02024/11/26v1.2.42024/10/25常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器







