[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-zylon-ai--private-gpt":3,"tool-zylon-ai--private-gpt":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",149489,2,"2026-04-10T11:32:46",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":10,"env_os":98,"env_gpu":99,"env_ram":98,"env_deps":100,"category_tags":106,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":125},6301,"zylon-ai\u002Fprivate-gpt","private-gpt","Interact with your documents using the power of GPT, 100% privately, no data leaks","private-gpt 是一款专为隐私保护设计的开源 AI 项目，让您能在完全离线的环境中，利用大语言模型（LLM）智能问答本地文档。它核心解决了企业与个人在使用生成式 AI 时最担忧的数据泄露问题：所有数据处理、存储及推理过程均在您的本地设备完成，无需联网，确保敏感信息绝不离开您的控制范围。\n\n该工具特别适合关注数据合规的开发者、研究人员，以及金融、医疗、法律等对隐私有严苛要求的行业用户。无论是希望快速构建私有知识库应用的技术团队，还是需要在无网环境下安全处理文档的个人用户，都能从中受益。\n\n技术层面，private-gpt 提供了生产级就绪的 API，完整封装了 RAG（检索增强生成）流程，支持文档自动解析、切片、向量化存储及上下文感知对话。它不仅兼容 OpenAI API 标准，方便集成现有应用，还区分了屏蔽底层复杂性的高层接口与供高级用户定制的低层接口。此外，项目自带基于 Gradio 的可视化界面及多种实用脚本，让用户能轻松上手测试与部署，真正实现安全、可控的智能文档交互。","# PrivateGPT \n\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F2601\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzylon-ai_private-gpt_readme_4a68feb902da.png\" alt=\"imartinez%2FprivateGPT | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\n[![Tests](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Factions\u002Fworkflows\u002Ftests.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Factions\u002Fworkflows\u002Ftests.yml?query=branch%3Amain)\n[![Website](https:\u002F\u002Fimg.shields.io\u002Fwebsite?up_message=check%20it&down_message=down&url=https%3A%2F%2Fdocs.privategpt.dev%2F&label=Documentation)](https:\u002F\u002Fdocs.privategpt.dev\u002F)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1164200432894234644?logo=discord&label=PrivateGPT)](https:\u002F\u002Fdiscord.gg\u002FbK6mRVpErU)\n[![X (formerly Twitter) Follow](https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Ffollow\u002FZylonPrivateGPT)](https:\u002F\u002Ftwitter.com\u002FZylonPrivateGPT)\n\n![Gradio UI](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzylon-ai_private-gpt_readme_9b05a92972c2.png)\n\nPrivateGPT -built by Zylon- is a production-ready AI project that allows you to ask questions about your documents using the power\nof Large Language Models (LLMs), even in scenarios without an Internet connection. 100% private, no data leaves your\nexecution environment at any point.\n\n>[!TIP]\n> If you are looking for an **enterprise-ready, fully private AI platform for regulated industries** like financial services (banks, insurance, investment), defense, critical infrastructure services, government and healthcare,\n> check out [Zylon's website](https:\u002F\u002Fzylon.ai)  or [request a demo](https:\u002F\u002Fcal.com\u002Fzylon\u002Fdemo?source=pgpt-readme).\n> **Zylon** is an enterprise AI platform delivering private generative AI and on-premise AI software for regulated industries, enabling secure deployment inside enterprise infrastructure without external cloud dependencies.\n\nThe project provides an API offering all the primitives required to build private, context-aware AI applications.\nIt follows and extends the [OpenAI API standard](https:\u002F\u002Fopenai.com\u002Fblog\u002Fopenai-api),\nand supports both normal and streaming responses.\n\nThe API is divided into two logical blocks:\n\n**High-level API**, which abstracts all the complexity of a RAG (Retrieval Augmented Generation)\npipeline implementation:\n- Ingestion of documents: internally managing document parsing,\nsplitting, metadata extraction, embedding generation and storage.\n- Chat & Completions using context from ingested documents:\nabstracting the retrieval of context, the prompt engineering and the response generation.\n\n**Low-level API**, which allows advanced users to implement their own complex pipelines:\n- Embeddings generation: based on a piece of text.\n- Contextual chunks retrieval: given a query, returns the most relevant chunks of text from the ingested documents.\n\nIn addition to this, a working [Gradio UI](https:\u002F\u002Fwww.gradio.app\u002F)\nclient is provided to test the API, together with a set of useful tools such as bulk model\ndownload script, ingestion script, documents folder watch, etc.\n\n## 🎞️ Overview\n>[!WARNING]\n>  This README is not updated as frequently as the [documentation](https:\u002F\u002Fdocs.privategpt.dev\u002F).\n>  Please check it out for the latest updates!\n\n### Motivation behind PrivateGPT\nGenerative AI is a game changer for our society, but adoption in companies of all sizes and data-sensitive\ndomains like healthcare or legal is limited by a clear concern: **privacy**.\nNot being able to ensure that your data is fully under your control when using third-party AI tools\nis a risk those industries cannot take.\n\n### Primordial version\nThe first version of PrivateGPT was launched in May 2023 as a novel approach to address the privacy\nconcerns by using LLMs in a complete offline way.\n\nThat version, which rapidly became a go-to project for privacy-sensitive setups and served as the seed\nfor thousands of local-focused generative AI projects, was the foundation of what PrivateGPT is becoming nowadays;\nthus a simpler and more educational implementation to understand the basic concepts required\nto build a fully local -and therefore, private- chatGPT-like tool.\n\nIf you want to keep experimenting with it, we have saved it in the\n[primordial branch](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Ftree\u002Fprimordial) of the project.\n\n> It is strongly recommended to do a clean clone and install of this new version of\nPrivateGPT if you come from the previous, primordial version.\n\n### Present and Future of PrivateGPT\nPrivateGPT is now evolving towards becoming a gateway to generative AI models and primitives, including\ncompletions, document ingestion, RAG pipelines and other low-level building blocks.\nWe want to make it easier for any developer to build AI applications and experiences, as well as provide\na suitable extensive architecture for the community to keep contributing.\n\nStay tuned to our [releases](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Freleases) to check out all the new features and changes included.\n\n## 📄 Documentation\nFull documentation on installation, dependencies, configuration, running the server, deployment options,\ningesting local documents, API details and UI features can be found here: https:\u002F\u002Fdocs.privategpt.dev\u002F\n\n## 🧩 Architecture\nConceptually, PrivateGPT is an API that wraps a RAG pipeline and exposes its\nprimitives.\n* The API is built using [FastAPI](https:\u002F\u002Ffastapi.tiangolo.com\u002F) and follows\n  [OpenAI's API scheme](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference).\n* The RAG pipeline is based on [LlamaIndex](https:\u002F\u002Fwww.llamaindex.ai\u002F).\n\nThe design of PrivateGPT allows to easily extend and adapt both the API and the\nRAG implementation. Some key architectural decisions are:\n* Dependency Injection, decoupling the different components and layers.\n* Usage of LlamaIndex abstractions such as `LLM`, `BaseEmbedding` or `VectorStore`,\n  making it immediate to change the actual implementations of those abstractions.\n* Simplicity, adding as few layers and new abstractions as possible.\n* Ready to use, providing a full implementation of the API and RAG\n  pipeline.\n\nMain building blocks:\n* APIs are defined in `private_gpt:server:\u003Capi>`. Each package contains an\n  `\u003Capi>_router.py` (FastAPI layer) and an `\u003Capi>_service.py` (the\n  service implementation). Each *Service* uses LlamaIndex base abstractions instead\n  of specific implementations,\n  decoupling the actual implementation from its usage.\n* Components are placed in\n  `private_gpt:components:\u003Ccomponent>`. Each *Component* is in charge of providing\n  actual implementations to the base abstractions used in the Services - for example\n  `LLMComponent` is in charge of providing an actual implementation of an `LLM`\n  (for example `LlamaCPP` or `OpenAI`).\n\n## 💡 Contributing\nContributions are welcomed! To ensure code quality we have enabled several format and\ntyping checks, just run `make check` before committing to make sure your code is ok.\nRemember to test your code! You'll find a tests folder with helpers, and you can run\ntests using `make test` command.\n\nDon't know what to contribute? Here is the public \n[Project Board](https:\u002F\u002Fgithub.com\u002Fusers\u002Fimartinez\u002Fprojects\u002F3) with several ideas. \n\nHead over to Discord \n#contributors channel and ask for write permissions on that GitHub project.\n\n## 💬 Community\nJoin the conversation around PrivateGPT on our:\n- [Twitter (aka X)](https:\u002F\u002Ftwitter.com\u002FPrivateGPT_AI)\n- [Discord](https:\u002F\u002Fdiscord.gg\u002FbK6mRVpErU)\n\n## 📖 Citation\nIf you use PrivateGPT in a paper, check out the [Citation file](CITATION.cff) for the correct citation.  \nYou can also use the \"Cite this repository\" button in this repo to get the citation in different formats.\n\nHere are a couple of examples:\n\n#### BibTeX\n```bibtex\n@software{Zylon_PrivateGPT_2023,\nauthor = {Zylon by PrivateGPT},\nlicense = {Apache-2.0},\nmonth = may,\ntitle = {{PrivateGPT}},\nurl = {https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt},\nyear = {2023}\n}\n```\n\n#### APA\n```\nZylon by PrivateGPT (2023). PrivateGPT [Computer software]. https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\n```\n\n## 🤗 Partners & Supporters\nPrivateGPT is actively supported by the teams behind:\n* [Qdrant](https:\u002F\u002Fqdrant.tech\u002F), providing the default vector database\n* [Fern](https:\u002F\u002Fbuildwithfern.com\u002F), providing Documentation and SDKs\n* [LlamaIndex](https:\u002F\u002Fwww.llamaindex.ai\u002F), providing the base RAG framework and abstractions\n\nThis project has been strongly influenced and supported by other amazing projects like \n[LangChain](https:\u002F\u002Fgithub.com\u002Fhwchase17\u002Flangchain),\n[GPT4All](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all),\n[LlamaCpp](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp),\n[Chroma](https:\u002F\u002Fwww.trychroma.com\u002F)\nand [SentenceTransformers](https:\u002F\u002Fwww.sbert.net\u002F).\n","# PrivateGPT \n\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F2601\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzylon-ai_private-gpt_readme_4a68feb902da.png\" alt=\"imartinez%2FprivateGPT | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\n[![测试](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Factions\u002Fworkflows\u002Ftests.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Factions\u002Fworkflows\u002Ftests.yml?query=branch%3Amain)\n[![官网](https:\u002F\u002Fimg.shields.io\u002Fwebsite?up_message=check%20it&down_message=down&url=https%3A%2F%2Fdocs.privategpt.dev%2F&label=文档)](https:\u002F\u002Fdocs.privategpt.dev\u002F)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1164200432894234644?logo=discord&label=PrivateGPT)](https:\u002F\u002Fdiscord.gg\u002FbK6mRVpErU)\n[![X（原Twitter）关注](https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Ffollow\u002FZylonPrivateGPT)](https:\u002F\u002Ftwitter.com\u002FZylonPrivateGPT)\n\n![Gradio UI](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzylon-ai_private-gpt_readme_9b05a92972c2.png)\n\n由 Zylon 打造的 PrivateGPT 是一个生产就绪的 AI 项目，它使您能够利用大型语言模型（LLMs）的力量，在没有互联网连接的情况下，就您的文档内容提出问题。整个过程完全私密，数据在任何时候都不会离开您的执行环境。\n\n>[!TIP]\n> 如果您正在寻找一个**适用于受监管行业的企业级、完全私密的 AI 平台**，例如金融服务（银行、保险、投资）、国防、关键基础设施服务、政府和医疗保健领域，请访问 [Zylon 的网站](https:\u002F\u002Fzylon.ai) 或 [申请演示](https:\u002F\u002Fcal.com\u002Fzylon\u002Fdemo?source=pgpt-readme)。\n> **Zylon** 是一家为企业提供私有生成式 AI 和本地部署 AI 软件的平台，专为受监管行业设计，能够在企业内部基础设施中安全部署，无需依赖外部云服务。\n\n该项目提供了一个 API，包含了构建私有、上下文感知型 AI 应用程序所需的所有基本功能。它遵循并扩展了 [OpenAI API 标准](https:\u002F\u002Fopenai.com\u002Fblog\u002Fopenai-api)，支持普通响应和流式响应。\n\nAPI 分为两个逻辑模块：\n\n**高级 API**，抽象了 RAG（检索增强生成）流水线实现中的所有复杂性：\n- 文档导入：内部管理文档解析、分割、元数据提取、嵌入生成和存储。\n- 基于导入文档上下文的聊天和补全：抽象出上下文检索、提示工程和响应生成的过程。\n\n**低级 API**，允许高级用户实现自己的复杂流水线：\n- 基于文本片段生成嵌入。\n- 根据查询返回导入文档中最相关的文本片段。\n\n此外，还提供了一个可用的 [Gradio UI](https:\u002F\u002Fwww.gradio.app\u002F) 客户端来测试 API，并附带一些实用工具，如批量模型下载脚本、导入脚本、文档文件夹监控等。\n\n## 🎞️ 概述\n>[!WARNING]\n> 此 README 并不像 [文档](https:\u002F\u002Fdocs.privategpt.dev\u002F) 那样频繁更新。\n> 请查看文档以获取最新信息！\n\n### PrivateGPT 的动机\n生成式 AI 正在改变我们的社会，但在各规模的企业以及医疗、法律等对数据高度敏感的领域中，其采用却受到一个明确顾虑的限制：**隐私**。\n无法确保在使用第三方 AI 工具时数据完全处于您的控制之下，是这些行业无法承受的风险。\n\n### 初版\nPrivateGPT 的初版于 2023 年 5 月发布，作为一种新颖的方法，通过完全离线的方式使用 LLM 来解决隐私问题。\n\n该版本迅速成为注重隐私的部署场景中的首选项目，并为数千个本地化的生成式 AI 项目奠定了基础。它也是如今 PrivateGPT 发展的基础；因此，它是一个更简单、更具教育意义的实现，有助于理解构建完全本地化——从而完全私密——类似 ChatGPT 工具所需的基本概念。\n\n如果您想继续尝试这个版本，我们已将其保存在项目的[primordial 分支](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Ftree\u002Fprimordial)中。\n\n> 强烈建议从之前的 primordial 版本迁移过来的用户，重新克隆并安装新版本的 PrivateGPT。\n\n### PrivateGPT 的现状与未来\nPrivateGPT 目前正朝着成为生成式 AI 模型和基础组件的入口方向发展，包括补全、文档导入、RAG 流水线以及其他底层构建模块。我们希望让任何开发者都能更轻松地构建 AI 应用程序和体验，并为社区提供一个合适的、可扩展的架构，以便持续贡献。\n\n请关注我们的 [发行版](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Freleases)，以了解所有新增功能和变更。\n\n## 📄 文档\n关于安装、依赖项、配置、运行服务器、部署选项、本地文档导入、API 细节和 UI 功能的完整文档，请参阅此处：https:\u002F\u002Fdocs.privategpt.dev\u002F\n\n## 🧩 架构\n从概念上讲，PrivateGPT 是一个封装了 RAG 流水线并暴露其基础组件的 API。\n* API 使用 [FastAPI](https:\u002F\u002Ffastapi.tiangolo.com\u002F) 构建，并遵循 [OpenAI 的 API 规范](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference)。\n* RAG 流水线基于 [LlamaIndex](https:\u002F\u002Fwww.llamaindex.ai\u002F)。\n\nPrivateGPT 的设计使得 API 和 RAG 实现都能够轻松扩展和调整。一些关键的架构决策包括：\n* 依赖注入，解耦各个组件和层。\n* 使用 LlamaIndex 的抽象，如 `LLM`、`BaseEmbedding` 或 `VectorStore`，从而可以立即更换这些抽象的实际实现。\n* 简洁性，尽量减少层数和新的抽象。\n* 开箱即用，提供了 API 和 RAG 流水线的完整实现。\n\n主要构建块：\n* API 在 `private_gpt:server:\u003Capi>` 中定义。每个包包含一个 `\u003Capi>_router.py`（FastAPI 层）和一个 `\u003Capi>_service.py`（服务实现）。每个 *Service* 使用 LlamaIndex 的基础抽象，而不是具体的实现，\n  从而将实际实现与其使用方式解耦。\n* 组件位于 `private_gpt:components:\u003Ccomponent>` 中。每个 *Component* 负责为 Services 中使用的基础抽象提供实际实现——例如，`LLMComponent` 负责提供一个 `LLM` 的具体实现（如 `LlamaCPP` 或 `OpenAI`）。\n\n## 💡 贡献\n我们欢迎各种贡献！为确保代码质量，我们已启用多项格式和类型检查。请在提交代码前运行 `make check`，以确认您的代码符合要求。\n别忘了测试您的代码哦！项目中有一个 `tests` 文件夹，内含辅助工具，您可以通过 `make test` 命令来运行测试。\n\n不知道该做些什么贡献？这里有一个公开的 \n[项目看板](https:\u002F\u002Fgithub.com\u002Fusers\u002Fimartinez\u002Fprojects\u002F3)，上面有许多创意点子。\n\n请前往 Discord 的 #contributors 频道，申请该 GitHub 项目的写入权限。\n\n## 💬 社区\n加入我们关于 PrivateGPT 的讨论：\n- [Twitter（即 X）](https:\u002F\u002Ftwitter.com\u002FPrivateGPT_AI)\n- [Discord](https:\u002F\u002Fdiscord.gg\u002FbK6mRVpErU)\n\n## 📖 引用\n如果您在论文中使用了 PrivateGPT，请查看 [引用文件](CITATION.cff)，以获取正确的引用格式。您也可以使用本仓库中的“引用此仓库”按钮，以不同格式获取引用信息。\n\n以下是一些示例：\n\n#### BibTeX\n```bibtex\n@software{Zylon_PrivateGPT_2023,\nauthor = {Zylon by PrivateGPT},\nlicense = {Apache-2.0},\nmonth = may,\ntitle = {{PrivateGPT}},\nurl = {https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt},\nyear = {2023}\n}\n```\n\n#### APA\n```\nZylon by PrivateGPT (2023). PrivateGPT [计算机软件]. https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\n```\n\n## 🤗 合作伙伴与支持者\nPrivateGPT 得到了以下团队的积极支持：\n* [Qdrant](https:\u002F\u002Fqdrant.tech\u002F) 提供默认的向量数据库\n* [Fern](https:\u002F\u002Fbuildwithfern.com\u002F) 提供文档和 SDK\n* [LlamaIndex](https:\u002F\u002Fwww.llamaindex.ai\u002F) 提供基础的 RAG 框架及抽象层\n\n此外，本项目还深受其他优秀开源项目的影响和支持，例如：\n[LangChain](https:\u002F\u002Fgithub.com\u002Fhwchase17\u002Flangchain)、\n[GPT4All](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all)、\n[LlamaCpp](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp)、\n[Chroma](https:\u002F\u002Fwww.trychroma.com\u002F) 和\n[SentenceTransformers](https:\u002F\u002Fwww.sbert.net\u002F) 等。","# PrivateGPT 快速上手指南\n\nPrivateGPT 是一个生产级的 AI 项目，允许你在完全离线（无互联网连接）的环境下，利用大语言模型（LLM）对本地文档进行问答。数据 100% 保留在本地执行环境中，绝不外传。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux, macOS 或 Windows (推荐 WSL2)\n- **Python**: 3.10 或更高版本\n- **硬件**: \n  - 最低：8GB RAM\n  - 推荐：16GB+ RAM，若有 NVIDIA GPU 可显著加速推理\n\n### 前置依赖\n确保已安装以下工具：\n- `git`\n- `python3` 和 `pip`\n- `make` (可选，用于运行检查脚本)\n\n> **国内开发者提示**：建议配置国内镜像源以加速依赖下载。\n> - pip 镜像：`pip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n> - HuggingFace 镜像：设置环境变量 `HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com`\n\n## 安装步骤\n\n### 1. 克隆项目\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt.git\ncd private-gpt\n```\n\n### 2. 创建虚拟环境并激活\n```bash\npython3 -m venv .venv\nsource .venv\u002Fbin\u002Factivate  # Windows 用户请使用: .venv\\Scripts\\activate\n```\n\n### 3. 安装依赖\n```bash\npip install -r requirements.txt\n```\n\n### 4. 下载模型\n项目提供脚本自动下载所需的嵌入模型和 LLM 模型。\n```bash\npython scripts\u002Fsetup.py\n```\n*注：若网络受限，请确保已设置 `HF_ENDPOINT` 环境变量指向国内镜像，否则下载可能失败或极慢。*\n\n### 5. 配置文件（可选）\n默认配置通常可直接运行。如需自定义模型路径或向量数据库设置，复制并重命名配置文件：\n```bash\ncp settings.yaml settings.local.yaml\n```\n编辑 `settings.local.yaml` 以调整参数。\n\n## 基本使用\n\n### 启动服务\n运行以下命令启动 API 服务器和内置的 Gradio Web UI：\n```bash\npoetry run python main.py\n```\n*如果没有安装 poetry，直接使用虚拟环境中的 python:*\n```bash\npython main.py\n```\n\n启动成功后，终端将显示类似以下信息：\n- API 地址：`http:\u002F\u002Flocalhost:8001`\n- Web UI 地址：`http:\u002F\u002Flocalhost:8001\u002F?__theme=light` (通常会自动在浏览器打开)\n\n### 上传文档与问答\n1. **访问 Web UI**：在浏览器打开上述 Web UI 地址。\n2. **上传文档**：点击界面中的上传按钮，选择本地的 PDF、TXT、Markdown 等文档。系统会自动解析、分块并向量化存储。\n3. **开始提问**：在对话框输入关于文档内容的问题，系统将基于文档上下文生成回答。\n\n### 命令行交互示例\n你也可以直接通过 API 进行测试。首先确保有一个文档已被摄入，然后使用 `curl` 发送请求：\n\n```bash\ncurl http:\u002F\u002Flocalhost:8001\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\n    \"messages\": [\n      {\n        \"role\": \"user\",\n        \"content\": \"这份文档主要讲了什么？\"\n      }\n    ],\n    \"use_context\": true,\n    \"context_injector\": \"ingest\"\n  }'\n```\n\n现在，你已经成功部署并使用了 PrivateGPT，可以安全地在本地探索私有文档数据了。","某金融合规团队需要在完全隔离的内网环境中，快速从数千份历史审计报告和监管政策文件中检索关键条款以应对突发检查。\n\n### 没有 private-gpt 时\n- **数据泄露风险高**：为了使用云端大模型分析敏感财务数据，必须将文件上传至第三方服务器，严重违反金融行业数据不出域的合规红线。\n- **离线无法工作**：在涉密网络或无互联网连接的环境下，现有的智能问答工具完全失效，员工只能回归低效的人工翻阅。\n- **检索效率低下**：面对海量非结构化文档，人工查找特定条款耗时数小时甚至数天，且容易因疲劳导致关键信息遗漏。\n- **部署门槛极高**：自行搭建本地 RAG（检索增强生成）系统需要深厚的算法功底，涉及文档解析、向量化存储及提示词工程等复杂环节。\n\n### 使用 private-gpt 后\n- **100% 数据隐私保障**：所有文档解析、嵌入生成及推理过程均在本地执行环境完成，确保敏感数据绝不离开内部基础设施。\n- **纯离线稳定运行**：无需任何网络连接即可调用本地大模型能力，完美适配银行、政府等强监管行业的内网部署需求。\n- **秒级精准应答**：通过内置的高阶 API 自动处理文档分块与上下文检索，将数小时的查阅工作缩短为几秒钟的自然语言问答。\n- **开箱即用体验**：提供标准的 OpenAI 兼容接口及 Gradio 可视化界面，无需深入底层代码即可快速构建企业级私有知识库。\n\nprivate-gpt 让金融机构在严守数据主权的前提下，真正实现了安全、离线且高效的文档智能交互。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzylon-ai_private-gpt_9b05a929.png","zylon-ai","Zylon","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fzylon-ai_bb59355a.png","The Truly Private AI Workspace",null,"hello@zylon.ai","ZylonPrivateGPT","https:\u002F\u002Fzylon.ai\u002F","https:\u002F\u002Fgithub.com\u002Fzylon-ai",[82,86,90],{"name":83,"color":84,"percentage":85},"Python","#3572A5",75.8,{"name":87,"color":88,"percentage":89},"MDX","#fcb32c",23.3,{"name":91,"color":92,"percentage":93},"Makefile","#427819",0.9,57199,7606,"2026-04-10T09:19:14","Apache-2.0","未说明","未说明 (支持离线运行，架构支持通过 LlamaComponent 切换实现，如 LlamaCPP 或 OpenAI)",{"notes":101,"python":98,"dependencies":102},"README 中未包含具体的安装、依赖版本及硬件需求信息。文档明确指出完整的环境配置、依赖项、服务器运行及部署选项请参阅官方文档 (https:\u002F\u002Fdocs.privategpt.dev\u002F)。该项目旨在提供 100% 私有的本地运行环境，支持无互联网连接场景。架构上基于 FastAPI 和 LlamaIndex，支持依赖注入以解耦组件，可灵活替换底层模型实现（如从云端 API 切换到本地 LlamaCPP）。如果是从早期版本升级，建议重新克隆并清洁安装。",[103,104,105],"FastAPI","LlamaIndex","Gradio",[35,14],"2026-03-27T02:49:30.150509","2026-04-11T00:49:27.190007",[110,115,120],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},28510,"PrivateGPT 是基于 CPU 还是 GPU 运行的？为什么我的运行速度非常慢？","速度慢通常是因为未正确启用 GPU 加速，导致程序仅使用 CPU 运行。如果您看到 'Unable to register cuDNN\u002FcuFFT\u002FcuBLAS factory' 或 'This TensorFlow binary is optimized to use available CPU instructions' 等警告，说明 GPU 未被调用。解决方案是重新安装 llama-cpp-python 并强制启用 CUDA 支持。请使用以下命令：\nCMAKE_ARGS=\"-DLLAMA_CUBLAS=on\" FORCE_CMAKE=1 pip install llama-cpp-python --force-reinstall --upgrade --no-cache-dir\n此外，请检查上下文长度（context）设置，如果默认为 512，尝试在配置中将其覆盖为 4096 以提升性能。","https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F931",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},28511,"运行时提示 'Invalid model file'（无效模型文件）错误怎么办？","此错误通常由模型文件格式不兼容或版本不匹配引起，即使文件路径正确也会发生。请执行以下检查：\n1. 确认 `.env` 文件中的 `model_path` 指向正确的模型文件位置。\n2. 确保使用的模型文件（如 ggml-vicuna-7b-1.1-q4_2.bin）与当前安装的 `gpt4all` 库版本兼容。建议将 `gpt4all` 更新或固定到特定版本（例如 0.3.4）。\n3. 确认您是在安装了所有依赖的正确 Python 虚拟环境中运行脚本。\n4. 检查是否有其他报错信息提示具体的兼容性问题。如果使用的是 Vicuna 模型，尝试切换不同量化版本（如 q4_2）或更换模型系列测试。","https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F691",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},28512,"在 Windows 上安装依赖时，构建 hnswlib _wheel_失败并报错 'fatal error C1083: cannot open include file: crtdbg.h' 如何解决？","这是在 Windows 上编译 `hnswlib` 时的常见错误，原因是缺少必要的 C++ 构建工具或头文件。错误 'cannot open include file: crtdbg.h' 表明 Visual Studio 的构建环境未正确配置。解决方法如下：\n1. 安装 'Visual Studio Build Tools'（注意不仅仅是 VS Code），在安装选项中务必勾选 'C++ build tools' 和 'Windows 10\u002F11 SDK'。\n2. 安装完成后，重启终端或命令行工具以确保环境变量生效。\n3. 如果问题依旧，可以尝试以管理员身份运行命令行，或者预先安装预编译的二进制包（如果可用），避免从源码构建：\npip install hnswlib --only-binary :all:\n如果必须从源码构建，请确保您的 Python 版本与安装的 Build Tools 版本兼容。","https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F302",[126,131,136,141,146,151,156,161,166,171],{"id":127,"version":128,"summary_zh":129,"released_at":130},189503,"v0.6.2","## [0.6.2](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcompare\u002Fv0.6.1...v0.6.2) (2024-08-08)\n\n我们很高兴地宣布发布 PrivateGPT 0.6.2，这是一个“次要”版本，对我们的 Docker 部署进行了重大改进，使在各种环境中部署和管理 PrivateGPT 比以往任何时候都更加简便。\n\n### 主要改进\n\n最新版本引入了多项关键改进，将简化您的部署流程：\n\n* **通过更完善的 Docker Compose 集成实现简化的冷启动**：借助改进的 Docker Compose 配置，轻松管理多个服务，降低复杂性并提高效率。\n* **环境特定的配置文件**：只需一键即可根据不同的环境（包括 CPU、CUDA（Nvidia GPU）和 MacOS）定制您的部署，确保最佳性能和兼容性。\n* **预构建的 Docker Hub 镜像**：利用开箱即用的 Docker 镜像，加快部署速度并减少设置时间。更多信息请参见 [这里](https:\u002F\u002Fhub.docker.com\u002Frepository\u002Fdocker\u002Fzylonai\u002Fprivate-gpt)。\n\n### Docker 演示\n\n本演示将让您亲身体验我们工具的简洁易用性，帮助您快速高效地开始使用 PrivateGPT + Ollama。\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd494f4c9-c293-4e3b-a1fd-2fcab4f48bcc\n\n### 快速入门\n\n要使用 Docker Compose 及其预构建的配置文件快速启动 PrivateGPT 0.6.2，请访问我们的[快速入门指南](https:\u002F\u002Fdocs.privategpt.dev\u002Fquickstart\u002Fgetting-started\u002Fquickstart)，了解如何运行 PrivateGPT 的详细步骤。\n\n我们希望这些改进能够提升您的使用体验，并简化部署流程。感谢您一如既往的支持！\n\n---\n\n### 错误修复\n\n* 在故障排除中添加 NumPy 问题（[#2048](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F2048)）（[4ca6d0c](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F4ca6d0cb556be7a598f7d3e3b00d2a29214ee1e8)）\n* 自动更新版本（[#2052](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F2052)）（[7fefe40](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F7fefe408b4267684c6e3c1a43c5dc2b73ec61fe4)）\n* 发布镜像名称（[#2043](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F2043)）（[b1acf9d](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002Fb1acf9dc2cbca2047cd0087f13254ff5cda6e570)）\n* 将 matplotlib 更新至 3.9.1-post1，以修复 Windows 安装问题（[b16abbe](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002Fb16abbefe49527ac038d235659854b98345d5387)）","2024-08-08T16:16:58",{"id":132,"version":133,"summary_zh":134,"released_at":135},189504,"v0.6.1","## [0.6.1](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcompare\u002Fv0.6.0...v0.6.1) (2024-08-05)\n\n\n### 错误修复\n\n* 添加来自 Docker Hub 的构建镜像 ([#2042](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F2042)) ([f09f6dd](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002Ff09f6dd2553077d4566dbe6b48a450e05c2f049e))\n* 将 azopenai 添加到模型列表 ([#2035](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F2035)) ([1c665f7](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F1c665f7900658144f62814b51f6e3434a6d7377f))\n* **部署：** 在发布新版本时生成 Docker 发布镜像 ([#2038](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F2038)) ([1d4c14d](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F1d4c14d7a3c383c874b323d934be01afbaca899e))\n* **部署：** 改进 Docker Compose 和 Docker 上的快速入门指南 ([#2037](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F2037)) ([dae0727](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002Fdae0727a1b4abd35d2b0851fe30e0a4ed67e0fbb))","2024-08-05T15:17:52",{"id":137,"version":138,"summary_zh":139,"released_at":140},189505,"v0.6.0","# [0.6.0](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcompare\u002Fv0.5.0...v0.6.0) (2024-08-02)\n\n## 新增内容\n\n### 引入“配方”！\n\n配方是代表原生 AI 使用场景的高级 API。在底层，配方会执行复杂的流水线来完成任务。\n\n随着首个配方 `summarize` 的推出，我们的目标不仅是将这一实用用例纳入 PrivateGPT，更是为后续接入社区构建的配方做好准备！\n\n### 摘要生成配方\n\n`summarize` 是 PrivateGPT 中包含的第一个“配方”。这个新 API 允许用户对已导入的文档进行摘要生成，自定义摘要内容，并以流式传输的方式使用。完整文档请参阅[此处](https:\u002F\u002Fdocs.privategpt.dev\u002Frecipes\u002Fgeneral-use-cases\u002Fsummarize)。\n\n``` \nPOST \u002Fv1\u002Fsummarize\n```\n\n### 冷启动优化\n\n我们投入了大量精力，使从全新克隆仓库运行 PrivateGPT 尽可能简单：默认采用 Ollama，自动拉取模型，并将分词器设置为可选……\n\n### 更多模型与数据库支持\n\n新增对 [Gemini](https:\u002F\u002Fdeepmind.google\u002Ftechnologies\u002Fgemini\u002F)（包括 LLM 和嵌入模型）以及 [Milvus](https:\u002F\u002Fmilvus.io\u002F) 和 [ClickHouse](https:\u002F\u002Fclickhouse.com\u002F) 向量数据库的支持。\n\n## 重大变更\n\n- 现最低 Python 版本要求为 3.11.9，Poetry 版本需 ≥ 1.7.1。不过，我们建议升级至 Poetry 1.8.3。更新说明如下：\n\n  - Python 3.11.9：\n    1. 在继续操作前，请确保系统已安装 `pyenv`。若未安装，可参考 [PrivateGPT 文档](https:\u002F\u002Fdocs.privategpt.dev\u002Finstallation\u002Fgetting-started\u002Finstallation#2-install-python-311) 进行安装。\n    2. 使用 `pyenv` 安装指定版本的 Python。\n\n        ```bash\n        pyenv install 3.11.9\n        ```\n\n    3. 在终端中运行 `python --version` 验证安装是否成功。\n\n  - Poetry 1.8.3：\n    1. 若已安装 Poetry，则执行以下命令进行更新：\n\n        ```bash\n        poetry self update 1.8.3\n        ```\n\n    2. 在终端中运行 `poetry --version` 验证更新是否成功。\n\n- 对于 Ollama 和 Llamacpp 本地部署，默认 LLM 模型已更改为 LLaMA 3.1。若希望沿用 v0.5.0 的默认配置，请将此 [settings-legacy.yaml](https:\u002F\u002Fgist.github.com\u002Fjaluma\u002F55acccac3a275b7f3b9cb5e3d11c5d41) 文件放置于 `settings.yaml` 文件旁，并通过 `PGPT_PROFILES=legacy make run` 命令运行 PrivateGPT。有关配置文件的更多信息，请参阅[此处](https:\u002F\u002Fdocs.privategpt.dev\u002Fmanual\u002Fgeneral-configuration\u002Fconfiguration#settings-and-profiles-for-your-private-gpt)。\n\n- 对于 Ollama 和 Llamacpp 本地部署，默认嵌入模型已更改为 `nomic-embed-text`。该嵌入模型的维度可能与您之前使用的不同，从而导致其与已导入的文件不兼容。若希望保留 v0.5.0 的默认设置以避免丢失已导入的文件，请将此 [settings-legacy.yaml](https:\u002F\u002Fgist.github.com\u002Fja","2024-08-02T09:28:42",{"id":142,"version":143,"summary_zh":144,"released_at":145},189506,"v0.5.0","## [0.5.0](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcompare\u002Fv0.4.0...v0.5.0) (2024-04-02)\n\n\n### 功能特性\n\n* **code:** 改进 UI 中字符串的拼接 ([#1785](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1785)) ([bac818a](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002Fbac818add51b104cda925b8f1f7b51448e935ca1))\n* **docker:** 将默认 Docker 配置为使用 Ollama ([#1812](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1812)) ([f83abff](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002Ff83abff8bc955a6952c92cc7bcb8985fcec93afa))\n* **docs:** 添加 Llama-CPP 在 Linux AMD GPU 上的支持指南 ([#1782](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1782)) ([8a836e4](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F8a836e4651543f099c59e2bf497ab8c55a7cd2e5))\n* **docs:** 功能\u002F升级文档 ([#1741](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1741)) ([5725181](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F572518143ac46532382db70bed6f73b5082302c1))\n* **docs:** 升级 Fern 文档生成工具 ([#1596](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1596)) ([84ad16a](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F84ad16af80191597a953248ce66e963180e8ddec))\n* **ingest:** 创建了更快的导入模式——管道处理 ([#1750](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1750)) ([134fc54](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F134fc54d7d636be91680dc531f5cbe2c5892ac56))\n* **llm - embed:** 增加对 Azure OpenAI 的支持 ([#1698](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1698)) ([1efac6a](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F1efac6a3fe19e4d62325e2c2915cd84ea277f04f))\n* **llm:** 为 llamacpp 和 ollama 添加了多项设置 ([#1703](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1703)) ([02dc83e](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F02dc83e8e9f7ada181ff813f25051bbdff7b7c6b))\n* **llm:** Ollama LLM-Embeddings 解耦 + 更长的 keep_alive 设置 ([#1800](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1800)) ([b3b0140](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002Fb3b0140e244e7a313bfaf4ef10eb0f7e4192710e))\n* **llm:** Ollama 超时设置 ([#1773](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1773)) ([6f6c785](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F6f6c785dac2bbad37d0b67fda215784298514d39))\n* **local:** 在仓库内缓存 tiktoken，以便离线使用 ([#1467](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1467)) ([821bca3](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F821bca32e9ee7c909fd6488445ff6a04463bf91b))\n* **nodestore:** 为文档和索引存储添加 Postgres 数据库支持 ([#1706](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1706)) ([68b3a34](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F68b3a34b032a08ca073a687d2058f926032495b3))\n* **rag:** 将 similarity_top_k 和 similarity_score 公开为可配置项 ([#1771](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1771)) ([087cb0b](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fcommit\u002F087cb0b7b74c3eb80f4f60b47b3a021c81272ae1))\n* **RAG:** 引入 SentenceTransformer 重排序器 ([#1810](https:\u002F\u002Fgithub.com\u002Fzylon-ai\u002Fprivate-gpt\u002Fissues\u002F1810)) (","2024-04-02T15:45:35",{"id":147,"version":148,"summary_zh":149,"released_at":150},189507,"v0.4.0","## [0.4.0](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcompare\u002Fv0.3.0...v0.4.0) (2024-03-06)\n\n\n### 功能\n\n* 升级至 LlamaIndex 0.10 ([#1663](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1663)) ([45f0571](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F45f05711eb71ffccdedb26f37e680ced55795d44))\n* **向量：** 支持 pgvector ([#1624](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1624)) ([cd40e39](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Fcd40e3982b780b548b9eea6438c759f1c22743a8))","2024-03-06T16:53:59",{"id":152,"version":153,"summary_zh":154,"released_at":155},189508,"v0.3.0","## [0.3.0](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcompare\u002Fv0.2.0...v0.3.0) (2024-02-16)\n\n\n### 功能特性\n\n* 添加 Mistral + ChatML 提示模板 ([#1426](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1426)) ([e326126](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Fe326126d0d4cd7e46a79f080c442c86f6dd4d24b))\n* 在生成 SDK 时添加流式信息 ([#1569](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1569)) ([24fae66](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F24fae660e6913aac6b52745fb2c2fe128ba2eb79))\n* **API:** 导入纯文本 ([#1417](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1417)) ([6eeb95e](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F6eeb95ec7f17a618aaa47f5034ee5bccae02b667))\n* **批量导入:** 添加 --ignored 标志，用于在导入过程中排除特定文件和目录 ([#1432](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1432)) ([b178b51](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Fb178b514519550e355baf0f4f3f6beb73dca7df2))\n* **LLM:** 添加 openailike LLM 模式 ([#1447](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1447)) ([2d27a9f](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F2d27a9f956d672cb1fe715cf0acdd35c37f378a5)), 关闭了 [#1424](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1424)\n* **LLM:** 添加对 Ollama LLM 的支持 ([#1526](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1526)) ([6bbec79](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F6bbec79583b7f28d9bea4b39c099ebef149db843))\n* **设置:** 可配置的上下文窗口和分词器 ([#1437](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1437)) ([4780540](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F47805408703c23f0fd5cab52338142c1886b450b))\n* **设置:** 将默认模型更新为 TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF ([#1415](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1415)) ([8ec7cf4](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F8ec7cf49f40701a4f2156c48eb2fad9fe6220629))\n* **UI:** 使聊天区域拉伸以填满整个屏幕 ([#1397](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1397)) ([c71ae7c](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Fc71ae7cee92463bbc5ea9c434eab9f99166e1363))\n* **UI:** 选择要查询或删除的文件 + 删除全部 ([#1612](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1612)) ([aa13afd](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Faa13afde07122f2ddda3942f630e5cadc7e4e1ee))\n\n\n### 错误修复\n\n* 添加 LLM 参数以修复 llamacpp 中损坏的生成器 ([#1519](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1519)) ([869233f](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F869233f0e4f03dc23e5fae43cf7cb55350afdee9))\n* **部署:** 修复本地和外部 Dockerfile ([fde2b94](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Ffde2b942bc03688701ed563be6d7d597c75e4e4e))\n* **Docker:** Docker 复制功能损坏 ([#1419](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1419)) ([059f358](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F059f35840adbc3fb93d847d6decf6da32d08670c))\n* **文档:** 更新快速入门文档，并将 pyproject.toml 中的版本号设置为 0.2.0 ([0a89","2024-02-16T16:42:59",{"id":157,"version":158,"summary_zh":159,"released_at":160},189509,"v0.2.0","## [0.2.0](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcompare\u002Fv0.1.0...v0.2.0) (2023-12-10)\n\n\n### 功能\n\n* **llm:** 移除默认系统提示词 ([#1385](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1385)) ([a3ed14c](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Fa3ed14c58f77351dbd5f8f2d7868d1642a44f017))\n* **ui:** 允许用户通过聊天界面中的“附加选项”设置系统提示词 ([#1353](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1353)) ([145f3ec](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F145f3ec9f41c4def5abf4065a06fb0786e2d992a))\n* **settings:** 允许在设置中配置 OpenAI 模型 https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fpull\u002F1386\n\n### 修复\n* **docs:** 删除旧文档 https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fpull\u002F1384","2023-12-10T19:08:37",{"id":162,"version":163,"summary_zh":164,"released_at":165},189510,"v0.1.0","## [0.1.0](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcompare\u002Fv0.0.2...v0.1.0) (2023-11-30)\n\n\n### 功能特性\n\n* 使用 Fern 改进了文档\n* 通过不同的导入模式实现了最快的导入速度 ([#1309] (https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fpull\u002F1309))\n* 在补全 API 和 UI 中添加了来源信息\n* 添加了简单的 Basic 认证\n* 添加了基础的 CORS 支持\n* 在 UI 中增加了“在文档中搜索”功能\n* LLM 和嵌入模型的配置分离\n* 允许在 API 中使用系统提示来修改 LLM 的行为\n* 暴露了模型执行的配置，例如 max_new_tokens\n* 支持多种提示风格以适配不同模型\n* 更新至 Gradio 4\n* 文档删除 API\n* Sagemaker 支持\n* 禁用 Gradio 分析功能 ([#1165](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1165)) ([6583dc8](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F6583dc84c082773443fc3973b1cdf8095fa3fec3))\n* 放弃 loguru，改用内置的 `logging` 模块 ([#1133](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1133)) ([64c5ae2](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F64c5ae214a9520151c9c2d52ece535867d799367))\n* 启用 hf_hub_download 的断点续传功能 ([#1249](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1249)) ([4197ada](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F4197ada6267c822f32c1d7ba2be6e7ce145a3404))\n* 将 torch 和 transformers 移至本地组 ([#1172](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1172)) ([0d677e1](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F0d677e10b970aec222ec04837d0f08f1631b6d4a))\n* Qdrant 支持 ([#1228](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1228)) ([03d1ae6](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F03d1ae6d70dffdd2411f0d4e92f65080fff5a6e2))\n* 添加了 wipe 命令，便于重置向量数据库\n\n\n### 错误修复\n\n* Docker 和 sagemaker 的设置 ([#1118](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1118)) ([895588b](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F895588b82a06c2bc71a9e22fb840c7f6442a3b5b))\n* 修复 PyTorch 版本以避免 wheel 包的 bug ([#1123](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1123)) ([24cfddd](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F24cfddd60f74aadd2dade4c63f6012a2489938a1))\n* 移除全局状态 ([#1216](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1216)) ([022bd71](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F022bd718e3dfc197027b1e24fb97e5525b186db4))\n* Sagemaker 配置和聊天方法 ([#1142](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1142)) ([a517a58](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Fa517a588c4927aa5c5c2a93e4f82a58f0599d251))\n* README.md 中的拼写错误 ([#1091](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1091)) ([ba23443](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Fba23443a70d323cd4f9a242b33fd9dce1bacd2db))\n* Windows 11 自动删除临时文件失败 ([#1260](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1260)) ([0d52002](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F0d520026a3d5b08a9b8487be992d3095b21e710c))\n* Windows 上的导入服务临时文件权限错误 ([#1280](https:\u002F\u002Fgithub.com","2023-12-01T13:46:16",{"id":167,"version":168,"summary_zh":169,"released_at":170},189511,"v0.0.2","## [0.0.2](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcompare\u002Fv0.0.1...v0.0.2) (2023-10-20)\n\n\n### 错误修复\n\n* ChromaDB 最大批次大小 ([#1087](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1087)) ([f5a9bf4](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Ff5a9bf4e374b2d4c76438cf8a97cccf222ec8e6f))","2023-10-20T16:29:40",{"id":172,"version":173,"summary_zh":174,"released_at":175},189512,"v0.0.1","## 0.0.1 (2023-10-20)\n\n\n### 功能\n\n* 使用首选的块数获取答案 ([cf709a6](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Fcf709a6b7a951fc333ef5a089b24179ca660469b))\n* 发布 GitHub Actions 流水线 ([#1078](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1078)) ([b745091](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Fb7450911b25b0b70528fd4b620cffb90766e3448))\n* **UI:** 在 UI 中添加 LLM 模式 ([#1080](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1080)) ([d249a17](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Fd249a17c330abd122e4988d35d94bcc2df980700))\n\n\n### 错误修复\n\n* 294（已测试） ([4cda348](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F4cda348cf87f56ff237e376b03732b1b47a99215))\n* 将 `TARGET_SOURCE_CHUNKS` 添加到 `example.env` 文件中 ([2027ac5](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F2027ac563b6606199563632191b65f5105af8ebe))\n* 禁用 Chroma 的遥测功能 ([8c6a81a](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F8c6a81a07fc9c800d53f62a33f5ae3b5247a22a6))\n* 使文档更加醒目 ([#1081](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fissues\u002F1081)) ([aa4bb17](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002Faa4bb17a2e6a797b450fa11a45e0b0528b8efecf))\n\n\n### 其他杂项工作\n\n* 初始版本 ([490d93f](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT\u002Fcommit\u002F490d93fdc1977443c92f6c42e57a1c585aa59430))","2023-10-20T11:09:09"]