[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-chatchat-space--Langchain-Chatchat":3,"tool-chatchat-space--Langchain-Chatchat":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":10,"env_os":102,"env_gpu":103,"env_ram":104,"env_deps":105,"category_tags":117,"github_topics":118,"view_count":138,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":139,"updated_at":140,"faqs":141,"releases":176},2849,"chatchat-space\u002FLangchain-Chatchat","Langchain-Chatchat","Langchain-Chatchat（原Langchain-ChatGLM）基于 Langchain 与 ChatGLM, Qwen 与 Llama 等语言模型的 RAG 与 Agent 应用 | Langchain-Chatchat (formerly langchain-ChatGLM), local knowledge based LLM (like ChatGLM, Qwen and Llama) RAG and Agent app with langchain ","Langchain-Chatchat 是一款基于 LangChain 框架打造的开源本地知识库问答与智能体应用。它旨在解决大模型在特定领域知识匮乏及数据隐私安全的问题，让用户能够利用私有文档（如 PDF、Word 等）构建可离线运行的专属 AI 助手，无需依赖云端 API 即可实现精准的问答交互。\n\n该项目非常适合开发者、企业技术人员以及希望部署私有化 AI 方案的研究人员使用。通过简单的配置，用户不仅能快速搭建基于 Web 的对话界面，还能通过 API 将能力集成到现有系统中。其核心亮点在于高度的灵活性与开放性：支持 ChatGLM、Qwen、Llama3 等主流开源大模型，兼容 Xinference、Ollama 等多种推理框架，并允许自由选择向量数据库。整个流程涵盖文档加载、文本分割、向量化检索到最终生成回答，完全在本地环境中闭环完成，既保障了数据安全，又降低了使用成本。无论是构建企业内部知识中枢，还是探索 RAG（检索增强生成）技术落地，Langchain-Chatchat 都提供了一个成熟且易于扩展的解决方案。","![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_14980e566466.png)\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F329\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_4a68feb902da.png\" alt=\"chatchat-space%2FLangchain-Chatchat | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\n[![pypi badge](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Flangchain-chatchat.svg)](https:\u002F\u002Fshields.io\u002F)\n[![Generic badge](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.8%7C3.9%7C3.10%7C3.11-blue.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fpypiserver\u002F)\n[![zread](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FAsk_Zread-_.svg?style=flat&color=00b0aa&labelColor=000000&logo=data%3Aimage%2Fsvg%2Bxml%3Bbase64%2CPHN2ZyB3aWR0aD0iMTYiIGhlaWdodD0iMTYiIHZpZXdCb3g9IjAgMCAxNiAxNiIgZmlsbD0ibm9uZSIgeG1sbnM9Imh0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnIj4KPHBhdGggZD0iTTQuOTYxNTYgMS42MDAxSDIuMjQxNTZDMS44ODgxIDEuNjAwMSAxLjYwMTU2IDEuODg2NjQgMS42MDE1NiAyLjI0MDFWNC45NjAxQzEuNjAxNTYgNS4zMTM1NiAxLjg4ODEgNS42MDAxIDIuMjQxNTYgNS42MDAxSDQuOTYxNTZDNS4zMTUwMiA1LjYwMDEgNS42MDE1NiA1LjMxMzU2IDUuNjAxNTYgNC45NjAxVjIuMjQwMUM1LjYwMTU2IDEuODg2NjQgNS4zMTUwMiAxLjYwMDEgNC45NjE1NiAxLjYwMDFaIiBmaWxsPSIjZmZmIi8%2BCjxwYXRoIGQ9Ik00Ljk2MTU2IDEwLjM5OTlIMi4yNDE1NkMxLjg4ODEgMTAuMzk5OSAxLjYwMTU2IDEwLjY4NjQgMS42MDE1NiAxMS4wMzk5VjEzLjc1OTlDMS42MDE1NiAxNC4xMTM0IDEuODg4MSAxNC4zOTk5IDIuMjQxNTYgMTQuMzk5OUg0Ljk2MTU2QzUuMzE1MDIgMTQuMzk5OSA1LjYwMTU2IDE0LjExMzQgNS42MDE1NiAxMy43NTk5VjExLjAzOTlDNS42MDE1NiAxMC42ODY0IDUuMzE1MDIgMTAuMzk5OSA0Ljk2MTU2IDEwLjM5OTlaIiBmaWxsPSIjZmZmIi8%2BCjxwYXRoIGQ9Ik0xMy43NTg0IDEuNjAwMUgxMS4wMzg0QzEwLjY4NSAxLjYwMDEgMTAuMzk4NCAxLjg4NjY0IDEwLjM5ODQgMi4yNDAxVjQuOTYwMUMxMC4zOTg0IDUuMzEzNTYgMTAuNjg1IDUuNjAwMSAxMS4wMzg0IDUuNjAwMUgxMy43NTg0QzE0LjExMTkgNS42MDAxIDE0LjM5ODQgNS4zMTM1NiAxNC4zOTg0IDQuOTYwMVYyLjI0MDFDMTQuMzk4NCAxLjg4NjY0IDE0LjExMTkgMS42MDAxIDEzLjc1ODQgMS42MDAxWiIgZmlsbD0iI2ZmZiIvPgo8cGF0aCBkPSJNNCAxMkwxMiA0TDQgMTJaIiBmaWxsPSIjZmZmIi8%2BCjxwYXRoIGQ9Ik00IDEyTDEyIDQiIHN0cm9rZT0iI2ZmZiIgc3Ryb2tlLXdpZHRoPSIxLjUiIHN0cm9rZS1saW5lY2FwPSJyb3VuZCIvPgo8L3N2Zz4K&logoColor=ffffff)](https:\u002F\u002Fzread.ai\u002Fchatchat-space\u002FLangchain-Chatchat)\n\n🌍 [READ THIS IN ENGLISH](README_en.md)\n\n📃 **LangChain-Chatchat** (原 Langchain-ChatGLM)\n\n基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现，开源、可离线部署的 RAG 与 Agent 应用项目。\n\n---\n\n## 目录\n\n* [概述](README.md#概述)\n* [功能介绍](README.md#功能介绍)\n    * [0.3.x 功能一览](README.md#03x-版本功能一览)\n    * [已支持的模型推理框架与模型](README.md#已支持的模型部署框架与模型)\n* [快速上手](README.md#快速上手)\n    * [pip 安装部署](README.md#pip-安装部署)\n    * [源码安装部署\u002F开发部署](README.md#源码安装部署开发部署)\n    * [Docker 部署](README.md#docker-部署)\n* [项目里程碑](README.md#项目里程碑)\n* [联系我们](README.md#联系我们)\n\n## 概述\n\n🤖️ 一种利用 [langchain](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain)\n思想实现的基于本地知识库的问答应用，目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。\n\n💡 受 [GanymedeNil](https:\u002F\u002Fgithub.com\u002FGanymedeNil) 的项目 [document.ai](https:\u002F\u002Fgithub.com\u002FGanymedeNil\u002Fdocument.ai)\n和 [AlexZhangji](https:\u002F\u002Fgithub.com\u002FAlexZhangji)\n创建的 [ChatGLM-6B Pull Request](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B\u002Fpull\u002F216)\n启发，建立了全流程可使用开源模型实现的本地知识库问答应用。本项目的最新版本中可使用 [Xinference](https:\u002F\u002Fgithub.com\u002Fxorbitsai\u002Finference)、[Ollama](https:\u002F\u002Fgithub.com\u002Follama\u002Follama)\n等框架接入 [GLM-4-Chat](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4)、 [Qwen2-Instruct](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2)、 [Llama3](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama3)\n等模型，依托于 [langchain](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain)\n框架支持通过基于 [FastAPI](https:\u002F\u002Fgithub.com\u002Ftiangolo\u002Ffastapi) 提供的 API\n调用服务，或使用基于 [Streamlit](https:\u002F\u002Fgithub.com\u002Fstreamlit\u002Fstreamlit) 的 WebUI 进行操作。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_3a0c487c5fb3.png)\n\n✅ 本项目支持市面上主流的开源 LLM、 Embedding 模型与向量数据库，可实现全部使用**开源**模型**离线私有部署**。与此同时，本项目也支持\nOpenAI GPT API 的调用，并将在后续持续扩充对各类模型及模型 API 的接入。\n\n⛓️ 本项目实现原理如下图所示，过程包括加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 ->\n在文本向量中匹配出与问句向量最相似的 `top k`个 -> 匹配出的文本作为上下文和问题一起添加到 `prompt`中 -> 提交给 `LLM`生成回答。\n\n📺 [原理介绍视频](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV13M4y1e7cN\u002F?share_source=copy_web&vd_source=e6c5aafe684f30fbe41925d61ca6d514)\n\n![实现原理图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_0dd4abd5cbd2.png)\n\n从文档处理角度来看，实现流程如下：\n\n![实现原理图2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_0a5b142920a9.png)\n\n🚩 本项目未涉及微调、训练过程，但可利用微调或训练对本项目效果进行优化。\n\n🌐 [AutoDL 镜像](https:\u002F\u002Fwww.codewithgpu.com\u002Fi\u002Fchatchat-space\u002FLangchain-Chatchat\u002FLangchain-Chatchat) 中 `0.3.0`\n版本所使用代码已更新至本项目 `v0.3.0` 版本。\n\n🐳 Docker 镜像将会在近期更新。\n\n🧑‍💻 如果你想对本项目做出贡献，欢迎移步[开发指南](docs\u002Fcontributing\u002FREADME_dev.md) 获取更多开发部署相关信息。\n\n## 功能介绍\n\n### 0.3.x 版本功能一览\n\n| 功能        | 0.2.x                            | 0.3.x                                                               |\n|-----------|----------------------------------|---------------------------------------------------------------------|\n| 模型接入      | 本地：fastchat\u003Cbr>在线：XXXModelWorker | 本地：model_provider,支持大部分主流模型加载框架\u003Cbr>在线：oneapi\u003Cbr>所有模型接入均兼容openai sdk |\n| Agent     | ❌不稳定                             | ✅针对ChatGLM3和Qwen进行优化,Agent能力显著提升                                    ||\n| LLM对话     | ✅                                | ✅                                                                   ||\n| 知识库对话     | ✅                                | ✅                                                                   ||\n| 搜索引擎对话    | ✅                                | ✅                                                                   ||\n| 文件对话      | ✅仅向量检索                           | ✅统一为File RAG功能,支持BM25+KNN等多种检索方式                                    ||\n| 数据库对话     | ❌                                | ✅                                                                   ||\n| 多模态图片对话     | ❌                                | ✅  推荐使用 qwen-vl-chat                   ||\n| ARXIV文献对话 | ❌                                | ✅                                                                   ||\n| Wolfram对话 | ❌                                | ✅                                                                   ||\n| 文生图       | ❌                                | ✅                                                                   ||\n| 本地知识库管理   | ✅                                | ✅                                                                   ||\n| WEBUI     | ✅                                | ✅更好的多会话支持,自定义系统提示词...                                               |\n\n0.3.x 版本的核心功能由 Agent 实现,但用户也可以手动实现工具调用:\n\n|操作方式|实现的功能|适用场景|\n|-------|---------|-------|\n|选中\"启用Agent\",选择多个工具|由LLM自动进行工具调用|使用ChatGLM3\u002FQwen或在线API等具备Agent能力的模型|\n|选中\"启用Agent\",选择单个工具|LLM仅解析工具参数|使用的模型Agent能力一般,不能很好的选择工具\u003Cbr>想手动选择功能|\n|不选中\"启用Agent\",选择单个工具|不使用Agent功能的情况下,手动填入参数进行工具调用|使用的模型不具备Agent能力|\n|不选中任何工具，上传一个图片|图片对话|使用 qwen-vl-chat 等多模态模型|\n\n更多功能和更新请实际部署体验.\n\n### 已支持的模型部署框架与模型\n\n本项目中已经支持市面上主流的如 [GLM-4-Chat](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4)\n与 [Qwen2-Instruct](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2) 等新近开源大语言模型和 Embedding\n模型，这些模型需要用户自行启动模型部署框架后，通过修改配置信息接入项目，本项目已支持的本地模型部署框架如下：\n\n| 模型部署框架             | Xinference                                                                               | LocalAI                                                    | Ollama                                                                         | FastChat                                                                             |\n|--------------------|------------------------------------------------------------------------------------------|------------------------------------------------------------|--------------------------------------------------------------------------------|--------------------------------------------------------------------------------------|\n| OpenAI API 接口对齐    | ✅                                                                                        | ✅                                                          | ✅                                                                              | ✅                                                                                    |\n| 加速推理引擎             | GPTQ, GGML, vLLM, TensorRT, mlx                                                          | GPTQ, GGML, vLLM, TensorRT                                 | GGUF, GGML                                                                     | vLLM                                                                                 |\n| 接入模型类型             | LLM, Embedding, Rerank, Text-to-Image, Vision, Audio                                     | LLM, Embedding, Rerank, Text-to-Image, Vision, Audio       | LLM, Text-to-Image, Vision                                                     | LLM, Vision                                                                          |\n| Function Call      | ✅                                                                                        | ✅                                                          | ✅                                                                              | \u002F                                                                                    |\n| 更多平台支持(CPU, Metal) | ✅                                                                                        | ✅                                                          | ✅                                                                              | ✅                                                                                    |\n| 异构                 | ✅                                                                                        | ✅                                                          | \u002F                                                                              | \u002F                                                                                    |\n| 集群                 | ✅                                                                                        | ✅                                                          | \u002F                                                                              | \u002F                                                                                    |\n| 操作文档链接             | [Xinference 文档](https:\u002F\u002Finference.readthedocs.io\u002Fzh-cn\u002Flatest\u002Fmodels\u002Fbuiltin\u002Findex.html) | [LocalAI 文档](https:\u002F\u002Flocalai.io\u002Fmodel-compatibility\u002F)      | [Ollama 文档](https:\u002F\u002Fgithub.com\u002Follama\u002Follama?tab=readme-ov-file#model-library) | [FastChat 文档](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat#install)                            |\n| 可用模型               | [Xinference 已支持模型](https:\u002F\u002Finference.readthedocs.io\u002Fen\u002Flatest\u002Fmodels\u002Fbuiltin\u002Findex.html) | [LocalAI 已支持模型](https:\u002F\u002Flocalai.io\u002Fmodel-compatibility\u002F#\u002F) | [Ollama 已支持模型](https:\u002F\u002Follama.com\u002Flibrary#\u002F)                                   | [FastChat 已支持模型](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat\u002Fblob\u002Fmain\u002Fdocs\u002Fmodel_support.md) |\n\n除上述本地模型加载框架外，项目中也为可接入在线 API 的 [One API](https:\u002F\u002Fgithub.com\u002Fsongquanpeng\u002Fone-api)\n框架接入提供了支持，支持包括 [OpenAI ChatGPT](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fguides\u002Fgpt\u002Fchat-completions-api)、[Azure OpenAI API](https:\u002F\u002Flearn.microsoft.com\u002Fen-us\u002Fazure\u002Fai-services\u002Fopenai\u002Freference)、[Anthropic Claude](https:\u002F\u002Fanthropic.com\u002F)、[智谱清言](https:\u002F\u002Fbigmodel.cn\u002F)、[百川](https:\u002F\u002Fplatform.baichuan-ai.com\u002F)\n等常用在线 API 的接入使用。\n\n> [!Note]\n> 关于 Xinference 加载本地模型:\n> Xinference 内置模型会自动下载,如果想让它加载本机下载好的模型,可以在启动 Xinference 服务后,到项目 tools\u002Fmodel_loaders\n> 目录下执行 `streamlit run xinference_manager.py`,按照页面提示为指定模型设置本地路径即可.\n\n## 快速上手\n\n### pip 安装部署\n\n#### 0. 软硬件要求\n\n💡 软件方面，本项目已支持在 Python 3.8-3.11 环境中进行使用，并已在 Windows、macOS、Linux 操作系统中进行测试。\n\n💻 硬件方面，因 0.3.0 版本已修改为支持不同模型部署框架接入，因此可在 CPU、GPU、NPU、MPS 等不同硬件条件下使用。\n\n#### 1. 安装 Langchain-Chatchat\n\n从 0.3.0 版本起，Langchain-Chatchat 提供以 Python 库形式的安装方式，具体安装请执行：\n\n```shell\npip install langchain-chatchat -U\n```\n\n> [!important]\n> 为确保所使用的 Python 库为最新版，建议使用官方 Pypi 源或清华源。\n\n> [!Note]\n> 因模型部署框架 Xinference 接入 Langchain-Chatchat 时需要额外安装对应的 Python 依赖库，因此如需搭配 Xinference\n> 框架使用时，建议使用如下安装方式：\n> ```shell\n> pip install \"langchain-chatchat[xinference]\" -U\n> ```\n\n#### 2. 模型推理框架并加载模型\n\n从 0.3.0 版本起，Langchain-Chatchat 不再根据用户输入的本地模型路径直接进行模型加载，涉及到的模型种类包括\nLLM、Embedding、Reranker\n及后续会提供支持的多模态模型等，均改为支持市面常见的各大模型推理框架接入，如 [Xinference](https:\u002F\u002Fgithub.com\u002Fxorbitsai\u002Finference)、[Ollama](https:\u002F\u002Fgithub.com\u002Follama\u002Follama)、[LocalAI](https:\u002F\u002Fgithub.com\u002Fmudler\u002FLocalAI)、[FastChat](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat)、[One API](https:\u002F\u002Fgithub.com\u002Fsongquanpeng\u002Fone-api)\n等。\n\n因此，请确认在启动 Langchain-Chatchat 项目前，首先进行模型推理框架的运行，并加载所需使用的模型。\n\n这里以 Xinference 举例,\n请参考 [Xinference文档](https:\u002F\u002Finference.readthedocs.io\u002Fzh-cn\u002Flatest\u002Fgetting_started\u002Finstallation.html) 进行框架部署与模型加载。\n\n> [!WARNING]  \n> 为避免依赖冲突，请将 Langchain-Chatchat 和模型部署框架如 Xinference 等放在不同的 Python 虚拟环境中, 比如 conda, venv,\n> virtualenv 等。\n\n#### 3. 初始化项目配置与数据目录\n\n从 0.3.1 版本起，Langchain-Chatchat 使用本地 `yaml` 文件的方式进行配置，用户可以直接查看并修改其中的内容，服务器会自动更新无需重启。\n\n1. 设置 Chatchat 存储配置文件和数据文件的根目录（可选）\n\n```shell\n# on linux or macos\nexport CHATCHAT_ROOT=\u002Fpath\u002Fto\u002Fchatchat_data\n\n# on windows\nset CHATCHAT_ROOT=\u002Fpath\u002Fto\u002Fchatchat_data\n```\n\n若不设置该环境变量，则自动使用当前目录。\n\n2. 执行初始化\n\n```shell\nchatchat init\n```\n\n该命令会执行以下操作：\n\n- 创建所有需要的数据目录\n- 复制 samples 知识库内容\n- 生成默认 `yaml` 配置文件\n\n3. 修改配置文件\n\n- 配置模型（model_settings.yaml）  \n  需要根据步骤 **2. 模型推理框架并加载模型**\n  中选用的模型推理框架与加载的模型进行模型接入配置，具体参考 `model_settings.yaml` 中的注释。主要修改以下内容：\n  ```yaml\n  # 默认选用的 LLM 名称\n   DEFAULT_LLM_MODEL: qwen1.5-chat\n\n   # 默认选用的 Embedding 名称\n   DEFAULT_EMBEDDING_MODEL: bge-large-zh-v1.5\n\n  # 将 `LLM_MODEL_CONFIG` 中 `llm_model, action_model` 的键改成对应的 LLM 模型\n  # 在 `MODEL_PLATFORMS` 中修改对应模型平台信息\n  ```\n- 配置知识库路径（basic_settings.yaml）（可选）  \n  默认知识库位于 `CHATCHAT_ROOT\u002Fdata\u002Fknowledge_base`，如果你想把知识库放在不同的位置，或者想连接现有的知识库，可以在这里修改对应目录即可。\n  ```yaml\n  # 知识库默认存储路径\n   KB_ROOT_PATH: D:\\chatchat-test\\data\\knowledge_base\n\n   # 数据库默认存储路径。如果使用sqlite，可以直接修改DB_ROOT_PATH；如果使用其它数据库，请直接修改SQLALCHEMY_DATABASE_URI。\n   DB_ROOT_PATH: D:\\chatchat-test\\data\\knowledge_base\\info.db\n\n   # 知识库信息数据库连接URI\n   SQLALCHEMY_DATABASE_URI: sqlite:\u002F\u002F\u002FD:\\chatchat-test\\data\\knowledge_base\\info.db\n  ```\n- 配置知识库（kb_settings.yaml）（可选）\n\n  默认使用 `FAISS` 知识库，如果想连接其它类型的知识库，可以修改 `DEFAULT_VS_TYPE` 和 `kbs_config`。\n\n#### 4. 初始化知识库\n\n> [!WARNING]  \n> 进行知识库初始化前，请确保已经启动模型推理框架及对应 `embedding` 模型，且已按照上述**步骤3**完成模型接入配置。\n\n```shell\nchatchat kb -r\n```\n\n更多功能可以查看 `chatchat kb --help`\n\n出现以下日志即为成功:\n\n```text \n\n----------------------------------------------------------------------------------------------------\n知识库名称      ：samples\n知识库类型      ：faiss\n向量模型：      ：bge-large-zh-v1.5\n知识库路径      ：\u002Froot\u002Fanaconda3\u002Fenvs\u002Fchatchat\u002Flib\u002Fpython3.11\u002Fsite-packages\u002Fchatchat\u002Fdata\u002Fknowledge_base\u002Fsamples\n文件总数量      ：47\n入库文件数      ：42\n知识条目数      ：740\n用时            ：0:02:29.701002\n----------------------------------------------------------------------------------------------------\n\n总计用时        ：0:02:33.414425\n\n```\n\n> [!Note]\n> 知识库初始化的常见问题\n>\n> \u003Cdetails>\n>\n> ##### 1. Windows 下重建知识库或添加知识文件时卡住不动\n> 此问题常出现于新建虚拟环境中，可以通过以下方式确认：\n>\n> `from unstructured.partition.auto import partition`\n>\n> 如果该语句卡住无法执行，可以执行以下命令：\n> ```shell\n> pip uninstall python-magic-bin\n> # check the version of the uninstalled package\n> pip install 'python-magic-bin=={version}'\n> ```\n> 然后按照本节指引重新创建知识库即可。\n>\n> \u003C\u002Fdetails>\n\n#### 5. 启动项目\n\n```shell\nchatchat start -a\n```\n\n出现以下界面即为启动成功:\n\n![WebUI界面](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_717dfdd05df4.png)\n\n> [!WARNING]  \n> 由于 chatchat 配置默认监听地址 `DEFAULT_BIND_HOST` 为 127.0.0.1, 所以无法通过其他 ip 进行访问。\n>\n> 如需通过机器ip 进行访问(如 Linux 系统), 需要到 `basic_settings.yaml` 中将监听地址修改为 0.0.0.0。\n> \u003C\u002Fdetails>\n\n### 其它配置\n\n1. 数据库对话配置请移步这里 [数据库对话配置说明](docs\u002Finstall\u002FREADME_text2sql.md)\n\n\n### 源码安装部署\u002F开发部署\n\n源码安装部署请参考 [开发指南](docs\u002Fcontributing\u002FREADME_dev.md)\n\n### Docker 部署\n\n```shell\ndocker pull chatimage\u002Fchatchat:0.3.1.3-93e2c87-20240829\n\ndocker pull ccr.ccs.tencentyun.com\u002Flangchain-chatchat\u002Fchatchat:0.3.1.3-93e2c87-20240829 # 国内镜像\n```\n\n> [!important]\n> 强烈建议: 使用 docker-compose 部署, 具体参考 [README_docker](docs\u002Finstall\u002FREADME_docker.md)\n\n### 旧版本迁移\n\n* 0.3.x 结构改变很大,强烈建议您按照文档重新部署. 以下指南不保证100%兼容和成功. 记得提前备份重要数据!\n\n- 首先按照 `安装部署` 中的步骤配置运行环境，修改配置文件\n- 将 0.2.x 项目的 knowledge_base 目录拷贝到配置的 `DATA` 目录下\n\n---\n\n## 项目里程碑\n\n+ `2023年4月`: `Langchain-ChatGLM 0.1.0` 发布，支持基于 ChatGLM-6B 模型的本地知识库问答。\n+ `2023年8月`: `Langchain-ChatGLM` 改名为 `Langchain-Chatchat`，发布 `0.2.0` 版本，使用 `fastchat` 作为模型加载方案，支持更多的模型和数据库。\n+ `2023年10月`: `Langchain-Chatchat 0.2.5` 发布，推出 Agent 内容，开源项目在`Founder Park & Zhipu AI & Zilliz`\n  举办的黑客马拉松获得三等奖。\n+ `2023年12月`: `Langchain-Chatchat` 开源项目获得超过 **20K** stars.\n+ `2024年6月`: `Langchain-Chatchat 0.3.0` 发布，带来全新项目架构。\n\n+ 🔥 让我们一起期待未来 Chatchat 的故事 ···\n\n---\n\n## 协议\n\n本项目代码遵循 [Apache-2.0](LICENSE) 协议。\n\n## 联系我们\n\n### Telegram\n\n[![Telegram](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTelegram-2CA5E0?style=for-the-badge&logo=telegram&logoColor=white \"langchain-chatchat\")](https:\u002F\u002Ft.me\u002F+RjliQ3jnJ1YyN2E9)\n\n### 项目交流群\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_90050f7b0490.jpg\" alt=\"二维码\" width=\"300\" \u002F>\n\n🎉 Langchain-Chatchat 项目微信交流群，如果你也对本项目感兴趣，欢迎加入群聊参与讨论交流。\n\n### 公众号\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_299905c38ad9.png\" alt=\"二维码\" width=\"300\" \u002F>\n\n🎉 Langchain-Chatchat 项目官方公众号，欢迎扫码关注。\n\n## 引用\n\n如果本项目有帮助到您的研究，请引用我们：\n\n```\n@software{langchain_chatchat,\n    title        = {{langchain-chatchat}},\n    author       = {Liu, Qian and Song, Jinke, and Huang, Zhiguo, and Zhang, Yuxuan, and glide-the, and liunux4odoo},\n    year         = 2024,\n    journal      = {GitHub repository},\n    publisher    = {GitHub},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat}}\n}\n```\n","![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_14980e566466.png)\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F329\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_4a68feb902da.png\" alt=\"chatchat-space%2FLangchain-Chatchat | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\n[![pypi badge](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Flangchain-chatchat.svg)](https:\u002F\u002Fshields.io\u002F)\n[![Generic badge](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.8%7C3.9%7C3.10%7C3.11-blue.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fpypiserver\u002F)\n[![zread](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FAsk_Zread-_.svg?style=flat&color=00b0aa&labelColor=000000&logo=data%3Aimage%2Fsvg%2Bxml%3Bbase64%2CPHN2ZyB3aWR0aD0iMTYiIGhlaWdodD0iMTYiIHZpZXdCb3g9IjAgMCAxNiAxNiIgZmlsbD0ibm9uZSIgeG1sbnM9Imh0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnIj4KPHBhdGggZD0iTTQuOTYxNTYgMS42MDAxSDIuMjQxNTZDMS44ODgxIDEuNjAwMSAxLjYwMTU2IDEuODg2NjQgMS42MDE1NiAyLjI0MDFWNC45NjAxQzEuNjAxNTYgNS4zMTM1NiAxLjg4ODEgNS42MDAxIDIuMjQxNTYgNS42MDAxSDQuOTYxNTZDNS5zMTUwMiA1LjYwMDEgNS42MDE1NiA1LjMxMzU2IDUuNjAxNTYgNC45NjAxVjIuMjQwMUM1LjYwMTU2IDEuODg2NjQgNS5zMTUwMiAxLjYwMDEgNC45NjE1NiAxLjYwMDFaIiBmaWxsPSIjZmZmIi8%2BCjxwYXRoIGQ9Ik00Ljk2MTU2IDEwLjM5OTlIMi4yNDE1NkMxLjg4ODEgMTAuMzk5OSAxLjYwMTU2IDEwLjY4NjQgMS42MDE1NiAxMS4wMzk5VjEzLjc1OTlDMS42MDE1NiAxNC4xMTM0IDEuODg4MSAxNC4zOTk5IDIuMjQxNTYgMTQuMzk5OUH0Ljk6MTU2QzUuMzE1MDIgMTQuMzk5OSA1LjYwMTU2IDE0LjExMzQgNS5zMTUwMiAxLjYwMDEgNC45NjE1NiAxLjYwMDFZeIiBmaWxsPSIjZmZmIi8%2BCjxwYXRoIGQ9Ik0xMy43NTg0IDEuNjAwMUgxMS.0Mzg0QzEwLjY8NSIDEuNjAwMUgEwLjMzk8NCAxLjg8NjY0IDEwLjMzk8NCAyLjI0MDFVj4LjMzk8NCDMS.2MDE1NiAxNC4xMTkgNS5zMTUwMiAxNC4zOTk9IDS.2MDE1NiAxNC4zOTk9IHxMy.7NTg0QzE4LjExMTkgNS5zMTUwMiAxNC4zOTk9IDS.2MDE1NiAxNC4zOTk9IHxMy.7NTg0QzE4LjMzk8NCAxLjY8NSIDEuNjAwMUgEwLjMzk8NCAxLjg8NjY0IDEwLjMzk8NCAyLjI0MDFVj4LjMzk8NCDMS.2MDE1NiAxMC.LjY8NjY0IDUuMzE1MDIgMTAuMzk9OSA0L.jk6156IDEuNjAwMXaIiBmaWxsPSIjZmZmIi8%2BCjxwYXRoIGQ9Ik00IDEyTDEyIDRML0g0IDEyTdIiBmaWxsPSIjZmZmIi8%2BCjxwYXRoIGQ9Ik00IDEyTDEyIDRMIiBzdHJva2U9IiNmbWYiIHN0cm9rZS13aWR0aD0iMS41IiBzdHJva2UtbGluZWNhcD0icm91bmQiLz4KPC9zdWc%2BK&logoColor=ffffff)](https:\u002F\u002Fzread.ai\u002Fchatchat-space\u002FLangchain-Chatchat)\n\n🌍 [阅读英文版](README_en.md)\n\n📃 **LangChain-Chatchat**（原 Langchain-ChatGLM）\n\n基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现，开源、可离线部署的 RAG 与 Agent 应用项目。\n\n---\n\n## 目录\n\n* [概述](README.md#概述)\n* [功能介绍](README.md#功能介绍)\n    * [0.3.x 功能一览](README.md#03x-版本功能一览)\n    * [已支持的模型推理框架与模型](README.md#已支持的模型部署框架与模型)\n* [快速上手](README.md#快速上手)\n    * [pip 安装部署](README.md#pip-安装部署)\n    * [源码安装部署\u002F开发部署](README.md#源码安装部署开发部署)\n    * [Docker 部署](README.md#docker-部署)\n* [项目里程碑](README.md#项目里程碑)\n* [联系我们](README.md#联系我们)\n\n## 概述\n\n🤖️ 一种利用 [langchain](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain)\n思想实现的基于本地知识库的问答应用，目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。\n\n💡 受 [GanymedeNil](https:\u002F\u002Fgithub.com\u002FGanymedeNil) 的项目 [document.ai](https:\u002F\u002Fgithub.com\u002FGanymedeNil\u002Fdocument.ai)\n和 [AlexZhangji](https:\u002F\u002Fgithub.com\u002FAlexZhangji)\n创建的 [ChatGLM-6B Pull Request](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B\u002Fpull\u002F216)\n启发，建立了全流程可使用开源模型实现的本地知识库问答应用。本项目的最新版本中可使用 [Xinference](https:\u002F\u002Fgithub.com\u002Fxorbitsai\u002Finference)、[Ollama](https:\u002F\u002Fgithub.com\u002Follama\u002Follama)\n等框架接入 [GLM-4-Chat](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4)、[Qwen2-Instruct](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2)、[Llama3](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama3)\n等模型，依托于 [langchain](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain)\n框架支持通过基于 [FastAPI](https:\u002F\u002Fgithub.com\u002Ftiangolo\u002Ffastapi) 提供的 API\n调用服务，或使用基于 [Streamlit](https:\u002F\u002Fgithub.com\u002Fstreamlit\u002Fstreamlit) 的 WebUI 进行操作。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_3a0c487c5fb3.png)\n\n✅ 本项目支持市面上主流的开源 LLM、 Embedding 模型与向量数据库，可实现全部使用**开源**模型**离线私有部署**。与此同时，本项目也支持\nOpenAI GPT API 的调用，并将在后续持续扩充对各类模型及模型 API 的接入。\n\n⛓️ 本项目实现原理如下图所示，过程包括加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 ->\n在文本向量中匹配出与问句向量最相似的 `top k`个 -> 匹配出的文本作为上下文和问题一起添加到 `prompt`中 -> 提交给 `LLM`生成回答。\n\n📺 [原理介绍视频](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV13M4y1e7cN\u002F?share_source=copy_web&vd_source=e6c5aafe684f30fbe41925d61ca6d514)\n\n![实现原理图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_0dd4abd5cbd2.png)\n\n从文档处理角度来看，实现流程如下：\n\n![实现原理图2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_0a5b142920a9.png)\n\n🚩 本项目未涉及微调、训练过程，但可利用微调或训练对本项目效果进行优化。\n\n🌐 [AutoDL 镜像](https:\u002F\u002Fwww.codewithgpu.com\u002Fi\u002Fchatchat-space\u002FLangchain-Chatchat\u002FLangchain-Chatchat) 中 `0.3.0`\n版本所使用代码已更新至本项目 `v0.3.0` 版本。\n\n🐳 Docker 镜像将会在近期更新。\n\n🧑‍💻 如果你想对本项目做出贡献，欢迎移步[开发指南](docs\u002Fcontributing\u002FREADME_dev.md) 获取更多开发部署相关信息。\n\n## 功能介绍\n\n### 0.3.x 版本功能一览\n\n| 功能        | 0.2.x                            | 0.3.x                                                               |\n|-----------|----------------------------------|---------------------------------------------------------------------|\n| 模型接入      | 本地：fastchat\u003Cbr>在线：XXXModelWorker | 本地：model_provider,支持大部分主流模型加载框架\u003Cbr>在线：oneapi\u003Cbr>所有模型接入均兼容openai sdk |\n| Agent     | ❌不稳定                             | ✅针对ChatGLM3和Qwen进行优化,Agent能力显著提升                                    ||\n| LLM对话     | ✅                                | ✅                                                                   ||\n| 知识库对话     | ✅                                | ✅                                                                   ||\n| 搜索引擎对话    | ✅                                | ✅                                                                   ||\n| 文件对话      | ✅仅向量检索                           | ✅统一为File RAG功能,支持BM25+KNN等多种检索方式                                    ||\n| 数据库对话     | ❌                                | ✅                                                                   ||\n| 多模态图片对话     | ❌                                | ✅  推荐使用 qwen-vl-chat                   ||\n| ARXIV文献对话 | ❌                                | ✅                                                                   ||\n| Wolfram对话 | ❌                                | ✅                                                                   ||\n| 文生图       | ❌                                | ✅                                                                   ||\n| 本地知识库管理   | ✅                                | ✅                                                                   ||\n| WEBUI     | ✅                                | ✅更好的多会话支持,自定义系统提示词...                                               |\n\n0.3.x 版本的核心功能由 Agent 实现,但用户也可以手动实现工具调用:\n\n|操作方式|实现的功能|适用场景|\n|-------|---------|-------|\n|选中\"启用Agent\",选择多个工具|由LLM自动进行工具调用|使用ChatGLM3\u002FQwen或在线API等具备Agent能力的模型|\n|选中\"启用Agent\",选择单个工具|LLM仅解析工具参数|使用的模型Agent能力一般,不能很好的选择工具\u003Cbr>想手动选择功能|\n|不选中\"启用Agent\",选择单个工具|不使用Agent功能的情况下,手动填入参数进行工具调用|使用的模型不具备Agent能力|\n|不选中任何工具，上传一个图片|图片对话|使用 qwen-vl-chat 等多模态模型|\n\n更多功能和更新请实际部署体验.\n\n### 已支持的模型部署框架与模型\n\n本项目中已经支持市面上主流的如 [GLM-4-Chat](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4)\n与 [Qwen2-Instruct](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2) 等新近开源大语言模型和 Embedding\n模型，这些模型需要用户自行启动模型部署框架后，通过修改配置信息接入项目，本项目已支持的本地模型部署框架如下：\n\n| 模型部署框架             | Xinference                                                                               | LocalAI                                                    | Ollama                                                                         | FastChat                                                                             |\n|--------------------|------------------------------------------------------------------------------------------|------------------------------------------------------------|--------------------------------------------------------------------------------|--------------------------------------------------------------------------------------|\n| OpenAI API 接口对齐    | ✅                                                                                        | ✅                                                          | ✅                                                                              | ✅                                                                                    |\n| 加速推理引擎             | GPTQ, GGML, vLLM, TensorRT, mlx                                                          | GPTQ, GGML, vLLM, TensorRT                                 | GGUF, GGML                                                                     | vLLM                                                                                 |\n| 接入模型类型             | LLM, Embedding, Rerank, Text-to-Image, Vision, Audio                                     | LLM, Embedding, Rerank, Text-to-Image, Vision, Audio       | LLM, Text-to-Image, Vision                                                     | LLM, Vision                                                                          |\n| Function Call      | ✅                                                                                        | ✅                                                          | ✅                                                                              | \u002F                                                                                    |\n| 更多平台支持(CPU, Metal) | ✅                                                                                        | ✅                                                          | ✅                                                                              | ✅                                                                                    |\n| 异构                 | ✅                                                                                        | ✅                                                          | \u002F                                                                              | \u002F                                                                                    |\n| 集群                 | ✅                                                                                        | ✅                                                          | \u002F                                                                              | \u002F                                                                                    |\n| 操作文档链接             | [Xinference 文档](https:\u002F\u002Finference.readthedocs.io\u002Fzh-cn\u002Flatest\u002Fmodels\u002Fbuiltin\u002Findex.html) | [LocalAI 文档](https:\u002F\u002Flocalai.io\u002Fmodel-compatibility\u002F)      | [Ollama 文档](https:\u002F\u002Fgithub.com\u002Follama\u002Follama?tab=readme-ov-file#model-library) | [FastChat 文档](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat#install)                            |\n| 可用模型               | [Xinference 已支持模型](https:\u002F\u002Finference.readthedocs.io\u002Fen\u002Flatest\u002Fmodels\u002Fbuiltin\u002Findex.html) | [LocalAI 已支持模型](https:\u002F\u002Flocalai.io\u002Fmodel-compatibility\u002F#\u002F) | [Ollama 已支持模型](https:\u002F\u002Follama.com\u002Flibrary#\u002F)                                   | [FastChat 已支持模型](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat\u002Fblob\u002Fmain\u002Fdocs\u002Fmodel_support.md) |\n\n除上述本地模型加载框架外，项目中也为可接入在线 API 的 [One API](https:\u002F\u002Fgithub.com\u002Fsongquanpeng\u002Fone-api)\n框架接入提供了支持，支持包括 [OpenAI ChatGPT](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fguides\u002Fgpt\u002Fchat-completions-api)、[Azure OpenAI API](https:\u002F\u002Flearn.microsoft.com\u002Fen-us\u002Fazure\u002Fai-services\u002Fopenai\u002Freference)、[Anthropic Claude](https:\u002F\u002Fanthropic.com\u002F)、[智谱清言](https:\u002F\u002Fbigmodel.cn\u002F)、[百川](https:\u002F\u002Fplatform.baichuan-ai.com\u002F)\n等常用在线 API 的接入使用。\n\n> [!Note]\n> 关于 Xinference 加载本地模型:\n> Xinference 内置模型会自动下载,如果想让它加载本机下载好的模型,可以在启动 Xinference 服务后,到项目 tools\u002Fmodel_loaders\n> 目录下执行 `streamlit run xinference_manager.py`,按照页面提示为指定模型设置本地路径即可.\n\n## 快速上手\n\n### pip 安装部署\n\n#### 0. 软硬件要求\n\n💡 软件方面，本项目已支持在 Python 3.8-3.11 环境中进行使用，并已在 Windows、macOS、Linux 操作系统中进行测试。\n\n💻 硬件方面，因 0.3.0 版本已修改为支持不同模型部署框架接入，因此可在 CPU、GPU、NPU、MPS 等不同硬件条件下使用。\n\n#### 1. 安装 Langchain-Chatchat\n\n从 0.3.0 版本起，Langchain-Chatchat 提供以 Python 库形式的安装方式，具体安装请执行：\n\n```shell\npip install langchain-chatchat -U\n```\n\n> [!important]\n> 为确保所使用的 Python 库为最新版，建议使用官方 Pypi 源或清华源。\n\n> [!Note]\n> 因模型部署框架 Xinference 接入 Langchain-Chatchat 时需要额外安装对应的 Python 依赖库，因此如需搭配 Xinference\n> 框架使用时，建议使用如下安装方式：\n> ```shell\n> pip install \"langchain-chatchat[xinference]\" -U\n> ```\n\n#### 2. 模型推理框架并加载模型\n\n从 0.3.0 版本起，Langchain-Chatchat 不再根据用户输入的本地模型路径直接进行模型加载，涉及到的模型种类包括\nLLM、Embedding、Reranker\n及后续会提供支持的多模态模型等，均改为支持市面常见的各大模型推理框架接入，如 [Xinference](https:\u002F\u002Fgithub.com\u002Fxorbitsai\u002Finference)、[Ollama](https:\u002F\u002Fgithub.com\u002Follama\u002Follama)、[LocalAI](https:\u002F\u002Fgithub.com\u002Fmudler\u002FLocalAI)、[FastChat](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat)、[One API](https:\u002F\u002Fgithub.com\u002Fsongquanpeng\u002Fone-api)\n等。\n\n因此，请确认在启动 Langchain-Chatchat 项目前，首先进行模型推理框架的运行，并加载所需使用的模型。\n\n这里以 Xinference 举例,\n请参考 [Xinference文档](https:\u002F\u002Finference.readthedocs.io\u002Fzh-cn\u002Flatest\u002Fgetting_started\u002Finstallation.html) 进行框架部署与模型加载。\n\n> [!WARNING]  \n> 为避免依赖冲突，请将 Langchain-Chatchat 和模型部署框架如 Xinference 等放在不同的 Python 虚拟环境中, 比如 conda, venv,\n> virtualenv 等。\n\n#### 3. 初始化项目配置与数据目录\n\n从 0.3.1 版本起，Langchain-Chatchat 使用本地 `yaml` 文件的方式进行配置，用户可以直接查看并修改其中的内容，服务器会自动更新无需重启。\n\n1. 设置 Chatchat 存储配置文件和数据文件的根目录（可选）\n\n```shell\n# on linux or macos\nexport CHATCHAT_ROOT=\u002Fpath\u002Fto\u002Fchatchat_data\n\n# 在 Windows 上\nset CHATCHAT_ROOT=\u002Fpath\u002Fto\u002Fchatchat_data\n```\n\n若不设置该环境变量，则自动使用当前目录。\n\n2. 执行初始化\n\n```shell\nchatchat init\n```\n\n该命令会执行以下操作：\n\n- 创建所有需要的数据目录\n- 复制 samples 知识库内容\n- 生成默认 `yaml` 配置文件\n\n3. 修改配置文件\n\n- 配置模型（model_settings.yaml）  \n  需要根据步骤 **2. 模型推理框架并加载模型**\n  中选用的模型推理框架与加载的模型进行模型接入配置，具体参考 `model_settings.yaml` 中的注释。主要修改以下内容：\n  ```yaml\n  # 默认选用的 LLM 名称\n   DEFAULT_LLM_MODEL: qwen1.5-chat\n\n   # 默认选用的 Embedding 名称\n   DEFAULT_EMBEDDING_MODEL: bge-large-zh-v1.5\n\n  # 将 `LLM_MODEL_CONFIG` 中 `llm_model, action_model` 的键改成对应的 LLM 模型\n  # 在 `MODEL_PLATFORMS` 中修改对应模型平台信息\n  ```\n- 配置知识库路径（basic_settings.yaml）（可选）  \n  默认知识库位于 `CHATCHAT_ROOT\u002Fdata\u002Fknowledge_base`，如果你想把知识库放在不同的位置，或者想连接现有的知识库，可以在这里修改对应目录即可。\n  ```yaml\n  # 知识库默认存储路径\n   KB_ROOT_PATH: D:\\chatchat-test\\data\\knowledge_base\n\n   # 数据库默认存储路径。如果使用sqlite，可以直接修改DB_ROOT_PATH；如果使用其它数据库，请直接修改SQLALCHEMY_DATABASE_URI。\n   DB_ROOT_PATH: D:\\chatchat-test\\data\\knowledge_base\\info.db\n\n   # 知识库信息数据库连接URI\n   SQLALCHEMY_DATABASE_URI: sqlite:\u002F\u002F\u002FD:\\chatchat-test\\data\\knowledge_base\\info.db\n  ```\n- 配置知识库（kb_settings.yaml）（可选）\n\n  默认使用 `FAISS` 知识库，如果想连接其它类型的知识库，可以修改 `DEFAULT_VS_TYPE` 和 `kbs_config`。\n\n#### 4. 初始化知识库\n\n> [!WARNING]  \n> 进行知识库初始化前，请确保已经启动模型推理框架及对应 `embedding` 模型，且已按照上述**步骤3**完成模型接入配置。\n\n```shell\nchatchat kb -r\n```\n\n更多功能可以查看 `chatchat kb --help`\n\n出现以下日志即为成功:\n\n```text \n\n----------------------------------------------------------------------------------------------------\n知识库名称      ：samples\n知识库类型      ：faiss\n向量模型：      ：bge-large-zh-v1.5\n知识库路径      ：\u002Froot\u002Fanaconda3\u002Fenvs\u002Fchatchat\u002Flib\u002Fpython3.11\u002Fsite-packages\u002Fchatchat\u002Fdata\u002Fknowledge_base\u002Fsamples\n文件总数量      ：47\n入库文件数      ：42\n知识条目数      ：740\n用时            ：0:02:29.701002\n----------------------------------------------------------------------------------------------------\n\n总计用时        ：0:02:33.414425\n\n```\n\n> [!Note]\n> 知识库初始化的常见问题\n>\n> \u003Cdetails>\n>\n> ##### 1. Windows 下重建知识库或添加知识文件时卡住不动\n> 此问题常出现于新建虚拟环境中，可以通过以下方式确认：\n>\n> `from unstructured.partition.auto import partition`\n>\n> 如果该语句卡住无法执行，可以执行以下命令：\n> ```shell\n> pip uninstall python-magic-bin\n> # check the version of the uninstalled package\n> pip install 'python-magic-bin=={version}'\n> ```\n> 然后按照本节指引重新创建知识库即可。\n>\n> \u003C\u002Fdetails>\n\n#### 5. 启动项目\n\n```shell\nchatchat start -a\n```\n\n出现以下界面即为启动成功:\n\n![WebUI界面](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_717dfdd05df4.png)\n\n> [!WARNING]  \n> 由于 chatchat 配置默认监听地址 `DEFAULT_BIND_HOST` 为 127.0.0.1, 所以无法通过其他 ip 进行访问。\n>\n> 如需通过机器ip 进行访问(如 Linux 系统), 需要到 `basic_settings.yaml` 中将监听地址修改为 0.0.0.0。\n> \u003C\u002Fdetails>\n\n### 其它配置\n\n1. 数据库对话配置请移步这里 [数据库对话配置说明](docs\u002Finstall\u002FREADME_text2sql.md)\n\n\n### 源码安装部署\u002F开发部署\n\n源码安装部署请参考 [开发指南](docs\u002Fcontributing\u002FREADME_dev.md)\n\n### Docker 部署\n\n```shell\ndocker pull chatimage\u002Fchatchat:0.3.1.3-93e2c87-20240829\n\ndocker pull ccr.ccs.tencentyun.com\u002Flangchain-chatchat\u002Fchatchat:0.3.1.3-93e2c87-20240829 # 国内镜像\n```\n\n> [!important]\n> 强烈建议: 使用 docker-compose 部署, 具体参考 [README_docker](docs\u002Finstall\u002FREADME_docker.md)\n\n### 旧版本迁移\n\n* 0.3.x 结构改变很大,强烈建议您按照文档重新部署. 以下指南不保证100%兼容和成功. 记得提前备份重要数据!\n\n- 首先按照 `安装部署` 中的步骤配置运行环境，修改配置文件\n- 将 0.2.x 项目的 knowledge_base 目录拷贝到配置的 `DATA` 目录下\n\n---\n\n## 项目里程碑\n\n+ `2023年4月`: `Langchain-ChatGLM 0.1.0` 发布，支持基于 ChatGLM-6B 模型的本地知识库问答。\n+ `2023年8月`: `Langchain-ChatGLM` 改名为 `Langchain-Chatchat`，发布 `0.2.0` 版本，使用 `fastchat` 作为模型加载方案，支持更多的模型和数据库。\n+ `2023年10月`: `Langchain-Chatchat 0.2.5` 发布，推出 Agent 内容，开源项目在`Founder Park & Zhipu AI & Zilliz`\n  举办的黑客马拉松获得三等奖。\n+ `2023年12月`: `Langchain-Chatchat` 开源项目获得超过 **20K** stars.\n+ `2024年6月`: `Langchain-Chatchat 0.3.0` 发布，带来全新项目架构。\n\n+ 🔥 让我们一起期待未来 Chatchat 的故事 ···\n\n---\n\n## 协议\n\n本项目代码遵循 [Apache-2.0](LICENSE) 协议。\n\n## 联系我们\n\n### Telegram\n\n[![Telegram](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTelegram-2CA5E0?style=for-the-badge&logo=telegram&logoColor=white \"langchain-chatchat\")](https:\u002F\u002Ft.me\u002F+RjliQ3jnJ1YyN2E9)\n\n### 项目交流群\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_90050f7b0490.jpg\" alt=\"二维码\" width=\"300\" \u002F>\n\n🎉 Langchain-Chatchat 项目微信交流群，如果你也对本项目感兴趣，欢迎加入群聊参与讨论交流。\n\n### 公众号\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_readme_299905c38ad9.png\" alt=\"二维码\" width=\"300\" \u002F>\n\n🎉 Langchain-Chatchat 项目官方公众号，欢迎扫码关注。\n\n## 引用\n\n如果本项目有帮助到您的研究，请引用我们：\n\n```\n@software{langchain_chatchat,\n    title        = {{langchain-chatchat}},\n    author       = {Liu, Qian and Song, Jinke, and Huang, Zhiguo, and Zhang, Yuxuan, and glide-the, and liunux4odoo},\n    year         = 2024,\n    journal      = {GitHub repository},\n    publisher    = {GitHub},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat}}\n}\n```","# Langchain-Chatchat 快速上手指南\n\nLangchain-Chatchat（原 Langchain-ChatGLM）是一个基于本地知识库的问答应用，支持开源模型离线私有部署，兼容 RAG 与 Agent 功能。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**：Windows、macOS、Linux\n- **Python 版本**：3.8 | 3.9 | 3.10 | 3.11\n- **硬件支持**：支持 CPU、GPU、NPU、MPS 等多种硬件条件（取决于所选模型推理框架）\n\n### 前置依赖\n本项目不再直接加载本地模型文件，而是通过模型推理框架接入模型。在启动项目前，请先部署并运行以下任一框架，并加载所需模型（LLM、Embedding 等）：\n- [Xinference](https:\u002F\u002Fgithub.com\u002Fxorbitsai\u002Finference) (推荐)\n- [Ollama](https:\u002F\u002Fgithub.com\u002Follama\u002Follama)\n- [LocalAI](https:\u002F\u002Fgithub.com\u002Fmudler\u002FLocalAI)\n- [FastChat](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat)\n- [One API](https:\u002F\u002Fgithub.com\u002Fsongquanpeng\u002Fone-api) (用于在线 API)\n\n## 2. 安装步骤\n\n### 基础安装\n建议使用官方 PyPI 源或清华镜像源以确保下载速度。\n\n```shell\npip install langchain-chatchat -U\n```\n\n### 搭配 Xinference 安装（推荐）\n若计划使用 Xinference 作为模型推理框架，建议安装包含额外依赖的版本：\n\n```shell\npip install \"langchain-chatchat[xinference]\" -U\n```\n\n> **提示**：如果使用国内网络环境，可指定清华源加速安装：\n> ```shell\n> pip install langchain-chatchat -U -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 3. 基本使用\n\n### 第一步：启动模型推理框架\n以 **Xinference** 为例，先启动服务并加载模型（如 `glm4-chat` 和 `bge-large-zh`）：\n\n```bash\n# 启动 xinference 服务\nxinference-local\n\n# 在新终端中加载模型（示例）\nxinference launch -u glm4-chat -m THUDM\u002Fglm-4-9b-chat\nxinference launch -u bge-zh -m BAAI\u002Fbge-large-zh-v1.5\n```\n*请确保模型状态为 \"Running\"。其他框架请参考各自文档进行模型加载。*\n\n### 第二步：初始化配置\n首次运行需生成配置文件并修改模型连接信息：\n\n```shell\nchatchat init\n```\n执行后，编辑生成的 `configs\u002Fmodel_config.py` 或 `configs\u002Fserver_config.py`，将模型提供商（model_provider）指向你运行的推理框架地址（默认为 Xinference 本地地址）。\n\n### 第三步：启动服务\n启动后端 API 和前端 WebUI：\n\n```shell\n# 启动后端服务\nchatchat start -a\n\n# 或者分别启动\n# chatchat start -s api   # 启动 API 服务\n# chatchat start -w webui # 启动 Web 界面\n```\n\n### 第四步：访问界面\n打开浏览器访问默认地址：\n- **WebUI**: `http:\u002F\u002F127.0.0.1:8501`\n- **API Docs**: `http:\u002F\u002F127.0.0.1:7861\u002Fdocs`\n\n在 WebUI 中，你可以：\n1. 创建本地知识库并上传文档。\n2. 选择已加载的 LLM 和 Embedding 模型。\n3. 开启“启用 Agent\"以体验自动工具调用，或直接进行知识库问答。","某中型制造企业的技术支援团队需要快速从数千份分散的设备维修手册、历史故障报告和内部技术备忘录中检索解决方案，以应对产线突发停机问题。\n\n### 没有 Langchain-Chatchat 时\n- **检索效率极低**：工程师需在多个文件夹和 PDF 文档中手动关键词搜索，平均每次故障排查耗时 30 分钟以上查找资料。\n- **信息孤岛严重**：非结构化数据（如扫描版手册、旧格式报告）无法被统一索引，关键维修经验往往被遗漏。\n- **回答缺乏依据**：通用大模型因未学习企业内部知识，常给出泛泛而谈的建议，甚至产生“幻觉”，误导现场操作。\n- **数据安全隐患**：若将敏感设备参数上传至公有云 AI 服务，面临核心工艺泄露风险，导致合规部门禁止使用外部工具。\n- **部署门槛高**：自建知识库问答系统需要复杂的算法开发和算力调优，IT 部门难以在短时间内交付可用方案。\n\n### 使用 Langchain-Chatchat 后\n- **秒级精准定位**：通过 RAG 技术将本地文档向量化，工程师用自然语言提问，系统能在秒级内返回包含具体页码和段落的维修步骤。\n- **全格式知识融合**：轻松解析 PDF、Word、Markdown 等多种格式的历史档案，将沉睡的非结构化数据转化为可交互的企业智慧。\n- **回答有据可依**：基于检索到的真实文档片段生成回答，并自动标注引用来源，确保每一条建议都源自企业内部权威资料。\n- **纯离线私有部署**：支持完全本地化运行，数据不出内网，结合开源模型（如 ChatGLM、Qwen）彻底消除数据泄露顾虑。\n- **开箱即用**：依托成熟的 Langchain 框架和预置流程，无需微调训练即可快速搭建专属问答应用，大幅降低落地成本。\n\nLangchain-Chatchat 让企业能够在保障数据安全的前提下，将私有的海量文档瞬间转化为可对话的专家系统，显著提升决策效率与准确性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatchat-space_Langchain-Chatchat_14980e56.png","chatchat-space","Chatchat-Space","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fchatchat-space_2186b7f4.png","",null,"https:\u002F\u002Fgithub.com\u002Fchatchat-space",[82,86,90,94],{"name":83,"color":84,"percentage":85},"Python","#3572A5",98.8,{"name":87,"color":88,"percentage":89},"Shell","#89e051",0.8,{"name":91,"color":92,"percentage":93},"Makefile","#427819",0.3,{"name":95,"color":96,"percentage":97},"Dockerfile","#384d54",0.1,37735,6194,"2026-04-03T13:03:58","Apache-2.0","Linux, macOS, Windows","非必需。支持 CPU、GPU (NVIDIA)、NPU、MPS (Apple Silicon) 等多种硬件条件，具体取决于所选用的模型推理框架（如 Xinference, Ollama, FastChat 等）及加载的模型大小。","未说明（取决于加载的模型大小及推理框架需求）",{"notes":106,"python":107,"dependencies":108},"1. 本项目为 RAG 与 Agent 应用框架，本身不包含模型权重，需用户自行部署模型推理服务（如 Xinference, Ollama 等）并加载模型后接入使用。\n2. 支持完全离线私有部署，也可对接在线 API（如 OpenAI, Azure, 智谱等）。\n3. 若搭配 Xinference 使用，建议安装 'langchain-chatchat[xinference]' 以包含额外依赖。\n4. 支持多种检索方式（BM25+KNN）、多模态对话（需 qwen-vl-chat 等模型）、Agent 工具调用等功能。","3.8, 3.9, 3.10, 3.11",[109,110,111,112,113,114,115,116],"langchain-chatchat","xinference (可选)","ollama (可选)","localai (可选)","fastchat (可选)","one-api (可选)","fastapi","streamlit",[15,13,54,26,51],[119,120,121,122,123,124,125,126,127,128,129,130,116,131,132,133,134,135,136,137],"chatglm","langchain","llm","knowledge-base","llama","chatbot","chatgpt","embedding","faiss","fastchat","gpt","milvus","chatchat","langchain-chatglm","qwen","rag","retrieval-augmented-generation","xinference","ollama",7,"2026-03-27T02:49:30.150509","2026-04-06T07:13:31.594291",[142,147,152,157,162,167,172],{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},13167,"如何增加并发进程处理以解决多用户访问时 AI 接口卡顿的问题？","可以通过修改 `run_api_server` 函数，在 `uvicorn.run` 中增加 `workers` 参数来启动多进程。示例代码如下：\n```python\ndef run_api_server(started_event: mp.Event = None, run_mode: str = None):\n    import uvicorn\n    from server.utils import set_httpx_config\n    set_httpx_config()\n    host = API_SERVER[\"host\"]\n    port = API_SERVER[\"port\"]\n    if started_event:\n        started_event.set()\n    # 增加 workers 参数，例如设置为 3\n    uvicorn.run(\"server.api:create_app\", host=host, port=port, workers=3, factory=True)\n```\n此外，确保已安装 gunicorn (`pip install gunicorn`) 以支持多 worker 模式。对于文件读取等 IO 密集型任务，也可以使用 `ThreadPoolExecutor` 增加线程池大小（如 `max_workers=60`）来提升并发能力。","https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fissues\u002F4559",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},13168,"如何手动添加对 Baichuan-13B-Chat 模型的支持？","需要在 `model` 文件夹下创建 `baichuan_llm.py` 文件，并定义继承自 `BaseAnswer` 和 `LLM` 的类。关键点包括：\n1. 正确实现 `_llm_type` 属性返回 \"Baichuan\"。\n2. 生成答案时应使用 `generatorAnswer()` 方法而不是 `_call()` 方法（特别是在基于知识库问答时调用 `_generate_answer`）。\n3. 确保 `checkPoint` 正确加载模型和分词器。\n示例代码结构：\n```python\nclass BaichuanGLM(BaseAnswer, LLM, ABC):\n    # ... 初始化参数 ...\n    def _call(self, prompt: str, ...):\n        # 调试发现 web 方式和 LLM 问答走此方法，需检查逻辑\n        response = self.checkPoint.model.chat(...)\n    # 建议优先使用 generatorAnswer 方法处理流式或特定生成逻辑\n```\n如果遇到问题，请 Debug 排查是调用了 `_call` 还是 `_generate_answer` 方法。","https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fissues\u002F933",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},13169,"本地加载 MOSS 模型时提示缺少文件或模块错误（如 custom_autotune），如何解决？","该问题通常由以下原因导致：\n1. **模型文件下载不完整**：检查下载的模型文件是否与官方仓库一致，重新下载确保文件完整。\n2. **Transformers 版本不兼容**：错误 `ModuleNotFoundError: No module named 'transformers_modules.mossint8.custom_autotune'` 往往是因为 `transformers` 库版本问题。尝试更换不同的 `transformers` 版本进行测试。\n3. **显存不足或配置错误**：加载 13B 模型需要约 26G 显存，如果报错 OOM 或加载失败，请确认显卡实际可用显存（有时显示的总显存并非单卡可用显存）。如果是双卡部署，确保正确配置了多卡并行参数。","https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fissues\u002F652",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},13170,"运行 WebUI 时遇到 CUDA Out of Memory (显存溢出) 错误怎么办？","当运行 `webui.py` 提示 `RuntimeError: CUDA error: out of memory` 时：\n1. **检查显存占用**：确认 GPU 显存是否被其他进程占用，或者模型大小是否超过了单卡显存限制（例如 13B 模型通常需要 24G+ 显存）。\n2. **调整模型配置**：尝试使用量化版本（如 int8）的模型以减少显存占用。\n3. **多卡部署**：如果单卡显存不足，考虑使用多卡并行部署（需配置 `num_gpus` 等参数）。\n4. **环境变量调试**：可以设置 `CUDA_LAUNCH_BLOCKING=1` 来获取更准确的错误堆栈信息，帮助定位是哪一步操作导致了显存溢出。","https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fissues\u002F465",{"id":163,"question_zh":164,"answer_zh":165,"source_url":166},13171,"文档切片（Text Splitter）的参数（如文本最大长度、重合长度）如何设置以优化回答效果？","文档切片参数对检索效果影响很大：\n1. **切片长度**：并非越长越好或越短越好。过短可能导致上下文缺失，过长可能超出模型窗口或引入噪声。建议根据文档类型（如 PDF 段落、句子长度）进行统计后设置。\n2. **重合长度（Overlap）**：设置适当的重合部分可以保持上下文连贯性，避免关键信息被切断。\n3. **优化策略**：如果发现模型找不到答案，可以尝试调整这两个参数。对于结构化较强的文档，可按章节或固定字数分割；对于非结构化文本，可尝试基于句子或段落分割。目前社区建议通过实验不同组合来找到最佳配置，未来版本计划增加 TextSplitter 类型设置以便灵活选择。","https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fissues\u002F14",{"id":168,"question_zh":169,"answer_zh":170,"source_url":171},13172,"项目是否支持自定义向量数据库字段或优化数据库结构？","目前大部分大模型方案暂不支持直接自定义向量数据库的底层字段结构。如果强行对数据库结构进行深度优化或修改，可能会导致项目架构变得畸形或不兼容。建议遵循项目现有的向量存储规范，通过调整检索策略（如增加提问关键词提取、索引优化）来提升效果，而不是修改底层数据库字段。","https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fissues\u002F1088",{"id":173,"question_zh":174,"answer_zh":175,"source_url":161},13173,"安装项目后运行脚本报错 `ModuleNotFoundError: No module named 'configs'` 如何解决？","该错误通常是因为 Python 执行路径或环境变量配置问题，导致无法找到 `configs` 模块。\n1. **检查执行目录**：确保在项目根目录下运行脚本，或者将项目根目录添加到 `PYTHONPATH` 环境变量中。\n2. **忽略过时文档**：部分旧的安装文档（如某些 image_loader 相关步骤）可能已不再适用或未及时更新，如果按照文档操作报错，可参考最新代码结构或直接忽略过时的安装步骤。\n3. **依赖安装**：确认所有依赖包已正确安装，且项目内部模块路径引用正确。",[177,182,187,192,197,202,207,212,217,222,227,232,237,242,247,252,257,262,267,272],{"id":178,"version":179,"summary_zh":180,"released_at":181},71814,"v0.3.1","## 重要提示\n\nLangchain-Chatchat v0.3.1 中命令行调用方式发生调整，请依据项目 README 进行操作；知识库的源文件与向量库仍可与前序版本通用，建议参考项目 README.md 中 快速上手 章节内容进行新版本部署。\n\n------\n\n## 新增功能\n\n* 所有配置项改成 yaml 配置文件，改为命令行执行 chatchat init 初始化项目配置，需要本地文件中修改配置，配置项修改后即时生效，无需重启项目 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4421\n* chatchat init 可以直接指定 Xinference API 地址、LLM 模型、Embedding 模型，一步完成知识库初始 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4425\n* 新增 RAG 对话页面，包含知识库对话、文件对话、搜索引擎对话 by @liunux4odoo @imClumsyPanda in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4471\n* 调整对话界面按钮布局，对话输入框左右分别设置\"模型配置\"与\"清空对话\"按钮 by @imClumsyPanda @liunux4odoo \n* 支持 searx 搜索引擎 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4476\n* 支持 GLM-4V、Qwen-VL 等 Vision 模型接入进行图片对话 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4421\n* 使用 Xinference 接入本地模型时，支持自动检测已启动模型，无需手动填写模型名称 by @imClumsyPanda @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4421\n* Agent 可调用工具中增加了维基百科搜索、高德地图天气查询、高德地图POI搜索 by @yhfgyyf in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4419\n* Agent 工具新增 text2promql by @yuehua-s in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4399\n* 增加 dockerfile 并更新 README 中关于 docker 部署的操作介绍 by @yuehua-s in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4271 and https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4274\n* 新增 Agent 添加工具操作说明 by @zRzRzRzRzRzRzR in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4484\n* 新增数据库对话配置说明 by @srszzw in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4475\n* 添加 Agent & Chat API 接口调用的说明，修正知识库检索bug by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4341\n* 增加知识库初始化时对 Ctrl+C 中止操作的支持 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4352\n* 增加 Pypi 发布自动化操作 by @glide-the in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4260\n* 增加不同系统部署环境测试 by @glide-the in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4480\n\n\n## 问题修复\n* 在 readme 中增加对 windows 下创建知识库卡住的说明与解决办法 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4330\n* 统一搜索引擎与本地知识库返回格式，修改 WEBUI 渲染上下文方式 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4344\n* 修复文生图工具 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4349\n* 修复 Milvus 作为知识库时可能发生的错误 by @kwunhang in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4319\n* 修复 max_tokens 问题 by @yuehua-s in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4355\n* 修改api文档中手动输入工具参数的说明 by @srszzw in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4367\n* 解决text2sql对GLM的兼容，即temperature不能设置为0 by @srszzw in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4370\n* 解决es数据库删除时只能删除50条数据的BUG by @YangSuoze in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F4351\n* 解决天气、text2Sql Agent 运行报错的BUG by @","2024-07-12T15:23:05",{"id":183,"version":184,"summary_zh":185,"released_at":186},71815,"v0.3.0","## 重要提示\nLangchain-Chatchat v0.3.0 相比 0.2.x 有较大项目结构变动，但知识库的源文件与向量库仍可与前序版本通用，建议参考项目 README.md 中 `快速上手` 章节内容进行新版本部署。\n\n------\n## 新增功能\n* Langchain-Chatchat Python 库现已发布至 Pypi，可通过 pip install langchain-chatchat 方式直接安装；\n* 替换原有 FastChat 模型推理框架，支持 Xinference、Ollama、One API 等多种模型推理与在线 API 框架的接入；\n* 所有 Chat 接口修改为与 OpenAI API 形式对齐，真正实现 OpenAI API In, OpenAI API Out；\n* 重构 Agent 功能，针对 GLM 和 Qwen 模型进行适配优化；\n* 新增 ArXiv 文献对话、Wolfram 对话、文生图等多种 Agent 可调用工具；\n* 更新知识库问答功能，支持 Ensemble Retriever 接入，并将在后续接入更多不同类型 Retriever；\n* 更新 Streamlit WebUI，支持模型推理框架选择、对话管理、工具选择等多种新功能；\n* 增加 Text2SQL 工具，支持 SQLAlchemy 大部分数据库，支持特定表、智能判定表与 Read-Only 模式，支持对表名进行额外说明；\n* 新增 chatchat、chatchat-config、chatchat-kb 命令，支持通过命令行进行项目配置、知识库重构与项目启动；\n* 更多细节更新，期待你的探索发现！\n\n## 新晋贡献者\n* @yhfgyyf 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2630 中做出了首次贡献\n* @HALIndex 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2591 中做出了首次贡献\n* @596192804 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2013 中做出了首次贡献\n* @Lijia0 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2480 中做出了首次贡献\n* @xyhshen 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2648 中做出了首次贡献\n* @MSZheng20 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2688 中做出了首次贡献\n* @showmecodett 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2740 中做出了首次贡献\n* @songpb 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2816 中做出了首次贡献\n* @fengyaojieTTT 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2919 中做出了首次贡献\n* @criwits 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2949 中做出了首次贡献\n* @wusongbai139 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2960 中做出了首次贡献\n* @thinklover 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2892 中做出了首次贡献\n* @hollowdjj 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F3155 中做出了首次贡献\n* @dignfei 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F3276 中做出了首次贡献\n* @Sumkor 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F3324 中做出了首次贡献\n* @oslijunw 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F3404 中做出了首次贡献\n* @liudichen 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F3407 中做出了首次贡献\n* @srszzw 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F3508 中做出了首次贡献\n* @RoceoRobin 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F3585 中做出了首次贡献\n* @yuehua-s 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F3664 中做出了首次贡献\n* @LOGIC-10 在 https:\u002F\u002Fgithub.com\u002F","2024-06-20T23:27:17",{"id":188,"version":189,"summary_zh":190,"released_at":191},71816,"v0.2.10","## 重要提示\n\nLangchain-Chatchat v0.2.10 版本对`configs`中的配置项进行了修改，建议所有用户按照 Wiki 的`开发部署`章节中的相关说明，重新生成项目中的配置文件。如在开发部署过程中遇到问题，请先前往 Github Wiki 或 issues 页面进行搜索。\n\n本次更新中，依赖的 Python 包及其版本发生了**大量更新**，请使用`pip install -r requirements.txt`命令进行更新。\n\n此版本为 v0.2.x 系列的最后一个版本，具备全新 Agent 功能的 v0.3.0 即将上线，敬请期待。\n\n## 新增功能\n- 优化 PDF 文件的 OCR，过滤无意义的小图片 by @liunux4odoo #2525\n- 支持 Gemini 在线模型 by @yhfgyyf #2630\n- 支持 GLM4 在线模型 by @zRzRzRzRzRzRzR\n- Elasticsearch 更新为 HTTPS 连接 by @xldistance #2390\n- 增强对 PPT、DOC 知识库文件的 OCR 识别 by @596192804 #2013\n- 更新 Agent 对话功能 by @zRzRzRzRzRzRzR\n- 每次创建对象时从连接池获取连接，避免每次执行方法时都新建连接 by @Lijia0 #2480\n- 实现 ChatOpenAI 判断 token 是否超过模型的上下文长度 by @glide-the\n- 更新运行数据库报错和项目里程碑 by @zRzRzRzRzRzRzR #2659\n- 更新配置文件\u002F文档\u002F依赖 by @imClumsyPanda @zRzRzRzRzRzRzR\n- 添加日文版 README by @eltociear #2787\n\n## 问题修复\n- ApiRequest.agent_chat 返回 dict 而非 str by @liunux4odoo #2520\n- 修复 milvus_kwargs 问题 by @hzg0601 #2540\n- 纠正 make_text_splitter 中 chunk_* 参数的使用 by @liunux4odoo #2564\n- 过滤 sse_starlette 返回的 ping 包，避免 JSON Decoder 错误：ping -... by @liunux4odoo #2585\n- Langchain 更新后，PGVector 向量库连接错误 by @HALIndex #2591\n- 删除重复的引入并纠正拼写错误 by @tiandiweizun #2599\n- Minimax 的 model worker 错误 by @xyhshen\n- ES 库无法进行向量检索。添加 mappings 创建向量索引 by @MSZheng20 #2688\n- KBService 中几处拼写错误 by @hzg0601 #2640\n- PyTorch 自动检测设备 by @chatgpt-1, @Drincann, @zRzRzRzRzRzRzR #2514 #2570\n\n## 新晋贡献者\n* @Drincann 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2514 中完成了首次贡献。\n* @chatgpt-1 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2570 中完成了首次贡献。\n* @tiandiweizun 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2599 中完成了首次贡献。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fcompare\u002Fv0.2.9...v0.2.10","2024-01-25T23:24:00",{"id":193,"version":194,"summary_zh":195,"released_at":196},71817,"v0.2.9","## 重要提示\n\nLangchain-Chatchat v0.2.9 版本对`configs`中的配置项进行了修改，建议所有用户按照 Wiki 的`开发部署`相关说明，重新生成项目中的配置文件。如在开发部署过程中遇到问题，请先查看 Github Wiki 或 issues 页面。\n\n此外，v0.2.9 版本中知识库相关数据库表发生了变化，若继续使用旧版本的配置，可运行 `python init_database.py --create-tables` 仅更新数据库表，而不需重建知识库。\n\n本次更新对 Python 依赖包及其版本进行了**大量更新**，请使用 `pip install -r requirements.txt` 进行升级。\n\n## 新增功能\n* 文件对话和知识库对话 API 接口实现全异步操作，避免阻塞 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2256 中提出\n* 更新默认模型下载链接 by @YQisme 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2259 中提出\n* OCR 支持 GPU 加速（需手动安装 rapidocr_paddle[gpu]）；知识库支持 MHTML 和 Evernote 文件。by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2265 中提出\n* 使用 Reranker 模型对召回语句进行重排 by @hzg0601 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2435 中提出\n* 知识库管理界面支持查看、编辑、删除向量库文档 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2471 中提出\n\n## 问题修复\n* 修正 duckduckgo 依赖错误 by @zRzRzRzRzRzRzR 和 @hzg0601 分别在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2251 和 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2252 中提出\n* 修复 Azure 不设置 Max token 的 bug by @zRzRzRzRzRzRzR 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2254 中提出\n* 修复 file_chat 中 prompt 模板名称错误 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2366 中提出\n* 优化 EventSource 回包 by @lookou 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1200 中提出\n* 修复文档错误 by @jaluik 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2384 中提出\n* 更新 self.dims_length 赋值错误 by @xldistance 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2380 中提出\n* 修复 knowledge_base_chat_iterator 传参错误 by @xldistance 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2386 中提出\n* 修复迭代器参数传递错误，导致知识库问答报错 TypeError: unhashable type: 'list' by @Astlvk 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2383 中提出\n* 修复使用在线 embedding 模型时出现的错误 There is no current event loop in thread 'Any… by @Funkeke 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2393 中提出\n* 修复 Yi-34b 模型配置错误（关闭 #2491）by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2492 中提出\n* 移除 \u002Fchat\u002Ffastchat API 端点 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2506 中提出\n\n## 新晋贡献者\n* @YQisme 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2259 中完成了首次贡献\n* @lookou 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1200 中完成了首次贡献\n* @jaluik 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2384 中完成了首次贡献\n* @xldistance 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2380 中完成了首次贡献\n* @Astlvk 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2383 中完成了首次贡献\n* @Funkeke 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2393 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com","2023-12-31T12:20:22",{"id":198,"version":199,"summary_zh":200,"released_at":201},71818,"v0.2.8","## 重要提示\n\nLangchain-Chatchat v0.2.8 版本对`configs`中的配置项进行了修改，建议所有用户按照 Wiki 的`开发部署`中的相关描述重新完成项目中的配置文件生成。开发部署过程遇到问题请先到 Github Wiki \u002F issues 中搜索。\n\n此外，v0.2.8 版本中知识库相关信息的数据库表发生了变化，且默认 embedding 模型修改为`bge-large-zh`，如保持默认设置，请按需重建知识库。如果继续使用之前版本的配置，可使用 ` python init_database.py --create-tables` 仅更新数据库表，不重建知识库。\n\n本次更新中依赖 Python 包与其版本发生了**大量更新**，请使用`pip install -r requirements.txt`进行更新。\n\n## 新增功能\n* 添加文件对话模式 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2071\n* 知识库支持 .jsonl, .epub, .xlsx, .xlsd, .ipynb, .odt, .py, .srt, .toml, .doc, .ppt 文件 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2079\n* 支持昆仑万维天工大模型 by @nathubs 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2166\n* 完善对 ChatGLM3-6B 的支持 by @zRzRzRzRzRzRzR 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2021 和 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2058\n* 增加聊天记录在数据库中的存储 by @qiankunli 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2046\n* 完善 WebUI 模型列表中对在线模型和本地模型的支持 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2060\n* 支持软连接的知识库 by @zRzRzRzRzRzRzR 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2167\n* 给 ApiModelWorker 添加 logger 成员变量，API请求出错时输出有意义的错误信息。 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2169\n* 提供文档 summary_chunk ，支持单文件总结业务实现使用 MapReduceDocumentsChain 生成摘要 by @glide-the 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2175\n* 单个知识库根据 doc_ids 摘要 by @glide-the 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2176\n* 添加自定义命令用于管理多会话 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2229\n* 优化知识库文档加载 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2091\n* 统一在线模型异常报文、增加详细日志 by @glide-the 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2130\n* 更新 ChatGLM3-6B agent的文档，提示词 by @zRzRzRzRzRzRzR 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2041\n* 更新 requirements by @liunux4odoo @hzg0601 @zRzRzRzRzRzRzR @imClumsyPanda 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2033 , https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2170 , https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2213 和 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2246\n* 更新 README.md by @VignetteApril @weartist 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2034 和  https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2049\n* 更新 config 模版 by @hzg0601 @zRzRzRzRzRzRzR @imClumsyPanda 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2110 和 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2171\n* 数据库和向量库中文档 metadata[\"source\"] 改为相对路径，便于向量库迁移 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2153\n\n## 问题修复\n* 修复：知识库json文件的中文被转为 unicode 码，导致无法匹配 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2128\n* 将 Mi","2023-12-01T14:13:38",{"id":203,"version":204,"summary_zh":205,"released_at":206},71819,"v0.2.7","## 重要提示\n\nLangchain-Chatchat v0.2.7 版本中修改了 configs 中配置项，建议所有用户按照 Wiki 的 开发部署 \n中的相关描述重新完成项目中的配置文件生成。开发部署过程遇到问题请先到 Github Wiki \u002F issues 中搜索。\n\n此外，v0.2.7 版本中知识库相关信息的数据库表发生了变化，需重建知识库。\n\n本次更新中依赖 Python 包与其版本发生了更新，请使用 pip install -r requirements.txt 进行更新。\n\n## 新增功能\n* 发布 `0.2.7` 版本 Docker 镜像 by @inksong \n* 发布 `0.2.7` 版本 AutoDL 镜像 by @glide-the \n* 支持通过配置项同时启动多个模型，将 Wiki 内容纳入 samples 知识库 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2002\n* 支持 ChatGLM3-6B、AgentLM 模型 by @zRzRzRzRzRzRzR in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1896 and https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1821\n* Azure 的 fastchat 支持，弃用 Langchain-MODEL by @zRzRzRzRzRzRzR in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1873\n* 支持Lite模式：无需安装torch等重依赖，通过在线API实现对话和知识库功能（请注意token消耗） by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1860\n* 支持在线 Embeddings：zhipu-api, qwen-api, minimax-api, qianfan-api by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1907\n* 新增支持在 Embedding 模型 tokenizer 中增加关键词 by @charlesyju in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1622\n* 增加基于 Elasticsearch 进行向量匹配 by @TommyTang930 @hzg0601 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1473\u002F  and https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F2011\n* 在使用 32k 模型时，加长了历史记录 by @zRzRzRzRzRzRzR in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1629\n* 实现 API 和 WebUI 的前后端分离 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1772\n* 支持 metaphor 搜索引擎（无需代理，key申请简单，目前不支持中文） by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1792\n* 支持加载 p-tuning，详细步骤见 `docs\u002Fchatchat加载ptuing.md` by @hzg0601 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1810\n* 根据系统自动指定 binding_host by @hzg0601 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1810\n* 增加一些 Langchain 的 Agent 工具 by @zRzRzRzRzRzRzR in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1836\n* 增加 completion 功能的 API 接口，注意暂不支持 online_api 模型 by @qiankunli in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1828\n* 优化在线 API ，支持 completion 和 embedding，简化在线 API 开发方式 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1886\n* 知识库支持子目录（不包括 temp 和 tmp 开头的目录），文件相对路径总长度不可超过255 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1928\n* init_database.py 增加 --import-db 参数，支持在版本升级时尽可能重用向量库 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1951\n* 支持在数据库中保存对话记录 by @qiankunli in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1940\n* 更新依赖和配置文件中的Agent模型 by @zRzRzRzRzRzRzR in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1984\n* 配置文件中新增 SUPPORT_AGENT_MODEL 用于设置可用 agent 模型列表，不在列表中的模型运行时会进行警告和特殊处理 by @zRzRzRzRzRzRzR in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1891\n* 优化知识库和Agent的返回 by @zRzRzRzRzRzRzR in https:\u002F","2023-11-12T23:29:12",{"id":208,"version":209,"summary_zh":210,"released_at":211},71820,"v0.2.6","## ️ ⚠ 重要提示\n\nLangchain-Chatchat v0.2.6 版本中修改了 configs 中配置项，建议所有用户按照 Wiki 的 开发部署 \n中的相关描述重新完成项目中的配置文件生成。开发部署过程遇到问题请先到 Github Wiki \u002F issues 中搜索。\n\n此外，v0.2.6 版本中知识库相关信息的数据库表发生了变化，需重建知识库。\n\n本次更新中依赖 Python 包与其版本发生了更新，请使用 pip install -r requirements.txt 进行更新。\n\n## 🛠 新增功能\n\n- 支持百川在线模型 (@hzg0601 @liunux4odoo in #1623)\n- 支持 Azure OpenAI 与 claude 等 Langchain 自带模型 (@zRzRzRzRzRzRzR in #1808)\n- Agent 功能大量更新，支持更多的工具、更换提示词、检索知识库 (@zRzRzRzRzRzRzR in #1626 #1666 #1785)\n- 加长 32k 模型的历史记录 (@zRzRzRzRzRzRzR in #1629 #1630)\n- *_chat 接口支持 max_tokens 参数 (@liunux4odoo in #1744)\n- 实现 API 和 WebUI 的前后端分离 (@liunux4odoo in #1772)\n- 支持 zlilliz 向量库 (@zRzRzRzRzRzRzR in #1785)\n- 支持 metaphor 搜索引擎 (@liunux4odoo in #1792)\n- 支持 p-tuning 模型 (@hzg0601 in #1810)\n- 更新完善文档和 Wiki (@imClumsyPanda @zRzRzRzRzRzRzR @glide-the in #1680 #1811)\n\n## 🐞 问题修复\n\n- 修复 bge-* 模型匹配超过 1 的问题 (@zRzRzRzRzRzRzR in #1652)\n- 修复系统代理为空的问题 (@glide-the in #1654)\n- 修复重建知识库时 `d == self.d assert error` (@liunux4odoo in #1766)\n- 修复对话历史消息错误 (@liunux4odoo in #1801)\n- 修复 OpenAI 无法调用的 bug (@zRzRzRzRzRzRzR in #1808)\n- 修复 windows下 BIND_HOST=0.0.0.0 时对话出错的问题 (@hzg0601 in #1810)\n\n## New Contributors\n* @qiankunli made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1501\n* @yihleego made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1534\n* @WilliamChen-luckbob made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1585\n\n## 欢迎贡献\n\n有好的建议可以通过 PR 给项目贡献代码。具体见 Wiki 贡献篇。\n除了贡献代码，也可以提交文本分词用例，帮助项目实现更好的分词效果。具体见  #1374\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fcompare\u002Fv0.2.5...v0.2.6","2023-10-21T00:32:33",{"id":213,"version":214,"summary_zh":215,"released_at":216},71821,"v0.2.5","## ⚠ 重要提示\n\nLangchain-Chatchat v0.2.5 版本中修改了 configs中配置项，建议所有用户按照 README.md 的 开发部署 章节中 3. 设置配置项 中的相关描述重新完成项目中的配置文件生成。\n\n此外，v0.2.5 版本中知识库相关信息的数据库表发生了变化，需重建知识库。\n\n本次更新中依赖 python 包与其版本发生了更新，请使用 pip install -r requirements.txt 进行更新。\n\n## 🛠 新增功能\n\n- 拆分configs配置文件，简化模型配置 by @liunux4odoo in #1474\n- 更新fastchat版本，支持更多的模型，更新文档 by @hzg0601 in #1479\n- WEBUI设定默认主题 by @imClumsyPanda @liunux4odoo in #1484\n- 优化LLM模型列表获取、切换逻辑 by @liunux4odoo in #1497\n- 更新migrate.py和init_database.py，加强知识库迁移工具 by @liunux4odoo in #1498\n- 支持火山在线模型 by @qiankunli @liunux4odoo in #1501\n- 支持阿里云通义千问在线模型 by @yihleego @liunux4odoo in #1534\n- 实现Agent对话功能（当前仅ChatGPT可以运行） by @zRzRzRzRzRzRzR in #1503 #1560 #1611\n- 添加configs\u002Fprompt_config.py，允许用户自定义prompt模板 by @liunux4odoo in #1504\n- 添加python标准ignore文件 by @Orion-zhen in #1530\n- 将所有httpx请求改为使用Client，提高效率 by @liunux4odoo in #1554\n- 支持baichuan2模型，更新配置文件和文档 by @hzg0601 in #1568\n- 支持vllm模型加速（仅linux），更新支持模型列表 by @hzg0601 in #1574 #1581 #1582 #1603\n- 对话接口的temperature参数范围修改为[0.0, 1.0] by @zRzRzRzRzRzRzR in #1613\n- 增加其它模型的参数适配 by @glide-the\n- 增加传入矢量名称加载向量库 by @glide-the\n\n## 🐞 问题修复\n\n- 修复ChatGPT api_base_url错误；用户可以在model_config在线模型配置中覆盖默认的api_base_url by @liunux4odoo in #1496\n- 修复csv文件上传知识库，编码报错导致解析失败的问题 by @peterz3g in #1508\n- 修复中文标题加强变量名和函数名重复 by @dividez in #1509\n- 修复webui中重建知识库以及对话界面UI错误 by @liunux4odoo in #1615\n- 修复FAISS向量库未正确保存的bug by @glide-the\n\n## New Contributors\n* @zhengxiaoyao0716 made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1500\n* @qiankunli  made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1501\n* @dividez  made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1509\n* @yihleego   made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1534\n* @WilliamChen-luckbob   made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1585\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fcompare\u002Fv0.2.4...v0.2.5","2023-09-28T15:40:31",{"id":218,"version":219,"summary_zh":220,"released_at":221},71822,"v0.2.4","## 重要提示\n\nLangchain-Chatchat v0.2.4 版本对 configs\u002Fserver_config.py.example 和 configs\u002Fmodel_config.py.example 中的配置项进行了修改，建议所有用户按照 README.md 的“开发部署”章节中“3. 设置配置项”部分的[相关描述](https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat#3-%E8%AE%BE%E7%BD%AE%E9%85%8D%E7%BD%AE%E9%A1%B9)重新生成项目中的配置文件。\n\n此外，v0.2.4 版本中知识库相关信息的数据库表发生了变化，需[重建知识库](https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat#4-知识库初始化与迁移)。\n\n本次更新中依赖的 Python 包及其版本已更新，请使用 `pip install -r requirements.txt` 进行更新。\n\n\n## 新增功能\n* 添加 MiniMax API、百度文心千帆 API、讯飞星火 API 接入支持 by @liunux4odoo @imClumsyPanda 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1445 和 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1460 中\n* 增加 ChineseRecursiveTextSplitter by @imClumsyPanda 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1447 中\n* 增加了自定义分词器适配 by @zRzRzRzRzRzRzR 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1462 中\n* 对话接口支持 temperature 参数 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1455 中\n* api 和 webui 知识库操作支持 chunk_size\u002Foverlap_size\u002Fzh_title_enhance 参数 by @liunux4odoo @imClumsyPanda 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1459 中\n* 新增英文版 README，并更新 readme.md by @hzg0601 @imClumsyPanda 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1411 中\n* 增加显示详细日志开关 by @glide-the 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1419 中\n* 修改 Embeddings 和 FAISS 缓存加载方式，知识库相关 API 接口支持多线程并发 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1434 中\n* 优化知识库文档相关操作 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1413 中\n* 优化 api 接口的并发能力 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1414 中\n* 提醒 fitz 包是来自 pyMuPDF by @roki1031 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1407 中\n* 优化 startup by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1416 中\n* 更新 .gitignore by @kylezh 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1364 中\n* 添加自动关闭 issue 的 action by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1437 中\n\n\n## 问题修复\n* 修复切换模型可能不成功的 bug by @liunux4odoo  \n* 修复 RapidOCRPdfLoader 加载 pdf 文件可能发生灰度图识别错误的 bug @imClumsyPanda \n* 修复 chat 接口报错时信息显示 KeyError: 'answer' 的 Bug by @lightedcode 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1399 中\n* 优化知识库问答与搜索引擎问答的 API 接口，避免 docs 重复返回(close #1431) by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1435 中\n* 由于 server.utils 导入 model_workers 时，导入 fastchat model_worker，导致 startup 启动延迟明显 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1436 中\n* 修复 milvus_kb_service 中一些 bug，添加文档后将数据同步到数据库 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1452 中\n* 修复 langchain.Milvus bug(#10492) by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1454 中\n* 修改智谱 API 默认名称 by @liunux4odoo 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpul","2023-09-15T08:47:04",{"id":223,"version":224,"summary_zh":225,"released_at":226},71823,"v0.2.3","## 重要提示\n\nLangchain-Chatchat v0.2.3 版本中修改了 configs\u002Fserver_config.py.example 和 configs\u002Fmodel_config.py.example 中配置项，建议所有用户按照 README.md 的 开发部署 章节中 3. 设置配置项 中的[相关描述](https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat#3-%E8%AE%BE%E7%BD%AE%E9%85%8D%E7%BD%AE%E9%A1%B9)重新完成项目中的配置文件生成。\n\n此外，v0.2.3 版本中知识库相关信息的数据库表发生了变化，需[重建知识库](https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat#4-知识库初始化与迁移)。\n\n---\n\n## 新增功能\n* 添加切换 LLM 模型功能 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1342\n* 支持智谱AI在线模型 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1342\n* 增加 RapidOCRPDFLoader 和 RapidOCRLoader 支持 pdf 文件与 jpg 等图片文件的 OCR 识别 by @imClumsyPanda in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1275\n* 优化 csv 文件读取逻辑，每行数据作为一个段落，对单行信息不再进行分段 by @imClumsyPanda \n* 运行 startup.py 时，如果不加参数直接显示配置和帮助信息后退出 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1284\n* startup.py增加参数-q | quiet，可以过滤fastchat的controller\u002Fmodel_worker不必要的日志输出 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1333\n* 增加数据库字段，重建知识库使用多线程 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1280\n* 优化知识数据库存储内容，支持按文件名、元数据检索向量库（当前仅支持FAISS，milvus\u002Fpg待实现） by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1341\n* 更新 readme.md 一键启动说明的顺序，并在一键启动中增加多卡启动的说明，以及增加多卡启动gpus参数不生效的说明 by @hzg0601 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1361\n* 更新 INSTALL.md by @zzflybird in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1250\n* 优化 configs 减少代码依赖  by @liunux4odoo @imClumsyPanda in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1328 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1293\n* 优化 LLM 和 Embedding 模型运行设备配置，默认设置为 \"auto\" 自动检测 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1330\n* webui自动从configs获取api地址(close #1319) by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1328\n\n---\n\n## 问题修复 \n* 修复  json 和 pdf 文档向量化失败 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1252\n* 修复重建知识库界面无反应的问题，添加一些log信息 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1258\n* 修复使用chatgpt等在线API服务时模型加载错误 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1271\n* 改正文本错误 by @miraged3 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1296\n* 修复重建知识库时FAISS未保存 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1330\n\n---\n\n## 新贡献者\n* @zzflybird 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1250 中首次贡献\n* @miraged3 在 https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1296 中首次贡献\n\n**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fcompare\u002Fv0.2.2...v0.2.3","2023-09-05T05:49:43",{"id":228,"version":229,"summary_zh":230,"released_at":231},71824,"v0.2.2","## 重要提示\r\nLangchain-Chatchat v0.2.2 版本中修改了 `configs\u002Fserver_config.py.example` 和 `configs\u002Fmodel_config.py.example` 中配置项，建议所有用户按照 `README.md` 的 `开发部署` 章节中 `3. 设置配置项` 中的[相关描述](https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat#3-设置配置项)重新完成项目中的配置文件生成。\r\n\r\n另外，自 v0.2.2 版本起，启动项目的方式建议使用  [一键启动](https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat#6-一键启动) 方式进行启动。\r\n\r\n## 新增功能\r\n\r\n- 增加对 bge-large-zh-noinstruct 和 openai text-embedding-ada-002 两种 Embedding 模型的调用（需要更新 configs\u002Fmodel_config.py）by @zRzRzRzRzRzRzR in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1119\r\n- 优化 startup.py 一键\u002F多功能启动脚本（需要更新 configs\u002Fserver_config.py）by @liunux4odoo @hzg0601 \r\n- FAISS 向量库支持 SCORE_THREASHOLD by @liunux4odoo \r\n- 优化 FAISS 缓存，减少频繁加载与保存 by @liunux4odoo \r\n- 在常见问题中补充向量库相关问题 by @zqt996 \r\n- 添加 OpenAI API 调用代理设置 by @zqt996 \r\n- 将搜索引擎对话中默认选项修改为 `duckduckgo` by @imClumsyPanda \r\n\r\n## 问题修复\r\n\r\n- 修复重建知识库出错的问题 by @liunux4odoo \r\n- 修复删除知识文件时，向量库中残留的问题 by @liunux4odoo \r\n- 修复知识库管理页面，“`{'kb_name': ...} not iterable`” 的问题 by @liunux4odoo \r\n- 修复 milvus 和 pgvector 向量库初始化异常和 search 方法异常 by @zqt996  @Pickupppp @shutter-cp \r\n- 修复搜索引擎和知识库聊天接口返回不全 by @liunux4odoo \r\n- 修复输入或输出消息中包含`{ }`引发错误的问题 by @liunux4odoo \r\n\r\n## New Contributors\r\n* @shutter-cp made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1160\r\n* @zRzRzRzRzRzRzR made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1119\r\n* @Meidanlong made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1228\r\n* @Pickupppp made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1233\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fcompare\u002Fv0.2.1...v0.2.2","2023-08-25T08:45:04",{"id":233,"version":234,"summary_zh":235,"released_at":236},71825,"v0.2.1","## 重要提示\r\nLangchain-Chatchat v0.2.1 版本中新增 `configs\u002Fserver_config.py.example`，且修改了 `configs\u002Fmodel_config.py.example` 中配置项，建议所有用户按照 `README.md` 的 `开发部署` 章节中 `3. 设置配置项` 中的[相关描述](https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat#3-设置配置项)重新完成项目中的配置文件生成。\r\n\r\n## 变更日志\r\n* LLM API 解决多卡启动问题并更新lora加载方式说明 by @hzg0601 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1079\r\n* 增加支持全平台、可用于项目全部服务的一键启动脚本 `startup.py`，并能在控制台中显示项目主要配置信息 by @liunux4odoo @hzg0601 \r\n* 在 FastAPI Docs 与 WebUI 界面增加项目版本号信息 by @imClumsyPanda \r\n* 修复 WebUI 界面图片可能无法正常显示的问题 by @liunux4odoo \r\n* 知识库文件兼容扩展名大小写格式 by @xain in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1128\r\n* 修复 README.md by @gaoyuanzero in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1137, @bones-zhu in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1135, @chinainfant in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1133, @gaoyuanzero in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1132, @eltociear in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1131\r\n\r\n## New Contributors\r\n* @xain made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1128\r\n* @gaoyuanzero made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fpull\u002F1132\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002FLangchain-Chatchat\u002Fcompare\u002Fv0.2.0...v0.2.1","2023-08-17T14:53:42",{"id":238,"version":239,"summary_zh":240,"released_at":241},71826,"v0.2.0","## 重要提示\r\n因 `v0.2.0` 版本与前序版本相比调整较大，使用 `v0.2.0` 版本时建议先新建环境，重新安装依赖包后，按照readme中开发部署操作顺序进行配置。\r\n\r\n自版本 `v0.2.0` 起，项目正式更名为 `Langchain-Chatchat`，项目将基于 Langchain 和包含 ChatGLM-6B 在内的开源大语言模型提供持续优化的知识库问答应用。\r\n\r\n## 变更信息\r\n* 使用 FastChat 提供开源 LLM 模型的 API，以 OpenAI API 接口形式接入，提升 LLM 模型加载效果，并支持近期新出的baichuan-inc\u002Fbaichuan-7B、internlm\u002Finternlm-chat-7b、Qwen\u002FQwen-7B-Chat等模型；\r\n\r\n* 使用 langchain 中已有 Chain 的实现，便于后续接入不同类型 Chain，并将对 Agent 接入开展测试；\r\n\r\n* 使用 FastAPI 提供 API 服务，全部接口可在 FastAPI 自动生成的 docs 中开展测试，且所有对话接口支持通过参数设置流式或非流式输出；\r\n\r\n* 使用 Streamlit 提供 WebUI 服务，可选是否基于 API 服务启动 WebUI，后续可支持不同形式输出内容的显示；\r\n\r\n* 项目中默认 LLM 模型改为 THUDM\u002Fchatglm2-6b，默认 Embedding 模型改为 moka-ai\u002Fm3e-base，文件加载方式与文段划分方式也有调整，后续将重新实现上下文扩充，并增加可选设置；\r\n\r\n* 项目中扩充了对不同类型向量库的支持，除支持 FAISS 向量库外，还提供 Milvus, PGVector 向量库的接入；\r\n\r\n* 项目中搜索引擎对话，除 Bing 搜索外，增加 DuckDuckGo 搜索选项，DuckDuckGo 搜索无需配置 API Key，在可访问国外服务环境下可直接使用。\r\n\r\n## 主要贡献者\r\n@imClumsyPanda \r\n@liunux4odoo \r\n@zqt996 \r\n@hzg0601 \r\n@glide-the \r\n@inksong ","2023-08-14T00:34:37",{"id":243,"version":244,"summary_zh":245,"released_at":246},71827,"v0.1.17","## 重要提示\r\n本版本为 langchain-ChatGLM v0.1.x 最后一个版本，接下来开发团队将全部精力投入到 v0.2.0 版本的开发，新版本将尽快完成上线。 \r\n\r\n## 变更信息\r\n* Update MyFAISS.py by @foxmoon in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F648\r\n* 解决vue前端镜像构建失败的问题 by @hzhaoy in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F636\r\n* fix:前端知识库获取失败. 修改获取及删除接口至knowledge_base by @1729457433 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F653\r\n* Revert 653 dev 1 by @fxjhello in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F657\r\n* 标题增强 by @kiddog99 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F631\r\n* 整理了下issue的问题，方便新手入门 by @fengyunzaidushi in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F669\r\n* Fix #675: 解决因vue前端代码有误导致镜像构建失败的问题 by @hzhaoy in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F679\r\n* 前端知识库相关接口报错修复 by @sivdead in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F651\r\n* Dev streaming oom by @allseeeeeee in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F722\r\n* 向Readme添加Docker整合包描述 by @inksong in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F746\r\n* fix 2 bugs on streamlit demo by @neverless00 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F719\r\n* Add device_map config to support chatglm2-6b by @Jingsong-Yan in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F734\r\n* 修复api接口websocket的伪流式输出 by @zzxs in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F628\r\n* 1. 修改stream_chat的接口，在请求体中选择knowledge_base_id;2. 增加stream_chat_bing接口；3. 增加了调用流式接口的方法说明；4. 优化cli_demo.py的逻辑：支持 输入提示；多输入；重新输入 by @hzg0601 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F630\r\n* Update model_config.py by @stc2001 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F768\r\n* 添加启动API的参数，支持https、wss方式API调用 by @zfanswer in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F728\r\n* 解决 image_loader.py 运行时报错“ModuleNotFoundError: No module named 'configs'”的问题。 by @ysyx2008 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F795\r\n* fix:The knowledge base name cannot be empty. by @kztao in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F793\r\n* Update README.md， 0.1.16版本已经支持删除知识库中的文件 by @kztao in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F792\r\n* 1.增加对llama-cpp模型的支持；2.增加对bloom\u002Fchatyuan\u002Fbaichuan模型的支持；3. 修复多GPU部署的bug;4. 修复了moss_llm.py的bug；5. 增加对openai支持（没有api,未测试);6. 支持在多卡情况自定义设备GPU by @hzg0601 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F664\r\n* feat: fastapi 接口优化 by @NieLamu in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F684\r\n* 修改默认的多卡部署方案，基本保证针对新模型也不会失败 by @hzg0601 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F788\r\n* 测试OPENAI接口成功 by @hzg0601 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F813\r\n* 添加新支持的LLM(bloomz-7b1,bloom-3b,baichuan-7b,vicuna-13b-delta-1.1) by @kztao in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F845\r\n* fix Non-UTF-8 code starting with \\xe5 by @kztao in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F849\r\n* 更新 streamlit ui  by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F850\r\n* Fix LocalDocQA object has no attribute llm when adding docs by @benjaminhuo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F852\r\n* fix issue#580: 新建知识库出错 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F880\r\n* 在args.py中增加ptuning相关的参数 by @hzg0601 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F838\r\n* 1 修复model_config.py的type;2 修改默认的LLM_model;3. 移除chatglm_llm.py的无用模块 by @bones-zhu in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F904\r\n* 解决加载ptuning检查点失败的问题 by @chinainfant in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F905\r\n* [Fix] INSTALL.md by @JimmyMa99 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F907\r\n* 完善api.py，增加LLM对话和知识库对话的流式输出功能 by @margox in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F659\r\n* 安装教程conda create新增默认的\u002Fenvs下面，而不只是只能要额外指定路径 用-p  by @KennyNg-19 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F482\r\n* support chatglm2cpp by @cylee0909 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F859\r\n* Update FAQ.md by @YikunHan42 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F1006\r\n* 添加语音模块 by @nanayashiki1215 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F1039\r\n* Update MyFAISS.py by @chiquitita-101 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F1041\r\n* Adding an implementaion for involving with accessing Baichuan-13B-Chat（接入baichuan-13b-chat逻辑） by @Vincent-ch99 in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F1005\r\n* 线性简单实现了：vecorstores\u002FMyFAISS.py TODO: 增加是否属于同一文档的判断 by @Wu-Fisher in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F945\r\n\r\n## New Contributors\r\n* @foxmoon made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002Fpull\u002F648\r\n* @hzhaoy made their first contribution in https:\u002F\u002Fgithub.com\u002Fchatchat-space\u002Flangchain-ChatGLM\u002F","2023-08-10T14:06:01",{"id":248,"version":249,"summary_zh":250,"released_at":251},71828,"v0.1.16","## What's Changed\r\n### 1. 新增功能\r\n* 新增自定义 vectorstore 实现类 MyFAISS，增加对 FAISS 向量库中全部文件列表查询、指定文件对应向量删除、指定文件向量替换。\r\n* 在 WebUI 和 API 中提供删除知识库、从知识库中删除指定文件的功能。 \r\n\r\n### 2. 问题修复\r\n* 修复 pdf_loader 和 image_loader 进行测试时可能发生未找到 configs 的问题（感谢 @you-can-change 在 https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fissues\u002F112#issuecomment-1579790229 中提出的解决方案）\r\n* 修复知识库多次检索时，内容可能发生叠加的问题（感谢 @jkmchinese 在 https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fissues\u002F613#issuecomment-1590460465 中提出的解决方案）\r\n* 更新 README.md by @Lix1993 in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F608\r\n* 修复[bug] #598 #601，解决通过cli.py启动api、cli失败的问题 by @hzg0601 in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F599\r\n* 更新FAQ,model_config.py,bing_search.py文件，增加bing搜索问答相关问题的原因和可能解决方案，修复了一些typo;修改loader.py中load_in_8bit失败的原因和详细解决方案 by @hzg0601 in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F610\r\n\r\n## New Contributors\r\n* @Lix1993 made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F608\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fcompare\u002Fv0.1.15...v0.1.16","2023-06-14T17:09:21",{"id":253,"version":254,"summary_zh":255,"released_at":256},71829,"v0.1.15","## What's Changed\r\n### 1. 新增功能\r\n* WebUI 中现已支持刷新页面自动更新知识库列表 by @youyajike in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F529\r\n* 增加对 [moka-ai\u002Fm3e-small](https:\u002F\u002Fhuggingface.co\u002Fmoka-ai\u002Fm3e-small) 和 [moka-ai\u002Fm3e-base](https:\u002F\u002Fhuggingface.co\u002Fmoka-ai\u002Fm3e-base) 两种 embedding 模型的支持\r\n\r\n### 2. 问题修复\r\n* VUE 前端默认端口从 1002 调整为 8090 by @NieLamu in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F555\r\n* 修复中 WebUI 中仅显示一轮对话的BUG by @sysalong in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F570\r\n* 更新了requrements.txt和FAQ，解决了 #591 #592 by @hzg0601 in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F593\r\n* 修复 api.py 中 json 解析问题 by @zzxs in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F540\r\n\r\n## New Contributors\r\n* @youyajike made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F529\r\n* @zzxs made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F540\r\n* @NieLamu made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F555\r\n* @hzg0601 made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F593\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fcompare\u002Fv0.1.14...v0.1.15","2023-06-11T16:16:42",{"id":258,"version":259,"summary_zh":260,"released_at":261},71830,"v0.1.14","## What's Changed\r\n### 新增功能\r\n* 新增通过 FastChat API 调用 LLM 的方式，实现了更多 LLM 的支持，并有效提升 LLM 回复速度 by @glide-the \r\n* 新增 lru_cache 函数以提升本地向量库加载速度 by @liunux4odoo in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F496\r\n* Web UI 中增加更新知识库列表按钮，以解决刷新页面后 gradio 不支持自动更新知识库选项列表问题 by @imClumsyPanda \r\n* 添加streamlit ui by @liunux4odoo in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F480\r\n* 添加重新初始化 uploadpath 内文档的按钮 by @zhoutongqing in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F418\r\n\r\n### 问题修复\r\n* 更新 Dockerfile-cuda by @zhubao315 in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F446\r\n* 修改：读取本地知识文件时，能够读取给定目录下全部（包括直接和间接属于该目录）文件 by @DingJunyao in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F471\r\n* 修复 api 中 delete_docs 的 bug by @yihuaxiang in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F499\r\n* 修复上传 PDF 文件后可能提示 tmp.png 文件不存在的问题 by @imClumsyPanda \r\n* 修复上传文件后可能提示本地缺少 faiss.index 导致文件上传至知识库失败的问题 by @imClumsyPanda \r\n\r\n\r\n## New Contributors\r\n* @zhubao315 made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F446\r\n* @liunux4odoo made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F480\r\n* @DingJunyao made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F471\r\n* @yihuaxiang made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F499\r\n* @zhoutongqing made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F418\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fcompare\u002Fv0.1.13...v0.1.14","2023-05-31T15:08:59",{"id":263,"version":264,"summary_zh":265,"released_at":266},71831,"v0.1.13","## What's Changed\r\n\r\n### 新增功能\r\n* 新建llm接口类，并将chatglm与moss重新根据接口类定义实现类 by @glide-the \r\n* 调整 model_config 中的 llm_model_dict 定义形式 by @glide-the \r\n* 在 Web UI 和 vue 前端中增加bing搜索支持，目前仅支持使用知识库或使用bing搜索进行问答，同时使用知识库与bing搜索的功能将在后续进行支持。by @halfss in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F378\r\n* 添加命令行管理脚本 by @zqt996 in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F355\r\n* 增加删除知识库中原始文件 by @halfss in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F365\r\n* 更新 README.md\r\n* 更新 install 说明，解决 PaddleOCR 依赖问题 by @changxubo in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F387\r\n\r\n### 问题修复\r\n* 导入txt过程中可能存在的编码问题 \r\n* 导入pdf过程中可能存在的转换为txt后的编码问题，及可能出现unsupported colorspace for 'png’ 的问题\r\n* 修复 vue 前端中上传文件的问题 by @halfss in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F362\r\n* 更新 api.py by @cd9807 in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F357\r\n* 修复 MOSS模型加载BUG by @changxubo in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F389\r\n* vue 前端 UI 修复 by @halfss in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F394\r\n* 修复历史记录最后一条丢失 by @zhenkaivip in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F415\r\n* 修复对话中换行连读造成歧义 by @zhenkaivip in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F415\r\n* 修复每次对话携带多余数据的问题 by @mayflyfy in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F425\r\n\r\n## New Contributors\r\n* @halfss made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F362\r\n* @zqt996 made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F355\r\n* @mayflyfy made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F425\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fcompare\u002Fv0.1.12...v0.1.13","2023-05-22T10:32:52",{"id":268,"version":269,"summary_zh":270,"released_at":271},71832,"v0.1.12","## What's Changed\r\n### 1. 新增功能\r\n* 增加对 png 和 jpg 格式图片的 OCR 识别载入，基于 PaddleOCR 实现【使用前请先确认已卸载detectron2】by @zhenkaivip in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F344 \r\n* 更新对 pdf 文件的读取方法，支持中英双语，基于 PaddleOCR 实现【使用前请先确认已卸载detectron2】by @zhenkaivip in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F344 \r\n* 增加允许跨域调用API功能 by @hikariming in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F279\r\n* 增加对 MOSS 的支持 by @ykk648 in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F317\r\n* 增加传入单个文件与LLM对话接口 by @keenzhu \r\n\r\n### 2. 问题修复\r\n* 修复 chatglm 两次初始化的问题 by @ykk648 in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F313\r\n* 修复多卡运行时 lora 模型加载问题 by @ykk648 and @RainGather in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F312 and https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F316\r\n* 修复 local_doc_qa.py 中 logger 问题 by @RainGather in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F323\r\n* 修复 cli_demo.py 中可能存在无法正常显示流式输出内容的问题 by @imClumsyPanda \r\n* 修复 api.py 中可能存在的现有接口运行错误问题 by @imClumsyPanda \r\n\r\n## New Contributors\r\n* @hikariming made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F279\r\n* @ykk648 made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F313\r\n* @RainGather made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F316\r\n* @zhenkaivip made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F342\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fcompare\u002Fv0.1.11...v0.1.12","2023-05-13T03:55:17",{"id":273,"version":274,"summary_zh":275,"released_at":276},71833,"v0.1.11","## What's Changed\r\n### 1. 新增功能\r\n* Web UI 中新增加知识库 Beta 页面，提供知识库名分句、匹配测试 by @sysalong in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F302\r\n* 新增基于 Vue 的前端页面 by @fxjhello \r\n* 新增 logging 格式日志输出 by @changxubo in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F268\r\n\r\n### 2. 问题修复\r\n* 修复默认知识库获取的逻辑 by @mokeyish in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F293\r\n* 修复 logger bug by @oushu1zhangxiangxuan1 in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F297\r\n\r\n## New Contributors\r\n* @mokeyish made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F293\r\n* @oushu1zhangxiangxuan1 made their first contribution in https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fpull\u002F297\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FimClumsyPanda\u002Flangchain-ChatGLM\u002Fcompare\u002Fv0.1.10...v0.1.11","2023-05-10T16:15:08"]