[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-shibing624--ChatPilot":3,"tool-shibing624--ChatPilot":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":121,"forks":122,"last_commit_at":123,"license":124,"difficulty_score":23,"env_os":125,"env_gpu":125,"env_ram":125,"env_deps":126,"category_tags":135,"github_topics":136,"view_count":10,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":147,"updated_at":148,"faqs":149,"releases":180},674,"shibing624\u002FChatPilot","ChatPilot","ChatPilot: Chat Agent Web UI，实现Chat对话前端，支持Google搜索、文件网址对话（RAG）、代码解释器功能，复现了Kimi Chat(文件，拖进来；网址，发出来)。","ChatPilot 是一款开源的聊天代理 Web 界面，致力于提供媲美商业产品的智能对话体验。它解决了本地部署大模型时功能单一、操作繁琐的痛点，让用户能轻松拥有具备联网搜索、文档解析及代码执行能力的 AI 助手。\n\nChatPilot 复现了 Kimi Chat 的核心交互，支持直接拖拽文件或使用网址进行深度问答（RAG），并内置 Python 代码解释器，可自动运行分析数据。在模型接入上非常灵活，兼容 OpenAI、Azure、Ollama 及各类云服务接口，满足个性化需求。\n\n该项目采用前后端分离架构，部署便捷，支持 Docker 一键启动。无论是希望快速搭建私有化 AI 应用的开发者，还是追求高效办公的研究人员，亦或是喜欢折腾新技术的技术爱好者，都能从中受益。其完善的权限管理和语音图像支持，进一步扩展了使用场景，是构建自定义智能助手的优秀起点。","[**🇨🇳中文**](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fblob\u002Fmain\u002FREADME.md) | [**🌐English**](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fblob\u002Fmain\u002FREADME_EN.md) \n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshibing624_ChatPilot_readme_568dd01b40e5.png\" height=\"150\" alt=\"Logo\">\n  \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n-----------------\n\n# ChatPilot: Chat Agent Web UI\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002FChatPilot.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002FChatPilot)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshibing624_ChatPilot_readme_d8b656683a87.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002FChatPilot)\n[![Contributions welcome](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcontributions-welcome-brightgreen.svg)](CONTRIBUTING.md)\n[![License Apache 2.0](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202.0-blue.svg)](LICENSE)\n[![python_version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.9%2B-green.svg)](requirements.txt)\n[![GitHub issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fshibing624\u002FChatPilot.svg)](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fissues)\n[![Wechat Group](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fwechat-group-green.svg?logo=wechat)](#Contact)\n\n\n**ChatPilot**: Chat Agent WebUI, 实现了AgentChat对话，支持Google搜索、文件网址对话（RAG）、代码解释器功能，复现Kimi Chat(文件，拖进来；网址，发出来)，支持OpenAI\u002FAzure API。\n\n\n## Features\n\n- 本项目基于[Agentica](https:\u002F\u002Fgithub.com\u002Fshibing624\u002Fagentica)实现了Agent Assistant调用，支持如下功能：\n  - 工具调用：支持Agent调用外部工具\n    - 联网搜索工具：Google Search API（Serper\u002FDuckDuckGo）\n    - URL自动解析工具：复现了Kimi Chat网址发出来功能\n    - Python代码解释器：支持E2B虚拟环境和本地python编译器环境运行代码\n  - 多种LLM接入：支持多种LLM模型以多方式接入，包括使用Ollama Api接入各种本地开源模型；使用litellm Api接入各云服务部署模型；使用OpenAI Api接入GPT系列模型\n  - RAG：支持Agent调用RAG文件问答\n- 支持前后端服务分离，前端使用Svelte，后端使用FastAPI\n- 支持语音输入输出，支持图像生成\n- 支持用户管理，权限控制，支持聊天记录导入导出\n\n## Demo\n\nOfficial Demo: https:\u002F\u002Fchat.mulanai.com\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshibing624_ChatPilot_readme_44972f2e6248.png)\n\n## Getting Started\n\n### Run ChatPilot in Docker\n\n```shell\nexport OPENAI_API_KEY=sk-xxx\nexport OPENAI_BASE_URL=https:\u002F\u002Fxxx\u002Fv1\n\ndocker run -it \\\n -e OPENAI_API_KEY=$WORKSPACE_BASE \\\n -e OPENAI_BASE_URL=$OPENAI_BASE_URL \\\n -e RAG_EMBEDDING_MODEL=\"text-embedding-ada-002\" \\\n -p 8080:8080 --name chatpilot-$(date +%Y%m%d%H%M%S) shibing624\u002Fchatpilot:0.0.1\n```\nYou'll find ChatPilot running at http:\u002F\u002F0.0.0.0:8080 Enjoy! 😄\n\n### 本地启动服务\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot.git\ncd ChatPilot\npip install -r requirements.txt\n\n# Copying required .env file, and fill in the LLM api key\ncp .env.example .env\n\nbash start.sh\n```\n好了，现在你的应用正在运行：http:\u002F\u002F0.0.0.0:8080 Enjoy! 😄\n\n\n### 构建前端web\n\n两种方法构建前端：\n1. 解压打包并编译好的前端 [web\u002Fbuild.zip](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fweb\u002Fbuild.zip)，解压到项目web目录下。\n2. 如果修改了web前端代码，需要自己使用npm重新构建前端：\n  ```sh\n  git clone https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot.git\n  cd ChatPilot\u002F\n  \n  # Building Frontend Using Node.js >= 20.10\n  cd web\n  npm install\n  npm run build\n  ```\n  输出：项目`web`目录产出`build`文件夹，包含了前端编译输出文件。\n\n### 多种LLM接入\n#### 使用OpenAI Api接入GPT系列模型\n- 使用OpenAI API，配置环境变量：\n```shell\nexport OPENAI_API_KEY=xxx\nexport OPENAI_BASE_URL=https:\u002F\u002Fapi.openai.com\u002Fv1\nexport MODEL_TYPE=\"openai\"\n```\n\n- 如果使用Azure OpenAI API，需要配置如下环境变量：\n```shell\nexport AZURE_OPENAI_API_KEY=\nexport AZURE_OPENAI_API_VERSION=\nexport AZURE_OPENAI_ENDPOINT=\nexport MODEL_TYPE=\"azure\"\n```\n\n#### 使用Ollama Api接入各种本地开源模型\n\n以`ollama serve`启动ollama服务，然后配置`OLLAMA_API_URL`：`export OLLAMA_API_URL=http:\u002F\u002Flocalhost:11413`\n\n#### 使用litellm Api接入各云服务部署模型\n1. 安装`litellm`包：\n\n```shell\npip install litellm -U\n```\n\n2. 修改配置文件\n\n`chatpilot`默认的litellm config文件在`~\u002F.cache\u002Fchatpilot\u002Fdata\u002Flitellm\u002Fconfig.yaml`\n\n修改其内容如下：\n```yaml\nmodel_list:\n#  - model_name: moonshot-v1-auto # show model name in the UI\n#    litellm_params: # all params accepted by litellm.completion() - https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fcompletion\u002Finput\n#      model: openai\u002Fmoonshot-v1-auto # MODEL NAME sent to `litellm.completion()` #\n#      api_base: https:\u002F\u002Fapi.moonshot.cn\u002Fv1\n#      api_key: sk-xx\n#      rpm: 500      # [OPTIONAL] Rate limit for this deployment: in requests per minute (rpm)\n\n  - model_name: deepseek-ai\u002FDeepSeek-Coder # show model name in the UI\n    litellm_params: # all params accepted by litellm.completion() - https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fcompletion\u002Finput\n      model: openai\u002Fdeepseek-coder # MODEL NAME sent to `litellm.completion()` #\n      api_base: https:\u002F\u002Fapi.deepseek.com\u002Fv1\n      api_key: sk-xx\n      rpm: 500\n  - model_name: openai\u002Fo1-mini # show model name in the UI\n    litellm_params: # all params accepted by litellm.completion() - https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fcompletion\u002Finput\n      model: o1-mini # MODEL NAME sent to `litellm.completion()` #\n      api_base: https:\u002F\u002Fapi.61798.cn\u002Fv1\n      api_key: sk-xxx\n      rpm: 500\nlitellm_settings: # module level litellm settings - https:\u002F\u002Fgithub.com\u002FBerriAI\u002Flitellm\u002Fblob\u002Fmain\u002Flitellm\u002F__init__.py\n  drop_params: True\n  set_verbose: False\n```\n\n## Contact\n\n- Issue(建议)：[![GitHub issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fshibing624\u002FChatPilot.svg)](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fissues)\n- 邮件我：xuming: xuming624@qq.com\n- 微信我：加我*微信号：xuming624, 备注：姓名-公司-NLP* 进NLP交流群。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshibing624_ChatPilot_readme_3dce032d5680.jpeg\" width=\"200\" \u002F>\n\n\n## Citation\n\n如果你在研究中使用了ChatPilot，请按如下格式引用：\n\nAPA:\n```latex\nXu, M. ChatPilot: LLM agent toolkit (Version 0.0.2) [Computer software]. https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\n```\n\nBibTeX:\n```latex\n@misc{ChatPilot,\n  author = {Ming Xu},\n  title = {ChatPilot: llm agent},\n  year = {2024},\n  publisher = {GitHub},\n  journal = {GitHub repository},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot}},\n}\n```\n\n## License\n\n\n授权协议为 [The Apache License 2.0](LICENSE)，可免费用做商业用途。请在产品说明中附加ChatPilot的链接和授权协议。\n\n\n## Contribute\n项目代码还很粗糙，如果大家对代码有所改进，欢迎提交回本项目，在提交之前，注意以下两点：\n\n - 在`tests`添加相应的单元测试\n - 使用`python -m pytest -v`来运行所有单元测试，确保所有单测都是通过的\n\n之后即可提交PR。\n\n## Reference\n\n- [Open WebUI](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot)\n- [langchain-ai\u002Flangchain](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain)\n- [shibing624\u002Fagentica](https:\u002F\u002Fgithub.com\u002Fshibing624\u002Fagentica)\n","[**🇨🇳中文**](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fblob\u002Fmain\u002FREADME.md) | [**🌐English**](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fblob\u002Fmain\u002FREADME_EN.md) \n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshibing624_ChatPilot_readme_568dd01b40e5.png\" height=\"150\" alt=\"Logo\">\n  \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n-----------------\n\n# ChatPilot: 聊天智能体 Web 用户界面\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002FChatPilot.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002FChatPilot)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshibing624_ChatPilot_readme_d8b656683a87.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002FChatPilot)\n[![Contributions welcome](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcontributions-welcome-brightgreen.svg)](CONTRIBUTING.md)\n[![License Apache 2.0](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202.0-blue.svg)](LICENSE)\n[![python_version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.9%2B-green.svg)](requirements.txt)\n[![GitHub issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fshibing624\u002FChatPilot.svg)](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fissues)\n[![Wechat Group](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fwechat-group-green.svg?logo=wechat)](#Contact)\n\n\n**ChatPilot**: 聊天智能体 Web 用户界面，实现了 AgentChat 对话，支持 Google 搜索、文件网址对话（RAG，检索增强生成）、代码解释器功能，复现 Kimi Chat（文件，拖进来；网址，发出来），支持 OpenAI\u002FAzure API（应用程序编程接口）。\n\n\n## 功能特点\n\n- 本项目基于 [Agentica](https:\u002F\u002Fgithub.com\u002Fshibing624\u002Fagentica) 实现了智能体助手 (Agent Assistant) 调用，支持如下功能：\n  - 工具调用：支持智能体 (Agent) 调用外部工具\n    - 联网搜索工具：Google Search API（Serper\u002FDuckDuckGo）\n    - URL 自动解析工具：复现了 Kimi Chat 网址发送功能\n    - Python 代码解释器：支持 E2B 虚拟环境和本地 python 编译器环境运行代码\n  - 多种 LLM（大语言模型）接入：支持多种 LLM 模型以多方式接入，包括使用 Ollama Api 接入各种本地开源模型；使用 litellm Api 接入各云服务部署模型；使用 OpenAI Api 接入 GPT 系列模型\n  - RAG（检索增强生成）：支持智能体 (Agent) 调用 RAG 进行文件问答\n- 支持前后端服务分离，前端使用 Svelte，后端使用 FastAPI\n- 支持语音输入输出，支持图像生成\n- 支持用户管理，权限控制，支持聊天记录导入导出\n\n## 演示\n\n官方演示：https:\u002F\u002Fchat.mulanai.com\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshibing624_ChatPilot_readme_44972f2e6248.png)\n\n## 开始使用\n\n### 在 Docker 容器中运行 ChatPilot\n\n```shell\nexport OPENAI_API_KEY=sk-xxx\nexport OPENAI_BASE_URL=https:\u002F\u002Fxxx\u002Fv1\n\ndocker run -it \\\n -e OPENAI_API_KEY=$WORKSPACE_BASE \\\n -e OPENAI_BASE_URL=$OPENAI_BASE_URL \\\n -e RAG_EMBEDDING_MODEL=\"text-embedding-ada-002\" \\\n -p 8080:8080 --name chatpilot-$(date +%Y%m%d%H%M%S) shibing624\u002Fchatpilot:0.0.1\n```\n您将在 http:\u002F\u002F0.0.0.0:8080 找到运行的 ChatPilot。享受吧！😄\n\n### 本地启动服务\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot.git\ncd ChatPilot\npip install -r requirements.txt\n\n# Copying required .env file, and fill in the LLM api key\ncp .env.example .env\n\nbash start.sh\n```\n好了，现在你的应用正在运行：http:\u002F\u002F0.0.0.0:8080 Enjoy! 😄\n\n\n### 构建前端 web\n\n构建前端有两种方法：\n1. 解压打包并编译好的前端 [web\u002Fbuild.zip](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fweb\u002Fbuild.zip)，解压到项目 web 目录下。\n2. 如果修改了 web 前端代码，需要自己使用 npm（Node.js 包管理器）重新构建前端：\n  ```sh\n  git clone https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot.git\n  cd ChatPilot\u002F\n  \n  # Building Frontend Using Node.js >= 20.10\n  cd web\n  npm install\n  npm run build\n  ```\n  输出：项目 `web` 目录产出 `build` 文件夹，包含了前端编译输出文件。\n\n### 多种 LLM 接入\n#### 使用 OpenAI Api 接入 GPT 系列模型\n- 使用 OpenAI API，配置环境变量：\n```shell\nexport OPENAI_API_KEY=xxx\nexport OPENAI_BASE_URL=https:\u002F\u002Fapi.openai.com\u002Fv1\nexport MODEL_TYPE=\"openai\"\n```\n\n- 如果使用 Azure OpenAI API，需要配置如下环境变量：\n```shell\nexport AZURE_OPENAI_API_KEY=\nexport AZURE_OPENAI_API_VERSION=\nexport AZURE_OPENAI_ENDPOINT=\nexport MODEL_TYPE=\"azure\"\n```\n\n#### 使用 Ollama Api 接入各种本地开源模型\n\n以 `ollama serve` 启动 ollama 服务，然后配置 `OLLAMA_API_URL`：`export OLLAMA_API_URL=http:\u002F\u002Flocalhost:11413`\n\n#### 使用 litellm Api 接入各云服务部署模型\n1. 安装 `litellm` 包：\n\n```shell\npip install litellm -U\n```\n\n2. 修改配置文件\n\n`chatpilot` 默认的 litellm 配置文件在 `~\u002F.cache\u002Fchatpilot\u002Fdata\u002Flitellm\u002Fconfig.yaml`\n\n修改其内容如下：\n```yaml\nmodel_list:\n#  - model_name: moonshot-v1-auto # show model name in the UI\n#    litellm_params: # all params accepted by litellm.completion() - https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fcompletion\u002Finput\n#      model: openai\u002Fmoonshot-v1-auto # MODEL NAME sent to `litellm.completion()` #\n#      api_base: https:\u002F\u002Fapi.moonshot.cn\u002Fv1\n#      api_key: sk-xx\n#      rpm: 500      # [OPTIONAL] Rate limit for this deployment: in requests per minute (rpm)\n\n  - model_name: deepseek-ai\u002FDeepSeek-Coder # show model name in the UI\n    litellm_params: # all params accepted by litellm.completion() - https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fcompletion\u002Finput\n      model: openai\u002Fdeepseek-coder # MODEL NAME sent to `litellm.completion()` #\n      api_base: https:\u002F\u002Fapi.deepseek.com\u002Fv1\n      api_key: sk-xx\n      rpm: 500\n  - model_name: openai\u002Fo1-mini # show model name in the UI\n    litellm_params: # all params accepted by litellm.completion() - https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fcompletion\u002Finput\n      model: o1-mini # MODEL NAME sent to `litellm.completion()` #\n      api_base: https:\u002F\u002Fapi.61798.cn\u002Fv1\n      api_key: sk-xxx\n      rpm: 500\nlitellm_settings: # module level litellm settings - https:\u002F\u002Fgithub.com\u002FBerriAI\u002Flitellm\u002Fblob\u002Fmain\u002Flitellm\u002F__init__.py\n  drop_params: True\n  set_verbose: False\n```\n\n## 联系方式\n\n- Issue（建议）：[![GitHub issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fshibing624\u002FChatPilot.svg)](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fissues)\n- 邮件我：xuming: xuming624@qq.com\n- 微信我：加我*微信号：xuming624, 备注：姓名 - 公司-NLP* 进 NLP 交流群。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshibing624_ChatPilot_readme_3dce032d5680.jpeg\" width=\"200\" \u002F>\n\n\n## 引用\n\n如果你在研究中使用了 ChatPilot，请按如下格式引用：\n\nAPA:\n```latex\nXu, M. ChatPilot: LLM agent toolkit (Version 0.0.2) [Computer software]. https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\n```\n\nBibTeX:\n```latex\n@misc{ChatPilot,\n  author = {Ming Xu},\n  title = {ChatPilot: llm agent},\n  year = {2024},\n  publisher = {GitHub},\n  journal = {GitHub repository},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot}},\n}\n```\n\n## 许可证\n\n授权协议为 [The Apache License 2.0](LICENSE)，可免费用做商业用途。请在产品说明中附加 ChatPilot 的链接和授权协议。\n\n\n## 贡献\n\n项目代码还很粗糙，如果大家对代码有所改进，欢迎提交回本项目，在提交之前，注意以下两点：\n\n - 在 `tests` 中添加相应的单元测试 (Unit Test)\n - 使用 `python -m pytest -v`（pytest 测试框架）来运行所有单元测试，确保所有测试均通过\n\n之后即可提交 PR（拉取请求）。\n\n## 参考\n\n- [Open WebUI](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot)\n- [langchain-ai\u002Flangchain](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain)\n- [shibing624\u002Fagentica](https:\u002F\u002Fgithub.com\u002Fshibing624\u002Fagentica)","# ChatPilot 快速上手指南\n\nChatPilot 是一款基于 Agent 的聊天机器人 Web UI，支持联网搜索、RAG 文件问答、代码解释器等功能，兼容 OpenAI\u002FAzure API 及多种本地模型。\n\n## 环境准备\n\n*   **系统要求**: Linux \u002F macOS \u002F Windows\n*   **Python**: 3.9+\n*   **Docker**: 推荐使用 Docker 方式部署（可选）\n*   **Node.js**: >= 20.10（仅当需要手动编译前端时使用）\n*   **Git**: 用于克隆项目代码\n\n## 安装步骤\n\n### 方法一：Docker 部署（推荐）\n\n直接使用官方镜像启动服务，无需配置本地 Python 环境。\n\n```shell\nexport OPENAI_API_KEY=sk-xxx\nexport OPENAI_BASE_URL=https:\u002F\u002Fxxx\u002Fv1\n\ndocker run -it \\\n -e OPENAI_API_KEY=$WORKSPACE_BASE \\\n -e OPENAI_BASE_URL=$OPENAI_BASE_URL \\\n -e RAG_EMBEDDING_MODEL=\"text-embedding-ada-002\" \\\n -p 8080:8080 --name chatpilot-$(date +%Y%m%d%H%M%S) shibing624\u002Fchatpilot:0.0.1\n```\n\n### 方法二：本地源码部署\n\n适用于需要深度定制或调试的场景。\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot.git\ncd ChatPilot\npip install -r requirements.txt\n\n# 复制并配置环境变量文件\ncp .env.example .env\n\n# 启动服务\nbash start.sh\n```\n\n## 基本使用\n\n### 1. 访问服务\n\n安装完成后，在浏览器打开以下地址：\n> http:\u002F\u002F0.0.0.0:8080\n\n### 2. 配置大模型接入\n\n根据需求修改 `.env` 文件或 Docker 环境变量，支持多种接入方式：\n\n*   **OpenAI\u002FGPT 系列**\n    ```shell\n    export OPENAI_API_KEY=xxx\n    export OPENAI_BASE_URL=https:\u002F\u002Fapi.openai.com\u002Fv1\n    export MODEL_TYPE=\"openai\"\n    ```\n*   **Azure OpenAI**\n    ```shell\n    export AZURE_OPENAI_API_KEY=\n    export AZURE_OPENAI_API_VERSION=\n    export AZURE_OPENAI_ENDPOINT=\n    export MODEL_TYPE=\"azure\"\n    ```\n*   **本地开源模型 (Ollama)**\n    确保已启动 `ollama serve`，然后配置：\n    ```shell\n    export OLLAMA_API_URL=http:\u002F\u002Flocalhost:11413\n    ```\n*   **多模型接入 (LiteLLM)**\n    编辑配置文件 `~\u002F.cache\u002Fchatpilot\u002Fdata\u002Flitellm\u002Fconfig.yaml`，添加模型列表配置（如 DeepSeek、Moonshot 等）。\n\n### 3. 核心功能体验\n\n*   **联网搜索**: 启用后自动调用 Google Search API 获取实时信息。\n*   **文件对话 (RAG)**: 拖入文件即可进行问答（类似 Kimi Chat 体验）。\n*   **代码解释器**: 支持运行 Python 代码，可配置 E2B 虚拟环境或本地编译器。\n*   **语音与图像**: 支持语音输入输出及图像生成功能。","某互联网公司的数据分析师小李需要处理一份最新的季度财报 PDF，并验证其中的市场趋势数据，同时要求确保数据安全性。\n\n### 没有 ChatPilot 时\n- 需要手动将 PDF 内容复制到文本编辑器中才能提问，效率低下且容易遗漏关键段落\n- 分析数据时需频繁切换至本地 IDE 编写代码，无法直接让 AI 执行复杂的计算逻辑\n- 验证外部信息需反复打开浏览器搜索，打断思维流且难以将搜索结果与文档内容关联\n- 敏感财务数据上传公共平台存在隐私泄露风险，导致不敢直接使用在线大模型进行深度分析\n\n### 使用 ChatPilot 后\n- 直接拖拽 PDF 文件即可实现 RAG 问答，无需手动提取文本内容，精准定位报告细节\n- 内置代码解释器自动运行 Python 脚本完成数据清洗与可视化图表生成，减少人工干预\n- 集成 Google 搜索功能，在对话中实时获取最新市场动态并自动标注信息来源\n- 支持部署本地开源模型，确保核心财务数据不出内网环境，满足企业合规要求\n\nChatPilot 通过整合文档解析、代码执行与联网搜索，为复杂数据分析任务提供了安全高效的统一工作流。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshibing624_ChatPilot_c7078647.png","shibing624","Ming Xu (徐明)","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fshibing624_1945cf94.jpg","Algorithm Researcher, Deep Learning Developer","@tencent","Beijing, China","shibing624@126.com",null,"https:\u002F\u002Fblog.csdn.net\u002Fmingzai624","https:\u002F\u002Fgithub.com\u002Fshibing624",[86,90,94,98,102,106,110,114,117],{"name":87,"color":88,"percentage":89},"Svelte","#ff3e00",63,{"name":91,"color":92,"percentage":93},"Python","#3572A5",25.2,{"name":95,"color":96,"percentage":97},"TypeScript","#3178c6",9.8,{"name":99,"color":100,"percentage":101},"CSS","#663399",1.2,{"name":103,"color":104,"percentage":105},"JavaScript","#f1e05a",0.3,{"name":107,"color":108,"percentage":109},"Shell","#89e051",0.2,{"name":111,"color":112,"percentage":113},"Batchfile","#C1F12E",0.1,{"name":115,"color":116,"percentage":113},"HTML","#e34c26",{"name":118,"color":119,"percentage":120},"Dockerfile","#384d54",0,599,59,"2026-03-29T17:34:02","Apache-2.0","未说明",{"notes":127,"python":128,"dependencies":129},"需配置环境变量（如 OPENAI_API_KEY）；前端构建需 Node.js >= 20.10；支持 Docker 容器化部署；后端基于 FastAPI，前端基于 Svelte；支持多种 LLM 接入方式（OpenAI、Azure、Ollama、LiteLLM）。","3.9+",[130,131,132,133,134],"litellm","fastapi","agentica","svelte","nodejs",[13,15,26],[137,138,139,140,141,142,143,144,145,132,146],"agent","chatbot","chatgpt","chatpdf","llm","chatpilot","langchain","chat","kimi","agents","2026-03-27T02:49:30.150509","2026-04-06T07:11:47.843669",[150,155,160,165,170,175],{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},2798,"Agent 问答（使用工具）和 RAG 问答是如何进行路由的？","RAG 将检索到的文档内容加入 Prompt 中，然后路由到正常的 LLM 中进行处理，这是一种兼容实现方式。在对话过程中，系统可以同时支持 RAG 以及 URL 解析、Python 解释器等工具的调用。","https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fissues\u002F10",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},2799,"适配 Qwen 模型时如何统计流式 Token 数量？","可以使用 tiktoken 统计。Qwen-7B 采用 UTF-8 字节级别的 BPE tokenization 方式，并依赖 tiktoken 执行分词。代码示例如下：\nfrom transformers import AutoTokenizer\ntokenizer = AutoTokenizer.from_pretrained('Qwen\u002FQwen-7B', trust_remote_code=True)","https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fissues\u002F9",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},2800,"前端页面打开为空，如何配置自定义大模型地址？","需要参考 .env.example 文件设置 .env 配置文件。启动后端后访问 0.0.0.0:9090。如果是 Ollama 或 vLLM 的 OpenAI 接口，需在 .env 中按示例格式填入自定义大模型地址。","https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fissues\u002F8",{"id":166,"question_zh":167,"answer_zh":168,"source_url":169},2801,"登录验证时无法注册，提示注册失败怎么办？","这通常是 pydantic 安装包的问题。请升级 pydantic 库，运行以下命令修复：\npip install pydantic --upgrade","https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fissues\u002F4",{"id":171,"question_zh":172,"answer_zh":173,"source_url":174},2802,"运行时报错 TypeError: 'type' object is not subscriptable 如何解决？","该错误通常是因为 Python 版本过低。本项目不支持 Python 3.8，请使用 Python 3.10 及以上版本环境。","https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fissues\u002F6",{"id":176,"question_zh":177,"answer_zh":178,"source_url":179},2803,"语音输入和输出使用的是哪家 API 服务？","语音输入输出主要使用电脑自带的功能。虽然代码逻辑中涉及 ASR 和 TTS 部分，但在当前实现中主要依赖本地系统能力。","https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fissues\u002F7",[181,186,191],{"id":182,"version":183,"summary_zh":184,"released_at":185},102278,"0.1.2","**ChatPilot**: 实现AgentChat对话，支持Google搜索、文件网址对话（RAG）、代码解释器功能，复现Kimi Chat(文件，拖进来；网址，发出来)，支持OpenAI\u002FAzure API。\r\n\r\n\r\n## 新增功能\r\n- 本项目基于LangChain实现了ReAct和OpenAI Function Call的Agent问答对话，支持如下工具自动调用：\r\n  - 联网搜索工具：Google Search API（Serper\u002FDuckDuckGo）\r\n  - URL自动解析工具：复现了Kimi Chat网址发出来功能\r\n  - Python代码解释器：支持E2B虚拟环境和本地python编译器环境运行代码\r\n- 本项目基于LangChain实现了支持query改写的检索增强RAG文件问答\r\n\r\n\r\n\u003Cimg width=\"1006\" alt=\"shot2\" src=\"https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fassets\u002F10249622\u002F055c406a-ca28-4e78-bf2f-cbc166b2769b\">\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fcompare\u002Fv0.1.0...0.1.2","2024-04-04T06:30:42",{"id":187,"version":188,"summary_zh":189,"released_at":190},102279,"v0.1.0","## v0.1.0\r\n\r\n1. update auto change multi api keys\r\n2. support gpt-4-vision-preview model\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fcompare\u002Fv0.0.2...v0.1.0","2024-03-17T15:21:22",{"id":192,"version":193,"summary_zh":194,"released_at":195},102280,"v0.0.2","## v0.0.2\r\n\r\n**ChatPilot**: Chat with Agent. 基于chat agent实现了联网搜索，文件、网址对话功能（类kimi chat，文件，拖进来；网址，发出来），支持OpenAI API。\r\n\r\n\r\n#### Features\r\n\r\n- 本项目基于Agent实现了搜索问答\r\n- 本项目基于Agent实现了文件对话(RAG)，实现了通过URL自动解析内容功能，复现了 kimi chat(文件，拖进来；网址，发出来) 的文件、网址对话功能\r\n- 本项目基于Agent实现了python代码解释器，支持E2B虚拟环境和本地python编译器环境运行代码\r\n- 支持前后端服务分离，前端使用Svelte，后端使用FastAPI\r\n- 支持语音输入输出，支持图像生成\r\n- 支持用户管理，权限控制，支持聊天记录导入导出\r\n\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fshibing624\u002FChatPilot\u002Fcommits\u002Fv0.0.2","2024-03-15T08:54:16"]