[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-open-webui--pipelines":3,"tool-open-webui--pipelines":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":101,"forks":102,"last_commit_at":103,"license":104,"difficulty_score":10,"env_os":105,"env_gpu":106,"env_ram":107,"env_deps":108,"category_tags":113,"github_topics":114,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":115,"updated_at":116,"faqs":117,"releases":147},709,"open-webui\u002Fpipelines","pipelines","Pipelines: Versatile, UI-Agnostic OpenAI-Compatible Plugin Framework ","Pipelines 是一个面向 OpenAI API 兼容客户端的通用插件框架，旨在通过 Python 代码赋予用户构建定制化工作流的能力。它解决了主应用在处理高计算量任务或复杂逻辑时的性能瓶颈，允许将重型运算卸载到独立服务中，从而提升整体系统的可扩展性。\n\n对于开发者而言，Pipelines 提供了无限的可能性：你可以轻松集成各类 Python 库，实现自定义 RAG、函数调用、实时翻译甚至消息安全过滤。它采用 UI 无关架构，只需将客户端的 API 地址指向 Pipelines 实例，即可无缝连接任何支持 OpenAI 协议的界面。项目提供 Docker 一键部署方案及丰富的示例模板，大幅降低开发门槛。\n\n需要注意的是，由于涉及任意代码执行，建议仅加载可信来源的插件。若仅需基础功能增强，Open WebUI 内置函数或许更为便捷；但若追求深度定制与灵活扩展，Pipelines 无疑是强大的利器。","\u003Cp align=\"center\">\n  \u003Ca href=\"#\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-webui_pipelines_readme_ef6a91e0541c.png\" alt=\"Pipelines Logo\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n# Pipelines: UI-Agnostic OpenAI API Plugin Framework\n\n> [!TIP]\n> **DO NOT USE PIPELINES!**\n>\n> If your goal is simply to add support for additional providers like Anthropic or basic filters, you likely don't need Pipelines . For those cases, Open WebUI Functions are a better fit—it's built-in, much more convenient, and easier to configure. Pipelines, however, comes into play when you're dealing with computationally heavy tasks (e.g., running large models or complex logic) that you want to offload from your main Open WebUI instance for better performance and scalability.\n\n\nWelcome to **Pipelines**, an [Open WebUI](https:\u002F\u002Fgithub.com\u002Fopen-webui) initiative. Pipelines bring modular, customizable workflows to any UI client supporting OpenAI API specs – and much more! Easily extend functionalities, integrate unique logic, and create dynamic workflows with just a few lines of code.\n\n## 🚀 Why Choose Pipelines?\n\n- **Limitless Possibilities:** Easily add custom logic and integrate Python libraries, from AI agents to home automation APIs.\n- **Seamless Integration:** Compatible with any UI\u002Fclient supporting OpenAI API specs. (Only pipe-type pipelines are supported; filter types require clients with Pipelines support.)\n- **Custom Hooks:** Build and integrate custom pipelines.\n\n### Examples of What You Can Achieve:\n\n- [**Function Calling Pipeline**](\u002Fexamples\u002Ffilters\u002Ffunction_calling_filter_pipeline.py): Easily handle function calls and enhance your applications with custom logic.\n- [**Custom RAG Pipeline**](\u002Fexamples\u002Fpipelines\u002Frag\u002Fllamaindex_pipeline.py): Implement sophisticated Retrieval-Augmented Generation pipelines tailored to your needs.\n- [**Message Monitoring Using Langfuse**](\u002Fexamples\u002Ffilters\u002Flangfuse_filter_pipeline.py): Monitor and analyze message interactions in real-time using Langfuse.\n- [**Message Monitoring Using Opik**](\u002Fexamples\u002Ffilters\u002Fopik_filter_pipeline.py): Monitor and analyze message interactions using Opik, an open-source platform for debugging and evaluating LLM applications and RAG systems.\n- [**Rate Limit Filter**](\u002Fexamples\u002Ffilters\u002Frate_limit_filter_pipeline.py): Control the flow of requests to prevent exceeding rate limits.\n- [**Real-Time Translation Filter with LibreTranslate**](\u002Fexamples\u002Ffilters\u002Flibretranslate_filter_pipeline.py): Seamlessly integrate real-time translations into your LLM interactions.\n- [**Toxic Message Filter**](\u002Fexamples\u002Ffilters\u002Fdetoxify_filter_pipeline.py): Implement filters to detect and handle toxic messages effectively.\n- **And Much More!**: The sky is the limit for what you can accomplish with Pipelines and Python. [Check out our scaffolds](\u002Fexamples\u002Fscaffolds) to get a head start on your projects and see how you can streamline your development process!\n\n## 🔧 How It Works\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-webui_pipelines_readme_be722cc91f60.png\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-webui_pipelines_readme_be722cc91f60.png\" alt=\"Pipelines Workflow\">\u003C\u002Fa>\n\u003C\u002Fp>\n\nIntegrating Pipelines with any OpenAI API-compatible UI client is simple. Launch your Pipelines instance and set the OpenAI URL on your client to the Pipelines URL. That's it! You're ready to leverage any Python library for your needs.\n\n## ⚡ Quick Start with Docker\n\n> [!WARNING]\n> Pipelines are a plugin system with arbitrary code execution — **don't fetch random pipelines from sources you don't trust**.\n\n### Docker\n\nFor a streamlined setup using Docker:\n\n1. **Run the Pipelines container:**\n\n   ```sh\n   docker run -d -p 9099:9099 --add-host=host.docker.internal:host-gateway -v pipelines:\u002Fapp\u002Fpipelines --name pipelines --restart always ghcr.io\u002Fopen-webui\u002Fpipelines:main\n   ```\n\n2. **Connect to Open WebUI:**\n\n   - Navigate to the **Settings > Connections > OpenAI API** section in Open WebUI.\n   - Set the API URL to `http:\u002F\u002Flocalhost:9099` and the API key to `0p3n-w3bu!`. Your pipelines should now be active.\n\n> [!NOTE]\n> If your Open WebUI is running in a Docker container, replace `localhost` with `host.docker.internal` in the API URL.\n\n3. **Manage Configurations:**\n\n   - In the admin panel, go to **Admin Settings > Pipelines tab**.\n   - Select your desired pipeline and modify the valve values directly from the WebUI.\n\n> [!TIP]\n> If you are unable to connect, it is most likely a Docker networking issue. We encourage you to troubleshoot on your own and share your methods and solutions in the discussions forum.\n\nIf you need to install a custom pipeline with additional dependencies:\n\n- **Run the following command:**\n\n  ```sh\n  docker run -d -p 9099:9099 --add-host=host.docker.internal:host-gateway -e PIPELINES_URLS=\"https:\u002F\u002Fgithub.com\u002Fopen-webui\u002Fpipelines\u002Fblob\u002Fmain\u002Fexamples\u002Ffilters\u002Fdetoxify_filter_pipeline.py\" -v pipelines:\u002Fapp\u002Fpipelines --name pipelines --restart always ghcr.io\u002Fopen-webui\u002Fpipelines:main\n  ```\n\nAlternatively, you can directly install pipelines from the admin settings by copying and pasting the pipeline URL, provided it doesn't have additional dependencies.\n\nThat's it! You're now ready to build customizable AI integrations effortlessly with Pipelines. Enjoy!\n\n### Docker Compose together with Open WebUI\n\nUsing [Docker Compose](https:\u002F\u002Fdocs.docker.com\u002Fcompose\u002F) simplifies the management of multi-container Docker applications.\n\nHere is an example configuration file `docker-compose.yaml` for setting up Open WebUI together with Pipelines using Docker Compose:\n\n```yaml\nservices:\n  openwebui:\n      image: ghcr.io\u002Fopen-webui\u002Fopen-webui:main\n      ports:\n        - \"3000:8080\"\n      volumes:\n        - open-webui:\u002Fapp\u002Fbackend\u002Fdata\n\n  pipelines:\n      image: ghcr.io\u002Fopen-webui\u002Fpipelines:main\n      volumes:\n        - pipelines:\u002Fapp\u002Fpipelines\n      restart: always\n      environment:\n        - PIPELINES_API_KEY=0p3n-w3bu!\n\nvolumes:\n  open-webui: {}\n  pipelines: {}\n```\n\nTo start your services, run the following command:\n\n```\ndocker compose up -d\n```\n\nYou can then use `http:\u002F\u002Fpipelines:9099` (the name is the same as the service's name defined in `docker-compose.yaml`) as an API URL to connect to Open WebUI.\n\n> [!NOTE]\n> The `pipelines` service is accessible only by `openwebui` Docker service and thus provide additional layer of security.\n\n## 📦 Installation and Setup\n\nGet started with Pipelines in a few easy steps:\n\n1. **Ensure Python 3.11 is installed.**\n2. **Clone the Pipelines repository:**\n\n   ```sh\n   git clone https:\u002F\u002Fgithub.com\u002Fopen-webui\u002Fpipelines.git\n   cd pipelines\n   ```\n\n3. **Install the required dependencies:**\n\n   ```sh\n   pip install -r requirements.txt\n   ```\n\n4. **Start the Pipelines server:**\n\n   ```sh\n   sh .\u002Fstart.sh\n   ```\n\nOnce the server is running, set the OpenAI URL on your client to the Pipelines URL. This unlocks the full capabilities of Pipelines, integrating any Python library and creating custom workflows tailored to your needs.\n\n### Advanced Docker Builds\nIf you create your own pipelines, you can install them when the Docker image is built.  For example,\ncreate a bash script with the snippet below to collect files from a path, add them as install URLs, \nand build the Docker image with the new pipelines automatically installed.\n\nNOTE: The pipelines module will still attempt to install any package dependencies found at in your\nfile headers at start time, but they will not be downloaded again.\n\n```sh\n# build in the specific pipelines\nPIPELINE_DIR=\"pipelines-custom\"\n# assuming the above directory is in your source repo and not skipped by `.dockerignore`, it will get copied to the image\nPIPELINE_PREFIX=\"file:\u002F\u002F\u002Fapp\"\n\n# retrieve all the sub files\nexport PIPELINES_URLS=\nfor file in \"$PIPELINE_DIR\"\u002F*; do\n    if [[ -f \"$file\" ]]; then\n        if [[ \"$file\" == *.py ]]; then\n            if [ -z \"$PIPELINES_URLS\" ]; then\n                PIPELINES_URLS=\"$PIPELINE_PREFIX\u002F$file\"\n            else\n                PIPELINES_URLS=\"$PIPELINES_URLS;$PIPELINE_PREFIX\u002F$file\"\n            fi\n        fi\n    fi\ndone\necho \"New Custom Install Pipes: $PIPELINES_URLS\"\n\ndocker build --build-arg PIPELINES_URLS=$PIPELINES_URLS --build-arg MINIMUM_BUILD=true -f Dockerfile .\n```\n\n## 📂 Directory Structure and Examples\n\nThe `\u002Fpipelines` directory is the core of your setup. Add new modules, customize existing ones, and manage your workflows here. All the pipelines in the `\u002Fpipelines` directory will be **automatically loaded** when the server launches.\n\nYou can change this directory from `\u002Fpipelines` to another location using the `PIPELINES_DIR` env variable.\n\n### Integration Examples\n\nFind various integration examples in the `\u002Fexamples` directory. These examples show how to integrate different functionalities, providing a foundation for building your own custom pipelines.\n\n## 🎉 Work in Progress\n\nWe’re continuously evolving! We'd love to hear your feedback and understand which hooks and features would best suit your use case. Feel free to reach out and become a part of our Open WebUI community!\n\nOur vision is to push **Pipelines** to become the ultimate plugin framework for our AI interface, **Open WebUI**. Imagine **Open WebUI** as the WordPress of AI interfaces, with **Pipelines** being its diverse range of plugins. Join us on this exciting journey! 🌍\n","\u003Cp align=\"center\">\n  \u003Ca href=\"#\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-webui_pipelines_readme_ef6a91e0541c.png\" alt=\"Pipelines Logo\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n# Pipelines：与 UI 无关 (UI-Agnostic) 的 OpenAI API 插件框架\n\n> [!TIP]\n> **不要使用 Pipelines！**\n>\n> 如果你的目标仅仅是添加对 Anthropic 等额外提供商的支持或基本过滤器，你可能并不需要 Pipelines。对于这种情况，Open WebUI 函数 (Open WebUI Functions) 更适合——它是内置的，更方便且更容易配置。然而，当你处理计算密集型任务（例如运行大型模型或复杂逻辑），并希望将其从主 Open WebUI 实例卸载以获得更好的性能和可扩展性时，Pipelines 就会派上用场。\n\n\n欢迎来到 **Pipelines**，这是 [Open WebUI](https:\u002F\u002Fgithub.com\u002Fopen-webui) 的一项倡议。Pipelines 为任何支持 OpenAI API 规范的 UI 客户端带来模块化、可定制的工作流——还有更多！只需几行代码即可轻松扩展功能、集成独特逻辑并创建动态工作流。\n\n## 🚀 为什么选择 Pipelines？\n\n- **无限可能：** 轻松添加自定义逻辑并集成 Python 库，从 AI 智能体到家庭自动化 API。\n- **无缝集成：** 兼容任何支持 OpenAI API 规范的 UI\u002F客户端。（仅支持管道型管道；过滤器类型需要客户端支持 Pipelines。）\n- **自定义钩子 (Hooks)：** 构建并集成自定义管道。\n\n### 你可以实现的功能示例：\n\n- [**函数调用管道**](\u002Fexamples\u002Ffilters\u002Ffunction_calling_filter_pipeline.py)：轻松处理函数调用并使用自定义逻辑增强你的应用。\n- [**自定义检索增强生成 (RAG) 管道**](\u002Fexamples\u002Fpipelines\u002Frag\u002Fllamaindex_pipeline.py)：实施复杂的检索增强生成管道以满足你的需求。\n- [**使用 Langfuse 进行消息监控**](\u002Fexamples\u002Ffilters\u002Flangfuse_filter_pipeline.py)：使用 Langfuse 实时监控和分析消息交互。\n- [**使用 Opik 进行消息监控**](\u002Fexamples\u002Ffilters\u002Fopik_filter_pipeline.py)：使用 Opik 监控和分析消息交互，Opik 是一个用于调试和评估 LLM 应用及 RAG 系统的开源平台。\n- [**速率限制过滤器**](\u002Fexamples\u002Ffilters\u002Frate_limit_filter_pipeline.py)：控制请求流量以防止超出速率限制。\n- [**使用 LibreTranslate 的实时翻译过滤器**](\u002Fexamples\u002Ffilters\u002Flibretranslate_filter_pipeline.py)：将实时翻译无缝集成到你的 LLM 交互中。\n- [**有毒消息过滤器**](\u002Fexamples\u002Ffilters\u002Fdetoxify_filter_pipeline.py)：实施过滤器以有效检测和屏蔽有毒消息。\n- **以及更多！**：有了 Pipelines 和 Python，一切皆有可能。[查看我们的脚手架 (Scaffolds)](\u002Fexamples\u002Fscaffolds) 为你的项目起步，了解如何简化开发流程！\n\n## 🔧 工作原理\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-webui_pipelines_readme_be722cc91f60.png\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-webui_pipelines_readme_be722cc91f60.png\" alt=\"Pipelines Workflow\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n将 Pipelines 与任何兼容 OpenAI API 的 UI 客户端集成非常简单。启动你的 Pipelines 实例，并将客户端上的 OpenAI URL 设置为 Pipelines URL。就这样！你已准备好利用任何 Python 库满足你的需求。\n\n## ⚡ Docker 快速开始\n\n> [!WARNING]\n> Pipelines 是一个具有任意代码执行能力的插件系统——**不要从不可信的来源获取随机管道。**\n\n### Docker\n\n使用 Docker 进行简化设置：\n\n1. **运行 Pipelines 容器：**\n\n   ```sh\n   docker run -d -p 9099:9099 --add-host=host.docker.internal:host-gateway -v pipelines:\u002Fapp\u002Fpipelines --name pipelines --restart always ghcr.io\u002Fopen-webui\u002Fpipelines:main\n   ```\n\n2. **连接到 Open WebUI：**\n\n   - 在 Open WebUI 中导航至 **Settings > Connections > OpenAI API** 部分。\n   - 将 API URL 设置为 `http:\u002F\u002Flocalhost:9099`，将 API 密钥设置为 `0p3n-w3bu!`。此时你的管道应已激活。\n\n> [!NOTE]\n> 如果你的 Open WebUI 运行在 Docker 容器中，请将 API URL 中的 `localhost` 替换为 `host.docker.internal`。\n\n3. **管理配置：**\n\n   - 在管理面板中，进入 **Admin Settings > Pipelines tab**。\n   - 选择你想要的管道，并直接从 WebUI 修改阀门值 (Valve values)。\n\n> [!TIP]\n> 如果你无法连接，这很可能是 Docker 网络问题。我们鼓励你自己排查，并在讨论区分享你的方法和解决方案。\n\n如果你需要安装带有额外依赖的自定义管道：\n\n- **运行以下命令：**\n\n  ```sh\n  docker run -d -p 9099:9099 --add-host=host.docker.internal:host-gateway -e PIPELINES_URLS=\"https:\u002F\u002Fgithub.com\u002Fopen-webui\u002Fpipelines\u002Fblob\u002Fmain\u002Fexamples\u002Ffilters\u002Fdetoxify_filter_pipeline.py\" -v pipelines:\u002Fapp\u002Fpipelines --name pipelines --restart always ghcr.io\u002Fopen-webui\u002Fpipelines:main\n  ```\n\n或者，你也可以直接从管理设置安装管道，复制粘贴管道 URL 即可，前提是不需要额外的依赖。\n\n就是这样！现在你已经准备好轻松构建可定制的 AI 集成。享受吧！\n\n### 与 Open WebUI 一起使用 Docker Compose\n\n使用 [Docker Compose](https:\u002F\u002Fdocs.docker.com\u002Fcompose\u002F) 可以简化多容器 Docker 应用程序的管理。\n\n以下是使用 Docker Compose 设置 Open WebUI 和 Pipelines 的示例配置文件 `docker-compose.yaml`：\n\n```yaml\nservices:\n  openwebui:\n      image: ghcr.io\u002Fopen-webui\u002Fopen-webui:main\n      ports:\n        - \"3000:8080\"\n      volumes:\n        - open-webui:\u002Fapp\u002Fbackend\u002Fdata\n\n  pipelines:\n      image: ghcr.io\u002Fopen-webui\u002Fpipelines:main\n      volumes:\n        - pipelines:\u002Fapp\u002Fpipelines\n      restart: always\n      environment:\n        - PIPELINES_API_KEY=0p3n-w3bu!\n\nvolumes:\n  open-webui: {}\n  pipelines: {}\n```\n\n要启动你的服务，运行以下命令：\n\n```\ndocker compose up -d\n```\n\n然后你可以使用 `http:\u002F\u002Fpipelines:9099`（名称与 `docker-compose.yaml` 中定义的服务名称相同）作为 API URL 连接到 Open WebUI。\n\n> [!NOTE]\n> `pipelines` 服务仅可由 `openwebui` Docker 服务访问，因此提供了额外的安全层。\n\n## 📦 安装与设置\n\n通过几个简单的步骤开始使用 Pipelines：\n\n1. **确保已安装 Python 3.11。**\n2. **克隆 Pipelines 仓库：**\n\n   ```sh\n   git clone https:\u002F\u002Fgithub.com\u002Fopen-webui\u002Fpipelines.git\n   cd pipelines\n   ```\n\n3. **安装所需的依赖项：**\n\n   ```sh\n   pip install -r requirements.txt\n   ```\n\n4. **启动 Pipelines 服务器：**\n\n   ```sh\n   sh .\u002Fstart.sh\n   ```\n\n服务器运行后，将客户端上的 OpenAI URL 设置为 Pipelines URL。这将解锁 Pipelines 的全部功能，集成任何 Python 库并创建适合你需求的自定义工作流。\n\n### 高级 Docker 构建\n如果您创建了自己的 pipelines（管道），可以在构建 Docker 镜像时安装它们。例如，使用下面的代码片段创建一个 bash 脚本，从路径收集文件，将它们添加为安装 URL，并构建已自动安装新 pipelines 的 Docker 镜像。\n\n注意：pipelines 模块在启动时仍会尝试安装您在文件头中发现的任何包依赖项，但它们不会被再次下载。\n\n```sh\n# build in the specific pipelines\nPIPELINE_DIR=\"pipelines-custom\"\n# assuming the above directory is in your source repo and not skipped by `.dockerignore`, it will get copied to the image\nPIPELINE_PREFIX=\"file:\u002F\u002F\u002Fapp\"\n\n# retrieve all the sub files\nexport PIPELINES_URLS=\nfor file in \"$PIPELINE_DIR\"\u002F*; do\n    if [[ -f \"$file\" ]]; then\n        if [[ \"$file\" == *.py ]]; then\n            if [ -z \"$PIPELINES_URLS\" ]; then\n                PIPELINES_URLS=\"$PIPELINE_PREFIX\u002F$file\"\n            else\n                PIPELINES_URLS=\"$PIPELINES_URLS;$PIPELINE_PREFIX\u002F$file\"\n            fi\n        fi\n    fi\ndone\necho \"New Custom Install Pipes: $PIPELINES_URLS\"\n\ndocker build --build-arg PIPELINES_URLS=$PIPELINES_URLS --build-arg MINIMUM_BUILD=true -f Dockerfile .\n```\n\n## 📂 目录结构和示例\n\n`\u002Fpipelines` 目录是您的设置核心。在此处添加新模块、自定义现有模块并管理您的工作流。当服务器启动时，`\u002Fpipelines` 目录中的所有 pipelines 将自动加载。\n\n您可以使用 `PIPELINES_DIR` 环境变量将此目录从 `\u002Fpipelines` 更改为其他位置。\n\n### 集成示例\n\n在 `\u002Fexamples` 目录中找到各种集成示例。这些示例展示了如何集成不同的功能，为构建您自己的自定义 pipelines 提供基础。\n\n## 🎉 进行中\n\n我们一直在不断进化！我们非常乐意听取您的反馈，并了解哪些 hooks（钩子）和功能最适合您的用例。欢迎随时联系我们，成为我们 Open WebUI 社区的一员！\n\n我们的愿景是推动 Pipelines 成为我们 AI 界面 Open WebUI 的最终插件框架。想象一下，Open WebUI 是 AI 界面的 WordPress，而 Pipelines 是其多样化的插件范围。加入我们这段激动人心的旅程吧！🌍","# Pipelines 快速上手指南\n\n## 📌 简介\nPipelines 是 Open WebUI 推出的一个 UI 无关的 OpenAI API 插件框架。它允许您通过 Python 代码轻松扩展功能、集成逻辑库和创建动态工作流。\n\n> [!TIP]\n> **适用场景提示**：如果您只是想添加 Anthropic 等支持或基础过滤器，建议使用 Open WebUI Functions。Pipelines 更适合处理计算密集型任务（如运行大模型），以便将负载从主实例卸载，提升性能与可扩展性。\n\n---\n\n## 1. 环境准备\n*   **系统要求**: Linux \u002F macOS \u002F Windows\n*   **核心依赖**:\n    *   **Docker**: 推荐使用 Docker 部署（推荐）。\n    *   **Python**: 3.11+ (仅用于源码安装模式)。\n*   **网络配置**: 镜像源为 `ghcr.io`，国内用户建议配置 Docker 镜像加速器以确保拉取速度。\n\n---\n\n## 2. 安装步骤\n\n### 方案一：Docker 部署 (推荐)\n直接运行以下命令启动容器：\n```sh\ndocker run -d -p 9099:9099 --add-host=host.docker.internal:host-gateway -v pipelines:\u002Fapp\u002Fpipelines --name pipelines --restart always ghcr.io\u002Fopen-webui\u002Fpipelines:main\n```\n\n### 方案二：源码安装\n1.  **克隆仓库**:\n    ```sh\n    git clone https:\u002F\u002Fgithub.com\u002Fopen-webui\u002Fpipelines.git\n    cd pipelines\n    ```\n2.  **安装依赖**:\n    ```sh\n    pip install -r requirements.txt\n    ```\n3.  **启动服务**:\n    ```sh\n    sh .\u002Fstart.sh\n    ```\n\n### 方案三：Docker Compose (配合 Open WebUI)\n在 `docker-compose.yaml` 中添加如下配置：\n```yaml\nservices:\n  pipelines:\n      image: ghcr.io\u002Fopen-webui\u002Fpipelines:main\n      volumes:\n        - pipelines:\u002Fapp\u002Fpipelines\n      restart: always\n      environment:\n        - PIPELINES_API_KEY=0p3n-w3bu!\nvolumes:\n  pipelines: {}\n```\n启动服务：\n```\ndocker compose up -d\n```\n\n---\n\n## 3. 基本使用\n\n### 连接客户端\n在您的 OpenAI API 兼容客户端（如 Open WebUI）中进行如下设置：\n*   **API URL**: `http:\u002F\u002Flocalhost:9099`\n    *   *注：若 Open WebUI 也运行在 Docker 容器中，请将 `localhost` 替换为 `host.docker.internal`。*\n*   **API Key**: `0p3n-w3bu!`\n\n### 管理与配置\n1.  进入 Open WebUI 管理面板。\n2.  导航至 **Admin Settings > Pipelines tab**。\n3.  选择目标管道，直接在 WebUI 中修改 Valve values。\n4.  支持直接粘贴管道 URL 进行安装（仅限无额外依赖的管道）。\n\n### 自定义管道安装\n如需安装带有额外依赖的自定义管道，可通过环境变量指定：\n```sh\ndocker run -d -p 9099:9099 --add-host=host.docker.internal:host-gateway -e PIPELINES_URLS=\"https:\u002F\u002Fgithub.com\u002Fopen-webui\u002Fpipelines\u002Fblob\u002Fmain\u002Fexamples\u002Ffilters\u002Fdetoxify_filter_pipeline.py\" -v pipelines:\u002Fapp\u002Fpipelines --name pipelines --restart always ghcr.io\u002Fopen-webui\u002Fpipelines:main\n```\n\n> [!WARNING]\n> **安全提示**: Pipelines 支持任意代码执行，请勿从不可信来源获取或运行管道。","某企业技术团队正在基于 Open WebUI 搭建内部知识库问答系统，需要深度集成私有文档检索并实时过滤敏感信息，同时保证系统高可用。\n\n### 没有 pipelines 时\n- 核心服务负载过高，处理复杂的文档检索逻辑导致整体响应缓慢甚至超时。\n- 无法灵活接入外部私有数据库，硬编码修改主程序代码维护成本极高。\n- 缺乏中间层拦截机制，用户输入可能包含违规内容直接发送给大模型存在风险。\n- 每次扩展新功能都需重启主服务，严重影响现有业务的连续性和稳定性。\n\n### 使用 pipelines 后\n- pipelines 独立部署容器专门处理重型 RAG 任务，显著释放了主实例的计算资源。\n- 通过自定义 Python 脚本无缝对接私有向量数据库，无需改动前端界面即可实现数据源切换。\n- 内置敏感词过滤器在请求进入模型前自动拦截不当内容，保障输出合规性。\n- 新增功能以插件形式热加载，不影响其他用户的正常对话体验，迭代效率大幅提升。\n\npipelines 通过模块化设计实现了计算逻辑与交互界面的解耦，让复杂工作流落地变得简单高效且易于维护。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-webui_pipelines_d05204c0.png","open-webui","Open WebUI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fopen-webui_2f6ab8d5.png","On a mission to build the best AI user interface.",null,"support@openwebui.com","OpenWebUI","https:\u002F\u002Fopenwebui.com","https:\u002F\u002Fgithub.com\u002Fopen-webui",[85,89,93,97],{"name":86,"color":87,"percentage":88},"Python","#3572A5",83.1,{"name":90,"color":91,"percentage":92},"Shell","#89e051",11.7,{"name":94,"color":95,"percentage":96},"Dockerfile","#384d54",4.9,{"name":98,"color":99,"percentage":100},"Batchfile","#C1F12E",0.2,2331,682,"2026-04-04T23:37:20","MIT","未说明 (支持 Docker 环境)","未说明 (取决于具体 Pipeline 脚本功能)","未说明",{"notes":109,"python":110,"dependencies":111},"1. 安全警告：Pipelines 支持任意代码执行，请勿从不可信来源获取或运行管道脚本。\n2. 部署方式：推荐使用 Docker 或 Docker Compose，默认监听端口 9099。\n3. 网络连接：若 Open WebUI 也在 Docker 容器中，API URL 中的 localhost 应替换为 host.docker.internal。\n4. 功能扩展：支持集成 Python 库实现 RAG、消息过滤、监控及自定义逻辑。","3.11",[112],"未说明 (需参考 requirements.txt)",[53,15,13],[75],"2026-03-27T02:49:30.150509","2026-04-06T05:17:19.346073",[118,123,128,132,137,142],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},2979,"在 Linux 或 Docker 环境下配置 Pipelines 时遇到 \"OpenAI: Network Problem\" 怎么办？","尝试使用具体的容器网络 IP 地址而非 localhost。例如，Linux 用户可尝试 `http:\u002F\u002F172.17.0.1:9099\u002F` 或 `http:\u002F\u002F10.182.0.5:9099`。注意某些情况下 `localhost` 或 `host.docker.internal` 可能无效，且部分 IP 末尾的斜杠可能导致连接失败（如 `http:\u002F\u002F10.182.0.5:9099\u002F` 不工作，去掉斜杠可能有效）。","https:\u002F\u002Fgithub.com\u002Fopen-webui\u002Fpipelines\u002Fissues\u002F55",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},2980,"为什么 OpenWebUI 的 Pipelines 管理面板是空白的或无法检测到管道？","确保在设置菜单中正确输入了 Pipelines 的连接链接。如果仍然未检测到，请尝试显式设置 API Key。此外，重启机器有时能解决管道初始化后未出现在模型菜单的问题（特别是 Ollama Manifold 管道）。","https:\u002F\u002Fgithub.com\u002Fopen-webui\u002Fpipelines\u002Fissues\u002F18",{"id":129,"question_zh":130,"answer_zh":131,"source_url":127},2981,"连接 Pipelines 时需要配置什么 API Key？默认值是多少？","如果没有自定义配置，默认的 API Key 为 `0p3n-w3bu!`。在设置菜单中明确设置此密钥有助于成功连接 Admin Settings Pipelines 菜单。",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},2982,"如何在 Open WebUI 中实现用户级别的请求频率限制（Rate Limiting）？","官方建议对于未来版本，最好让用户在 Web UI 外部托管 LiteLLM，以充分利用其功能。这样可以通过 LiteLLM 的管理界面进行限流。虽然 Web UI 本身提供额外功能（如网页浏览、RAG），但核心 LLM 交互的限流推荐通过外部 LiteLLM 实例处理。","https:\u002F\u002Fgithub.com\u002Fopen-webui\u002Fpipelines\u002Fissues\u002F20",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},2983,"Open WebUI 是否支持 Azure OpenAI 端点连接？","是的，已有针对 Azure OpenAI 的 Pipeline 支持。如果遇到无法识别端点的问题，请查阅相关文档确认设置。团队曾提到需要测试权限，但功能已存在。","https:\u002F\u002Fgithub.com\u002Fopen-webui\u002Fpipelines\u002Fissues\u002F36",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},2984,"访问 \u002Fapi\u002Fpipelines\u002Flist 接口返回 500 错误是什么原因？","这通常与安装的管道配置有关。检查是否正确添加了管道 URL（如 function calling python 等示例）。如果添加后导致聊天中断，可能需要重新检查管道文件是否在正确的文件夹中（如 \u002Fexamples 文件夹状态）。","https:\u002F\u002Fgithub.com\u002Fopen-webui\u002Fpipelines\u002Fissues\u002F38",[]]