[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-pipeless-ai--pipeless":3,"tool-pipeless-ai--pipeless":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":105,"forks":106,"last_commit_at":107,"license":108,"difficulty_score":10,"env_os":109,"env_gpu":110,"env_ram":111,"env_deps":112,"category_tags":118,"github_topics":119,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":140,"updated_at":141,"faqs":142,"releases":172},3124,"pipeless-ai\u002Fpipeless","pipeless","An open-source computer vision framework to build and deploy apps in minutes","Pipeless 是一个开源计算机视觉框架，旨在帮助开发者在几分钟内构建并部署实时视频分析应用。传统开发中，处理多路视频流往往需要耗费数周时间来解决代码并行化、内存管理、模型推理及流水线编排等复杂工程问题，而 Pipeless 通过类似 Serverless 的架构将这些底层难题一站式解决。\n\n用户只需定义具体的业务逻辑函数，Pipeless 即可自动负责视频帧的调度与执行。其核心亮点在于独特的“阶段（Stage）”概念：每个阶段是一个独立的微流水线，包含预处理、模型推理和后处理步骤。用户可以灵活组合这些阶段，甚至在不重启程序的情况下，通过 CLI 或 API 动态调整不同视频流的处理流程。此外，Pipeless 原生支持 YOLO 等行业标准模型及自定义模型，内置 ONNX Runtime 等高性能推理引擎，可轻松运行于 CPU 或 GPU，并兼容从边缘 IoT 设备到云端的各种部署环境。\n\n这款工具特别适合需要快速原型验证的 AI 研究人员、希望降低工程复杂度的软件开发者，以及需要管理多路摄像头实时分析的系统架构师。使用 Pipeless，团队能将原本漫长的开发周期缩短至分钟级，专","Pipeless 是一个开源计算机视觉框架，旨在帮助开发者在几分钟内构建并部署实时视频分析应用。传统开发中，处理多路视频流往往需要耗费数周时间来解决代码并行化、内存管理、模型推理及流水线编排等复杂工程问题，而 Pipeless 通过类似 Serverless 的架构将这些底层难题一站式解决。\n\n用户只需定义具体的业务逻辑函数，Pipeless 即可自动负责视频帧的调度与执行。其核心亮点在于独特的“阶段（Stage）”概念：每个阶段是一个独立的微流水线，包含预处理、模型推理和后处理步骤。用户可以灵活组合这些阶段，甚至在不重启程序的情况下，通过 CLI 或 API 动态调整不同视频流的处理流程。此外，Pipeless 原生支持 YOLO 等行业标准模型及自定义模型，内置 ONNX Runtime 等高性能推理引擎，可轻松运行于 CPU 或 GPU，并兼容从边缘 IoT 设备到云端的各种部署环境。\n\n这款工具特别适合需要快速原型验证的 AI 研究人员、希望降低工程复杂度的软件开发者，以及需要管理多路摄像头实时分析的系统架构师。使用 Pipeless，团队能将原本漫长的开发周期缩短至分钟级，专注于核心算法创新而非基础设施搭建。","\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fpipeless.ai\">\n    \u003Cpicture>\n      \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"assets\u002Fpipeless-400x400-rounded.png\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpipeless-ai_pipeless_readme_adb2e4d84067.png\" height=\"128\">\n    \u003C\u002Fpicture>\n    \u003Ch1 align=\"center\">Pipeless\u003C\u002Fh1>\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca aria-label=\"Pipeless logo\" href=\"https:\u002F\u002Fpipeless.ai\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMADE%20BY%20Pipeless%20ai-000000.svg?style=for-the-badge&logo=Pipeless&labelColor=000\">\n  \u003C\u002Fa>\n  \u003Ca aria-label=\"Pipeless latest version\" href=\"https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Freleases\">\n    \u003Cimg alt=\"\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fpipeless-ai\u002Fpipeless?style=for-the-badge&label=latest&labelColor=000000\">\n  \u003C\u002Fa>\n  \u003Ca aria-label=\"License\" href=\"https:\u002F\u002Fgithub.com\u002Fmiguelaeh\u002Fpipeless\u002Fblob\u002Fmain\u002FLICENSE\">\n    \u003Cimg alt=\"\" src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fl\u002Fpipeless-ai?style=for-the-badge&labelColor=000000\">\n  \u003C\u002Fa>\n  \u003Ca aria-label=\"Join the community on GitHub\" href=\"https:\u002F\u002Fgithub.com\u002Fmiguelaeh\u002Fpipeless\u002Fdiscussions\">\n    \u003Cimg alt=\"\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FJoin%20the%20discussions-black.svg?style=for-the-badge&logo=&labelColor=000000&logoWidth=20\">\n  \u003C\u002Fa>\n  \u003Ca aria-label=\"Join the community on Discord\" href=\"https:\u002F\u002Fdiscord.gg\u002FK2qxQ8uedG\">\n    \u003Cimg alt=\"\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1156923628831649873?style=for-the-badge&logo=discord&logoColor=FFFFFF&label=Chat%20on%20discord&labelColor=black\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n   \u003Cp>\u003Cb>Easily create, deploy and run computer vision applications.\u003C\u002Fb>\u003C\u002Fp>\n   \u003Cbr \u002F>\n\n   \u003Cbr \u002F>\n\n   \u003Cdiv>\n      \u003Cimg width=\"382\" align=\"center\" alt=\"Loading video...\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpipeless-ai_pipeless_readme_ff23284bcf87.gif\">\n   \u003C\u002Fdiv>\n\n   \u003Cbr \u002F>\u003Cbr \u002F>\n   \u003Ca href=\"https:\u002F\u002Fagents.pipeless.ai\">Check out our hosted agents solution\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n**Pipeless is an open-source framework that takes care of everything you need to develop and deploy computer vision applications in just minutes.** That includes code parallelization, multimedia pipelines, memory management, model inference, multi-stream management, and more. Pipeless allows you to **ship applications that work in real-time in minutes instead of weeks\u002Fmonths**.\n\nPipeless is inspired by modern serverless technologies. You provide some functions and Pipeless takes care of executing them for new video frames and everything involved.\n\nWith Pipeless you create self-contained boxes that we call \"stages\". Each stage is a micro pipeline that performs a specific task. Then, you can combine stages dynamically per stream, allowing you to process each stream with a different pipeline without changing your code and without restarting the program. To create a stage you simply provide a pre-process function, a model and a post-process function.\n\nYou can load **industry-standard models**, such as YOLO, **or custom models** in one of the supported inference runtimes just by providing a URL. Pipeless ships some of the most popular inference runtimes, such as the ONNX Runtime, allowing you to run inference with high performance on CPU or GPU out-of-the-box.\n\nYou can deploy your Pipeless and your applications to edge and IoT devices or to the cloud. There are several tools for the deployment, including container images.\n\nThe following is a **non-exhaustive** set of relevant features that Pipeless includes:\n\n* **Multi-stream support**: process several streams at the same time.\n* **Dynamic stream configuration**: add, edit, and remove streams on the fly via a CLI or REST API (more adapters to come).\n* **Multi-language support**: you can Write your hooks in several languages, including Python.\n* **Dynamic processing steps**: you can add any number of steps to your stream processing, and even modify those steps dynamically on a per-stream basis.\n* **Built-in restart policies**: Forget about dealing with connection errors, cameras that fail, etc. You can easily specify restart policies per stream that handle those situations automatially.\n* **Highly parallelized**: do not worry about multi-threading and\u002For multi-processing, Pipeless takes care of that for you.\n* **Several inference runtimes supported**: Provide a model and select one of the supported inference runtimes to run it out-of-the-box in CPU or GPUs. We support **CUDA**, **TensorRT**, **OpenVINO**, **CoreML**, and more to come.\n* **Well-defined project structure and highly reusable code**: Pipeless uses the file system structure to load processing stages and hooks, helping you organize the code in highly reusable boxes. Each stage is a directory, each hook is defined on its own file.\n\n**\u003Ca href=\"https:\u002F\u002Fwww.pipeless.ai\u002Fdocs\u002Fdocs\u002Fv1\u002Fgetting-started#create-a-new-project\">Get started now!\u003C\u002Fa>**\n\n**Join our [community](https:\u002F\u002Fdiscord.gg\u002FK2qxQ8uedG) and contribute to making the lives of computer vision developers easier!**\n\n## Requirements ☝️\n\n* **Python**. Pre-built binaries are linked to Python 3.10 in Linux amd64, 3.8 in Linux arm64, and 3.12 in macOS. If you have a different Python version, provide the `--build` flag to the install script to build from source so Pipeless links to your installed Python version (or update your version and use a pre-built binary, which is simpler).\n* **Gstreamer 1.20.3**. Verify with `gst-launch-1.0 --gst-version`. Installation instructions [here](https:\u002F\u002Fgstreamer.freedesktop.org\u002Fdocumentation\u002Finstalling\u002Findex.html?gi-language=python)\n\n## Installation 🛠️\n\n```console\ncurl https:\u002F\u002Fraw.githubusercontent.com\u002Fpipeless-ai\u002Fpipeless\u002Fmain\u002Finstall.sh | bash\n```\n\nFind more information and installation options [here](https:\u002F\u002Fwww.pipeless.ai\u002Fdocs\u002Fv1\u002Fgetting-started\u002Finstallation).\n\n### Using docker\n\nInstead of installing locally, you can alternatively use docker and save the time of installing dependencies:\n\n```console\ndocker run miguelaeh\u002Fpipeless --help\n```\n\nTo use it with CUDA:\n\n```console\ndocker run miguelaeh\u002Fpipeless:latest-cuda --help\n```\n\nTo use with TensorRT use:\n\n```console\ndocker run miguelaeh\u002Fpipeless:latest-tensorrt --help\n```\n\nFind the whole container documentation [here](https:\u002F\u002Fwww.pipeless.ai\u002Fdocs\u002Fv1\u002Fcontainer).\n\n## Getting Started 🚀\n\nInit a project:\n\n```console\npipeless init my_project --template scaffold\ncd my_project\n```\n\nStart Pipeless:\n\n```console\npipeless start --stages-dir .\n```\n\nProvide a stream:\n\n```console\npipeless add stream --input-uri \"https:\u002F\u002Fpipeless-public.s3.eu-west-3.amazonaws.com\u002Fcats.mp4\" --output-uri \"screen\" --frame-path \"my-stage\"\n```\n\nThe code generated is an empty template that scafold a stage so it will do nothing. Please go to the [examples](https:\u002F\u002Fwww.pipeless.ai\u002Fdocs\u002Fv1\u002Fexamples) to complete that stage.\n\nYou can also use the interactive shell to create the project:\n\n\u003Cimg width=\"382\" align=\"center\" alt=\"Loading video...\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpipeless-ai_pipeless_readme_82fe0fbe72db.gif\" \u002F>\n\nCheck the complete [getting started guide](https:\u002F\u002Fpipeless.ai\u002Fdocs\u002Fv1\u002Fgetting-started) or plunge into the [complete documentation](https:\u002F\u002Fwww.pipeless.ai\u002Fdocs).\n\n## Examples 🌟\n\nYou can find some examples under the `examples` directory. Just copy those folders inside your project and play with them.\n\nFind [here](https:\u002F\u002Fpipeless.ai\u002Fdocs\u002Fv1\u002Fexamples) the whole list of examples and step by step guides.\n\n## Benchmark 📈\n\nWe deployed Pipeless to several different devices so you can have a general idea of its performance. Find the results at the [benchmark section](https:\u002F\u002Fpipeless.ai\u002Fdocs\u002Fv1\u002Fbenchmark) of the docs.\n\n## Notable Changes\n\nNotable changes indicate important changes between versions. Please check the [whole list of notable changes](https:\u002F\u002Fpipeless.ai\u002Fdocs\u002Fv1\u002Fchanges).\n\n## Contributing 🤝\n\nThanks for your interest in contributing! Contributions are welcome and encouraged. While we're working on creating detailed contributing guidelines, here are a few general steps to get started:\n\n1. Fork this repository.\n2. Create a new branch: `git checkout -b feature-branch`.\n3. Make your changes and commit them: `git commit -m 'Add new feature'`.\n4. Push your changes to your fork: `git push origin feature-branch`.\n5. Open a GitHub **pull request** describing your changes.\n\nWe appreciate your help in making this project better!\n\nPlease note that for major changes or new features, it's a good idea to discuss them in an issue first so we can coordinate efforts.\n\n## License 📄\n\nThis project is licensed under the [Apache License 2.0](LICENSE).\n\n### Apache License 2.0 Summary\n\nThe Apache License 2.0 is a permissive open-source license that allows you to use, modify, and distribute this software for personal or commercial purposes. It comes with certain obligations, including providing attribution to the original authors and including the original license text in your distributions.\n\nFor the full license text, please refer to the [Apache License 2.0](LICENSE).\n","\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fpipeless.ai\">\n    \u003Cpicture>\n      \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"assets\u002Fpipeless-400x400-rounded.png\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpipeless-ai_pipeless_readme_adb2e4d84067.png\" height=\"128\">\n    \u003C\u002Fpicture>\n    \u003Ch1 align=\"center\">Pipeless\u003C\u002Fh1>\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca aria-label=\"Pipeless logo\" href=\"https:\u002F\u002Fpipeless.ai\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMADE%20BY%20Pipeless%20ai-000000.svg?style=for-the-badge&logo=Pipeless&labelColor=000\">\n  \u003C\u002Fa>\n  \u003Ca aria-label=\"Pipeless 最新版本\" href=\"https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Freleases\">\n    \u003Cimg alt=\"\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fpipeless-ai\u002Fpipeless?style=for-the-badge&label=latest&labelColor=000000\">\n  \u003C\u002Fa>\n  \u003Ca aria-label=\"许可证\" href=\"https:\u002F\u002Fgithub.com\u002Fmiguelaeh\u002Fpipeless\u002Fblob\u002Fmain\u002FLICENSE\">\n    \u003Cimg alt=\"\" src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fl\u002Fpipeless-ai?style=for-the-badge&labelColor=000000\">\n  \u003C\u002Fa>\n  \u003Ca aria-label=\"在 GitHub 上加入社区\" href=\"https:\u002F\u002Fgithub.com\u002Fmiguelaeh\u002Fpipeless\u002Fdiscussions\">\n    \u003Cimg alt=\"\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FJoin%20the%20discussions-black.svg?style=for-the-badge&logo=&labelColor=000000&logoWidth=20\">\n  \u003C\u002Fa>\n  \u003Ca aria-label=\"在 Discord 上加入社区\" href=\"https:\u002F\u002Fdiscord.gg\u002FK2qxQ8uedG\">\n    \u003Cimg alt=\"\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1156923628831649873?style=for-the-badge&logo=discord&logoColor=FFFFFF&label=Chat%20on%20discord&labelColor=black\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n   \u003Cp>\u003Cb>轻松创建、部署和运行计算机视觉应用。\u003C\u002Fb>\u003C\u002Fp>\n   \u003Cbr \u002F>\n\n   \u003Cbr \u002F>\n\n   \u003Cdiv>\n      \u003Cimg width=\"382\" align=\"center\" alt=\"正在加载视频...\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpipeless-ai_pipeless_readme_ff23284bcf87.gif\">\n   \u003C\u002Fdiv>\n\n   \u003Cbr \u002F>\u003Cbr \u002F>\n   \u003Ca href=\"https:\u002F\u002Fagents.pipeless.ai\">查看我们的托管代理解决方案\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n**Pipeless 是一个开源框架，可在短短几分钟内完成开发和部署计算机视觉应用所需的一切工作。** 这包括代码并行化、多媒体管道、内存管理、模型推理、多流管理等。借助 Pipeless，您可以 **在几分钟内交付实时运行的应用程序，而无需耗费数周或数月的时间**。\n\nPipeless 的设计理念源自现代无服务器技术。您只需提供一些函数，Pipeless 就会负责为新的视频帧及其相关任务执行这些函数。\n\n使用 Pipeless，您可以创建称为“阶段”的自包含模块。每个阶段都是一个执行特定任务的微型管道。随后，您可以根据不同的流动态组合这些阶段，从而无需更改代码或重启程序即可用不同的管道处理每条流。要创建一个阶段，您只需提供预处理函数、模型和后处理函数即可。\n\n您可以通过提供 URL，加载 **行业标准模型**（如 YOLO）或 **自定义模型**，这些模型将运行在支持的推理运行时中。Pipeless 自带一些最流行的推理运行时，例如 ONNX Runtime，使您能够开箱即用地在 CPU 或 GPU 上以高性能进行推理。\n\n您可以将 Pipeless 及其应用程序部署到边缘设备、物联网设备或云端。为此提供了多种工具，包括容器镜像。\n\n以下是 Pipeless 包含的部分相关功能（并不全面）：\n\n* **多流支持**：同时处理多个数据流。\n* **动态流配置**：通过 CLI 或 REST API 动态添加、编辑和移除流（未来还将推出更多适配器）。\n* **多语言支持**：您可以用多种语言编写钩子函数，包括 Python。\n* **动态处理步骤**：您可以为流处理添加任意数量的步骤，甚至可以根据每个流的需求动态修改这些步骤。\n* **内置重启策略**：无需再担心连接错误、摄像头故障等问题。您可以为每个流轻松指定自动处理这些问题的重启策略。\n* **高度并行化**：无需操心多线程或多进程问题，Pipeless 会为您妥善处理。\n* **支持多种推理运行时**：只需提供模型并选择支持的推理运行时，即可在 CPU 或 GPU 上直接运行该模型。我们支持 **CUDA**、**TensorRT**、**OpenVINO**、**CoreML** 等，并将继续增加支持的运行时。\n* **清晰的项目结构与高度可重用的代码**：Pipeless 使用文件系统结构来加载处理阶段和钩子函数，帮助您将代码组织成高度可重用的模块。每个阶段就是一个目录，每个钩子函数都单独存放在一个文件中。\n\n**\u003Ca href=\"https:\u002F\u002Fwww.pipeless.ai\u002Fdocs\u002Fdocs\u002Fv1\u002Fgetting-started#create-a-new-project\">立即开始吧！\u003C\u002Fa>**\n\n**加入我们的 [社区](https:\u002F\u002Fdiscord.gg\u002FK2qxQ8uedG)，一起让计算机视觉开发者的工作更轻松！**\n\n## 需求 ☝️\n\n* **Python**。预编译的二进制文件已链接到 Linux amd64 上的 Python 3.10、Linux arm64 上的 Python 3.8 以及 macOS 上的 Python 3.12。如果您使用的是其他版本的 Python，请在安装脚本中添加 `--build` 标志以从源码构建，这样 Pipeless 就会链接到您已安装的 Python 版本（或者更新您的 Python 版本并使用预编译的二进制文件，后者更为简单）。\n* **GStreamer 1.20.3**。可通过运行 `gst-launch-1.0 --gst-version` 进行验证。安装说明请参见 [这里](https:\u002F\u002Fgstreamer.freedesktop.org\u002Fdocumentation\u002Finstalling\u002Findex.html?gi-language=python)。\n\n## 安装 🛠️\n\n```console\ncurl https:\u002F\u002Fraw.githubusercontent.com\u002Fpipeless-ai\u002Fpipeless\u002Fmain\u002Finstall.sh | bash\n```\n\n更多信息及安装选项请参见 [这里](https:\u002F\u002Fwww.pipeless.ai\u002Fdocs\u002Fv1\u002Fgetting-started\u002Finstallation)。\n\n### 使用 Docker\n\n您也可以选择使用 Docker 而不是本地安装，从而节省依赖项的安装时间：\n\n```console\ndocker run miguelaeh\u002Fpipeless --help\n```\n\n若需使用 CUDA：\n\n```console\ndocker run miguelaeh\u002Fpipeless:latest-cuda --help\n```\n\n若需使用 TensorRT：\n\n```console\ndocker run miguelaeh\u002Fpipeless:latest-tensorrt --help\n```\n\n完整的容器文档请参见 [这里](https:\u002F\u002Fwww.pipeless.ai\u002Fdocs\u002Fv1\u002Fcontainer)。\n\n## 开始使用 🚀\n\n初始化一个项目：\n\n```console\npipeless init my_project --template scaffold\ncd my_project\n```\n\n启动 Pipeless：\n\n```console\npipeless start --stages-dir .\n```\n\n提供一个流：\n\n```console\npipeless add stream --input-uri \"https:\u002F\u002Fpipeless-public.s3.eu-west-3.amazonaws.com\u002Fcats.mp4\" --output-uri \"screen\" --frame-path \"my-stage\"\n```\n\n生成的代码是一个空模板，用于搭建一个阶段，因此目前不会执行任何操作。请前往 [示例](https:\u002F\u002Fwww.pipeless.ai\u002Fdocs\u002Fv1\u002Fexamples) 完成该阶段。\n\n你也可以使用交互式 Shell 来创建项目：\n\n\u003Cimg width=\"382\" align=\"center\" alt=\"加载视频...\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpipeless-ai_pipeless_readme_82fe0fbe72db.gif\" \u002F>\n\n查看完整的[入门指南](https:\u002F\u002Fpipeless.ai\u002Fdocs\u002Fv1\u002Fgetting-started)或深入阅读[完整文档](https:\u002F\u002Fwww.pipeless.ai\u002Fdocs)。\n\n## 示例 🌟\n\n你可以在 `examples` 目录下找到一些示例。只需将这些文件夹复制到你的项目中，即可进行尝试。\n\n完整的示例列表和逐步指南请参见[这里](https:\u002F\u002Fpipeless.ai\u002Fdocs\u002Fv1\u002Fexamples)。\n\n## 基准测试 📈\n\n我们已将 Pipeless 部署到多种不同的设备上，以便你对其性能有一个大致的了解。测试结果可在文档的[基准测试部分](https:\u002F\u002Fpipeless.ai\u002Fdocs\u002Fv1\u002Fbenchmark)中找到。\n\n## 重要变更\n\n重要变更指版本之间的重大更新。请查看[所有重要变更列表](https:\u002F\u002Fpipeless.ai\u002Fdocs\u002Fv1\u002Fchanges)。\n\n## 贡献 🤝\n\n感谢你对贡献的兴趣！我们欢迎并鼓励大家参与贡献。虽然我们正在制定详细的贡献指南，但以下是一些入门的通用步骤：\n\n1. 克隆本仓库。\n2. 创建新分支：`git checkout -b feature-branch`。\n3. 进行修改并提交：`git commit -m '添加新功能'`。\n4. 将更改推送到你的分支：`git push origin feature-branch`。\n5. 在 GitHub 上打开一个描述你更改的**拉取请求**。\n\n我们非常感谢你为改进该项目所做的努力！\n\n请注意，对于重大更改或新功能，建议先在问题中讨论，以便我们协调工作。\n\n## 许可证 📄\n\n本项目采用[Apache License 2.0](LICENSE) 许可证。\n\n### Apache License 2.0 摘要\n\nApache License 2.0 是一种宽松的开源许可证，允许你出于个人或商业目的使用、修改和分发本软件。它附带一些义务，包括向原始作者致谢，并在你的分发版本中包含原始许可证文本。\n\n如需完整的许可证文本，请参阅[Apache License 2.0](LICENSE)。","# Pipeless 快速上手指南\n\nPipeless 是一个开源框架，旨在帮助开发者在几分钟内创建、部署和运行计算机视觉应用。它自动处理代码并行化、多媒体管道、内存管理、模型推理及多流管理等复杂任务，支持实时应用开发。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux (amd64\u002Farm64) 或 macOS。\n*   **Python**：\n    *   Linux amd64: Python 3.10\n    *   Linux arm64: Python 3.8\n    *   macOS: Python 3.12\n    *   *注：若使用其他版本，安装时需添加 `--build` 参数从源码构建。*\n*   **GStreamer**：版本需为 **1.20.3**。\n    *   验证版本命令：`gst-launch-1.0 --gst-version`\n    *   安装参考：[GStreamer 官方安装指南](https:\u002F\u002Fgstreamer.freedesktop.org\u002Fdocumentation\u002Finstalling\u002Findex.html?gi-language=python)\n\n## 安装步骤\n\n### 方式一：本地安装（推荐）\n\n运行以下脚本一键安装：\n\n```console\ncurl https:\u002F\u002Fraw.githubusercontent.com\u002Fpipeless-ai\u002Fpipeless\u002Fmain\u002Finstall.sh | bash\n```\n\n> **提示**：如果您的 Python 版本与预编译二进制文件不匹配，请在上述命令后追加 `--build` 标志以从源码构建。\n\n### 方式二：使用 Docker\n\n如果您希望避免配置本地依赖，可以直接使用 Docker 镜像：\n\n*   **通用版本**：\n    ```console\n    docker run miguelaeh\u002Fpipeless --help\n    ```\n*   **CUDA 加速版本**：\n    ```console\n    docker run miguelaeh\u002Fpipeless:latest-cuda --help\n    ```\n*   **TensorRT 加速版本**：\n    ```console\n    docker run miguelaeh\u002Fpipeless:latest-tensorrt --help\n    ```\n\n## 基本使用\n\n以下是从零开始创建一个简单项目的流程：\n\n### 1. 初始化项目\n\n使用脚手架模板创建一个新项目：\n\n```console\npipeless init my_project --template scaffold\ncd my_project\n```\n\n### 2. 启动服务\n\n在当前目录下启动 Pipeless 服务，加载处理阶段（stages）：\n\n```console\npipeless start --stages-dir .\n```\n\n### 3. 添加视频流\n\n向正在运行的服务添加一个视频流。以下示例使用一个公开的测试视频，并将输出显示在屏幕上：\n\n```console\npipeless add stream --input-uri \"https:\u002F\u002Fpipeless-public.s3.eu-west-3.amazonaws.com\u002Fcats.mp4\" --output-uri \"screen\" --frame-path \"my-stage\"\n```\n\n> **说明**：初始生成的模板是一个空的处理阶段，不会执行任何实际操作。您可以访问 [官方示例库](https:\u002F\u002Fpipeless.ai\u002Fdocs\u002Fv1\u002Fexamples) 获取完整的代码示例（如目标检测、姿态估计等），将其复制到项目中即可立即生效。\n\n您也可以通过交互式 Shell 引导完成上述步骤：\n```console\npipeless\n```","某智慧零售团队需要为连锁超市开发一套实时客流分析系统，通过监控摄像头统计进店人数并识别顾客动线。\n\n### 没有 pipeless 时\n- **开发周期漫长**：工程师需手动编写复杂的视频流拉取、解码及多线程管理代码，仅搭建基础框架就耗时数周。\n- **多路并发困难**：当摄像头数量从 1 路增加到 50 路时，原有架构内存溢出频发，难以动态调整资源分配。\n- **模型部署僵化**：更换或升级 YOLO 检测模型时，必须停止服务、重新编译代码并重启整个应用，导致业务中断。\n- **异常处理繁琐**：需自行编写大量逻辑来处理摄像头断连、帧丢失等边缘情况，系统稳定性难以保障。\n\n### 使用 pipeless 后\n- **分钟级应用构建**：只需定义预处理、模型推理和后处理三个“阶段”函数，pipeless 自动接管流水线编排，将开发时间压缩至几分钟。\n- **弹性多流支持**：利用内置的多流管理机制，可动态通过 API 添加或移除摄像头流，无需修改代码即可轻松支撑百路并发。\n- **热更新与动态配置**：支持按流动态切换处理逻辑，更新行业标准模型（如 ONNX 格式）时无需重启服务，实现无缝迭代。\n- **内置高可用策略**：pipeless 自带的重启策略自动处理连接失败和设备异常，大幅降低了运维复杂度。\n\npipeless 让开发者从繁琐的底层音视频工程中解放出来，专注于核心视觉算法，真正实现计算机视觉应用的敏捷开发与实时落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpipeless-ai_pipeless_adb2e4d8.png","pipeless-ai","Pipeless - A Computer Vision Framework","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fpipeless-ai_64ff1650.png","Pipeless is an open-source computer vision framework that allows you to build apps that analyze and manipulate video without building multimedia pipelines",null,"pipeless_ai","https:\u002F\u002Fpipeless.ai","https:\u002F\u002Fgithub.com\u002Fpipeless-ai",[85,89,93,97,101],{"name":86,"color":87,"percentage":88},"Rust","#dea584",85.8,{"name":90,"color":91,"percentage":92},"Shell","#89e051",9.6,{"name":94,"color":95,"percentage":96},"Python","#3572A5",2.9,{"name":98,"color":99,"percentage":100},"Smarty","#f0c040",1.4,{"name":102,"color":103,"percentage":104},"Dockerfile","#384d54",0.4,848,53,"2026-03-28T05:44:39","Apache-2.0","Linux, macOS","非必需。支持 CPU 运行。若使用 GPU，支持 NVIDIA (CUDA, TensorRT), Intel (OpenVINO), Apple (CoreML)。具体显存和 CUDA 版本未说明，取决于所选推理后端和模型。","未说明",{"notes":113,"python":114,"dependencies":115},"该工具专注于计算机视觉应用，支持多流处理和动态管道配置。若 Python 版本与预编译二进制不匹配，安装时需添加 '--build' 标志从源码编译。可通过 Docker 容器部署以避免本地依赖安装问题，提供针对 CUDA 和 TensorRT 的专用镜像。","3.8, 3.10, 3.12 (预编译二进制分别对应 Linux arm64: 3.8, Linux amd64: 3.10, macOS: 3.12；其他版本需从源码构建)",[116,117],"Gstreamer>=1.20.3","ONNX Runtime (内置)",[13,52,51,14],[120,121,122,123,124,125,126,127,128,129,130,131,132,133,134,135,136,137,138,139],"artificial-intelligence","computer-vision","multimedia","multimedia-applications","cloud","deep-learning","machine-learning","object-detection","video","yolo","ffmpeg","gstreamer","inference-server","python","vision-framework","inference","perception","pipeline-framework","stream-processing","video-processing","2026-03-27T02:49:30.150509","2026-04-06T08:52:33.247572",[143,148,153,158,163,167],{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},14412,"运行示例项目时出现 'ModuleNotFoundError: No module named cv2' 错误怎么办？","这通常是因为安装 Pipeless 时绑定了特定的 Python 版本，而该环境中缺少 opencv-python (cv2) 库。解决方法是确保在正确的 Python 环境中安装依赖。如果使用的是 pyenv 或其他版本管理工具，请尝试使用系统 apt 安装 Python 开发包：\n1. 执行命令：sudo add-apt-repository ppa:deadsnakes\u002Fppa\n2. 更新源：sudo apt-get update\n3. 安装开发库：sudo apt-get install libpython3.11-dev\n注意：默认安装使用预构建二进制文件，除非提供 --build 标志，否则可能会绑定到特定 Python 版本。","https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fissues\u002F81",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},14413,"运行 pipeless run 时遇到 'Unable to set the pipeline to the playing state' 错误如何解决？","这个问题通常与 X11 多线程和 GStreamer 的 autovideosink 插件有关。请尝试在启动 Pipeless 之前导出以下环境变量：\nexport GST_GL_XINITTHREADS=1\n然后重新启动 Pipeless。如果问题仍然存在，可能需要检查 X server 版本和配置。","https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fissues\u002F96",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},14414,"如何在 Docker 中初始化项目时避免 'PermissionDenied' 错误？","在 Docker 中运行 init 命令时出现权限拒绝错误，通常是因为挂载卷的目录权限设置不当。确保宿主机上的项目目录具有正确的权限。虽然可以通过 chgrp 修改组权限，但更推荐的做法是直接以当前用户身份运行容器或确保挂载目录对容器内用户可写。如果已经创建了目录，请检查其所有者和权限设置，确保容器内的进程有权限在该目录下创建虚拟环境和其他文件。","https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fissues\u002F138",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},14415,"是否支持对单帧图像进行多次推理（例如针对检测到的多个对象分别推理）？","目前无法通过 process.json 配置文件实现单帧多次推理。process.json 中的 inference_input 字段不支持列表输入以进行批量或多路推理。如果需要针对每个检测到的对象运行模型（特别是当模型不支持批处理时），必须使用 Python 文件编写自定义钩子（hook）来实现这一逻辑。","https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fissues\u002F161",{"id":164,"question_zh":165,"answer_zh":166,"source_url":162},14416,"使用 ONNX 模型配合 CUDAExecutionProvider 时出现段错误（Segmentation Fault）怎么办？","这通常是由于 onnxruntime 安装问题导致的。解决方案是将正常工作的 libonnxruntime 库文件（.so 文件）复制到 ~\u002F.pipeless 目录下。确保复制的库文件与当前环境兼容，替换后重新运行即可解决初始化和段错误问题。",{"id":168,"question_zh":169,"answer_zh":170,"source_url":171},14417,"Pipeless 如何处理有状态（stateful）和无状态（stateless）钩子的并行执行？","Pipeless 区分两种钩子类型：\n1. 无状态钩子（Stateless hooks）：不维护内部状态，易于并行化。同一钩子的多个实例可以在不同进程\u002F线程中同时处理帧。\n2. 有状态钩子（Stateful hooks）：始终使用同一个实例，用于维护状态（如对象计数器或跟踪模型）。\n目前两者均已实现，但有状态钩子的解析功能尚在完善中。未来计划实现顺序执行器与并行执行器的区分，以便更好地处理不同类型的钩子。对于代码文件，可能通过在文件顶部添加注释来标识；对于 JSON 文件，则使用特殊键值进行配置。","https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fissues\u002F85",[173,178,183,188,193,198,203,208,213,218,223,228,233,238,243,248,253,258,263,268],{"id":174,"version":175,"summary_zh":176,"released_at":177},81194,"v1.11.0","## 变更内容\n* 支持 ONNX Runtime + YOLO World 示例的多种推理输出，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F134 中实现。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.10.0...v1.11.0","2024-02-23T12:24:30",{"id":179,"version":180,"summary_zh":181,"released_at":182},81195,"v1.10.0","## 变更内容\n* 功能（核心）：添加反压机制，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F133 中实现。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.9.0...v1.10.0","2024-02-20T13:06:56",{"id":184,"version":185,"summary_zh":186,"released_at":187},81196,"v1.9.0","## 变更内容\n* 修复（工作流）：在 CUDA 运行器中增加构建空间，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F131 中完成\n* 新增（钩子）：支持按顺序排序执行，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F132 中完成\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.8.0...v1.9.0","2024-02-02T13:15:38",{"id":189,"version":190,"summary_zh":191,"released_at":192},81197,"v1.8.0","## 变更内容\n* 修复（示例）：由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F129 中改进了 YOLO ONNX 示例\n* 功能（核心）：允许通过各个阶段传递自定义用户数据，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F130 中实现\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.7.0...v1.8.0","2024-01-31T14:25:51",{"id":194,"version":195,"summary_zh":196,"released_at":197},81198,"v1.7.0","## 变更内容\n* 功能（onnxruntime）：支持自定义算子库，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F128 中实现\n* 功能：添加 Redis 事件导出器，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F127 中实现\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.6.3...v1.7.0","2024-01-29T12:45:14",{"id":199,"version":200,"summary_zh":201,"released_at":202},81199,"v1.6.3","## 变更内容\n* 修复(container)：使用搭载 CUDA 11.7 的基础镜像用于 TensorRT，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F125 中完成\n* 构建(deps)：将 \u002Fpipeless 中的 h2 从 0.3.21 升级至 0.3.24，由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F126 中完成\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.6.2...v1.6.3","2024-01-22T20:53:46",{"id":204,"version":205,"summary_zh":206,"released_at":207},81200,"v1.6.2","## 变更内容\n* 允许重复的输入 URI，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F122 中实现\n* 由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F123 中进行的轻微修复，以提升用户体验\n* 功能（容器）：支持 Linux ARM 镜像，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F121 中实现\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.6.1...v1.6.2","2024-01-19T17:54:43",{"id":209,"version":210,"summary_zh":211,"released_at":212},81201,"v1.6.1","## 变更内容\n* 在自托管运行器中添加 Jetson 任务，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F119 中完成\n* 修复：发布 Linux arm64 版本的二进制文件，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F120 中完成\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.6.0...v1.6.1","2024-01-17T18:13:29",{"id":214,"version":215,"summary_zh":216,"released_at":217},81202,"v1.6.0","## 变更内容\n* 功能：支持选择源摄像头，由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F118 中实现。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.5.4...v1.6.0","2024-01-16T15:34:53",{"id":219,"version":220,"summary_zh":221,"released_at":222},81203,"v1.5.4","## 变更内容\n* 修复：由 @miguelaeh 在 https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F116 中提交的输出空 URI 的 bug\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.5.3...v1.5.4","2024-01-12T19:36:03",{"id":224,"version":225,"summary_zh":226,"released_at":227},81204,"v1.5.3","## What's Changed\n* Update install script by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F114\n* fix(api): Include stream id in POST response by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F115\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.5.2...v1.5.3","2024-01-12T16:48:04",{"id":229,"version":230,"summary_zh":231,"released_at":232},81205,"v1.5.2","## What's Changed\n* fix: stream hash differs  when stage includes '-' by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F112\n* fix: Improve table from list streams command by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F113\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.5.1...v1.5.2","2024-01-07T17:39:57",{"id":234,"version":235,"summary_zh":236,"released_at":237},81206,"v1.5.1","## What's Changed\n* Add interactive shell gif to README by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F107\n* fix: cleanup KV store when pipeline ends by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F110\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.5.0...v1.5.1","2024-01-05T13:08:11",{"id":239,"version":240,"summary_zh":241,"released_at":242},81207,"v1.5.0","## What's Changed\n* feat(examples): Add gaze controlled piano as example by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F104\n* fix(install): Update bug report link by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F105\n* feat(cli): Add interactive shell to create stages by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F106\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.4.0...v1.5.0","2023-12-20T17:07:12",{"id":244,"version":245,"summary_zh":246,"released_at":247},81208,"v1.4.0","## What's Changed\n* fix(rest api): listen in 0.0.0.0 by default by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F100\n* Update SECURITY.md by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F101\n* Add live demo link to README.md by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F102\n* feat: Add stream restart policy by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F103\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.3.0...v1.4.0","2023-12-17T16:55:16",{"id":249,"version":250,"summary_zh":251,"released_at":252},81209,"v1.3.0","## What's Changed\n* fix: Fix container image Python packages installation by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F98\n* feat: Support for RTSP output by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F99\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.2.1...v1.3.0","2023-12-08T12:51:52",{"id":254,"version":255,"summary_zh":256,"released_at":257},81210,"v1.2.1","## What's Changed\n* Fix: Minor code improvements by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F95\n* fix: Fix RTMP output by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F97\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.2.0...v1.2.1","2023-12-05T17:16:49",{"id":259,"version":260,"summary_zh":261,"released_at":262},81211,"v1.2.0","## What's Changed\n* build(deps): Bump openssl from 0.10.57 to 0.10.60 in \u002Fpipeless by @dependabot in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F93\n* feat: Support for nvmm in input pipeline by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F92\n* feat(parser): Add support for stateful hooks by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F94\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.1.4...v1.2.0","2023-11-29T17:10:36",{"id":264,"version":265,"summary_zh":266,"released_at":267},81212,"v1.1.4","## What's Changed\n* Fix bottleneck in path executor by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F90\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.1.3...v1.1.4","2023-11-25T21:48:00",{"id":269,"version":270,"summary_zh":271,"released_at":272},81213,"v1.1.3","## What's Changed\r\n* fix(install): Improve recommended install commands by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F86\r\n* feat(readme): Add benchmark section by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F87\r\n* fix: Improve error handling by @miguelaeh in https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fpull\u002F88\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fpipeless-ai\u002Fpipeless\u002Fcompare\u002Fv1.1.2...v1.1.3","2023-11-23T18:37:16"]