[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-NickSwardh--YoloDotNet":3,"similar-NickSwardh--YoloDotNet":103},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":16,"owner_avatar_url":17,"owner_bio":18,"owner_company":19,"owner_location":20,"owner_email":19,"owner_twitter":19,"owner_website":19,"owner_url":21,"languages":22,"stars":27,"forks":28,"last_commit_at":29,"license":30,"difficulty_score":31,"env_os":32,"env_gpu":33,"env_ram":34,"env_deps":35,"category_tags":44,"github_topics":48,"view_count":31,"oss_zip_url":19,"oss_zip_packed_at":19,"status":69,"created_at":70,"updated_at":71,"faqs":72,"releases":102},6709,"NickSwardh\u002FYoloDotNet","YoloDotNet","YoloDotNet - A C# .NET 8.0 project for Classification, Object Detection, OBB Detection, Segmentation and Pose Estimation in both images and live video streams.","YoloDotNet 是一款专为 .NET 生态打造的高性能计算机视觉库，支持在图片和实时视频流中快速执行分类、目标检测、旋转框检测、图像分割及姿态估计等任务。它主要解决了开发者在 .NET 环境中集成 YOLO 模型时依赖 Python 运行时、预处理逻辑不透明以及运行效率难以掌控的痛点。\n\n通过完全基于 C# 和 .NET 8 构建，YoloDotNet 摒弃了沉重的 OpenCV 依赖和隐藏的“魔法”操作，确保推理过程完全可控、可预测且跨平台兼容（Windows、Linux、macOS）。其独特亮点在于原生支持多种主流 YOLO 系列模型（从 YOLOv5u 到最新的 YOLOv26、YOLO-World 等）及 RT-DETR，并提供对 CPU、CUDA、TensorRT、OpenVINO 等多种硬件加速后端的精细控制。此外，最新版本还新增了感兴趣区域（ROI）推理、轮廓点提取及便捷的 JSON\u002FYOLO 格式数据导出功能。\n\n这款工具非常适合需要构建桌面应用、后端服务或实时视觉流水线的 .NET 开发者使用。如果你追求纯 .NET 技术栈、需要生产级的稳定性，并希望在不引入 ","YoloDotNet 是一款专为 .NET 生态打造的高性能计算机视觉库，支持在图片和实时视频流中快速执行分类、目标检测、旋转框检测、图像分割及姿态估计等任务。它主要解决了开发者在 .NET 环境中集成 YOLO 模型时依赖 Python 运行时、预处理逻辑不透明以及运行效率难以掌控的痛点。\n\n通过完全基于 C# 和 .NET 8 构建，YoloDotNet 摒弃了沉重的 OpenCV 依赖和隐藏的“魔法”操作，确保推理过程完全可控、可预测且跨平台兼容（Windows、Linux、macOS）。其独特亮点在于原生支持多种主流 YOLO 系列模型（从 YOLOv5u 到最新的 YOLOv26、YOLO-World 等）及 RT-DETR，并提供对 CPU、CUDA、TensorRT、OpenVINO 等多种硬件加速后端的精细控制。此外，最新版本还新增了感兴趣区域（ROI）推理、轮廓点提取及便捷的 JSON\u002FYOLO 格式数据导出功能。\n\n这款工具非常适合需要构建桌面应用、后端服务或实时视觉流水线的 .NET 开发者使用。如果你追求纯 .NET 技术栈、需要生产级的稳定性，并希望在不引入 Python 环境的前提下实现低延迟、确定性的 AI 推理，YoloDotNet 将是理想的选择。","# \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_readme_efafd9ec0777.png\" height=24> YoloDotNet v4.2 🚀\n**Blazing-fast, production-ready YOLO inference for .NET**\n\n**YoloDotNet** is a modular, lightweight C# library for real-time computer vision\nand YOLO-based inference in .NET.\n\nIt provides high-performance inference for modern YOLO model families (`YOLOv5u` through `YOLOv26`, `YOLO-World`, `YOLO-E`, and `RT-DETR`), with explicit control over execution, memory, and preprocessing.\n\nBuilt on **.NET 8**, **ONNX Runtime**, and **SkiaSharp**, YoloDotNet intentionally\navoids heavy computer vision frameworks such as OpenCV.  \nThere is no Python runtime, no hidden preprocessing, and no implicit behavior —\nonly the components required for fast, predictable inference on **Windows,\nLinux, and macOS**.\n\nNo Python. No magic. Just fast, deterministic YOLO — done properly for .NET.\n\n## ⭐ Why YoloDotNet?\n\n![YOLOv5u](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYOLOv5u-supported-2ea44f)\n![YOLOv8-v26](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYOLOv8--v26-supported-2ea44f)\n![YOLO-RT-DETR](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYOLO--RT--DETR-supported-2ea44f)\n![YOLO-World](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYOLO--World-supported-2ea44f)\n![YOLO-E](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYOLO--E-supported-2ea44f)\n\nYoloDotNet is designed for developers who need:\n\n- ✅ **Pure .NET** — no Python runtime, no scripts  \n- ✅ **Real performance** — CPU, CUDA \u002F TensorRT, OpenVINO, CoreML, DirectML  \n- ✅ **Explicit configuration** — predictable accuracy and memory usage  \n- ✅ **Production readiness** — engine caching, long-running stability\n- ✅ **Multiple vision tasks** — detection, OBB, segmentation, pose, classification  \n\nIdeal for **desktop apps, backend services, and real-time vision pipelines** that require deterministic behavior and full control.\n\n## 🆕 What’s New v4.2\n\n- Added **Region of Interest (ROI)** support, allowing inference to run on selected areas of an image or video stream  \n  *(useful for surveillance, monitoring zones, and performance-focused pipelines)*\n- Added the option to **draw edges on segmented objects** for improved visual clarity\n- Added helper methods for **JSON export**:\n  - `ToJson()` — convert inference results to JSON\n  - `SaveJson()` — save inference results directly to a JSON file\n- Added helper methods for **YOLO-formatted annotations**:\n  - `ToYoloFormat()` — convert results to YOLO annotation format\n  - `SaveYoloFormat()` — save results as YOLO-compatible training data\n- Added `GetContourPoints()` helper for extracting **ordered contour points** from segmented objects\n- Updated **YOLOv26 inference execution** to align with other tasks, improving **consistency and overall execution efficiency**\n\n📖 Full release history: [CHANGELOG.md](.\u002FCHANGELOG.md)\n\n> [!TIP]\n> **See the demos**  \n> Practical, runnable examples showcasing YoloDotNet features are available in the demo projects:  \n> 👉 [Browse the demo folder](.\u002FDemo)\n\n## 🚀 Quick Start\n\n### 💡 ONNX Model Export Requirements\n\n- For **YOLOv26 models**, export with **opset=18**\n- For **YOLOv5u–YOLOv12**, export with **opset=17**\n\n> [!IMPORTANT]\n> Using the correct opset ensures optimal compatibility and performance with ONNX Runtime.  \n> For more information on how to export models to ONNX, refer to https:\u002F\u002Fdocs.ultralytics.com\u002Fmodes\u002Fexport\u002F\n\n**Example export commands (Ultralytics CLI):**\n```bash\n# For YOLOv5u–YOLOv12 (opset 17)\nyolo export model=yolov8n.pt format=onnx opset=17\n\n# For YOLOv26 (opset 18)\nyolo export model=yolo26n.pt format=onnx opset=18\n```\n\n> [!WARNING]\n> **Model License Notice:**  \n> YoloDotNet is MIT licensed, but **most Ultralytics YOLO models are AGPL-3.0 or require a commercial license for commercial use**.  \n> You are responsible for ensuring your use of any model complies with its license.  \n> See [Ultralytics Model Licensing](https:\u002F\u002Fwww.ultralytics.com\u002Flicense\u002F) for details.\n\n### 1️⃣ Install the core package\n\n```bash\ndotnet add package YoloDotNet\n```\n\n### 2️⃣ Install **exactly one**(!) execution provider\n\n```bash\n# CPU (recommended starting point)\ndotnet add package YoloDotNet.ExecutionProvider.Cpu\n\n# Hardware-accelerated execution (choose one)\ndotnet add package YoloDotNet.ExecutionProvider.Cuda\ndotnet add package YoloDotNet.ExecutionProvider.OpenVino\ndotnet add package YoloDotNet.ExecutionProvider.CoreML\ndotnet add package YoloDotNet.ExecutionProvider.DirectML\n```\n\n> 💡 **Note:** The CUDA execution provider includes optional **TensorRT** acceleration.  \n> No separate TensorRT package is required.\n\n### 3️⃣ Run object detection\n\n```csharp\nusing SkiaSharp;\nusing YoloDotNet;\nusing YoloDotNet.Models;\nusing YoloDotNet.Extensions;\nusing YoloDotNet.ExecutionProvider.Cpu;\n\nusing var yolo = new Yolo(new YoloOptions\n{\n    ExecutionProvider = new CpuExecutionProvider(\"model.onnx\")\n});\n\nusing var image = SKBitmap.Decode(\"image.jpg\");\n\n\u002F\u002F Note: The IoU parameter is used for NMS-based models.\n\u002F\u002F For YOLOv10 and YOLOv26, IoU is ignored since post-processing is handled internally by the model.\nvar results = yolo.RunObjectDetection(image, confidence: 0.25, iou: 0.7);\n\nimage.Draw(results);\nimage.Save(\"result.jpg\");\n```\n\nYou’re now running YOLO inference in **pure C#**.\n\n## 💡 Important: Accuracy Depends on Configuration\n\nYOLO inference accuracy is **not automatic**.\n\nPreprocessing settings such as image resize mode, sampling method, and confidence\u002FIoU thresholds **must match how the model was trained**.  \nThese settings directly control the accuracy–performance tradeoff and should be treated as part of the model itself.\n\n📖 **Before tuning models or comparing results, read:**  \n👉 [Accuracy & Configuration Guide](.\u002FAccuracyAndConfiguration.md)\n\n## Supported Tasks\n\n| Classification | Object Detection | OBB Detection | Segmentation | Pose Estimation |\n|---------------|------------------|---------------|--------------|-----------------|\n| \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_readme_3eec72bfc67a.jpg\" width=300> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_readme_b5302e34d13a.jpg\" width=300> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_readme_1274d7fc0cbf.png\" width=300> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_readme_8d30dca0453f.png\" width=300> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_readme_942a2d4dd7fd.png\" width=300> |\n| \u003Csub>[pexels.com](https:\u002F\u002Fwww.pexels.com\u002Fphoto\u002Fhummingbird-drinking-nectar-from-blooming-flower-in-garden-5344570\u002F)\u003C\u002Fsub> | \u003Csub>[pexels.com](https:\u002F\u002Fwww.pexels.com\u002Fphoto\u002Fmen-s-brown-coat-842912\u002F)\u003C\u002Fsub> | \u003Csub>[pexels.com](https:\u002F\u002Fwww.pexels.com\u002Fphoto\u002Fbird-s-eye-view-of-watercrafts-docked-on-harbor-8117665\u002F)\u003C\u002Fsub> | \u003Csub>[pexels.com](https:\u002F\u002Fwww.pexels.com\u002Fphoto\u002Fman-riding-a-black-touring-motorcycle-903972\u002F)\u003C\u002Fsub> | \u003Csub>[pexels.com](https:\u002F\u002Fwww.pexels.com\u002Fphoto\u002Fwoman-doing-ballet-pose-2345293\u002F)\u003C\u002Fsub> |\n\n\n## ✅ Verified YOLO Models\n\nThe following YOLO models have been **tested and verified** with YoloDotNet using\nofficial Ultralytics exports and default heads.\n\n| Classification | Object Detection | Segmentation | Pose Estimation | OBB Detection |\n|----------------|------------------|--------------|------------------|---------------|\n| YOLOv8-cls\u003Cbr>YOLOv11-cls\u003Cbr>YOLOv12-cls\u003Cbr>YOLOv26-cls | YOLOv5u\u003Cbr>YOLOv8\u003Cbr>YOLOv9\u003Cbr>YOLOv10\u003Cbr>YOLOv11\u003Cbr>YOLOv12\u003Cbr>YOLOv26\u003Cbr>RT-DETR | YOLOv8-seg\u003Cbr>YOLOv11-seg\u003Cbr>YOLOv12-seg\u003Cbr>YOLOv26-seg\u003Cbr>YOLO-World (v2) | YOLOv8-pose\u003Cbr>YOLOv11-pose\u003Cbr>YOLOv12-pose\u003Cbr>YOLOv26-pose | YOLOv8-obb\u003Cbr>YOLOv11-obb\u003Cbr>YOLOv12-obb\u003Cbr>YOLOv26-obb\u003Cbr> |\n\n\n\n## 📁 Demos\n\nHands-on examples are available in the demo folder:\n\n👉 [Browse the demo projects](.\u002FDemo)\n\nIncludes image inference, video streams, GPU acceleration, segmentation, and large-image workflows.\n\n## Execution Providers\n\n| Provider           | Windows | Linux | macOS | Documentation |\n|--------------------|---------|-------|-------|---------------|\n| CPU                | ✅      | ✅    | ✅    | [CPU README](.\u002FYoloDotNet.ExecutionProvider.Cpu\u002FREADME.md) |\n| CUDA \u002F TensorRT    | ✅      | ✅    | ❌    | [CUDA README](.\u002FYoloDotNet.ExecutionProvider.Cuda\u002FREADME.md) |\n| OpenVINO           | ✅      | ✅    | ❌    | [OpenVINO README](.\u002FYoloDotNet.ExecutionProvider.OpenVino\u002FREADME.md) |\n| CoreML             | ❌      | ❌    | ✅    | [CoreML README](.\u002FYoloDotNet.ExecutionProvider.CoreML\u002FREADME.md) |\n| DirectML           | ✅      | ❌    | ❌    | [DirectML README](.\u002FYoloDotNet.ExecutionProvider.DirectML\u002FREADME.md) |\n\n> ℹ️ Only **one** execution provider package may be referenced.  \n> Mixing providers will cause native runtime conflicts.\n\n## ⚡ Performance Characteristics\n\nYoloDotNet focuses on stable, low-overhead inference where runtime cost is dominated by the execution provider and model.\n\n📊 Benchmarks: [\u002Ftest\u002FYoloDotNet.Benchmarks](.\u002Ftest\u002FYoloDotNet.Benchmarks\u002FREADME.md)\n\n- Stable latency after warm-up  \n- Clean scaling from CPU → GPU → TensorRT  \n- Predictable allocation behavior  \n- Suitable for real-time and long-running services  \n\n## 🚀 Modular Execution Providers\n\n- Core package is provider-agnostic  \n- Execution providers are separate NuGet packages  \n- Native ONNX Runtime dependencies are isolated  \n\n**Why this matters:** fewer conflicts, predictable deployment, and production-safe behavior.\n\n## Support YoloDotNet\n\n⭐ Star the repo  \n💬 Share feedback  \n🤝 Sponsor development  \n\n[GitHub Sponsors](https:\u002F\u002Fgithub.com\u002Fsponsors\u002FNickSwardh)  \n[PayPal](https:\u002F\u002Fpaypal.me\u002Fnickswardh)\n\n## License\n\nMIT License\n\nCopyright (c) Niklas Swärd\n\nPermission is hereby granted, free of charge, to any person obtaining a copy\nof this software and associated documentation files (the \"Software\"), to deal\nin the Software without restriction, including without limitation the rights\nto use, copy, modify, merge, publish, distribute, sublicense, and\u002For sell\ncopies of the Software, and to permit persons to whom the Software is\nfurnished to do so, subject to the following conditions:\n\nThe above copyright notice and this permission notice shall be included in all\ncopies or substantial portions of the Software.\n\nTHE SOFTWARE IS PROVIDED \"AS IS\", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR\nIMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,\nFITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE\nAUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER\nLIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,\nOUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE\nSOFTWARE.\n\n---\n\n### Model Licensing & Responsibility\n\n* YoloDotNet is licensed under the [MIT License](.\u002FLICENSE.txt) and provides an ONNX inference\nengine for YOLO models exported using Ultralytics YOLO tooling.\n\n* This project does **not** include, distribute, download, or bundle any\npretrained models.\n\n* Users must supply their own ONNX models.\n\n* YOLO ONNX models produced using Ultralytics tooling are typically licensed\nunder **AGPL-3.0** or a separate commercial license from Ultralytics.\n\n* YoloDotNet does **not** impose, modify, or transfer any license terms related\nto user-supplied models.\n\n* **Users are solely responsible** for ensuring that their use of any model\ncomplies with the applicable license terms, including requirements related\nto commercial use, distribution, or network deployment.","# \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_readme_efafd9ec0777.png\" height=24> YoloDotNet v4.2 🚀\n**面向 .NET 的极速、生产就绪的 YOLO 推理**\n\n**YoloDotNet** 是一个模块化、轻量级的 C# 库，用于在 .NET 中实现实时计算机视觉和基于 YOLO 的推理。\n\n它为现代 YOLO 模型系列（从 `YOLOv5u` 到 `YOLOv26`、`YOLO-World`、`YOLO-E` 和 `RT-DETR`）提供高性能推理，并对执行、内存和预处理进行显式控制。\n\nYoloDotNet 基于 **.NET 8**、**ONNX Runtime** 和 **SkiaSharp** 构建，有意避免使用 OpenCV 等重量级计算机视觉框架。  \n没有 Python 运行时、隐藏的预处理或隐式行为——只有在 **Windows、Linux 和 macOS** 上实现快速、可预测推理所需的组件。\n\n无需 Python，没有魔法，只有高效、确定性的 YOLO——专为 .NET 打造。\n\n## ⭐ 为什么选择 YoloDotNet？\n\n![YOLOv5u](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYOLOv5u-supported-2ea44f)\n![YOLOv8-v26](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYOLOv8--v26-supported-2ea44f)\n![YOLO-RT-DETR](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYOLO--RT--DETR-supported-2ea44f)\n![YOLO-World](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYOLO--World-supported-2ea44f)\n![YOLO-E](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYOLO--E-supported-2ea44f)\n\nYoloDotNet 专为需要以下特性的开发者设计：\n\n- ✅ **纯 .NET** — 无 Python 运行时，无脚本  \n- ✅ **真正的性能** — 支持 CPU、CUDA \u002F TensorRT、OpenVINO、CoreML、DirectML  \n- ✅ **明确的配置** — 可预测的精度和内存使用  \n- ✅ **生产就绪** — 引擎缓存、长时间运行稳定性  \n- ✅ **多任务支持** — 目标检测、定向边界框检测、分割、姿态估计、分类  \n\n非常适合需要确定性行为和完全控制的 **桌面应用、后端服务和实时视觉流水线**。\n\n## 🆕 v4.2 新特性\n\n- 新增 **感兴趣区域 (ROI)** 支持，允许在图像或视频流的选定区域上运行推理  \n  *(适用于监控、区域监测以及性能优先的流水线)*\n- 新增在分割对象上绘制边缘的选项，以提高视觉清晰度\n- 新增用于 **JSON 导出** 的辅助方法：\n  - `ToJson()` — 将推理结果转换为 JSON\n  - `SaveJson()` — 将推理结果直接保存为 JSON 文件\n- 新增用于 **YOLO 格式标注** 的辅助方法：\n  - `ToYoloFormat()` — 将结果转换为 YOLO 注释格式\n  - `SaveYoloFormat()` — 将结果保存为 YOLO 兼容的训练数据\n- 新增 `GetContourPoints()` 辅助方法，用于从分割对象中提取 **有序轮廓点**\n- 更新了 **YOLOv26 推理执行**，使其与其他任务保持一致，从而提升 **一致性及整体执行效率**\n\n📖 完整发布历史：[CHANGELOG.md](.\u002FCHANGELOG.md)\n\n> [!TIP]\n> **查看演示**  \n> 演示项目中提供了展示 YoloDotNet 功能的实用、可运行示例：  \n> 👉 [浏览演示文件夹](.\u002FDemo)\n\n## 🚀 快速入门\n\n### 💡 ONNX 模型导出要求\n\n- 对于 **YOLOv26 模型**，请使用 **opset=18** 导出\n- 对于 **YOLOv5u–YOLOv12**，请使用 **opset=17** 导出\n\n> [!IMPORTANT]\n> 使用正确的 opset 可确保与 ONNX Runtime 的最佳兼容性和性能。  \n> 有关如何将模型导出为 ONNX 的更多信息，请参阅 https:\u002F\u002Fdocs.ultralytics.com\u002Fmodes\u002Fexport\u002F\n\n**导出命令示例（Ultralytics CLI）：**\n```bash\n# 对于 YOLOv5u–YOLOv12（opset 17）\nyolo export model=yolov8n.pt format=onnx opset=17\n\n# 对于 YOLOv26（opset 18）\nyolo export model=yolo26n.pt format=onnx opset=18\n```\n\n> [!WARNING]\n> **模型许可说明：**  \n> YoloDotNet 采用 MIT 许可证，但 **大多数 Ultralytics YOLO 模型采用 AGPL-3.0 许可证，或在商业用途中需要商业许可证**。  \n> 您有责任确保您对任何模型的使用符合其许可条款。  \n> 详情请参阅 [Ultralytics 模型许可](https:\u002F\u002Fwww.ultralytics.com\u002Flicense\u002F)。\n\n### 1️⃣ 安装核心包\n\n```bash\ndotnet add package YoloDotNet\n```\n\n### 2️⃣ 安装 **恰好一个**(!) 执行提供程序\n\n```bash\n# CPU（推荐起点）\ndotnet add package YoloDotNet.ExecutionProvider.Cpu\n\n# 硬件加速执行（任选其一）\ndotnet add package YoloDotNet.ExecutionProvider.Cuda\ndotnet add package YoloDotNet.ExecutionProvider.OpenVino\ndotnet add package YoloDotNet.ExecutionProvider.CoreML\ndotnet add package YoloDotNet.ExecutionProvider.DirectML\n```\n\n> 💡 **注意：** CUDA 执行提供程序包含可选的 **TensorRT** 加速功能。无需单独安装 TensorRT 包。\n\n### 3️⃣ 运行目标检测\n\n```csharp\nusing SkiaSharp;\nusing YoloDotNet;\nusing YoloDotNet.Models;\nusing YoloDotNet.Extensions;\nusing YoloDotNet.ExecutionProvider.Cpu;\n\nusing var yolo = new Yolo(new YoloOptions\n{\n    ExecutionProvider = new CpuExecutionProvider(\"model.onnx\")\n});\n\nusing var image = SKBitmap.Decode(\"image.jpg\");\n\n\u002F\u002F 注意：IoU 参数仅用于基于 NMS 的模型。\n\u002F\u002F 对于 YOLOv10 和 YOLOv26，由于后处理由模型内部完成，因此会忽略 IoU。\nvar results = yolo.RunObjectDetection(image, confidence: 0.25, iou: 0.7);\n\nimage.Draw(results);\nimage.Save(\"result.jpg\");\n```\n\n现在您已成功使用 **纯 C#** 运行 YOLO 推理。\n\n## 💡 重要提示：精度取决于配置\n\nYOLO 推理的精度并非自动获得。\n\n图像缩放模式、采样方法以及置信度\u002FIoU 阈值等预处理设置必须与模型的训练方式保持一致。  \n这些设置直接决定了精度与性能之间的权衡，应被视为模型本身的一部分。\n\n📖 **在调整模型或比较结果之前，请阅读：**  \n👉 [精度与配置指南](.\u002FAccuracyAndConfiguration.md)\n\n## 支持的任务\n\n| 分类 | 目标检测 | OBB 检测 | 分割 | 姿态估计 |\n|---------------|------------------|---------------|--------------|-----------------|\n| \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_readme_3eec72bfc67a.jpg\" width=300> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_readme_b5302e34d13a.jpg\" width=300> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_readme_1274d7fc0cbf.png\" width=300> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_readme_8d30dca0453f.png\" width=300> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_readme_942a2d4dd7fd.png\" width=300> |\n| \u003Csub>[pexels.com](https:\u002F\u002Fwww.pexels.com\u002Fphoto\u002Fhummingbird-drinking-nectar-from-blooming-flower-in-garden-5344570\u002F)\u003C\u002Fsub> | \u003Csub>[pexels.com](https:\u002F\u002Fwww.pexels.com\u002Fphoto\u002Fmen-s-brown-coat-842912\u002F)\u003C\u002Fsub> | \u003Csub>[pexels.com](https:\u002F\u002Fwww.pexels.com\u002Fphoto\u002Fbird-s-eye-view-of-watercrafts-docked-on-harbor-8117665\u002F)\u003C\u002Fsub> | \u003Csub>[pexels.com](https:\u002F\u002Fwww.pexels.com\u002Fphoto\u002Fman-riding-a-black-touring-motorcycle-903972\u002F)\u003C\u002Fsub> | \u003Csub>[pexels.com](https:\u002F\u002Fwww.pexels.com\u002Fphoto\u002Fwoman-doing-ballet-pose-2345293\u002F)\u003C\u002Fsub> |\n\n## ✅ 已验证的 YOLO 模型\n\n以下 YOLO 模型已使用 YoloDotNet，并通过 Ultralytics 官方导出及默认头部进行了 **测试和验证**。\n\n| 分类 | 目标检测 | 分割 | 姿态估计 | 旋转目标检测 |\n|----------------|------------------|--------------|------------------|---------------|\n| YOLOv8-cls\u003Cbr>YOLOv11-cls\u003Cbr>YOLOv12-cls\u003Cbr>YOLOv26-cls | YOLOv5u\u003Cbr>YOLOv8\u003Cbr>YOLOv9\u003Cbr>YOLOv10\u003Cbr>YOLOv11\u003Cbr>YOLOv12\u003Cbr>YOLOv26\u003Cbr>RT-DETR | YOLOv8-seg\u003Cbr>YOLOv11-seg\u003Cbr>YOLOv12-seg\u003Cbr>YOLOv26-seg\u003Cbr>YOLO-World (v2) | YOLOv8-pose\u003Cbr>YOLOv11-pose\u003Cbr>YOLOv12-pose\u003Cbr>YOLOv26-pose | YOLOv8-obb\u003Cbr>YOLOv11-obb\u003Cbr>YOLOv12-obb\u003Cbr>YOLOv26-obb\u003Cbr> |\n\n\n\n## 📁 示例\n\n演示文件夹中提供了动手示例：\n\n👉 [浏览演示项目](.\u002FDemo)\n\n包括图像推理、视频流、GPU 加速、分割以及大图像工作流。\n\n## 执行提供者\n\n| 提供者           | Windows | Linux | macOS | 文档 |\n|--------------------|---------|-------|-------|---------------|\n| CPU                | ✅      | ✅    | ✅    | [CPU README](.\u002FYoloDotNet.ExecutionProvider.Cpu\u002FREADME.md) |\n| CUDA \u002F TensorRT    | ✅      | ✅    | ❌    | [CUDA README](.\u002FYoloDotNet.ExecutionProvider.Cuda\u002FREADME.md) |\n| OpenVINO           | ✅      | ✅    | ❌    | [OpenVINO README](.\u002FYoloDotNet.ExecutionProvider.OpenVino\u002FREADME.md) |\n| CoreML             | ❌      | ❌    | ✅    | [CoreML README](.\u002FYoloDotNet.ExecutionProvider.CoreML\u002FREADME.md) |\n| DirectML           | ✅      | ❌    | ❌    | [DirectML README](.\u002FYoloDotNet.ExecutionProvider.DirectML\u002FREADME.md) |\n\n> ℹ️ 只能引用 **一个** 执行提供者包。  \n> 混用不同提供者会导致原生运行时冲突。\n\n## ⚡ 性能特性\n\nYoloDotNet 致力于稳定且低开销的推理，其运行时成本主要由执行提供者和模型决定。\n\n📊 基准测试：[\u002Ftest\u002FYoloDotNet.Benchmarks](.\u002Ftest\u002FYoloDotNet.Benchmarks\u002FREADME.md)\n\n- 预热后延迟稳定  \n- 从 CPU → GPU → TensorRT 的性能可预测扩展  \n- 内存分配行为可预测  \n- 适用于实时和长时间运行的服务  \n\n## 🚀 模块化执行提供者\n\n- 核心包与具体提供者无关  \n- 执行提供者为独立的 NuGet 包  \n- 原生 ONNX Runtime 依赖被隔离  \n\n**这样做的意义：** 减少冲突、部署更可预测，且在生产环境中更加安全。\n\n## 支持 YoloDotNet\n\n⭐ 给仓库加星  \n💬 分享反馈  \n🤝 赞助开发  \n\n[GitHub Sponsors](https:\u002F\u002Fgithub.com\u002Fsponsors\u002FNickSwardh)  \n[PayPal](https:\u002F\u002Fpaypal.me\u002Fnickswardh)\n\n## 许可证\n\nMIT 许可证\n\n版权所有 © Niklas Swärd\n\n特此授予任何人免费获取本软件及其相关文档文件（“软件”）副本的权利，以进行处理。在不受限制的情况下，包括但不限于使用、复制、修改、合并、发布、分发、再许可和\u002F或销售软件副本的权利；并允许向任何接收该软件的人提供服务，但须遵守以下条件：\n\n上述版权声明和本许可声明应包含在所有副本或软件的重要部分中。\n\n“软件”按“原样”提供，不提供任何形式的保证，无论是明示还是暗示，包括但不限于适销性、特定用途适用性和非侵权性的保证。在任何情况下，作者或版权所有者均不对因合同、侵权或其他原因引起的任何索赔、损害赔偿或其他责任负责，这些责任可能源于或与软件的使用有关。\n\n---\n\n### 模型许可与责任\n\n* YoloDotNet 采用 [MIT 许可证](.\u002FLICENSE.txt)，并为使用 Ultralytics YOLO 工具导出的 YOLO 模型提供 ONNX 推理引擎。\n\n* 本项目 **不** 包含、分发、下载或捆绑任何预训练模型。\n\n* 用户必须自行提供 ONNX 模型。\n\n* 使用 Ultralytics 工具生成的 YOLO ONNX 模型通常根据 **AGPL-3.0** 或 Ultralytics 的单独商业许可证进行授权。\n\n* YoloDotNet **不会** 强制、修改或转移与用户提供的模型相关的任何许可条款。\n\n* **用户需自行负责** 确保其对任何模型的使用符合适用的许可条款，包括与商业使用、分发或网络部署相关的要求。","# YoloDotNet 快速上手指南\n\nYoloDotNet 是一个专为 .NET 打造的高性能、模块化计算机视觉库。它无需 Python 运行时，支持从 YOLOv5u 到 YOLOv26、YOLO-World 及 RT-DETR 等多种模型，适用于 Windows、Linux 和 macOS 上的实时推理任务。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows、Linux 或 macOS。\n*   **.NET SDK**：必须安装 **.NET 8** 或更高版本。\n*   **模型文件**：需自行准备 `.onnx` 格式的 YOLO 模型文件。\n    *   **YOLOv5u – YOLOv12**：导出时请使用 `opset=17`。\n    *   **YOLOv26**：导出时请使用 `opset=18`。\n    *   *导出示例 (Ultralytics CLI)*:\n        ```bash\n        # YOLOv5u–YOLOv12\n        yolo export model=yolov8n.pt format=onnx opset=17\n        \n        # YOLOv26\n        yolo export model=yolo26n.pt format=onnx opset=18\n        ```\n*   **许可证注意**：YoloDotNet 本身采用 MIT 协议，但大多数 Ultralytics YOLO 模型受 AGPL-3.0 保护或需要商业授权。请务必确认您使用的模型符合相应的许可条款。\n\n## 2. 安装步骤\n\nYoloDotNet 采用模块化设计，核心库与执行提供者（Execution Provider）分离。您需要安装核心包，并**恰好选择一个**执行提供者包。\n\n### 第一步：安装核心库\n\n```bash\ndotnet add package YoloDotNet\n```\n\n### 第二步：安装执行提供者\n\n根据您的硬件环境，选择**其中一个**命令安装对应的加速包：\n\n```bash\n# 选项 A: CPU 推理（推荐初学者或无 GPU 环境）\ndotnet add package YoloDotNet.ExecutionProvider.Cpu\n\n# 选项 B: NVIDIA GPU 加速 (CUDA \u002F TensorRT)\ndotnet add package YoloDotNet.ExecutionProvider.Cuda\n\n# 选项 C: Intel CPU\u002FGPU 加速 (OpenVINO)\ndotnet add package YoloDotNet.ExecutionProvider.OpenVino\n\n# 选项 D: Apple Silicon\u002FMac 加速 (CoreML)\ndotnet add package YoloDotNet.ExecutionProvider.CoreML\n\n# 选项 E: Windows DirectX 加速 (DirectML)\ndotnet add package YoloDotNet.ExecutionProvider.DirectML\n```\n\n> **注意**：切勿同时安装多个执行提供者包，否则会导致原生运行时冲突。若使用 CUDA 包，已内置可选的 TensorRT 加速支持，无需额外安装。\n\n## 3. 基本使用\n\n以下是最简单的对象检测示例。该代码加载模型和图片，执行推理并将结果绘制保存。\n\n```csharp\nusing SkiaSharp;\nusing YoloDotNet;\nusing YoloDotNet.Models;\nusing YoloDotNet.Extensions;\n\u002F\u002F 根据实际安装的包引入命名空间，例如 CPU:\nusing YoloDotNet.ExecutionProvider.Cpu;\n\n\u002F\u002F 初始化 Yolo 实例\nusing var yolo = new Yolo(new YoloOptions\n{\n    ExecutionProvider = new CpuExecutionProvider(\"model.onnx\") \u002F\u002F 替换为您的模型路径\n});\n\n\u002F\u002F 加载图片\nusing var image = SKBitmap.Decode(\"image.jpg\");\n\n\u002F\u002F 执行目标检测\n\u002F\u002F 注意：IoU 参数用于基于 NMS 的模型。\n\u002F\u002F 对于 YOLOv10 和 YOLOv26，由于后处理由模型内部完成，IoU 参数将被忽略。\nvar results = yolo.RunObjectDetection(image, confidence: 0.25, iou: 0.7);\n\n\u002F\u002F 将检测结果绘制到图片上\nimage.Draw(results);\n\n\u002F\u002F 保存结果\nimage.Save(\"result.jpg\");\n```\n\n### 💡 重要提示：配置与精度\n\nYOLO 推理的精度并非自动保证。预处理设置（如图像缩放模式、采样方法）以及置信度\u002FIoU 阈值**必须与模型训练时的设置一致**。这些参数直接影响精度与性能的平衡，请将其视为模型配置的一部分进行仔细调整。","某智能仓储团队正在开发一套运行在 Windows 工业工控机上的实时包裹分拣系统，需要精准识别传送带上包裹的类别、位置及旋转角度。\n\n### 没有 YoloDotNet 时\n- **架构臃肿复杂**：团队被迫在 C# 主程序中嵌入 Python 运行时来调用 PyTorch 模型，导致部署包体积巨大且环境配置极易出错。\n- **延迟不可控**：图像数据需在 .NET 与 Python 进程间频繁序列化传输，造成明显的推理延迟，无法满足高速传送带的实时性要求。\n- **功能支持缺失**：现有的 .NET 视觉库难以原生支持带角度检测（OBB），无法准确判断倾斜包裹的姿态，导致机械臂抓取失败率高。\n- **维护成本高昂**：依赖隐式的预处理逻辑和重型框架（如 OpenCV 的完整绑定），使得内存占用波动大，长期运行容易出现内存泄漏。\n\n### 使用 YoloDotNet 后\n- **纯 .NET 轻量化部署**：直接基于 .NET 8 和 ONNX Runtime 运行，彻底移除 Python 依赖，将部署包体积缩小 60%，实现“开箱即用”。\n- **极致低延迟推理**：利用 YoloDotNet 的零拷贝内存管理和原生预处理，推理端到端延迟降低至毫秒级，完美匹配高速分拣节奏。\n- **原生支持多任务检测**：轻松调用 OBB 检测和姿态估计功能，精准识别倾斜包裹的角度坐标，机械臂抓取成功率提升至 99%。\n- **确定性资源管控**：通过显式配置执行后端（如 DirectML 或 CUDA）和内存策略，系统在高负载下连续运行数周依然稳定，无内存泄漏风险。\n\nYoloDotNet 让 .NET 开发者无需妥协于跨语言调用的性能损耗，真正实现了生产级、高性能且完全可控的原生计算机视觉应用落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNickSwardh_YoloDotNet_3eec72bf.jpg","NickSwardh","Niklas Swärd 🇸🇪","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FNickSwardh_6f3819da.png","Metalhead",null,"Stockholm, Sweden","https:\u002F\u002Fgithub.com\u002FNickSwardh",[23],{"name":24,"color":25,"percentage":26},"C#","#178600",100,752,139,"2026-04-08T16:44:34","MIT",2,"Windows, Linux, macOS","非必需。若需加速，支持 NVIDIA GPU (CUDA\u002FTensorRT)、Intel GPU (OpenVINO)、Apple Silicon (CoreML) 或 Windows DirectML。具体显卡型号、显存大小及 CUDA 版本取决于所选的 ONNX Runtime 执行提供程序，文中未明确指定最低要求。","未说明",{"notes":36,"python":37,"dependencies":38},"1. 纯 .NET 实现，无需 Python 环境或脚本。2. 必须安装且仅能安装一个执行提供程序包（如 CPU 或 CUDA），混合安装会导致冲突。3. 模型需为 ONNX 格式：YOLOv5u-v12 需 opset=17，YOLOv26 需 opset=18。4. 用户需自行准备模型文件并注意 Ultralytics 模型的 AGPL-3.0 或商业许可限制。5. 支持多种视觉任务（检测、分割、姿态估计等）及 ROI 区域推理。","不需要 (No Python runtime)",[39,40,41,42,43],".NET 8","ONNX Runtime","SkiaSharp","YoloDotNet (核心包)","YoloDotNet.ExecutionProvider (CPU\u002FCuda\u002FOpenVino\u002FCoreML\u002FDirectML 任选其一)",[45,46,47],"开发框架","视频","图像",[49,50,51,52,53,54,55,56,57,58,59,60,61,62,63,64,65,66,67,68],"object-detection","onnx","onnx-runtime","computer-vision","video","video-processing","detection","image-classification","obb","segmentation","yolo","yolov10","yolov11","yolov8","yolov9","yolo-world","yolov12","yoloe","tensorrt","yolo26","ready","2026-03-27T02:49:30.150509","2026-04-12T05:16:58.934755",[73,78,83,88,93,98],{"id":74,"question_zh":75,"answer_zh":76,"source_url":77},30279,"为什么 GPU 推理性能比 CPU 还差？","这通常是由于内存管理不当造成的。请确保在使用 SkiaSharp 等对象时正确添加了 `using` 语句或手动调用 `Dispose()` 方法，以释放资源。例如，加载图像和处理结果时应包裹在 `using` 块中：\n```csharp\nusing var image = SKImage.FromEncodedData(file);\n\u002F\u002F 处理逻辑\n```\n未正确处置对象会导致资源泄漏和性能下降。","https:\u002F\u002Fgithub.com\u002FNickSwardh\u002FYoloDotNet\u002Fissues\u002F19",{"id":79,"question_zh":80,"answer_zh":81,"source_url":82},30280,"实例分割的后处理速度太慢，如何优化？","可以通过以下方式进行优化：\n1. 避免使用 `Parallel.For` 循环，测试表明普通 `for` 循环在某些场景下更稳定且效率更高。\n2. 减少垃圾回收（GC）压力，通过共享资源和优化内存分配来提升吞吐量。\n3. 关注官方性能分支（如 `performance` 分支），其中已将旧的 ONNX 类替换为 `OrtValue` API 以提升速度。","https:\u002F\u002Fgithub.com\u002FNickSwardh\u002FYoloDotNet\u002Fissues\u002F14",{"id":84,"question_zh":85,"answer_zh":86,"source_url":87},30281,"YoloDotNet 是否支持 TensorRT 加速？如何使用？","是的，YoloDotNet 现已支持 TensorRT。使用方法如下：\n1. 参考 [TensorRT Demo 项目](https:\u002F\u002Fgithub.com\u002FNickSwardh\u002FYoloDotNet\u002Ftree\u002Fmaster\u002FDemo\u002FTensorRTDemo)。\n2. 需要先转换模型，可参照 Ultralytics 文档：https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Ftensorrt\u002F#usage。\n3. 确保安装了匹配的 CUDA、cuDNN 和 TensorRT 版本，并正确配置环境变量。","https:\u002F\u002Fgithub.com\u002FNickSwardh\u002FYoloDotNet\u002Fissues\u002F21",{"id":89,"question_zh":90,"answer_zh":91,"source_url":92},30282,"遇到 'System.NotSupportedException: Onnx model not supported!' 错误怎么办？","该错误通常是因为自定义模型名称未被识别。解决方法有两种：\n1. 修改训练时的模型命名，使其包含标准名称（如 'yolov8'）。\n2. 下载 YoloDotNet 源码并添加到项目依赖中，然后修改版本判断逻辑以匹配你的模型名称：\n```csharp\nvar version when version.Contains(\"yourV8Name\") => ModelVersion.V8,\nvar version when version.Contains(\"yourV10Name\") => ModelVersion.V10,\n```","https:\u002F\u002Fgithub.com\u002FNickSwardh\u002FYoloDotNet\u002Fissues\u002F20",{"id":94,"question_zh":95,"answer_zh":96,"source_url":97},30283,"没有 NVIDIA GPU，可以使用 DirectML 进行加速吗？","可以。YoloDotNet v4 已模块化以支持不同的执行提供者（Execution Providers）。虽然目前主要针对 CUDA 优化，但维护者计划添加对 DirectML 的支持，以便在非 NVIDIA GPU（如 AMD 或 Intel 集成显卡）上运行。你可以关注相关 PR 或等待后续版本更新以获取原生支持。","https:\u002F\u002Fgithub.com\u002FNickSwardh\u002FYoloDotNet\u002Fissues\u002F12",{"id":99,"question_zh":100,"answer_zh":101,"source_url":87},30284,"运行时报错 'LoadLibrary failed with error 126' 如何解决？","此错误通常表示无法加载特定的 ONNX Runtime 提供程序库（如 tensorrt.dll 或 cuda.dll）。解决步骤：\n1. 确认已安装与 ONNX Runtime 版本匹配的 CUDA、cuDNN 和 TensorRT。\n2. 检查系统环境变量是否正确配置，确保 DLL 文件路径在 PATH 中。\n3. 验证对应的 .dll 文件是否存在于安装目录中。\n4. 如果是 TensorRT 问题，确保使用了 `SessionOptions.MakeSessionOptionWithTensorrtProvider` 并且模型已正确转换为 TensorRT 格式。",[],[104,115,123,132,140,149],{"id":105,"name":106,"github_repo":107,"description_zh":108,"stars":109,"difficulty_score":110,"last_commit_at":111,"category_tags":112,"status":69},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[113,45,47,114],"Agent","数据工具",{"id":116,"name":117,"github_repo":118,"description_zh":119,"stars":120,"difficulty_score":110,"last_commit_at":121,"category_tags":122,"status":69},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[45,47,113],{"id":124,"name":125,"github_repo":126,"description_zh":127,"stars":128,"difficulty_score":31,"last_commit_at":129,"category_tags":130,"status":69},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150720,"2026-04-11T11:33:10",[45,113,131],"语言模型",{"id":133,"name":134,"github_repo":135,"description_zh":136,"stars":137,"difficulty_score":31,"last_commit_at":138,"category_tags":139,"status":69},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[45,47,113],{"id":141,"name":142,"github_repo":143,"description_zh":144,"stars":145,"difficulty_score":31,"last_commit_at":146,"category_tags":147,"status":69},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[148,113,47,45],"插件",{"id":150,"name":151,"github_repo":152,"description_zh":153,"stars":154,"difficulty_score":31,"last_commit_at":155,"category_tags":156,"status":69},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[148,45]]