[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-symisc--sod":3,"tool-symisc--sod":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159267,2,"2026-04-17T11:29:14",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":32,"env_os":100,"env_gpu":101,"env_ram":102,"env_deps":103,"category_tags":107,"github_topics":110,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":131,"updated_at":132,"faqs":133,"releases":168},8475,"symisc\u002Fsod","sod","An Embedded Computer Vision & Machine Learning Library (CPU Optimized & IoT Capable)","SOD 是一款专为嵌入式系统和物联网设备打造的计算机视觉与机器学习库。它致力于解决在计算资源受限的设备上难以运行复杂深度学习模型的痛点，让开发者能够轻松实现实时多类物体检测、人脸识别、车牌提取、动作分类及图像分割等高级功能。\n\n这款工具非常适合需要在树莓派、微控制器或其他低功耗硬件上部署智能视觉应用的嵌入式开发者、IoT 工程师以及算法研究人员。SOD 的核心亮点在于其极致的轻量化与高效性：它完全基于 C 语言编写，无任何外部依赖，甚至可合并为单个文件编译，极大地降低了集成难度。此外，SOD 内置了经过 CPU 深度优化的先进神经网络，包括其独有的 RealNets 架构，并提供了丰富的预训练模型。无论是构建实时监控安防系统，还是开发类似 Snapchat 的趣味滤镜，SOD 都能以简洁易用的 API 帮助你在资源有限的环境中快速落地高性能的机器感知应用。","\u003Ch1 align=\"center\">SOD\u003Cbr\u002F>\u003Cbr\u002F>An Embedded Computer Vision & Machine Learning Library\u003Cbr\u002F>\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\">sod.pixlab.io\u003C\u002Fa>\u003C\u002Fh1>\n\n[![API documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FAPI%20documentation-Ready-green.svg)](https:\u002F\u002Fsod.pixlab.io\u002Fapi.html)\n[![dependency](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdependency-none-ff96b4.svg)](https:\u002F\u002Fpixlab.io\u002Fdownloads)\n[![Getting Started](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGetting%20Started-Now-f49242.svg)](https:\u002F\u002Fsod.pixlab.io\u002Fintro.html)\n[![license](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-dual--licensed-blue.svg)](https:\u002F\u002Fpixlab.io\u002Fdownloads)\n[![Forum](https:\u002F\u002Fimg.shields.io\u002Fgitter\u002Froom\u002Fnwjs\u002Fnw.js.svg)](https:\u002F\u002Fcommunity.faceio.net\u002F)\n[![Tiny Dreal](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsymisc_sod_readme_03ba05d88a38.png)](https:\u002F\u002Fpixlab.io\u002Ftiny-dream)\n\n![Output](https:\u002F\u002Fi.imgur.com\u002FYIbb8wr.jpg)\n\n* [Introduction](#sod-embedded).\n* [Features](#notable-sod-features).\n* [Programming with SOD](#programming-interfaces).\n* [Useful Links](#other-useful-links).\n\n## SOD Embedded\n\n### Release 1.1.9 (July 2023) | [Changelog](https:\u002F\u002Fsod.pixlab.io\u002Fchangelog.html) |  [Downloads](https:\u002F\u002Fpixlab.io\u002Fdownloads)\n\nSOD is an embedded, modern cross-platform computer vision and machine learning software library that exposes a set of APIs for deep-learning, advanced media analysis & processing including real-time, multi-class object detection and model training on embedded systems with limited computational resource and IoT devices.\n\nSOD was built to provide a common infrastructure for computer vision applications and to accelerate the use of machine perception in open source as well commercial products.\n\nDesigned for computational efficiency and with a strong focus on real-time applications. SOD includes a comprehensive set of both classic and state-of-the-art deep-neural networks with their \u003Ca href=\"https:\u002F\u002Fpixlab.io\u002Fdownloads\">pre-trained models\u003C\u002Fa>. Built with SOD:\n* \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fintro.html#cnn\">Convolutional Neural Networks (CNN)\u003C\u002Fa> for multi-class (20 and 80) object detection & classification.\n* \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fapi.html#cnn\">Recurrent Neural Networks (RNN)\u003C\u002Fa> for text generation (i.e. Shakespeare, 4chan, Kant, Python code, etc.).\n* \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fsamples.html\">Decision trees\u003C\u002Fa> for single class, real-time object detection.\n* A brand new architecture written specifically for SOD named \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fintro.html#realnets\">RealNets\u003C\u002Fa>.\n\n![Multi-class object detection](https:\u002F\u002Fi.imgur.com\u002FMq98uTv.png) \n\nCross platform, dependency free, amalgamated (single C file) and heavily optimized. Real world use cases includes:\n* Detect & recognize objects (faces included) at Real-time.\n* License plate extraction.\n* Intrusion detection.\n* Mimic Snapchat filters.\n* Classify human actions.\n* Object identification.\n* Eye & Pupil tracking.\n* Facial & Body shape extraction.\n* Image\u002FFrame segmentation.\n\n## Notable SOD features\n\n* Built for real world and real-time applications.\n* State-of-the-art, CPU optimized deep-neural networks including the brand new, exclusive \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fintro.html#realnets\">RealNets architecture\u003C\u002Fa>.\n* Patent-free, advanced computer vision \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fsamples.html\">algorithms\u003C\u002Fa>.\n* Support major \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fapi.html#imgproc\">image format\u003C\u002Fa>.\n* Simple, clean and easy to use \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fapi.html\">API\u003C\u002Fa>.\n* Brings deep learning on limited computational resource, embedded systems and IoT devices.\n* Easy interpolatable with \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fapi.html#cvinter\">OpenCV\u003C\u002Fa> or any other proprietary API.\n* \u003Ca href=\"https:\u002F\u002Fpixlab.io\u002Fdownloads\">Pre-trained models\u003C\u002Fa> available for most architectures.\u003C\u002Fli>\n* CPU capable, \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fc_api\u002Fsod_realnet_train_start.html\">RealNets model training\u003C\u002Fa>.\n* Production ready, cross-platform, high quality source code.\n* SOD is dependency free, written in C, compile and run unmodified on virtually any platform &amp; architecture with a decent C compiler.\n* \u003Ca href=\"https:\u002F\u002Fpixlab.io\u002Fdownloads\">Amalgamated\u003C\u002Fa> - All SOD source files are combined into a single C file (*sod.c*) for easy deployment.\n* Open-source, actively developed & maintained product.\n* Developer friendly \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fsupport.html\">support channels.\u003C\u002Fa>\n\n## Programming Interfaces\n\nThe documentation works both as an API reference and a programming tutorial. It describes the internal structure of the library and guides one in creating applications with a few lines of code. Note that SOD is straightforward to learn, even for new programmer.\n\n Resources |  Description\n------------ | -------------\n\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fintro.html\">SOD in 5 minutes or less\u003C\u002Fa> | A quick introduction to programming with the SOD Embedded C\u002FC++ API with real-world code samples implemented in C.\n\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fapi.html\">C\u002FC++ API Reference Guide\u003C\u002Fa> | This document describes each API function in details. This is the reference document you should rely on.\n\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fsamples.html\">C\u002FC++ Code Samples\u003C\u002Fa> | Real world code samples on how to embed, load models and start experimenting with SOD.\n\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Farticles\u002Flicense-plate-detection.html\">License Plate Detection\u003C\u002Fa> | Learn how to detect vehicles license plates without heavy Machine Learning techniques, just standard image processing routines already implemented in SOD.\n\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Farticles\u002Fporting-c-face-detector-webassembly.html\">Porting our Face Detector to WebAssembly\u003C\u002Fa> | Learn how we ported the \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fc_api\u002Fsod_realnet_detect.html\">SOD Realnets face detector\u003C\u002Fa> into WebAssembly to achieve Real-time performance in the browser.\n\n## Other useful links\n\n Resources |  Description\n------------ | -------------\n\u003Ca href=\"https:\u002F\u002Fpixlab.io\u002Fdownloads\">Downloads\u003C\u002Fa> | Get a copy of the last public release of SOD, pre-trained models, extensions and more. Start embedding and enjoy programming with.\n\u003Ca href=\"https:\u002F\u002Fpixlab.io\u002Fsod\">Copyright\u002FLicensing\u003C\u002Fa> | SOD is an open-source, dual-licensed product. Find out more about the licensing situation there.\n\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fsupport.html\">Online Support Channels\u003C\u002Fa> | Having some trouble integrating SOD? Take a look at our numerous support channels.\n\n![face detection using RealNets](https:\u002F\u002Fi.imgur.com\u002FZLno8Lz.jpg)\n","\u003Ch1 align=\"center\">SOD\u003Cbr\u002F>\u003Cbr\u002F>一款嵌入式计算机视觉与机器学习库\u003Cbr\u002F>\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\">sod.pixlab.io\u003C\u002Fa>\u003C\u002Fh1>\n\n[![API文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FAPI%20documentation-Ready-green.svg)](https:\u002F\u002Fsod.pixlab.io\u002Fapi.html)\n[![依赖](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdependency-none-ff96b4.svg)](https:\u002F\u002Fpixlab.io\u002Fdownloads)\n[![快速入门](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGetting%20Started-Now-f49242.svg)](https:\u002F\u002Fsod.pixlab.io\u002Fintro.html)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-dual--licensed-blue.svg)](https:\u002F\u002Fpixlab.io\u002Fdownloads)\n[![论坛](https:\u002F\u002Fimg.shields.io\u002Fgitter\u002Froom\u002Fnwjs\u002Fnw.js.svg)](https:\u002F\u002Fcommunity.faceio.net\u002F)\n[![Tiny Dreal](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsymisc_sod_readme_03ba05d88a38.png)](https:\u002F\u002Fpixlab.io\u002Ftiny-dream)\n\n![输出示例](https:\u002F\u002Fi.imgur.com\u002FYIbb8wr.jpg)\n\n* [简介](#sod-embedded)。\n* [特性](#notable-sod-features)。\n* [使用SOD进行编程](#programming-interfaces)。\n* [实用链接](#other-useful-links)。\n\n## SOD Embedded\n\n### 版本 1.1.9（2023年7月）| [更新日志](https:\u002F\u002Fsod.pixlab.io\u002Fchangelog.html) |  [下载](https:\u002F\u002Fpixlab.io\u002Fdownloads)\n\nSOD是一个嵌入式、现代化的跨平台计算机视觉和机器学习软件库，它提供了一组用于深度学习、高级媒体分析与处理的API，包括实时多类别目标检测以及在计算资源有限的嵌入式系统和物联网设备上进行模型训练的功能。\n\nSOD旨在为计算机视觉应用提供通用的基础架构，并加速机器感知技术在开源及商业产品中的应用。\n\nSOD专为计算效率而设计，特别注重实时应用。它包含一套全面的经典与最先进深度神经网络及其\u003Ca href=\"https:\u002F\u002Fpixlab.io\u002Fdownloads\">预训练模型\u003C\u002Fa>。使用SOD构建：\n* \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fintro.html#cnn\">卷积神经网络（CNN）\u003C\u002Fa>用于多类别（20类和80类）目标检测与分类。\n* \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fapi.html#cnn\">循环神经网络（RNN）\u003C\u002Fa>用于文本生成（如莎士比亚、4chan、康德哲学、Python代码等）。\n* \u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fsamples.html\">决策树\u003C\u002Fa>用于单类别实时目标检测。\n* 专为SOD设计的新架构，名为\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fintro.html#realnets\">RealNets\u003C\u002Fa>。\n\n![多类别目标检测](https:\u002F\u002Fi.imgur.com\u002FMq98uTv.png)\n\n跨平台、无依赖、整合为单个C文件且高度优化。实际应用场景包括：\n* 实时检测与识别物体（包括人脸）。\n* 车牌提取。\n* 入侵检测。\n* 模仿Snapchat滤镜。\n* 人类行为分类。\n* 物体识别。\n* 眼睛与瞳孔追踪。\n* 面部与身体轮廓提取。\n* 图像\u002F帧分割。\n\n## SOD显著特性\n\n* 专为真实世界和实时应用而设计。\n* 最先进的CPU优化深度神经网络，包括全新的独家\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fintro.html#realnets\">RealNets架构\u003C\u002Fa>。\n* 无专利的先进计算机视觉\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fsamples.html\">算法\u003C\u002Fa>。\n* 支持主要\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fapi.html#imgproc\">图像格式\u003C\u002Fa>。\n* 简洁、清晰且易于使用的\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fapi.html\">API\u003C\u002Fa>。\n* 将深度学习引入到计算资源有限的嵌入式系统和物联网设备中。\n* 可轻松与\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fapi.html#cvinter\">OpenCV\u003C\u002Fa>或其他专有API集成。\n* 大多数架构均有\u003Ca href=\"https:\u002F\u002Fpixlab.io\u002Fdownloads\">预训练模型\u003C\u002Fa>可供使用。\n* 支持CPU运行，可进行\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fc_api\u002Fsod_realnet_train_start.html\">RealNets模型训练\u003C\u002Fa>。\n* 生产就绪、跨平台、高质量源代码。\n* SOD无依赖，用C语言编写，几乎可在任何具备良好C编译器的平台和架构上无需修改直接编译并运行。\n* \u003Ca href=\"https:\u002F\u002Fpixlab.io\u002Fdownloads\">整合版\u003C\u002Fa>——所有SOD源文件被合并为一个C文件（sod.c），便于部署。\n* 开源、积极开发与维护的产品。\n* 对开发者友好的\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fsupport.html\">支持渠道\u003C\u002Fa>。\n\n## 编程接口\n\n该文档既是API参考手册，也是编程教程。它描述了库的内部结构，并指导用户仅用几行代码即可创建应用程序。需要注意的是，SOD非常容易上手，即使是初学者也能快速掌握。\n\n资源 | 描述\n------------ | -------------\n\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fintro.html\">5分钟内了解SOD\u003C\u002Fa> | 快速介绍如何使用SOD嵌入式C\u002FC++ API进行编程，并提供用C语言实现的真实场景代码示例。\n\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fapi.html\">C\u002FC++ API参考指南\u003C\u002Fa> | 本文档详细介绍了每个API函数。这是您应当依赖的参考文档。\n\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fsamples.html\">C\u002FC++代码示例\u003C\u002Fa> | 关于如何嵌入、加载模型并开始使用SOD进行实验的真实场景代码示例。\n\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Farticles\u002Flicense-plate-detection.html\">车牌检测\u003C\u002Fa> | 学习如何在不使用复杂机器学习技术的情况下，仅通过SOD中已实现的标准图像处理流程来检测车辆车牌。\n\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Farticles\u002Fporting-c-face-detector-webassembly.html\">将我们的面部检测器移植到WebAssembly\u003C\u002Fa> | 了解我们如何将\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fc_api\u002Fsod_realnet_detect.html\">SOD Realnets面部检测器\u003C\u002Fa>移植到WebAssembly，以实现在浏览器中的实时性能。\n\n## 其他实用链接\n\n资源 | 描述\n------------ | -------------\n\u003Ca href=\"https:\u002F\u002Fpixlab.io\u002Fdownloads\">下载\u003C\u002Fa> | 获取SOD最新公开版本、预训练模型、扩展组件等。立即开始集成并享受编程的乐趣。\n\u003Ca href=\"https:\u002F\u002Fpixlab.io\u002Fsod\">版权\u002F许可\u003C\u002Fa> | SOD是一款开源、双重许可的产品。在此了解更多关于许可情况的信息。\n\u003Ca href=\"https:\u002F\u002Fsod.pixlab.io\u002Fsupport.html\">在线支持渠道\u003C\u002Fa> | 在集成SOD时遇到困难？请查看我们提供的多种支持渠道。\n\n![使用RealNets进行面部检测](https:\u002F\u002Fi.imgur.com\u002FZLno8Lz.jpg)","# SOD 快速上手指南\n\nSOD (Small Object Detector) 是一个专为嵌入式系统、IoT 设备及资源受限环境设计的现代跨平台计算机视觉与机器学习库。它无需任何外部依赖，采用纯 C 语言编写，支持实时多类物体检测、人脸追踪及模型训练。\n\n## 环境准备\n\n### 系统要求\n*   **操作系统**：支持几乎所有拥有合格 C 编译器的平台（Linux, macOS, Windows, Android, iOS 等）。\n*   **硬件架构**：x86, ARM, RISC-V 等主流架构均可运行。\n*   **编译器**：GCC, Clang, MSVC 或任何标准的 C 编译器。\n\n### 前置依赖\n*   **无外部依赖**：SOD 设计为“零依赖”（Dependency Free），无需安装 OpenCV、TensorFlow 或其他第三方库即可编译运行。\n*   **可选集成**：如需与现有项目结合，可轻松与 OpenCV 或其他专有 API 互操作，但非必须。\n\n## 安装步骤\n\nSOD 采用“合并源文件”（Amalgamated）方式发布，所有源代码合并为单个 `sod.c` 文件，极大简化了部署流程。\n\n1.  **下载源码与预训练模型**\n    访问官方下载页面获取最新发布的 `sod.c`、头文件 `sod.h` 以及预训练模型文件。\n    \n    *下载地址*: [https:\u002F\u002Fpixlab.io\u002Fdownloads](https:\u002F\u002Fpixlab.io\u002Fdownloads)\n    \n    > **提示**：下载后你将获得 `sod.c`, `sod.h` 以及 `.dat` 格式的预训练模型文件（如人脸检测模型）。\n\n2.  **文件放置**\n    将下载的 `sod.c` 和 `sod.h` 放入你的项目目录中。\n\n3.  **编译项目**\n    由于是单文件库，只需在编译时将 `sod.c` 加入构建列表。以下是一个使用 GCC 的简单编译命令示例：\n\n    ```bash\n    gcc -o my_app main.c sod.c -lm\n    ```\n    *注：`-lm` 用于链接数学库，通常在 Linux\u002FUnix 环境下需要。Windows (MSVC) 用户通常无需额外参数。*\n\n## 基本使用\n\n以下示例展示如何使用 SOD 加载预训练模型并进行实时人脸检测。假设你已下载名为 `face.dat` 的预训练模型。\n\n### 代码示例 (C 语言)\n\n```c\n#include \"sod.h\"\n#include \u003Cstdio.h>\n\nint main(int argc, char **argv) {\n    \u002F\u002F 1. 初始化 SOD 核心\n    sod_core_t core = sod_core_new();\n\n    \u002F\u002F 2. 加载预训练的人脸检测模型 (RealNets 架构)\n    \u002F\u002F 请确保 'face.dat' 文件在当前目录下\n    sod_realnet_t net = sod_realnet_load(core, \"face.dat\");\n\n    if (!net) {\n        printf(\"Failed to load model.\\n\");\n        return -1;\n    }\n\n    \u002F\u002F 3. 加载输入图像\n    sod_img_t img = sod_img_load_from_file(\"input.jpg\", 0);\n\n    if (!img) {\n        printf(\"Failed to load image.\\n\");\n        return -1;\n    }\n\n    \u002F\u002F 4. 执行检测\n    \u002F\u002F 返回检测到的对象列表\n    sod_obj_list_t detections = sod_realnet_detect(net, img, 0.5f);\n\n    \u002F\u002F 5. 处理结果\n    int count = sod_obj_list_length(detections);\n    printf(\"Detected %d objects.\\n\", count);\n\n    for (int i = 0; i \u003C count; i++) {\n        sod_obj_t obj = sod_obj_list_get(detections, i);\n        sod_rect_t rect = sod_obj_get_box(obj);\n        printf(\"Object %d: x=%d, y=%d, w=%d, h=%d\\n\", \n               i, rect.x, rect.y, rect.w, rect.h);\n        \n        \u002F\u002F 可选：在图像上绘制边框\n        sod_img_draw_rectangle(img, rect, 255, 0, 0, 2);\n    }\n\n    \u002F\u002F 6. 保存或显示结果图像\n    sod_img_save_to_file(img, \"output.jpg\");\n\n    \u002F\u002F 7. 清理资源\n    sod_obj_list_free(detections);\n    sod_img_free(img);\n    sod_realnet_free(net);\n    sod_core_free(core);\n\n    return 0;\n}\n```\n\n### 运行说明\n1.  将上述代码保存为 `main.c`。\n2.  确保 `sod.c`, `sod.h`, `face.dat` (模型), 和 `input.jpg` (测试图片) 在同一目录。\n3.  编译并运行：\n    ```bash\n    gcc -o demo main.c sod.c -lm\n    .\u002Fdemo\n    ```\n4.  程序将输出检测到的物体坐标，并生成标记后的 `output.jpg`。\n\n更多高级用法（如视频流处理、模型训练、WebAssembly 移植）请参考官方文档：[SOD API Reference](https:\u002F\u002Fsod.pixlab.io\u002Fapi.html)。","一家初创团队正在为资源受限的嵌入式安防摄像头开发实时入侵检测系统，需在无 GPU 的低成本芯片上运行多类物体识别算法。\n\n### 没有 sod 时\n- 依赖庞大的深度学习框架（如 TensorFlow Lite），导致固件体积超标，无法装入仅有几兆闪存的 IoT 设备。\n- 需手动移植和优化模型算子，耗费数周时间适配 CPU 指令集，且推理延迟高达秒级，无法满足“实时”报警需求。\n- 缺乏现成的预训练模型，团队必须自行收集数据并训练基础检测器，开发周期被无限拉长。\n- 引入外部库带来复杂的依赖冲突，交叉编译过程频繁报错，维护成本极高。\n\n### 使用 sod 后\n- 直接集成 sod 的单文件 C 源码，零依赖特性使固件体积缩小 90%，完美适配低存储嵌入式芯片。\n- 利用 sod 专为 CPU 优化的 RealNets 架构，在低端处理器上实现毫秒级多类物体实时检测，即时触发入侵警报。\n- 调用官方提供的预训练模型，无需从头训练，几天内即可完成从原型到成品的部署。\n- 凭借简洁的 API 和原生 C 语言支持，轻松与现有 OpenCV 流程互通，跨平台编译一次通过，大幅降低维护难度。\n\nsod 让高性能计算机视觉真正落地于低功耗边缘设备，将原本不可能的实时 AI 安防方案变成了低成本、可量产的现实。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsymisc_sod_69261f1b.png","symisc","PixLab | Symisc Systems","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsymisc_4c057677.png","Embedded Software, Machine Learning & Beyond","Symisc Systems",null,"contact@symisc.net","unqlite_db","https:\u002F\u002Fsymisc.net","https:\u002F\u002Fgithub.com\u002Fsymisc",[84,88,92],{"name":85,"color":86,"percentage":87},"C","#555555",99.5,{"name":89,"color":90,"percentage":91},"HTML","#e34c26",0.5,{"name":93,"color":94,"percentage":95},"Makefile","#427819",0,1800,213,"2026-04-10T07:25:19","NOASSERTION","Linux, macOS, Windows","不需要 GPU，专为 CPU 优化设计","未说明（适用于资源受限的嵌入式系统和 IoT 设备）",{"notes":104,"python":105,"dependencies":106},"该库无外部依赖（dependency-free），由单个 C 文件（sod.c）组成，可在任何具备合格 C 编译器的平台上编译运行。专为计算资源有限的嵌入式系统和 IoT 设备设计，支持实时多类物体检测。提供预训练模型，可轻松与 OpenCV 集成或移植到 WebAssembly。","不需要 Python（原生 C\u002FC++ 库）",[],[15,108,35,14,45,16,13,109],"音频","其他",[111,112,113,114,115,116,117,118,119,120,121,122,123,124,125,126,127,128,129,130],"computer-vision","library","deep-learning","image-processing","object-detection","c","cpu","real-time","convolutional-neural-networks","face-detection","facial-landmarks","machine-learning-algorithms","image-recognition","image-analysis","vision-framework","embedded","detection","iot-device","iot","webassembly","2026-03-27T02:49:30.150509","2026-04-17T21:44:53.008965",[134,139,144,149,154,159,164],{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},37936,"如何解决 Canny 边缘检测中的段错误（Segmentation Fault）或 Valgrind 报告的内存读取错误？","这是旧版本中已知的内存泄漏和边界检查问题。请确保更新到最新版本的 SOD 库，该版本已修复了 `canny_non_max_suppression` 函数中的内存泄漏和非法读取问题。您可以查看官方变更日志确认修复详情：https:\u002F\u002Fsod.pixlab.io\u002Fchangelog.html","https:\u002F\u002Fgithub.com\u002Fsymisc\u002Fsod\u002Fissues\u002F19",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},37937,"如何在嵌入式系统（如 STM32）或缺少标准头文件的环境中编译 SOD？","针对嵌入式环境，可以采取以下措施：\n1. 定义编译宏 `OS_OTHER` 以排除特定平台头文件（如 `uio.h`）。\n2. 如果不需要图像文件读写功能，可以通过编译指令 `SOD_DISABLE_IMG_READER` 禁用整个图像读写 API。\n3. 如果系统缺乏浮点运算支持，可通过 `SOD_DISABLE_CNN` 禁用 CNN 层。\n4. 对于未使用的头文件引用（如 `\u003Csys\u002Fuio.h>`），可以直接从源码 `sod.c` 中安全删除相关行（例如第 1726 行）。","https:\u002F\u002Fgithub.com\u002Fsymisc\u002Fsod\u002Fissues\u002F13",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},37938,"无法访问预训练模型的下载页面（显示为空），如何解决？","模型下载页面依赖 JavaScript 加载内容。如果页面显示为空，请检查浏览器是否启用了 JavaScript。某些浏览器扩展（如 NoScript 或 uMatrix）可能会阻止脚本加载，导致链接不显示。请启用 JavaScript 或暂时禁用相关扩展后刷新页面：https:\u002F\u002Fpixlab.io\u002Fdownloads","https:\u002F\u002Fgithub.com\u002Fsymisc\u002Fsod\u002Fissues\u002F22",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},37939,"保存单通道（灰度）图像时，为什么输出的 BMP 文件仍然包含 3 个通道？","这是因为在加载图像时强制转换了颜色空间。建议先正常加载图像（使用 `SOD_IMG_COLOR` 或不强制指定），不要在 `sod_img_load_from_file` 中直接强制转换为灰度。加载后，再调用专门的灰度转换函数（如 `sod_grayscale_image`）进行处理，最后保存即可得到正确的单通道输出。","https:\u002F\u002Fgithub.com\u002Fsymisc\u002Fsod\u002Fissues\u002F14",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},37940,"CNN 人脸检测模型在不同场景下的准确率和适用性如何？","SOD 提供不同的人脸检测模型以适应不同场景：\n1. **Realnet 正面人脸检测器**：主要设计用于网络摄像头和手机前置摄像头。\n2. **CNN 人脸检测器**：更适合外部环境，如 CCTV 监控流和 4K 视频处理。\n其中 CNN 模型在 GENKI-4K 和私有数据集上训练，mAP（平均精度均值）约为 85.5。如有特定需求，可联系官方支持获取更多信息。","https:\u002F\u002Fgithub.com\u002Fsymisc\u002Fsod\u002Fissues\u002F12",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},37941,"卷积层函数 `forward_convolutional_layer` 中的索引计算是否存在错误？","用户报告的索引计算差异（`bx*l.n` vs `bx*n`）通常源于对多类对象检测的假设不同。SOD 支持多类检测（如 VOC 和 COCO 模型），因此代码逻辑需兼容多类别情况。虽然在某些极端罕见情况下索引可能超出分配数组，但这在实际部署中极少发生。维护者确认将在后续版本中优化此逻辑，目前建议保持默认实现以支持多类检测功能。","https:\u002F\u002Fgithub.com\u002Fsymisc\u002Fsod\u002Fissues\u002F24",{"id":165,"question_zh":166,"answer_zh":167,"source_url":138},37942,"SOD 库在处理图像时是否会额外增加大量内存开销？","SOD 在内部处理（如 Canny 边缘检测）时可能会分配比源图像稍大的缓冲区（例如多出 16 行用于边界处理），但这仅消耗少量额外内存字节。最终输出的图像对象（`sod_img out`）的宽度和高度与输入图像完全一致，不会改变图像尺寸。对于虚拟内存占用较高的问题，通常是因为批量处理（batch）预分配所致，实际物理内存消耗远低于虚拟内存。",[169,174,179],{"id":170,"version":171,"summary_zh":172,"released_at":173},306110,"1.1.9","# 发布 (1.1.9) | [变更日志](https:\u002F\u002Fsod.pixlab.io\u002Fchangelog.html)\n- 引入数十种全新的高级图像处理例程：\n  - 高斯模糊，通过 [sod_gaussian_blur_image()](https:\u002F\u002Fsod.pixlab.io\u002Fc_api\u002Fsod_gaussian_blur_image.html) 实现。\n  - 暗褐色调（滤镜），通过 [sod_image_sepia_filter()](https:\u002F\u002Fsod.pixlab.io\u002Fc_api\u002Fsod_image_sepia_filter.html) 实现。\n  - RGB 蒙版，通过 sod_img_mask_to_rgb() 实现。\n  - 图像遮盖，通过 sod_censor_image() 实现。\n  - 图像饱和度调整，通过 sod_saturate_image() 和 sod_saturate_exposure_image() 实现。\n  - 图像色相调整，通过 sod_hue_image() 实现。\n  - 图像约束，通过 sod_constrain_image() 实现。\n  - 图像曝光调整，通过 sod_exposure_image() 实现。\n  - 图像畸变，通过 sod_distort_image() 和 sod_random_distort_image() 实现。\n  - 方框模糊滤镜，通过 sod_box_blur_image() 实现。\n- 在定义了 OS_OTHER 编译时指令的情况下，为受限嵌入式设备引入 sNullVfs 虚拟文件系统。\n- 为缺乏内存映射功能的受限嵌入式设备引入 SOD_NO_MMAP [编译时指令](https:\u002F\u002Fsod.pixlab.io\u002Fapi.html#cmpl_no_mmap)。\n- 引入 SOD_DISABLE_REALNET [编译时指令](https:\u002F\u002Fsod.pixlab.io\u002Fapi.html#cmpl_no_realnet)，以完全从构建中排除 Real-Nets，类似于 SOD_DISABLE_CNN。\n- 修复了 sscanf() 的无界写入问题（由 Mingjie Shen 提交的 [GitHub Pull Request](https:\u002F\u002Fgithub.com\u002Fsymisc\u002Fsod\u002Fcommit\u002F504c0d3f2e4290d8faa460bb90f58ddafa45b6d2)）。\n- 基于 SOD 支持的高度实验性 [Tiny-Dream](https:\u002F\u002Fpixlab.io\u002Ftiny-dream)（Stable Diffusion）推理。","2023-07-26T02:06:15",{"id":175,"version":176,"summary_zh":177,"released_at":178},306111,"1.1.8.1","更新日志：https:\u002F\u002Fsod.pixlab.io\u002Fchangelog.html\n下载页面：https:\u002F\u002Fpixlab.io\u002Fdownloads\n首页：https:\u002F\u002Fsod.pixlab.io\u002F","2020-03-07T02:41:33",{"id":180,"version":181,"summary_zh":182,"released_at":183},306112,"1.1.8","* 预训练模型：https:\u002F\u002Fpixlab.io\u002Fdownloads\n* 官方文档：https:\u002F\u002Fsod.pixlab.io\u002Fapi.html\n* 项目主页：https:\u002F\u002Fsod.pixlab.io","2019-01-14T00:11:14"]