[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-openpifpaf--openpifpaf":3,"tool-openpifpaf--openpifpaf":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",149489,2,"2026-04-10T11:32:46",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":64,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":101,"forks":102,"last_commit_at":103,"license":104,"difficulty_score":32,"env_os":105,"env_gpu":106,"env_ram":106,"env_deps":107,"category_tags":112,"github_topics":113,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":120,"updated_at":121,"faqs":122,"releases":153},6308,"openpifpaf\u002Fopenpifpaf","openpifpaf","Official implementation of \"OpenPifPaf: Composite Fields for Semantic Keypoint Detection and Spatio-Temporal Association\" in PyTorch.","OpenPifPaf 是一个基于 PyTorch 开发的开源框架，专注于语义关键点检测及其在时空维度上的关联。它主要解决了计算机视觉中如何高效、准确地识别人体姿态、动物肢体或车辆部件等关键点，并在连续视频帧中实时追踪这些点运动轨迹的难题。\n\n与传统方法不同，OpenPifPaf 创新性地引入了“复合场”（Composite Fields）技术，能够在单一阶段内同时完成关键点的检测与关联，无需繁琐的多步骤处理。这一架构使其成为首个实现实时姿态检测与追踪的算法，在保持高精度的同时，运行速度比同类方案快了一个数量级。此外，它还提出了时序复合关联场（TCAF），进一步增强了对动态场景的理解能力。\n\n该工具非常适合计算机视觉领域的研究人员、算法工程师以及自动驾驶和机器人行业的开发者使用。无论是需要处理复杂的人群姿态估计，还是为无人车构建感知系统，OpenPifPaf 都能提供一个通用且高效的解决方案。其代码经过跨平台持续测试，文档完善，支持从人体全身关键点到汽车部件等多种对象的检测，是构建全息感知系统的理想选择。","# openpifpaf\n\nContinuously tested on Linux, MacOS and Windows:\n[![Tests](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Factions\u002Fworkflows\u002Ftests.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Factions\u002Fworkflows\u002Ftests.yml)\n[![deploy-guide-dev](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Factions\u002Fworkflows\u002Fdeploy-guide-dev.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Factions\u002Fworkflows\u002Fdeploy-guide-dev.yml)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenpifpaf_openpifpaf_readme_35e9b0ee7b98.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fopenpifpaf)\n\u003Cbr \u002F>\n[__New__ 2021 paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.02440):\n\n> __OpenPifPaf: Composite Fields for Semantic Keypoint Detection and Spatio-Temporal Association__\u003Cbr \u002F>\n> _[Sven Kreiss](https:\u002F\u002Fwww.svenkreiss.com), [Lorenzo Bertoni](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=f-4YHeMAAAAJ&hl=en), [Alexandre Alahi](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=UIhXQ64AAAAJ&hl=en)_, 2021.\n>\n> Many image-based perception tasks can be formulated as detecting, associating\n> and tracking semantic keypoints, e.g., human body pose estimation and tracking.\n> In this work, we present a general framework that jointly detects and forms\n> spatio-temporal keypoint associations in a single stage, making this the first\n> real-time pose detection and tracking algorithm. We present a generic neural\n> network architecture that uses Composite Fields to detect and construct a\n> spatio-temporal pose which is a single, connected graph whose nodes are the\n> semantic keypoints (e.g., a person's body joints) in multiple frames. For the\n> temporal associations, we introduce the Temporal Composite Association Field\n> (TCAF) which requires an extended network architecture and training method\n> beyond previous Composite Fields. Our experiments show competitive accuracy\n> while being an order of magnitude faster on multiple publicly available datasets\n> such as COCO, CrowdPose and the PoseTrack 2017 and 2018 datasets. We also show\n> that our method generalizes to any class of semantic keypoints such as car and\n> animal parts to provide a holistic perception framework that is well suited for\n> urban mobility such as self-driving cars and delivery robots.\n\nPrevious [CVPR 2019 paper](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fhtml\u002FKreiss_PifPaf_Composite_Fields_for_Human_Pose_Estimation_CVPR_2019_paper.html).\n\n\n# [Guide](https:\u002F\u002Fopenpifpaf.github.io\u002Fintro.html)\n\nDetailed documentation is in our __[OpenPifPaf Guide](https:\u002F\u002Fopenpifpaf.github.io\u002Fintro.html)__.\nFor developers, there is also the\n__[DEV Guide](https:\u002F\u002Fopenpifpaf.github.io\u002Fdev\u002Fintro.html)__\nwhich is the same guide but based on the latest code in the `main` branch.\n\n\n# Examples\n\n![example image with overlaid pose predictions](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenpifpaf_openpifpaf_readme_6f8703a3e36b.jpeg)\n\nImage credit: \"[Learning to surf](https:\u002F\u002Fwww.flickr.com\u002Fphotos\u002Ffotologic\u002F6038911779\u002Fin\u002Fphotostream\u002F)\" by fotologic which is licensed under [CC-BY-2.0].\u003Cbr \u002F>\nCreated with:\n```sh\npip3 install matplotlib openpifpaf\npython3 -m openpifpaf.predict docs\u002Fcoco\u002F000000081988.jpg --image-output\n```\n\n---\n\nHere is the [tutorial for body, foot, face and hand keypoints](https:\u002F\u002Fopenpifpaf.github.io\u002Fplugins_wholebody.html). Example:\n![example image with overlaid wholebody pose predictions](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenpifpaf_openpifpaf_readme_18e8fa9bffdd.jpeg)\n\nImage credit: [Photo](https:\u002F\u002Fde.wikipedia.org\u002Fwiki\u002FKamil_Vacek#\u002Fmedia\u002FDatei:Kamil_Vacek_20200627.jpg) by [Lokomotive74](https:\u002F\u002Fcommons.wikimedia.org\u002Fwiki\u002FUser:Lokomotive74) which is licensed under [CC-BY-4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002F).\u003Cbr \u002F>\nCreated with:\n```sh\npython -m openpifpaf.predict guide\u002Fwholebody\u002Fsoccer.jpeg \\\n  --checkpoint=shufflenetv2k30-wholebody --line-width=2 --image-output\n```\n\n---\n\nHere is the [tutorial for car keypoints](https:\u002F\u002Fopenpifpaf.github.io\u002Fplugins_apollocar3d.html). Example:\n![example image cars](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenpifpaf_openpifpaf_readme_b6f401454a3d.jpeg)\n\nImage credit: [Photo](https:\u002F\u002Fcommons.wikimedia.org\u002Fwiki\u002FFile:Streets_of_Saint_Petersburg,_Russia.jpg) by [Ninaras](https:\u002F\u002Fcommons.wikimedia.org\u002Fwiki\u002FUser:Ninaras) which is licensed under [CC-BY-SA 4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-sa\u002F4.0\u002F).\n\nCreated with:\n```sh\npython -m openpifpaf.predict guide\u002Fimages\u002Fpeterbourg.jpg \\\n  --checkpoint shufflenetv2k16-apollo-24 -o images \\\n  --instance-threshold 0.05 --seed-threshold 0.05 \\\n  --line-width 4 --font-size 0\n```\n\n---\n\nHere is the [tutorial for animal keypoints (dogs, cats, sheep, horses and cows)](https:\u002F\u002Fopenpifpaf.github.io\u002Fplugins_animalpose.html). Example:\n![example image cars](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenpifpaf_openpifpaf_readme_f91a30d0ba31.jpeg)\n\n\n```sh\npython -m openpifpaf.predict guide\u002Fimages tappo_loomo.jpg \\\n  --checkpoint=shufflenetv2k30-animalpose \\\n  --line-width=6 --font-size=6 --white-overlay=0.3 \\\n  --long-edge=500\n```\n\n\n# Commercial License\n\nThe open source license is in the [LICENSE](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fblob\u002Fmain\u002FLICENSE) file.\nThis software is also available for licensing via the EPFL Technology Transfer\nOffice (https:\u002F\u002Ftto.epfl.ch\u002F, info.tto@epfl.ch).\n\n\n[CC-BY-2.0]: https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F2.0\u002F\n","# openpifpaf\n\n在 Linux、MacOS 和 Windows 上持续测试：\n[![Tests](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Factions\u002Fworkflows\u002Ftests.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Factions\u002Fworkflows\u002Ftests.yml)\n[![deploy-guide-dev](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Factions\u002Fworkflows\u002Fdeploy-guide-dev.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Factions\u002Fworkflows\u002Fdeploy-guide-dev.yml)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenpifpaf_openpifpaf_readme_35e9b0ee7b98.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fopenpifpaf)\n\u003Cbr \u002F>\n[__新__ 2021 年论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.02440)：\n\n> __OpenPifPaf：用于语义关键点检测与时空关联的复合场__\u003Cbr \u002F>\n> _[Sven Kreiss](https:\u002F\u002Fwww.svenkreiss.com), [Lorenzo Bertoni](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=f-4YHeMAAAAJ&hl=en), [Alexandre Alahi](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=UIhXQ64AAAAJ&hl=en)_, 2021。\n>\n> 许多基于图像的感知任务都可以被表述为检测、关联和跟踪语义关键点，例如人体姿态估计与跟踪。在本工作中，我们提出了一种通用框架，能够在单个阶段内联合检测并形成时空关键点关联，从而成为首个实时姿态检测与跟踪算法。我们设计了一种通用的神经网络架构，利用复合场来检测并构建一个时空姿态，该姿态是一个单一的连通图，其节点是多个帧中的语义关键点（例如人体关节）。对于时间上的关联，我们引入了时间复合关联场（TCAF），这需要扩展的网络架构和训练方法，超越了以往的复合场。实验表明，在 COCO、CrowdPose 以及 PoseTrack 2017 和 2018 数据集等多个公开数据集上，我们的方法在保持竞争力的同时，速度提升了一个数量级。此外，我们还证明了该方法可以泛化到任何语义关键点类别，如汽车和动物部件，从而提供一个适用于城市移动场景（如自动驾驶汽车和配送机器人）的整体感知框架。\n\n之前的 [CVPR 2019 论文](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fhtml\u002FKreiss_PifPaf_Composite_Fields_for_Human_Pose_Estimation_CVPR_2019_paper.html)。\n\n\n# [指南](https:\u002F\u002Fopenpifpaf.github.io\u002Fintro.html)\n\n详细文档请参阅我们的 __[OpenPifPaf 指南](https:\u002F\u002Fopenpifpaf.github.io\u002Fintro.html)__。\n对于开发者而言，还有\n__[DEV 指南](https:\u002F\u002Fopenpifpaf.github.io\u002Fdev\u002Fintro.html)__\n，它与主指南内容相同，但基于 `main` 分支中的最新代码。\n\n\n# 示例\n\n![叠加姿态预测的示例图像](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenpifpaf_openpifpaf_readme_6f8703a3e36b.jpeg)\n\n图片来源：“学习冲浪” by fotologic，采用 [CC-BY-2.0] 许可。\u003Cbr \u002F>\n创建命令：\n```sh\npip3 install matplotlib openpifpaf\npython3 -m openpifpaf.predict docs\u002Fcoco\u002F000000081988.jpg --image-output\n```\n\n---\n\n以下是关于身体、脚部、面部和手部关键点的教程：[链接](https:\u002F\u002Fopenpifpaf.github.io\u002Fplugins_wholebody.html)。示例：\n![叠加全身姿态预测的示例图像](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenpifpaf_openpifpaf_readme_18e8fa9bffdd.jpeg)\n\n图片来源：[照片](https:\u002F\u002Fde.wikipedia.org\u002Fwiki\u002FKamil_Vacek#\u002Fmedia\u002FDatei:Kamil_Vacek_20200627.jpg) by [Lokomotive74](https:\u002F\u002Fcommons.wikimedia.org\u002Fwiki\u002FUser:Lokomotive74)，采用 [CC-BY-4.0] 许可。\u003Cbr \u002F>\n创建命令：\n```sh\npython -m openpifpaf.predict guide\u002Fwholebody\u002Fsoccer.jpeg \\\n  --checkpoint=shufflenetv2k30-wholebody --line-width=2 --image-output\n```\n\n---\n\n以下是关于汽车关键点的教程：[链接](https:\u002F\u002Fopenpifpaf.github.io\u002Fplugins_apollocar3d.html)。示例：\n![汽车示例图像](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenpifpaf_openpifpaf_readme_b6f401454a3d.jpeg)\n\n图片来源：[照片](https:\u002F\u002Fcommons.wikimedia.org\u002Fwiki\u002FFile:Streets_of_Saint_Petersburg,_Russia.jpg) by [Ninaras](https:\u002F\u002Fcommons.wikimedia.org\u002Fwiki\u002FUser:Ninaras)，采用 [CC-BY-SA 4.0] 许可。\n\n创建命令：\n```sh\npython -m openpifpaf.predict guide\u002Fimages\u002Fpeterbourg.jpg \\\n  --checkpoint shufflenetv2k16-apollo-24 -o images \\\n  --instance-threshold 0.05 --seed-threshold 0.05 \\\n  --line-width 4 --font-size 0\n```\n\n---\n\n以下是关于动物关键点（狗、猫、羊、马和牛）的教程：[链接](https:\u002F\u002Fopenpifpaf.github.io\u002Fplugins_animalpose.html)。示例：\n![动物示例图像](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenpifpaf_openpifpaf_readme_f91a30d0ba31.jpeg)\n\n\n```sh\npython -m openpifpaf.predict guide\u002Fimages tappo_loomo.jpg \\\n  --checkpoint=shufflenetv2k30-animalpose \\\n  --line-width=6 --font-size=6 --white-overlay=0.3 \\\n  --long-edge=500\n```\n\n\n# 商业许可\n\n开源许可证见 [LICENSE](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fblob\u002Fmain\u002FLICENSE) 文件。\n该软件也可通过 EPFL 技术转移办公室（https:\u002F\u002Ftto.epfl.ch\u002F, info.tto@epfl.ch）进行授权许可。\n\n\n[CC-BY-2.0]: https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F2.0\u002F","# OpenPifPaf 快速上手指南\n\nOpenPifPaf 是一个用于语义关键点检测（如人体姿态估计）和时空关联追踪的实时框架。它支持检测人体、全身（含手\u002F脸\u002F脚）、车辆及动物等多种目标的关键点。\n\n## 环境准备\n\n*   **操作系统**：Linux, MacOS 或 Windows。\n*   **Python 版本**：推荐 Python 3.8 及以上版本。\n*   **前置依赖**：\n    *   `pip` 包管理工具。\n    *   `matplotlib`（用于可视化结果）。\n    *   PyTorch（安装 `openpifpaf` 时会自动处理相关依赖，但需确保系统已安装兼容的 CUDA 驱动以使用 GPU 加速，若仅使用 CPU 则无需额外配置）。\n\n> **提示**：国内开发者建议使用清华源或阿里源加速 pip 安装过程。\n\n## 安装步骤\n\n使用 pip 直接安装最新稳定版及必要的可视化库：\n\n```bash\npip3 install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple matplotlib openpifpaf\n```\n\n若需使用开发版功能，可参考官方 DEV Guide 从源码安装，通常稳定版已满足大多数需求。\n\n## 基本使用\n\n### 1. 人体姿态估计（默认模型）\n\n这是最简单的用法，对单张图片进行人体关键点检测并生成带标注的输出图片。\n\n```bash\npython3 -m openpifpaf.predict docs\u002Fcoco\u002F000000081988.jpg --image-output\n```\n*执行后将在当前目录生成带有姿态预测叠加层的图片文件。*\n\n### 2. 全身关键点检测（含手、脸、脚）\n\n使用预训练的全身模型（WholeBody）以获得更精细的关键点：\n\n```bash\npython -m openpifpaf.predict guide\u002Fwholebody\u002Fsoccer.jpeg \\\n  --checkpoint=shufflenetv2k30-wholebody --line-width=2 --image-output\n```\n\n### 3. 其他特定目标检测\n\nOpenPifPaf 还支持车辆和动物检测，只需切换对应的 checkpoint 参数：\n\n*   **车辆关键点**：\n    ```bash\n    python -m openpifpaf.predict guide\u002Fimages\u002Fpeterbourg.jpg \\\n      --checkpoint shufflenetv2k16-apollo-24 -o images \\\n      --instance-threshold 0.05 --seed-threshold 0.05 \\\n      --line-width 4 --font-size 0\n    ```\n\n*   **动物关键点（狗、猫等）**：\n    ```bash\n    python -m openpifpaf.predict guide\u002Fimages tappo_loomo.jpg \\\n      --checkpoint=shufflenetv2k30-animalpose \\\n      --line-width=6 --font-size=6 --white-overlay=0.3 \\\n      --long-edge=500\n    ```\n\n更多详细参数配置及高级用法（如视频流处理、自定义阈值），请参阅 [OpenPifPaf 官方文档](https:\u002F\u002Fopenpifpaf.github.io\u002Fintro.html)。","某自动驾驶初创团队正在开发城市配送机器人的视觉感知系统，需要实时识别并追踪道路上行人、骑行者及车辆的关节关键点以预测其运动轨迹。\n\n### 没有 openpifpaf 时\n- **多模型串联导致延迟高**：团队需分别部署人体检测、关键点提取和时序追踪三个独立模型，推理链路长，无法满足机器人毫秒级的实时避障需求。\n- **复杂场景下关联易丢失**：在人群密集或目标快速移动时，传统方法难以将不同帧中的关键点准确关联，导致轨迹频繁断裂或身份切换错误。\n- **扩展新类别成本巨大**：若需增加对车辆或动物部件的识别，必须重新设计网络架构并收集大量标注数据进行单独训练，开发周期长达数周。\n- **资源占用过高**：多模型并行运行占用了大量车载计算资源，导致系统发热严重且难以在其他边缘设备上部署。\n\n### 使用 openpifpaf 后\n- **单阶段实时检测追踪**：openpifpaf 通过复合场技术在一个阶段内同时完成关键点检测与时空关联，将整体推理速度提升了一个数量级，完美适配实时控制回路。\n- **鲁棒的时空关联能力**：借助时间复合关联场（TCAF），即使在遮挡或高速运动场景下，openpifpaf 也能生成连续稳定的时空姿态图，显著降低了轨迹丢失率。\n- **通用的语义关键点框架**：利用 openpifpaf 的通用架构，团队仅用少量数据即可快速扩展至车辆和动物部件识别，无需改动核心代码，新类别上线时间缩短至几天。\n- **轻量化边缘部署**：单一模型大幅降低了显存和算力消耗，使得该感知方案能轻松运行在配送机器人有限的嵌入式芯片上。\n\nopenpifpaf 通过统一的单阶段架构，解决了多任务感知中的实时性与泛化性难题，为移动机器人的安全导航提供了高效可靠的视觉基石。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenpifpaf_openpifpaf_6f8703a3.jpg","OpenPifPaf","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fopenpifpaf_42548e85.png","",null,"https:\u002F\u002Fgithub.com\u002Fopenpifpaf",[78,82,86,90,94,97],{"name":79,"color":80,"percentage":81},"Python","#3572A5",82,{"name":83,"color":84,"percentage":85},"Jupyter Notebook","#DA5B0B",12.4,{"name":87,"color":88,"percentage":89},"C++","#f34b7d",5.4,{"name":91,"color":92,"percentage":93},"CMake","#DA3434",0.1,{"name":95,"color":96,"percentage":93},"TeX","#3D6117",{"name":98,"color":99,"percentage":100},"CSS","#663399",0,1246,254,"2026-04-05T07:05:30","NOASSERTION","Linux, macOS, Windows","未说明",{"notes":108,"python":109,"dependencies":110},"README 主要提供了安装命令示例（pip3 install matplotlib openpifpaf）和运行示例，未详细列出具体的硬件配置（如 GPU 型号、显存、内存）或深层依赖库（如 PyTorch 版本）。详细文档需参考其官方 Guide 链接。该工具支持人体、汽车及动物等多种关键点检测任务。","3.x (通过 pip3 和 python3 命令推断)",[111,64],"matplotlib",[15,14],[114,115,116,117,118,119],"human-pose-estimation","keypoint-estimation","pose-estimation","computer-vision","composite-fields","deep-learning","2026-03-27T02:49:30.150509","2026-04-11T00:49:33.078964",[123,128,133,138,143,148],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},28545,"如何在 NVIDIA Jetson 等边缘设备上使用 TensorRT 部署 OpenPifPaf 模型并进行推理？","可以通过导出 ONNX 模型并使用 ONNX-TensorRT 将其转换为 TensorRT 引擎来实现。具体步骤包括：1. 从 OpenPifPaf 导出 ONNX 模型（例如版本 0.10.0）；2. 使用 ONNX-TensorRT 工具转换模型；3. 利用 OpenPifPaf 中的解码器模块（decoder modules）编写推理脚本处理输出。Neuralet 项目提供了一个在 Jetson TX2 上运行的完整示例，详细教程可参考 Neuralet 网站关于在 NVIDIA Jetson 平台上使用 OpenPifPaf 进行姿态估计的文章。此外，C++ 示例代码位于 openpifpaf 仓库的 cpp\u002Fexamples\u002Fcifcafdecoder 目录下（注意该代码可能较旧，但结构良好）。","https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fissues\u002F145",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},28546,"如何优化 OpenPifPaf 解码器在边缘设备（如 Jetson Nano）上的性能？","解码器性能瓶颈通常在于内存分配和重置操作。优化建议包括：1. 避免密集的内存重置，采用“下界偏移”技巧：保留一个浮点数定义下界，首次预测填充 0-1 的值，后续图像仅增加下界（如变为 1），内存稀疏填充 1-2 之间的值，读取时修正偏移量，这比密集重置快得多；2. 确保基准测试时允许“预热”（warm-up），因为内存分配是动态增加的，首次大尺寸图像输入会触发分配，若输入尺寸固定，分配仅在第一次发生；3. 对于 C++ 实现，大部分时间消耗在 `cif` 和 `caf` 的过滤操作及内存分配上，可针对性优化这些数据结构和过滤逻辑。","https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fissues\u002F459",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},28547,"在 Mac 上运行 OpenPifPaf 预测 API 时遇到 'OMP: Error #15: Initializing libiomp5.dylib, but found libiomp5.dylib already initialized' 错误如何解决？","该错误通常是因为环境中安装了多个 OpenMP 运行时副本（例如同时安装了 `mkl` 或 `intel-openmp` 包）。解决方法是确保进程中只链接一个 OpenMP 运行时。如果无法移除冲突包，可以尝试设置环境变量作为临时 workaround：export KMP_DUPLICATE_LIB_OK=TRUE。但这属于未官方支持的方法，可能导致崩溃或结果不正确。建议在干净的 conda 环境中测试，避免安装冲突的数学库包。","https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fissues\u002F385",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},28548,"OpenPifPaf 中 PIF 和 PAF 字段的生成原理及解码算法是什么？","PIF（Part Intensity Fields）和 PAF（Part Affinity Fields）的生成逻辑封装在 openpifpaf\u002Fencoder\u002Fpif.py 和 paf.py 中。关于解码算法，核心策略是优先处理距离最近的关节点（closest joint）。由于官方 C++ 解码代码较为复杂，重新实现难度较大，建议参考现有的 C++ 实现或官方文档中的解码逻辑描述。对于具体的解码细节，可以研究官方提供的解码器模块源码，重点关注如何处理置信度图和关联场以还原关键点坐标。","https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fissues\u002F17",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},28549,"使用 ResNet50 训练 OpenPifPaf 模型时，为什么新生成的权重效果变差甚至无法检测关键点？","这种情况通常是由于训练配置参数不当或数据预处理问题导致的。检查重点包括：1. 确认命令行参数是否正确，特别是 --basenet、--headnets 以及学习率调度参数（--lr-decay, --epochs 等）；2. 检查自定义数据集的标注格式是否与模型预期一致；3. 观察训练日志中的 loss 曲线，如果 loss 没有下降或震荡剧烈，可能是学习率过大或数据增强过强。维护者建议仔细核对启动命令中的每一个参数，并确保没有遗漏必要的配置项。有时简单的参数疏忽（如未看到某个标志位）会导致模型无法收敛。","https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fissues\u002F280",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},28550,"在使用 torch2trt 转换 OpenPifPaf 模型时遇到 'AttributeError: list object has no attribute _trt' 错误怎么办？","该错误表明 torch2trt 在处理模型输出时遇到了非张量类型（如列表）。OpenPifPaf 模型的输出结构可能包含列表，而 torch2trt 期望直接的 Tensor 输出。虽然该特定 Issue 已关闭且未提供直接代码修复，但通用的解决思路是：1. 修改模型的前向传播函数，确保返回的是单一的 Tensor 或 Tensor 元组，而不是列表；2. 或者在调用 torch2trt 之前，对模型进行包装，使其输出符合 torch2trt 的要求。对于 TensorRT 部署，更推荐的做法是先导出为 ONNX 格式，再使用 ONNX-TensorRT 进行转换，这种方式对复杂输出结构的支持更好。","https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fissues\u002F188",[154,159,164,169,174,179,184,189,194,199,204,209,214,219,224,229,234,239,244,249],{"id":155,"version":156,"summary_zh":157,"released_at":158},192350,"v0.13.11","* 修复轻微的损失错误","2023-02-05T17:31:30",{"id":160,"version":161,"summary_zh":162,"released_at":163},192351,"v0.13.10","* 重构了损失组件，输出无变化","2023-02-01T07:30:16",{"id":165,"version":166,"summary_zh":167,"released_at":168},192352,"v0.13.9","* 一些小修复\n* 移除对 Scale 损失的双重软约束，现在该约束已在组件内部应用。","2023-01-29T22:54:38",{"id":170,"version":171,"summary_zh":172,"released_at":173},192353,"v0.13.8","* PyTorch 1.13.1 和 TorchVision 0.14.1\n* 可配置的评估器\n* train --out 现在接受一个目录，并自动添加文件名 (#587)\n","2023-01-15T17:52:43",{"id":175,"version":176,"summary_zh":177,"released_at":178},192354,"v0.13.7","* PyTorch 1.13.0 和 TorchVision 0.14.0","2022-11-11T07:33:53",{"id":180,"version":181,"summary_zh":182,"released_at":183},192355,"v0.13.6","* 兼容性修复（Pillow、pycocotools）\n* CI：新增定时测试\n","2022-11-02T07:14:15",{"id":185,"version":186,"summary_zh":187,"released_at":188},192356,"v0.13.5","* PyTorch 1.12.1 和 TorchVision 0.13.1\n* 将 openpifpaf_extras 提取出来\n* versioneer 0.21 -> 0.23\n","2022-08-31T01:10:58",{"id":190,"version":191,"summary_zh":192,"released_at":193},192357,"v0.13.4","* 限制 Protocol Buffers 版本\n* 与未来 PIL 版本的兼容性\n* 预训练 MobileNetV3 模型的补丁\n","2022-06-01T19:29:28",{"id":195,"version":196,"summary_zh":197,"released_at":198},192358,"v0.13.3","* 修复 Python 3.10 的问题\n* 对 cpp_extension 源文件使用相对路径\n","2022-03-22T19:55:47",{"id":200,"version":201,"summary_zh":202,"released_at":203},192359,"v0.13.2","* 将 ZIP 格式的源码发布包添加到 PyPI（适用于 Windows）\n* 升级至 PyTorch 1.11.0 和 torchvision 0.12.0\n* 在指南中添加“建议编辑”按钮\n","2022-03-21T22:53:11",{"id":205,"version":206,"summary_zh":207,"released_at":208},192360,"v0.13.1","* fix torch==1.9.0 and torchvision==0.10.0 to solve install issues","2021-12-23T22:36:44",{"id":210,"version":211,"summary_zh":212,"released_at":213},192361,"v0.13.0","* major rewrite of the decoders to C++ backed by libtorch","2021-09-26T14:45:36",{"id":215,"version":216,"summary_zh":217,"released_at":218},192362,"v0.12.14","* new NuScenes plugin [#467](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fpull\u002F467), [#472](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fpull\u002F472)\r\n* new transformer backbones [#463](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fpull\u002F463), [#471](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fpull\u002F471), [#481](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fpull\u002F481), [#488](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fpull\u002F488): pretrained `swin_s`, `swin_b`, `swin_t_input_upsample`\r\n* new Apollo checkpoints [#473](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fpull\u002F473)\r\n* lazy ops for visualizer [#490](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fpull\u002F490)\r\n","2021-09-15T12:36:08",{"id":220,"version":221,"summary_zh":222,"released_at":223},192363,"v0.12.13","* fix regression: avoid CenterPad when batch=1 [#453](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fpull\u002F453)\r\n* include draw time in \"post\" time [#454](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fpull\u002F454)","2021-07-22T12:49:20",{"id":225,"version":226,"summary_zh":227,"released_at":228},192364,"v0.12.12","* constrain Pillow dependency below 8.3 for torchvision compatibility\r\n* Wholebody fixes [#451](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fpull\u002F451)\r\n* det decoder: nms by category and minor fix to nms suppression\r\n* debug: properly show crowd annotations in encoder debug plots\r\n","2021-07-07T08:28:13",{"id":230,"version":231,"summary_zh":232,"released_at":233},192365,"v0.12.11","* wheels for aarch64\r\n* new pretrained models: mobilenetv3large and resnet18-cocodet\r\n* show: default output is now jpeg with image-dpi-factor=2.0\r\n* ONNX export with dynamic batch dimension\r\n","2021-06-11T20:17:31",{"id":235,"version":236,"summary_zh":237,"released_at":238},192366,"v0.12.10","* new Guide tutorials: Wholebody, Apollo, Animals\r\n* Predictor API\r\n* MobileNetv3 backbone\r\n* BCE background clamp\r\n* support and CI tests for Python 3.9\r\n* fix for multiple metrics\r\n","2021-05-19T15:41:29",{"id":240,"version":241,"summary_zh":242,"released_at":243},192367,"v0.12.9","* new tutorials: Custom Dataset and ApolloCar3D\r\n* bugfix: inverse ground-truth annotation for metric [#399](https:\u002F\u002Fgithub.com\u002Fopenpifpaf\u002Fopenpifpaf\u002Fpull\u002F399)\r\n* scipy is now an optional dependency\r\n* binaries for Apple Silicon (universal2 and arm64)\r\n* automatically register plugins\r\n* pad before RotateUniform\r\n* area-of-interest based cropping now uses bounding box annotations and not keypoints\r\n* matplotlib 3.4 compatibility\r\n* ONNX 1.9 compatibility\r\n","2021-04-21T17:37:29",{"id":245,"version":246,"summary_zh":247,"released_at":248},192368,"v0.12.8","* moved to github.com\u002Fopenpifpaf\u002Fopenpifpaf","2021-04-11T20:14:00",{"id":250,"version":251,"summary_zh":252,"released_at":253},192369,"v0.12.7","* Apollo3D car model with 66 keypoints [#376](https:\u002F\u002Fgithub.com\u002Fvita-epfl\u002Fopenpifpaf\u002Fpull\u002F376)\r\n* new pretrained models for shufflenetv2k16 and shufflenetv2k30\r\n* new transforms.RotateUniform and transforms.RandomChoice [#380](https:\u002F\u002Fgithub.com\u002Fvita-epfl\u002Fopenpifpaf\u002Fpull\u002F380)\r\n* cython decoder.utils.Occupancy [#381](https:\u002F\u002Fgithub.com\u002Fvita-epfl\u002Fopenpifpaf\u002Fpull\u002F381)\r\n* refactor Stream source for video data [#371](https:\u002F\u002Fgithub.com\u002Fvita-epfl\u002Fopenpifpaf\u002Fpull\u002F371)\r\n* additional tests and minor changes for jit.script compatibility [#377](https:\u002F\u002Fgithub.com\u002Fvita-epfl\u002Fopenpifpaf\u002Fpull\u002F377)\r\n* improve visualization of occupancy map for debugging\r\n","2021-04-09T12:46:15"]