[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-rwightman--posenet-python":3,"tool-rwightman--posenet-python":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":79,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":104,"github_topics":105,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":109,"updated_at":110,"faqs":111,"releases":139},579,"rwightman\u002Fposenet-python","posenet-python","A Python port of Google TensorFlow.js PoseNet (Real-time Human Pose Estimation)","posenet-python 是将 Google TensorFlow.js PoseNet 模型移植到 Python 环境的开源项目，专注于实时人体姿态估计。它能精准识别图像或视频流中人体的关键关节点与骨架结构，解决了在 Python 生态中直接调用 PoseNet 模型的兼容性问题，让开发者无需依赖 JavaScript 环境即可轻松集成姿态分析功能。\n\nposenet-python 非常适合计算机视觉开发者、AI 研究人员以及希望快速构建姿态检测应用的工程师。它的独特之处在于纯 Python 实现，并通过向量化优化的 NumPy 和 SciPy 函数显著提升了运行效率。在配备高性能显卡的机器上，多姿态后处理代码可维持每秒 90 至 110 帧的处理速度。此外，项目内置了图片批处理、性能基准测试及网络摄像头实时演示等多种脚本，支持加载不同深度的 MobileNet 模型，为用户提供了从离线推理到实时交互的完整解决方案，是探索姿态估计技术的理想入门选择。","## PoseNet Python\n\nThis repository contains a pure Python implementation (multi-pose only) of the Google TensorFlow.js Posenet model. For a (slightly faster) PyTorch implementation that followed from this, see (https:\u002F\u002Fgithub.com\u002Frwightman\u002Fposenet-pytorch)\n\nI first adapted the JS code more or less verbatim and found the performance was low so made some vectorized numpy\u002Fscipy version of a few key functions (named `_fast`).\n\nFurther optimization is possible\n* The base MobileNet models have a throughput of 200-300 fps on a GTX 1080 Ti (or better)\n* The multi-pose post processing code brings this rate down significantly. With a fast CPU and a GTX 1080+:\n  * A literal translation of the JS post processing code dropped performance to approx 30fps\n  * My 'fast' post processing results in 90-110fps\n* A Cython or pure C++ port would be even better...  \n\n### Install\n\nA suitable Python 3.x environment with a recent version of Tensorflow is required.\n\nDevelopment and testing was done with Conda Python 3.6.8 and Tensorflow 1.12.0 on Linux.\n\nWindows 10 with the latest (as of 2019-01-19) 64-bit Python 3.7 Anaconda installer was also tested.\n\nIf you want to use the webcam demo, a pip version of opencv (`pip install opencv-python`) is required instead of the conda version. Anaconda's default opencv does not include ffpmeg\u002FVideoCapture support. Also, you may have to force install version 3.4.x as 4.x has a broken drawKeypoints binding.\n\nA conda environment setup as below should suffice: \n```\nconda install tensorflow-gpu scipy pyyaml python=3.6\npip install opencv-python==3.4.5.20\n\n```\n\n### Usage\n\nThere are three demo apps in the root that utilize the PoseNet model. They are very basic and could definitely be improved.\n\nThe first time these apps are run (or the library is used) model weights will be downloaded from the TensorFlow.js version and converted on the fly.\n\nFor all demos, the model can be specified with the '--model` argument by using its ordinal id (0-3) or integer depth multiplier (50, 75, 100, 101). The default is the 101 model.\n\n#### image_demo.py \n\nImage demo runs inference on an input folder of images and outputs those images with the keypoints and skeleton overlayed.\n\n`python image_demo.py --model 101 --image_dir .\u002Fimages --output_dir .\u002Foutput`\n\nA folder of suitable test images can be downloaded by first running the `get_test_images.py` script.\n\n#### benchmark.py\n\nA minimal performance benchmark based on image_demo. Images in `--image_dir` are pre-loaded and inference is run `--num_images` times with no drawing and no text output.\n\n#### webcam_demo.py\n\nThe webcam demo uses OpenCV to capture images from a connected webcam. The result is overlayed with the keypoints and skeletons and rendered to the screen. The default args for the webcam_demo assume device_id=0 for the camera and that 1280x720 resolution is possible.\n\n### Credits\n\nThe original model, weights, code, etc. was created by Google and can be found at https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftfjs-models\u002Ftree\u002Fmaster\u002Fposenet\n\nThis port and my work is in no way related to Google.\n\nThe Python conversion code that started me on my way was adapted from the CoreML port at https:\u002F\u002Fgithub.com\u002Finfocom-tpo\u002FPoseNet-CoreML\n\n### TODO (someday, maybe)\n* More stringent verification of correctness against the original implementation\n* Performance improvements (especially edge loops in 'decode.py')\n* OpenGL rendering\u002Fdrawing\n* Comment interfaces, tensor dimensions, etc\n* Implement batch inference for image_demo\n\n","## PoseNet Python\n\n此仓库包含 Google TensorFlow.js Posenet 模型的纯 Python 实现（仅支持多姿态）。关于由此衍生的（稍快一点的）PyTorch 实现，请参阅 (https:\u002F\u002Fgithub.com\u002Frwightman\u002Fposenet-pytorch)\n\n我最初几乎逐字翻译了 JS 代码，发现性能较低，因此为几个关键函数制作了向量化的 numpy (NumPy)\u002Fscipy (SciPy) 版本（命名为 `_fast`）。\n\n进一步优化是可能的\n* 基础 MobileNet 模型在 GTX 1080 Ti（或更好）上的吞吐量可达 200-300 fps\n* 多姿态后处理代码显著降低了这一速率。使用快速 CPU 和 GTX 1080+：\n  * JS 后处理代码的字面翻译将性能降至约 30fps\n  * 我的“快速”后处理结果为 90-110fps\n* Cython 或纯 C++ 移植版本会更好……  \n\n### 安装\n\n需要一个合适的 Python 3.x 环境以及最新版本的 TensorFlow。\n\n开发和测试是在 Linux 上使用 Conda Python 3.6.8 和 TensorFlow 1.12.0 完成的。\n\nWindows 10 配合最新的（截至 2019-01-19）64 位 Python 3.7 Anaconda 安装程序也经过了测试。\n\n如果你想使用摄像头演示，需要 pip 版本的 opencv（`pip install opencv-python`），而不是 conda 版本。Anaconda 默认的 opencv 不包含 ffmpeg\u002FVideoCapture 支持。此外，你可能需要强制安装 3.4.x 版本，因为 4.x 版本的 drawKeypoints 绑定已损坏。\n\n以下 conda 环境设置应该就足够了： \n```\nconda install tensorflow-gpu scipy pyyaml python=3.6\npip install opencv-python==3.4.5.20\n\n```\n\n### 用法\n\n根目录下有三个利用 PoseNet 模型的演示应用程序。它们非常基础，肯定可以改进。\n\n首次运行这些应用程序（或使用库）时，模型权重 (model weights) 将从 TensorFlow.js 版本下载并即时转换。\n\n对于所有演示，可以通过使用其序数 ID（0-3）或整数深度乘数（50, 75, 100, 101）来通过 `--model` 参数指定模型。默认是 101 模型。\n\n#### image_demo.py \n\n图像演示对输入文件夹中的图像运行推理 (inference)，并输出带有叠加关键点 (keypoints) 和骨架 (skeleton) 的图像。\n\n`python image_demo.py --model 101 --image_dir .\u002Fimages --output_dir .\u002Foutput`\n\n可以通过先运行 `get_test_images.py` 脚本来下载适合测试的图像文件夹。\n\n#### benchmark.py\n\n基于 image_demo 的最小性能基准测试。`--image_dir` 中的图像被预加载，推理运行 `--num_images` 次，无绘图且无文本输出。\n\n#### webcam_demo.py\n\n摄像头演示使用 OpenCV 从连接的摄像头捕获图像。结果与关键点 (keypoints) 和骨架 (skeleton) 叠加并渲染到屏幕上。webcam_demo 的默认参数假设相机 device_id=0，并且可能支持 1280x720 分辨率。\n\n### 致谢\n\n原始模型、权重、代码等由 Google 创建，可在 https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftfjs-models\u002Ftree\u002Fmaster\u002Fposenet 找到\n\n此移植版本及我的工作与 Google 没有任何关系。\n\n开启我之路的 Python 转换代码改编自 CoreML 移植版本，位于 https:\u002F\u002Fgithub.com\u002Finfocom-tpo\u002FPoseNet-CoreML\n\n### TODO（总有一天，也许）\n* 更严格地验证与原实现的一致性\n* 性能提升（特别是 `decode.py` 中的边缘循环）\n* OpenGL 渲染\u002F绘图\n* 注释接口、张量 (tensor) 维度等\n* 为 image_demo 实现批量推理 (batch inference)","# posenet-python 快速上手指南\n\n**PoseNet Python** 是 Google TensorFlow.js PoseNet 模型的纯 Python 实现（仅支持多姿态）。本指南介绍如何在本地环境中快速部署和运行该工具。\n\n## 环境准备\n\n*   **操作系统**：Linux 或 Windows 10+\n*   **Python 版本**：推荐使用 Python 3.6 或 3.7\n*   **包管理工具**：推荐使用 Conda 管理环境\n*   **核心依赖**：TensorFlow, SciPy, PyYAML\n*   **特别注意**：\n    *   若需使用摄像头功能 (`webcam_demo.py`)，必须通过 `pip` 安装 `opencv-python`（而非 Conda 默认版本），因为后者可能缺少 ffmpeg\u002FVideoCapture 支持。\n    *   建议使用 OpenCV 3.4.x 版本，4.x 版本存在 `drawKeypoints` 绑定问题。\n\n## 安装步骤\n\n在 Conda 环境中执行以下命令安装依赖：\n\n```bash\nconda install tensorflow-gpu scipy pyyaml python=3.6\npip install opencv-python==3.4.5.20\n```\n\n> **提示**：由于涉及 TensorFlow 及模型权重的下载，国内开发者如遇网络问题，建议在 `pip` 和 `conda` 命令中配置国内镜像源以提升速度。\n\n## 基本使用\n\n首次运行程序时，系统会自动从 TensorFlow.js 版本下载模型权重并进行转换。所有演示应用均支持通过 `--model` 参数指定模型（可使用序号 0-3 或深度乘数 50, 75, 100, 101，默认为 101）。\n\n### 1. 图片批量处理 (`image_demo.py`)\n对输入文件夹中的图片进行推理，并在输出图片上叠加关键点与骨架。\n\n```bash\npython image_demo.py --model 101 --image_dir .\u002Fimages --output_dir .\u002Foutput\n```\n*注：可先运行 `get_test_images.py` 脚本获取测试图片。*\n\n### 2. 性能基准测试 (`benchmark.py`)\n基于 `image_demo` 的简化版，预加载图像并多次运行推理以测试性能（无绘图和文本输出）。\n\n```bash\npython benchmark.py --image_dir \u003C路径> --num_images \u003C次数>\n```\n\n### 3. 摄像头实时检测 (`webcam_demo.py`)\n调用连接的网络摄像头捕获图像，实时显示关键点与骨架。默认假设设备 ID 为 0，分辨率为 1280x720。\n\n```bash\npython webcam_demo.py\n```","某智能健身初创团队正在开发基于 Web 摄像头的实时瑜伽动作纠正系统，需精准捕捉人体关节点以提供即时反馈。\n\n### 没有 posenet-python 时\n- 依赖 JavaScript 环境导致后端集成复杂，Python 服务难以直接调用模型进行推理。\n- 现有通用方案帧率过低，无法实现流畅的实时反馈，用户操作有明显延迟感。\n- 多用户同框检测能力弱，家庭场景中多人同时锻炼无法准确识别各自骨骼。\n- 模型部署繁琐，需手动转换权重并处理复杂的推理流程，增加维护成本。\n\n### 使用 posenet-python 后\n- `posenet-python` 提供纯 Python 实现，无缝对接现有 TensorFlow 后端架构，无需跨语言调用。\n- 优化后的推理速度可达 90fps 以上，确保动作捕捉与屏幕渲染同步，体验流畅。\n- 原生支持多人姿态估计，轻松应对家庭成员共同练习的场景，识别准确率提升。\n- 内置 Webcam Demo 可直接复用，大幅缩短从原型验证到产品上线的开发周期。\n\n它让开发者能低成本构建高性能的实时人体交互应用，显著提升开发效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frwightman_posenet-python_386f59c3.png","rwightman","Ross Wightman","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Frwightman_2b42e5de.jpg","AI, Computer Vision. Always learning, constantly curious. Building ML\u002FAI systems, watching loss curves.",null,"Vancouver, BC, Canada","wightmanr","rwightman.com","https:\u002F\u002Fgithub.com\u002Frwightman",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,506,183,"2026-03-27T09:52:14","Apache-2.0","Linux, Windows","需要 NVIDIA GPU (GTX 1080+ 推荐)，显存大小未说明","未说明",{"notes":97,"python":98,"dependencies":99},"首次运行需下载并转换模型权重；OpenCV 建议使用 3.4.x 版本（4.x 存在 drawKeypoints 绑定问题）；性能依赖硬件，GTX 1080+ 下多姿态处理约 90-110fps","3.6+",[100,101,102,103],"tensorflow-gpu","scipy","pyyaml","opencv-python",[13],[106,107,108],"human-pose-estimation","deep-learning","tensorflow","2026-03-27T02:49:30.150509","2026-04-06T05:16:02.066248",[112,117,121,126,130,134],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},2367,"运行 image_demo.py 时报错找不到模型文件怎么办？","更新到最新提交后，需要手动清理临时文件夹。在 Windows 上，通常位于 `C:\\Users\\user\\AppData\\Local\\Temp\\_posenet_weights`。请进入该路径并删除相关缓存文件，然后重新运行程序。","https:\u002F\u002Fgithub.com\u002Frwightman\u002Fposenet-python\u002Fissues\u002F18",{"id":118,"question_zh":119,"answer_zh":120,"source_url":116},2368,"遇到模型转换错误或 YAML 加载警告如何解决？","这可能是由于存储服务器更改导致 JSON 文件被 gzip 编码引起的。请确保更新到项目的最新提交（commit），最新的修复应该能同时解决 Linux 和 Windows 上的此类问题。",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},2369,"为什么 Python 版本的检测效果不如 TensorFlow.js 演示？","主要原因是分辨率设置不同。JS 演示默认使用 600x500 分辨率，而 Python 代码默认可能是 640x480 或其他。尝试将 Python 代码中的默认分辨率调整为 640x480 或匹配 JS 的尺寸，效果会有明显改善。","https:\u002F\u002Fgithub.com\u002Frwightman\u002Fposenet-python\u002Fissues\u002F11",{"id":127,"question_zh":128,"answer_zh":129,"source_url":125},2370,"如何调整 PoseNet 的缩放比例以获得更好的检测效果？","检查 scale factor 参数。JS 版本默认设置为 0.5，而某些配置可能使用了 0.7。修改这个参数对结果影响很大，建议尝试将其设置为 0.5 进行测试。",{"id":131,"question_zh":132,"answer_zh":133,"source_url":125},2371,"如何通过图像处理优化 PoseNet 的输出质量？","PoseNet 基于梯度工作，增强边缘有助于检测。可以尝试调整视频的亮度和对比度，例如增加对比度并降低亮度。虽然视频滤波不会剧烈改变输出，但适当的预处理（如针对热成像或可见光调整）能带来改善。",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},2372,"如何实现单人体姿态识别而不是多人体？","该项目没有单独的单人体模型，区别在于如何解释输出。可以通过修改代码逻辑来筛选单个人体。已有用户分享过在低端硬件上使用特定模型文件（如 `model-mobilenet_v1_050.pb`）实现单人体识别的代码示例。","https:\u002F\u002Fgithub.com\u002Frwightman\u002Fposenet-python\u002Fissues\u002F24",[]]