[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-open-mmlab--mmskeleton":3,"tool-open-mmlab--mmskeleton":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":73,"owner_website":77,"owner_url":78,"languages":79,"stars":99,"forks":100,"last_commit_at":101,"license":102,"difficulty_score":103,"env_os":75,"env_gpu":104,"env_ram":104,"env_deps":105,"category_tags":108,"github_topics":109,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":115,"updated_at":116,"faqs":117,"releases":147},9774,"open-mmlab\u002Fmmskeleton","mmskeleton","A OpenMMLAB toolbox  for human pose estimation, skeleton-based action recognition, and action synthesis.","MMSkeleton 是一款由香港中文大学多媒体实验室开源的骨架分析工具箱，隶属于 OpenMMLab 项目体系。它专注于基于人体骨架数据的智能理解任务，核心功能涵盖骨架动作识别、2D 姿态估计以及自定义数据集构建，并预留了动作生成与 3D 姿态估计等扩展方向。\n\n针对研究人员和开发者在处理骨架数据时面临的算法复现难、框架扩展性差等痛点，MMSkeleton 提供了一套高度灵活且系统化的代码架构。其最大技术亮点在于极强的可扩展性，能够轻松适配各类复杂深度学习模型，并原生支持著名的 ST-GCN（时空图卷积网络）算法，帮助用户快速从理论研究过渡到实际应用。\n\n这款工具特别适合计算机视觉领域的科研人员、算法工程师以及高校学生使用。无论是希望快速验证新想法的学术研究者，还是需要构建定制化动作识别应用的开发人员，都能通过 MMSkeleton 高效地组织项目代码、训练模型并部署演示。作为开源社区的一部分，它在 Apache 2.0 协议下免费开放，旨在降低骨架分析领域的技术门槛，促进相关技术的交流与进步。","# MMSkeleton\n\n## Introduction\n\nMMSkeleton is an open source toolbox for skeleton-based human understanding.\nIt is a part of the [open-mmlab](https:\u002F\u002Fgithub.com\u002Fopen-mmlab) project in the charge of [Multimedia Laboratory, CUHK](http:\u002F\u002Fmmlab.ie.cuhk.edu.hk\u002F).\nMMSkeleton is developed on our research project [ST-GCN](https:\u002F\u002Fgithub.com\u002Fyysijie\u002Fst-gcn\u002Fblob\u002Fmaster\u002FOLD_README.md).\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmskeleton_readme_53e9c68dc635.gif\", width=\"700\">\n\u003C\u002Fp>\n\n## Updates\n- [2020-01-21] MMSkeleton v0.7 is released.\n- [2019-10-09] MMSkeleton v0.6 is released.\n- [2019-10-08] Support model zoo.\n- [2019-10-02] Support custom dataset.\n- [2019-09-23] Add video-based pose estimation demo.\n- [2019-08-29] MMSkeleton v0.5 is released.\n\n\n## Features\n\n- **High extensibility**\n\n    MMSkeleton provides a flexible framework for organizing codes and projects systematically, with the ability to extend to various tasks and scale up to complex deep models.\n\n- **Multiple tasks**\n\n    MMSkeleton addresses to multiple tasks in human understanding, including but not limited to:\n    - [x] [skeleton-based action recognition (ST-GCN)](.\u002Fdoc\u002FSTART_RECOGNITION.md)\n    - [x] [2D pose estimation](.\u002Fdoc\u002FSTART_POSE_ESTIMATION.md)\n    - [ ] skeleton-based action generation\n    - [ ] 3D pose estimation\n    - [ ] pose tracking\n    - [x] [build custom skeleton-based dataset](.\u002Fdoc\u002FCUSTOM_DATASET.md)\n    - [x] [create your own applications](.\u002Fdoc\u002FCREATE_APPLICATION.md)\n\n## Getting Started\n\nPlease see [GETTING_STARTED.md](.\u002Fdoc\u002FGETTING_STARTED.md) for more details of MMSkeleton.\n\n## License\nThe project is release under the [Apache 2.0 license](.\u002FLICENSE).\n\n## Contributing\nWe appreciate all contributions to improve MMSkeleton.\nPlease refer to [CONTRIBUTING.md](.\u002Fdoc\u002FCONTRIBUTING.md) for the contributing guideline.\n\n\n## Citation\nPlease cite the following paper if you use this repository in your reseach.\n\u003C!-- @inproceedings{stgcn2018aaai,\n  title     = {Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition},\n  author    = {Sijie Yan and Yuanjun Xiong and Dahua Lin},\n  booktitle = {AAAI},\n  year      = {2018},\n} -->\n```\n@misc{mmskeleton2019,\n  author =       {Sijie Yan, Yuanjun Xiong, Jingbo Wang, Dahua Lin},\n  title =        {MMSkeleton},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmskeleton}},\n  year =         {2019}\n}\n```\n\n## Contact\nFor any question, feel free to contact\n```\nSijie Yan     : ys016@ie.cuhk.edu.hk\nJingbo Wang   : wangjingbo1219@foxmail.com\nYuanjun Xiong : bitxiong@gmail.com\n```\n","# MMSkeleton\n\n## 简介\n\nMMSkeleton 是一个基于骨架的人体理解开源工具箱。\n它是 [open-mmlab](https:\u002F\u002Fgithub.com\u002Fopen-mmlab) 项目的一部分，由 [香港中文大学多媒体实验室](http:\u002F\u002Fmmlab.ie.cuhk.edu.hk\u002F) 负责维护。\nMMSkeleton 基于我们的研究项目 [ST-GCN](https:\u002F\u002Fgithub.com\u002Fyysijie\u002Fst-gcn\u002Fblob\u002Fmaster\u002FOLD_README.md) 开发。\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmskeleton_readme_53e9c68dc635.gif\", width=\"700\">\n\u003C\u002Fp>\n\n## 更新日志\n- [2020-01-21] MMSkeleton v0.7 发布。\n- [2019-10-09] MMSkeleton v0.6 发布。\n- [2019-10-08] 支持模型库。\n- [2019-10-02] 支持自定义数据集。\n- [2019-09-23] 添加基于视频的姿态估计演示。\n- [2019-08-29] MMSkeleton v0.5 发布。\n\n\n## 特性\n\n- **高度可扩展性**\n\n    MMSkeleton 提供了一个灵活的框架，用于系统地组织代码和项目，能够扩展到各种任务，并支持构建复杂的深度模型。\n\n- **多任务支持**\n\n    MMSkeleton 涵盖了人体理解中的多个任务，包括但不限于：\n    - [x] [基于骨架的动作识别 (ST-GCN)](.\u002Fdoc\u002FSTART_RECOGNITION.md)\n    - [x] [2D 姿态估计](.\u002Fdoc\u002FSTART_POSE_ESTIMATION.md)\n    - [ ] 基于骨架的动作生成\n    - [ ] 3D 姿态估计\n    - [ ] 姿态跟踪\n    - [x] [构建自定义的基于骨架的数据集](.\u002Fdoc\u002FCUSTOM_DATASET.md)\n    - [x] [创建您自己的应用](.\u002Fdoc\u002FCREATE_APPLICATION.md)\n\n## 快速入门\n\n有关 MMSkeleton 的更多详细信息，请参阅 [GETTING_STARTED.md](.\u002Fdoc\u002FGETTING_STARTED.md)。\n\n## 许可证\n本项目采用 [Apache 2.0 许可证](.\u002FLICENSE) 开源。\n\n## 贡献\n我们欢迎所有对 MMSkeleton 的改进贡献。\n请参考 [CONTRIBUTING.md](.\u002Fdoc\u002FCONTRIBUTING.md) 了解贡献指南。\n\n\n## 引用\n如果您在研究中使用本仓库，请引用以下论文：\n\u003C!-- @inproceedings{stgcn2018aaai,\n  title     = {Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition},\n  author    = {Sijie Yan and Yuanjun Xiong and Dahua Lin},\n  booktitle = {AAAI},\n  year      = {2018},\n} -->\n```\n@misc{mmskeleton2019,\n  author =       {Sijie Yan, Yuanjun Xiong, Jingbo Wang, Dahua Lin},\n  title =        {MMSkeleton},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmskeleton}},\n  year =         {2019}\n}\n```\n\n## 联系方式\n如有任何问题，请随时联系：\n```\nYan Sijie     : ys016@ie.cuhk.edu.hk\nWang Jingbo   : wangjingbo1219@foxmail.com\nXiong Yuanjun : bitxiong@gmail.com\n```","# MMSkeleton 快速上手指南\n\nMMSkeleton 是一个基于骨骼点的开源人体理解工具箱，由香港中文大学多媒体实验室开发。它支持骨骼动作识别（如 ST-GCN）、2D 姿态估计及自定义数据集构建等任务。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 16.04+)\n*   **Python**: 3.5+\n*   **深度学习框架**: PyTorch 1.1+\n*   **其他依赖**:\n    *   CUDA (如需 GPU 加速)\n    *   OpenCV\n    *   NumPy, Pillow 等基础科学计算库\n\n建议先安装好 PyTorch 环境。国内用户可使用清华或阿里镜像源加速安装：\n\n```bash\npip install torch torchvision -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 安装步骤\n\n### 1. 克隆仓库\n使用 git 克隆 MMSkeleton 代码库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmskeleton.git\ncd mmskeleton\n```\n\n### 2. 安装依赖\n安装项目所需的 Python 依赖包。推荐使用国内镜像源以提高下载速度：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 3. 安装 MMSkeleton\n以可编辑模式安装该工具包，以便进行开发和调试：\n\n```bash\npip install -e .\n```\n\n## 基本使用\n\n以下是一个最简单的骨骼动作识别示例流程，演示如何加载模型并进行推理。\n\n### 1. 准备数据\n确保您拥有符合格式的骨骼点数据（通常为 `.pkl` 或 `.json` 格式）。如果是自定义数据，请参考官方文档 `doc\u002FCUSTOM_DATASET.md` 进行配置。\n\n### 2. 运行推理示例\n假设您已下载了预训练模型权重（例如 `st_gcn_kinetics-skeleton.pth`），可以使用以下 Python 代码进行快速测试：\n\n```python\nimport torch\nfrom mmskeleton.apis import init_model, inference_skeleton\n\n# 配置文件路径 (需根据实际下载的配置文件调整)\nconfig_file = 'configs\u002Fst_gcn\u002Fkinetics-skeleton\u002Fst_gcn_80x256x50.py'\n# 预训练权重路径\ncheckpoint_file = 'checkpoints\u002Fst_gcn_kinetics-skeleton.pth'\n\n# 初始化模型\nmodel = init_model(config_file, checkpoint_file)\n\n# 模拟输入数据 (batch_size, num_person, num_frame, num_joint, coord_dim)\n# 此处仅为示例张量，实际使用时请替换为真实骨骼数据\ndummy_input = torch.randn(1, 2, 50, 18, 2) \n\n# 执行推理\nresult = inference_skeleton(model, dummy_input)\n\nprint(f\"预测结果类别索引：{result}\")\n```\n\n### 3. 视频姿态估计演示\nMMSkeleton 还支持从视频中提取姿态并进行识别。若已安装相关视觉依赖，可运行如下命令查看演示效果：\n\n```bash\npython demo\u002Fpose_estimation.py --video demo\u002Fdemo_video.mp4 --config configs\u002Fhrnet\u002Fcoco\u002Fhrnet_w32_256x192.py --checkpoint checkpoints\u002Fhrnet_w32_256x192.pth\n```\n\n> **提示**：更多详细任务（如训练自定义模型、构建数据集）请参阅 `doc\u002F` 目录下的具体文档。","某智慧养老社区的算法团队正致力于开发一套基于摄像头的老人跌倒检测与行为分析系统，需要精准识别人体骨骼动作以触发紧急警报。\n\n### 没有 mmskeleton 时\n- **重复造轮子耗时久**：团队需从零复现 ST-GCN 等经典骨架动作识别论文代码，数据预处理和模型搭建耗费数周时间。\n- **多任务协同困难**：人体姿态估计、动作识别和自定义数据集构建分散在不同框架中，代码风格不一，难以统一调试和维护。\n- **扩展性差**：当需要适配社区特有的“缓慢滑倒”或“久坐不起”等新动作类别时，修改底层网络结构极易引发兼容性问题。\n- **缺乏标准基准**：缺少预训练模型库（Model Zoo），无法快速验证算法在真实监控视频下的基线效果，项目启动风险高。\n\n### 使用 mmskeleton 后\n- **开箱即用提速**：直接调用 mmskeleton 内置的 ST-GCN 预训练模型和标准化数据加载器，将原型开发周期从数周缩短至几天。\n- **全流程一体化**：在一个统一框架下完成从视频姿态估计到骨架动作识别的完整链路，代码结构清晰，大幅降低集成成本。\n- **灵活定制业务**：利用其高扩展性架构，轻松注册自定义数据集并微调网络层，快速适配社区特有的异常行为识别需求。\n- **基准对比明确**：依托丰富的 Model Zoo 快速建立性能基准，通过对比实验迅速定位优化方向，确保算法落地可靠性。\n\nmmskeleton 通过提供模块化、可扩展的骨架分析全流程方案，让研发团队从繁琐的基础设施构建中解放出来，专注于核心业务逻辑的创新与落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmskeleton_53e9c68d.gif","open-mmlab","OpenMMLab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fopen-mmlab_7c171dd7.png","",null,"https:\u002F\u002Fopenmmlab.com","https:\u002F\u002Fgithub.com\u002Fopen-mmlab",[80,84,88,92,96],{"name":81,"color":82,"percentage":83},"Python","#3572A5",52.6,{"name":85,"color":86,"percentage":87},"Cuda","#3A4E3A",47.2,{"name":89,"color":90,"percentage":91},"Shell","#89e051",0.1,{"name":93,"color":94,"percentage":95},"C++","#f34b7d",0,{"name":97,"color":98,"percentage":95},"Makefile","#427819",3110,1063,"2026-04-15T15:07:20","Apache-2.0",4,"未说明",{"notes":106,"python":104,"dependencies":107},"README 中未包含具体的运行环境需求（如操作系统、GPU、内存、Python 版本及依赖库）。该项目基于 ST-GCN 研究，属于 OpenMMLab 系列，通常此类项目需要 PyTorch 环境和 NVIDIA GPU 支持，但具体版本要求需参考文档中提到的 GETTING_STARTED.md 文件。",[],[14],[110,111,112,113,114],"action-recognition","deep-learning","graph-convolutional-network","pytorch","skeleton-based-action-recognition","2026-03-27T02:49:30.150509","2026-04-20T04:06:02.996327",[118,123,128,133,138,142],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},43891,"训练 ST-GCN 模型时准确率极低（如 Top1 \u003C 2%）怎么办？","如果在使用默认参数或调整学习率后准确率仍然很低，建议尝试使用旧版本的 st-gcn 代码库。有用户反馈新版本可能因 mmcv 模块的兼容性问题导致训练失败，而切换到旧版本（https:\u002F\u002Fgithub.com\u002Fyysijie\u002Fst-gcn）后可以正常运行并获得预期结果。此外，检查是否遗漏了关键的预处理步骤或数据加载配置。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmskeleton\u002Fissues\u002F120",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},43892,"运行姿态估计演示时报错 'TypeError: __init__() got an unexpected keyword argument num_stages' 如何解决？","该错误通常是由于 mmdetection 版本与当前配置文件不兼容导致的。解决方案是更换或修改接口配置文件，确保使用的检测器配置与安装的 mmdet 版本匹配。有用户确认通过“换一下接口文件”解决了该问题。请检查您的 config 文件中是否包含了当前版本检测器不支持的参数（如 num_stages），并参考对应版本的文档进行调整。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmskeleton\u002Fissues\u002F321",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},43893,"如何使用摄像头实时视频流运行姿态识别演示？","可以直接将摄像头视频帧打包成网络所需的输入格式来实现实时运行。具体做法是将提取的姿态数据打包为形状 (3, t, 18, 1) 的张量，其中 t 代表时间步长（例如设置为 20），然后直接输入到网络中。有用户证实无需修改网络架构即可实现实时摄像头演示。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmskeleton\u002Fissues\u002F110",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},43894,"运行 Demo 时报错 'libcaffe.so.1.0.0: cannot open shared object file' 或找不到 Prototxt 文件怎么办？","此问题通常是因为 OpenPose 未正确找到模型文件。即使 OpenPose 单独运行正常，在项目中调用时也可能出错。请确保：1. 已下载 OpenPose 训练好的模型文件；2. 运行命令时所在的目录包含 `model` 文件夹，或者使用绝对路径指定模型位置；3. 路径中不包含空格。错误信息明确提示需要检查 `models\u002Fpose\u002Fbody_25\u002Fpose_deploy.prototxt` 是否存在。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmskeleton\u002Fissues\u002F51",{"id":139,"question_zh":140,"answer_zh":141,"source_url":122},43895,"在新数据集上训练时，加载预训练模型出现 'size mismatch for fcn.weight' 维度不匹配错误如何解决？","当新数据集的类别数（num_class）与预训练模型（如 Kinetics 数据集的 400 类）不一致时，直接加载权重会导致维度不匹配。解决方法是修改配置文件中的 `num_class` 参数以匹配新数据集的类别数（例如改为 100），并且在加载预训练模型时，通常需要忽略最后全连接层（fcn）的权重报错，或者只加载骨干网络的权重，重新初始化分类头。",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},43896,"安装时运行 setup.py 报错 'unknown file type .pyx' 是什么原因？","该错误表明系统中缺少 Cython 依赖或 Cython 未正确生效，导致无法编译 .pyx 文件。虽然用户可能已经安装了 Cython，但需要确保在安装环境（conda 或 virtualenv）中 Cython 可用。建议在运行 `python setup.py develop` 之前，显式执行 `pip install cython` 或 `conda install cython`，并重启终端以确保环境变量生效。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmskeleton\u002Fissues\u002F292",[148,152],{"id":149,"version":150,"summary_zh":76,"released_at":151},351340,"v0.7rc1","2020-01-21T12:26:12",{"id":153,"version":154,"summary_zh":154,"released_at":155},351341,"v0.7rc0","2020-01-21T11:31:40"]