[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xingyizhou--CenterNet2":3,"tool-xingyizhou--CenterNet2":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,2,"2026-04-08T11:23:26",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[43,15,13,14],"语言模型",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":59,"last_commit_at":60,"category_tags":61,"status":17},5646,"opencv","opencv\u002Fopencv","OpenCV 是一个功能强大的开源计算机视觉库，被誉为机器视觉领域的“瑞士军刀”。它主要解决让计算机“看懂”图像和视频的核心难题，提供了从基础的图像读取、色彩转换、边缘检测，到复杂的人脸识别、物体追踪、3D 重建及深度学习模型部署等全方位算法支持。无论是处理静态图片还是分析实时视频流，OpenCV 都能高效完成特征提取与模式识别任务。\n\n这款工具特别适合计算机视觉开发者、人工智能研究人员以及机器人工程师使用。对于希望将视觉感知能力集成到应用中的软件工程师，或是需要快速验证算法原型的学术研究者，OpenCV 都是不可或缺的基础设施。虽然普通用户通常不会直接操作代码，但日常生活中使用的扫码支付、美颜相机和自动驾驶系统，背后往往都有它的身影。\n\nOpenCV 的独特亮点在于其卓越的性能与广泛的兼容性。它采用 C++ 编写以确保高速运算，同时提供 Python、Java 等多种语言接口，极大降低了开发门槛。库中内置了数千种优化算法，并支持跨平台运行，能够无缝对接各类硬件加速器。作为社区驱动的项目，OpenCV 拥有活跃的生态系统和丰富的学习资源，持续推动着视觉技术的前沿发展。",86988,1,"2026-04-08T16:06:22",[14,15],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":100,"env_os":101,"env_gpu":102,"env_ram":103,"env_deps":104,"category_tags":111,"github_topics":112,"view_count":32,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":115,"updated_at":116,"faqs":117,"releases":147},6026,"xingyizhou\u002FCenterNet2","CenterNet2","Two-stage CenterNet","CenterNet2 是一款先进的开源目标检测算法，旨在通过创新的“概率两阶段检测”机制，在速度与精度之间取得卓越平衡。它巧妙地将无类别的单阶段检测器作为提议网络（第一阶段），用于估算物体存在的概率；随后在第二阶段，仅对这些高概率区域进行条件化的具体分类。\n\n这一设计有效解决了传统两阶段检测器因候选框过多导致速度慢，以及单阶段检测器在复杂场景下精度不足的痛点。相比同类方案，CenterNet2 仅需更少的候选框即可实现更高准确率，同时保持了轻量级的计算开销。其最佳模型在权威的 COCO 测试集上达到了 56.4 mAP 的优异成绩。\n\n该工具特别适合计算机视觉领域的研究人员与开发者使用，尤其是那些需要基于 Detectron2 框架进行高性能目标检测模型训练、评估或部署的专业人士。除了核心的两阶段架构，CenterNet2 还提供了优化的单阶段版本及新的 FPN 结构，支持多尺度训练，并兼容 LVIS 等长尾分布数据集，为学术探索和工业级应用提供了灵活且强大的技术基座。","# Probabilistic two-stage detection\nTwo-stage object detectors that use class-agnostic one-stage detectors as the proposal network.\n\n\n\u003Cp align=\"center\"> \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxingyizhou_CenterNet2_readme_0b3e5258ba4e.jpg' align=\"center\" height=\"150px\"> \u003C\u002Fp>\n\n> [**Probabilistic two-stage detection**](http:\u002F\u002Farxiv.org\u002Fabs\u002F2103.07461),            \n> Xingyi Zhou, Vladlen Koltun, Philipp Kr&auml;henb&uuml;hl,        \n> *arXiv technical report ([arXiv 2103.07461](http:\u002F\u002Farxiv.org\u002Fabs\u002F2103.07461))*         \n\nContact: [zhouxy@cs.utexas.edu](mailto:zhouxy@cs.utexas.edu). Any questions or discussions are welcomed! \n\n## Summary\n\n- Two-stage CenterNet: First stage estimates object probabilities, second stage conditionally classifies objects.\n\n- Resulting detector is faster and more accurate than both traditional two-stage detectors (fewer proposals required), and one-stage detectors (lighter first stage head).\n\n- Our best model achieves 56.4 mAP on COCO test-dev.\n\n- This repo also includes a detectron2-based CenterNet implementation with better accuracy (42.5 mAP at 70FPS) and a new FPN version of CenterNet (40.2 mAP with Res50_1x).\n\n## Main results\n\nAll models are trained with multi-scale training, and tested with a single scale. The FPS is tested on a Titan RTX GPU.\nMore models and details can be found in the [MODEL_ZOO](docs\u002FMODEL_ZOO.md).\n\n#### COCO\n\n| Model                                     |  COCO val mAP |  FPS  |\n|-------------------------------------------|---------------|-------|\n| CenterNet-S4_DLA_8x                       |  42.5         |   71  |\n| CenterNet2_R50_1x                         |  42.9         |   24  |\n| CenterNet2_X101-DCN_2x                    |  49.9         |    8  |\n| CenterNet2_R2-101-DCN-BiFPN_4x+4x_1560_ST |  56.1         |    5  |\n| CenterNet2_DLA-BiFPN-P5_24x_ST            |  49.2         |   38  |\n\n\n#### LVIS \n\n| Model                     | val mAP box |\n| ------------------------- | ----------- |\n| CenterNet2_R50_1x         | 26.5        |\n| CenterNet2_FedLoss_R50_1x | 28.3        |\n\n\n#### Objects365\n\n| Model                                     |  val mAP |\n|-------------------------------------------|----------|\n| CenterNet2_R50_1x                         |  22.6    |\n\n## Installation\n\nOur project is developed on [detectron2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2). Please follow the official detectron2 [installation](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2\u002Fblob\u002Fmaster\u002FINSTALL.md).\n\nWe use the default detectron2 demo script. To run inference on an image folder using our pre-trained model, run\n\n~~~\npython demo.py --config-file configs\u002FCenterNet2_R50_1x.yaml --input path\u002Fto\u002Fimage\u002F --opts MODEL.WEIGHTS models\u002FCenterNet2_R50_1x.pth\n~~~\n\n## Benchmark evaluation and training\n\nPlease check detectron2 [GETTING_STARTED.md](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2\u002Fblob\u002Fmaster\u002FGETTING_STARTED.md) for running evaluation and training. Our config files are under `configs` and the pre-trained models are in the [MODEL_ZOO](docs\u002FMODEL_ZOO.md).\n\n\n## License\n\nOur code is under [Apache 2.0 license](LICENSE). `centernet\u002Fmodeling\u002Fbackbone\u002Fbifpn_fcos.py` are from [AdelaiDet](https:\u002F\u002Fgithub.com\u002Faim-uofa\u002FAdelaiDet), which follows the original [non-commercial license](https:\u002F\u002Fgithub.com\u002Faim-uofa\u002FAdelaiDet\u002Fblob\u002Fmaster\u002FLICENSE).\n\n## Citation\n\nIf you find this project useful for your research, please use the following BibTeX entry.\n\n    @inproceedings{zhou2021probablistic,\n      title={Probabilistic two-stage detection},\n      author={Zhou, Xingyi and Koltun, Vladlen and Kr{\\\"a}henb{\\\"u}hl, Philipp},\n      booktitle={arXiv preprint arXiv:2103.07461},\n      year={2021}\n    }\n","# 概率两阶段检测\n使用与类别无关的单阶段检测器作为候选区域生成网络的两阶段目标检测器。\n\n\n\u003Cp align=\"center\"> \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxingyizhou_CenterNet2_readme_0b3e5258ba4e.jpg' align=\"center\" height=\"150px\"> \u003C\u002Fp>\n\n> [**概率两阶段检测**](http:\u002F\u002Farxiv.org\u002Fabs\u002F2103.07461),            \n> 周星毅、弗拉德伦·科尔图恩、菲利普·克雷亨布尔,        \n> *arXiv 技术报告 ([arXiv 2103.07461](http:\u002F\u002Farxiv.org\u002Fabs\u002F2103.07461))*         \n\n联系邮箱：[zhouxy@cs.utexas.edu](mailto:zhouxy@cs.utexas.edu)。欢迎任何问题或讨论！\n\n## 摘要\n\n- 两阶段 CenterNet：第一阶段估计目标概率，第二阶段对目标进行条件分类。\n- 所得检测器比传统两阶段检测器（所需候选框更少）和单阶段检测器（第一阶段头更轻量）都更快且更准确。\n- 我们的最佳模型在 COCO test-dev 上达到了 56.4 mAP。\n- 此仓库还包含一个基于 detectron2 的 CenterNet 实现，其精度更高（70 FPS 下为 42.5 mAP），以及一个新的 FPN 版本的 CenterNet（Res50_1x 下为 40.2 mAP）。\n\n## 主要结果\n\n所有模型均采用多尺度训练，并在单尺度下测试。FPS 测试在 Titan RTX GPU 上进行。\n更多模型和详细信息请参阅 [MODEL_ZOO](docs\u002FMODEL_ZOO.md)。\n\n#### COCO\n\n| 模型                                     |  COCO 验证集 mAP |  FPS  |\n|-------------------------------------------|---------------|-------|\n| CenterNet-S4_DLA_8x                       |  42.5         |   71  |\n| CenterNet2_R50_1x                         |  42.9         |   24  |\n| CenterNet2_X101-DCN_2x                    |  49.9         |    8  |\n| CenterNet2_R2-101-DCN-BiFPN_4x+4x_1560_ST |  56.1         |    5  |\n| CenterNet2_DLA-BiFPN-P5_24x_ST            |  49.2         |   38  |\n\n\n#### LVIS \n\n| 模型                     | 验证集 box mAP |\n| ------------------------- | ----------- |\n| CenterNet2_R50_1x         | 26.5        |\n| CenterNet2_FedLoss_R50_1x | 28.3        |\n\n\n#### Objects365\n\n| 模型                                     |  验证集 mAP |\n|-------------------------------------------|----------|\n| CenterNet2_R50_1x                         |  22.6    |\n\n## 安装\n\n我们的项目基于 [detectron2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2) 开发。请按照官方 detectron2 的 [安装说明](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2\u002Fblob\u002Fmaster\u002FINSTALL.md) 进行安装。\n\n我们使用默认的 detectron2 示例脚本。要使用我们的预训练模型对图像文件夹进行推理，请运行：\n\n~~~\npython demo.py --config-file configs\u002FCenterNet2_R50_1x.yaml --input path\u002Fto\u002Fimage\u002F --opts MODEL.WEIGHTS models\u002FCenterNet2_R50_1x.pth\n~~~\n\n## 基准评估和训练\n\n请参阅 detectron2 的 [GETTING_STARTED.md](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2\u002Fblob\u002Fmaster\u002FGETTING_STARTED.md)，了解如何运行评估和训练。我们的配置文件位于 `configs` 目录下，预训练模型则存放在 [MODEL_ZOO](docs\u002FMODEL_ZOO.md) 中。\n\n## 许可证\n\n我们的代码采用 [Apache 2.0 许可证](LICENSE)。其中的 `centernet\u002Fmodeling\u002Fbackbone\u002Fbifpn_fcos.py` 来自 [AdelaiDet](https:\u002F\u002Fgithub.com\u002Faim-uofa\u002FAdelaiDet)，该库遵循原始的 [非商业许可](https:\u002F\u002Fgithub.com\u002Faim-uofa\u002FAdelaiDet\u002Fblob\u002Fmaster\u002FLICENSE)。\n\n## 引用\n\n如果您认为本项目对您的研究有所帮助，请使用以下 BibTeX 条目：\n\n    @inproceedings{zhou2021probablistic,\n      title={Probabilistic two-stage detection},\n      author={Zhou, Xingyi and Koltun, Vladlen and Kr{\\\"a}henb{\\\"u}hl, Philipp},\n      booktitle={arXiv preprint arXiv:2103.07461},\n      year={2021}\n    }","# CenterNet2 快速上手指南\n\nCenterNet2 是一种基于概率的两阶段目标检测器，它利用类别无关的单阶段检测器作为提议网络（Proposal Network）。相比传统两阶段检测器，它在更少提议下实现了更高的精度和速度；相比单阶段检测器，其第一阶段的头部更轻量。该模型在 COCO test-dev 上最高可达 56.4 mAP。\n\n本项目基于 [detectron2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2) 框架开发。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求和依赖：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+)\n*   **Python**: 3.6 - 3.9\n*   **PyTorch**: 1.6 或更高版本\n*   **CUDA**: 需安装与 PyTorch 版本匹配的 CUDA 驱动\n*   **前置依赖**: \n    *   本项目强依赖 `detectron2`。\n    *   国内用户建议使用清华源或阿里源加速 Python 包和 PyTorch 的安装。\n\n## 安装步骤\n\n### 1. 安装 detectron2\n请严格按照 detectron2 官方安装指南进行操作。国内用户可参考以下加速命令（以 PyTorch 1.8 + CUDA 11.1 为例，具体版本请根据你的环境调整）：\n\n```bash\n# 设置 pip 镜像源 (可选，加速下载)\npip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装 detectron2 (示例命令，请访问 detectron2 官网获取适合你环境的最新命令)\npython -m pip install 'git+https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2.git'\n```\n> 注意：如果上述 git 安装速度慢，可克隆仓库后本地安装，或查找国内镜像构建的 wheel 包。\n\n### 2. 克隆 CenterNet2 代码库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fxingyizhou\u002FCenterNet2.git\ncd CenterNet2\n```\n\n### 3. 下载预训练模型\n从 [MODEL_ZOO](docs\u002FMODEL_ZOO.md) 下载所需的预训练权重文件（例如 `CenterNet2_R50_1x.pth`），并放置在项目根目录下的 `models\u002F` 文件夹中（若文件夹不存在请自行创建）。\n\n## 基本使用\n\n安装完成后，你可以直接使用提供的 `demo.py` 脚本对图片或文件夹进行推理。\n\n以下是最简单的使用示例，使用 ResNet-50  backbone 的预训练模型对指定文件夹内的图片进行检测：\n\n```bash\npython demo.py --config-file configs\u002FCenterNet2_R50_1x.yaml --input path\u002Fto\u002Fimage\u002F --opts MODEL.WEIGHTS models\u002FCenterNet2_R50_1x.pth\n```\n\n**参数说明：**\n*   `--config-file`: 指定配置文件路径。\n*   `--input`: 输入图片路径或文件夹路径。\n*   `--opts MODEL.WEIGHTS`: 指定下载的预训练模型权重文件路径。\n\n运行后，检测结果将默认显示在屏幕上或保存至输出目录（具体行为取决于 demo 脚本的默认配置）。如需进行训练或更复杂的评估，请参考 detectron2 的 `GETTING_STARTED.md` 文档及本项目的 `configs` 目录。","某自动驾驶初创团队正在开发城市道路感知系统，需要实时精准地检测车辆、行人及各类交通标志以保障行车安全。\n\n### 没有 CenterNet2 时\n- **漏检率高**：传统单阶段检测器在处理远处小目标（如斑马线上的行人）时概率估计不准，导致频繁漏检，存在严重安全隐患。\n- **推理延迟大**：经典两阶段检测器生成的候选框过多，计算冗余严重，在车载 GPU 上难以维持高帧率，影响决策响应速度。\n- **长尾类别识别差**：面对数据集中罕见的交通设施（如特殊施工牌），模型分类能力弱，误判或无法识别的情况频发。\n- **资源消耗高**：为了平衡精度与速度，不得不堆叠更深的骨干网络，导致显存占用过高，难以部署在边缘计算设备上。\n\n### 使用 CenterNet2 后\n- **概率感知更精准**：利用第一阶段的类无关概率估计，CenterNet2 能更敏锐地捕捉低置信度目标，显著提升了小目标和遮挡物体的检出率。\n- **检测速度飞跃**：得益于更轻量的一阶段提议网络和更少的候选框，模型在 Titan RTX 上可达 70+ FPS，完美满足实时性要求。\n- **长尾分布优化**：结合条件分类机制与 FedLoss 策略，CenterNet2 在 LVIS 等长尾数据集上表现优异，能准确识别罕见交通标志。\n- **效率精度双赢**：在减少计算量的同时，COCO 测试集 mAP 提升至 56.4，让团队能用更小的模型实现超越传统方案的检测精度。\n\nCenterNet2 通过 probabilistic two-stage 架构，成功打破了自动驾驶场景中“高精度”与“低延迟”不可兼得的技术瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxingyizhou_CenterNet2_f60e13f8.png","xingyizhou","Xingyi Zhou","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxingyizhou_5a24102f.jpg","Scientist at AMI Labs","AMI Labs","New York","zhouxy2017@gmail.com",null,"xingyizhou.xyz","https:\u002F\u002Fgithub.com\u002Fxingyizhou",[84,88,92],{"name":85,"color":86,"percentage":87},"Python","#3572A5",97.7,{"name":89,"color":90,"percentage":91},"C++","#f34b7d",2.1,{"name":93,"color":94,"percentage":95},"CMake","#DA3434",0.2,1219,188,"2026-04-09T14:06:16","Apache-2.0",4,"Linux","需要 NVIDIA GPU（测试环境为 Titan RTX），具体显存和 CUDA 版本取决于 detectron2 及 PyTorch 的要求，通常建议 8GB+ 显存","未说明",{"notes":105,"python":103,"dependencies":106},"该项目基于 detectron2 开发，需优先按照 detectron2 官方文档完成安装。部分骨干网络代码（bifpn_fcos.py）源自 AdelaiDet，遵循非商业许可协议。测试 FPS 数据基于 Titan RTX GPU 得出。",[107,108,109,110],"detectron2","torch","torchvision","AdelaiDet (部分代码引用)",[15],[113,114],"object-detection","coco","2026-03-27T02:49:30.150509","2026-04-10T07:45:00.543494",[118,123,127,132,137,142],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},27287,"CustomCascadeROIHeads 和 CustomFastRCNNOutputLayers 与原始 Detectron2 模块有什么区别？","主要区别在于：1. 在测试期间，自定义头（custom heads）实现了将提议概率（proposal probability）乘以最终检测分数的功能，这可以带来约 1 mAP 的性能提升。2. 自定义输出层（CustomFastRCNNOutputLayers）包含针对 LVIS 数据集的联合损失（Federated loss）实现。如果仅用于 COCO 数据集训练，使用原始实现也是可以的，但会缺少上述分数加权优化。","https:\u002F\u002Fgithub.com\u002Fxingyizhou\u002FCenterNet2\u002Fissues\u002F23",{"id":124,"question_zh":125,"answer_zh":126,"source_url":122},27288,"为什么只有强单阶段检测器才能提升性能，而简单的分数相乘对原始 RPN 无效？","原始 RPN 设置了较低的负样本阈值，鼓励生成许多（错误的）正样本框，其设计目标是高召回率（high recall）。然而，CenterNet2 的分析表明，仅第一阶段的高召回率并不符合目标，需要同时具备高精度和高召回率，这正是完整单阶段检测器（如 RetinaNet）所做的。通过增加更多层、调整阈值和损失函数，可以将原始 RPN 改造得更接近单阶段检测器，从而提升性能。",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},27289,"遇到 KeyError: 'Non-existent config key: MODEL.ROI_BOX_HEAD.MULT_PROPOSAL_SCORE' 错误如何解决？","这是因为配置文件使用了 CenterNet2 特有的配置项，但未在代码中注册。解决方法是在训练脚本（如 tools\u002Ftrain_net.py 或 projects\u002FCenterNet2\u002Ftrain_net.py）中导入并添加 CenterNet2 的配置。具体步骤：1. 在文件头部引入：from projects.CenterNet2.centernet.config import add_centernet_config；2. 在 setup 函数或相应位置调用：add_centernet_config(cfg)。这样可以注册缺失的配置键。","https:\u002F\u002Fgithub.com\u002Fxingyizhou\u002FCenterNet2\u002Fissues\u002F30",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},27290,"如何注册自定义数据集进行训练？","可以参考项目中已有的自定义数据集注册示例。官方推荐查看 projects\u002FCenterNet2\u002Fcenternet\u002Fdata\u002Fdatasets\u002Fobjects365.py 文件，该文件展示了如何加载和注册自定义格式的数据集。通常需要使用 DatasetCatalog.register 注册数据加载函数，并使用 MetadataCatalog 设置类别名称等元数据。","https:\u002F\u002Fgithub.com\u002Fxingyizhou\u002FCenterNet2\u002Fissues\u002F36",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},27291,"训练时出现显存未充分利用但报 CUDA Out Of Memory 错误怎么办？","这种情况通常不是显存不足导致的，而是 cuDNN 内部错误或其他配置问题。建议检查 PyTorch 和 cuDNN 版本兼容性，或者参考相关 StackOverflow 讨论（如关于 RuntimeError: cuDNN error: CUDNN_STATUS_INTERNAL_ERROR 的解决方案）。有时调整 batch size、混合精度训练或更新驱动也能缓解该问题。","https:\u002F\u002Fgithub.com\u002Fxingyizhou\u002FCenterNet2\u002Fissues\u002F73",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},27292,"使用自定义数据集时出现配置类型不匹配（Type mismatch）错误怎么办？","该错误通常是因为在配置文件中直接以字符串形式定义了本应是列表或元组的参数（如 TRAIN 或 TEST 数据集名称）。请确保在 YAML 配置文件中正确使用列表格式，例如：DATASETS: TRAIN: (\"my_dataset_train\",) 而不是 DATASETS: TRAIN = \"my_dataset_train\"。注意括号和引号的使用必须符合 YACS 配置系统的语法要求。","https:\u002F\u002Fgithub.com\u002Fxingyizhou\u002FCenterNet2\u002Fissues\u002F22",[]]