[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ShoufaChen--DiffusionDet":3,"tool-ShoufaChen--DiffusionDet":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":73,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":10,"env_os":91,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":96,"github_topics":79,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":97,"updated_at":98,"faqs":99,"releases":130},6588,"ShoufaChen\u002FDiffusionDet","DiffusionDet","[ICCV2023 Best Paper Finalist] PyTorch implementation of DiffusionDet (https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09788)","DiffusionDet 是首个将扩散模型成功应用于目标检测任务的开源项目，曾入围 ICCV 2023 最佳论文决赛。传统目标检测通常依赖复杂的锚框设计或集合预测机制，而 DiffusionDet 创新性地重构了检测流程：它将检测框视为从噪声分布中逐步去噪生成的过程。这种方法不仅简化了模型架构，还显著提升了在复杂场景下的检测精度与鲁棒性。\n\n该项目基于 PyTorch 构建，提供了完整的训练代码及在 COCO、LVIS 等主流数据集上预训练的模型权重（支持 ResNet 和 Swin Transformer 等多种骨干网络）。实验数据显示，即使在极少迭代步数下，DiffusionDet 也能取得极具竞争力的性能表现。\n\nDiffusionDet 非常适合计算机视觉领域的研究人员和算法开发者使用。对于希望探索生成式 AI 在传统判别式任务中应用潜力的团队，这是一个极具参考价值的基线工具；对于需要高性能检测方案的工程师，其提供的预训练模型也可作为强大的起点。通过引入扩散概率模型的思想，DiffusionDet 为打破目标检测的技术瓶颈开辟了新的研究方向，推动了感知技术与生成模型的深度融合。","## DiffusionDet: Diffusion Model for Object Detection\n\n**DiffusionDet is the first work of diffusion model for object detection.**\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FShoufaChen_DiffusionDet_readme_2d121dc44dbf.png)\n\n\n> [**DiffusionDet: Diffusion Model for Object Detection**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09788)               \n> [Shoufa Chen](https:\u002F\u002Fwww.shoufachen.com\u002F), [Peize Sun](https:\u002F\u002Fpeizesun.github.io\u002F), [Yibing Song](https:\u002F\u002Fybsong00.github.io\u002F), [Ping Luo](http:\u002F\u002Fluoping.me\u002F)                 \n> *[arXiv 2211.09788](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09788)* \n\n## Updates\n- (11\u002F2022) Code is released.\n\n## Models\nMethod | Box AP (1 step) | Box AP (4 step) | Download\n--- |:---:|:---:|:---:\n[COCO-Res50](configs\u002Fdiffdet.coco.res50.yaml) | 45.5 | 46.1 | [model](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_coco_res50.pth)\n[COCO-Res101](configs\u002Fdiffdet.coco.res101.yaml) | 46.6 | 46.9 | [model](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_coco_res101.pth)\n[COCO-SwinBase](configs\u002Fdiffdet.coco.swinbase.yaml) | 52.3 | 52.7 | [model](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_coco_swinbase.pth)\n[LVIS-Res50](configs\u002Fdiffdet.lvis.res50.yaml) | 30.4 | 31.8 | [model](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_lvis_res50.pth)\n[LVIS-Res101](configs\u002Fdiffdet.lvis.res101.yaml) | 31.9 | 32.9 | [model](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_lvis_res101.pth)\n[LVIS-SwinBase](configs\u002Fdiffdet.lvis.swinbase.yaml) | 40.6 | 41.9 | [model](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_lvis_swinbase.pth)\n\n\n## Getting Started\n\nThe installation instruction and usage are in [Getting Started with DiffusionDet](GETTING_STARTED.md).\n\n\n## License\n\nThis project is under the CC-BY-NC 4.0 license. See [LICENSE](LICENSE) for details.\n\n\n## Citing DiffusionDet\n\nIf you use DiffusionDet in your research or wish to refer to the baseline results published here, please use the following BibTeX entry.\n\n```BibTeX\n@article{chen2022diffusiondet,\n      title={DiffusionDet: Diffusion Model for Object Detection},\n      author={Chen, Shoufa and Sun, Peize and Song, Yibing and Luo, Ping},\n      journal={arXiv preprint arXiv:2211.09788},\n      year={2022}\n}\n```","## DiffusionDet：用于目标检测的扩散模型\n\n**DiffusionDet 是首个将扩散模型应用于目标检测的工作。**\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FShoufaChen_DiffusionDet_readme_2d121dc44dbf.png)\n\n\n> [**DiffusionDet：用于目标检测的扩散模型**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09788)               \n> [陈守法](https:\u002F\u002Fwww.shoufachen.com\u002F)、[孙培泽](https:\u002F\u002Fpeizesun.github.io\u002F)、[宋一冰](https:\u002F\u002Fybsong00.github.io\u002F)、[罗平](http:\u002F\u002Fluoping.me\u002F)                 \n> *[arXiv 2211.09788](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09788)* \n\n## 更新\n- (2022年11月) 代码已发布。\n\n## 模型\n方法 | 边框 AP（1 步） | 边框 AP（4 步） | 下载\n--- |:---:|:---:|:---:\n[COCO-Res50](configs\u002Fdiffdet.coco.res50.yaml) | 45.5 | 46.1 | [模型](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_coco_res50.pth)\n[COCO-Res101](configs\u002Fdiffdet.coco.res101.yaml) | 46.6 | 46.9 | [模型](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_coco_res101.pth)\n[COCO-SwinBase](configs\u002Fdiffdet.coco.swinbase.yaml) | 52.3 | 52.7 | [模型](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_coco_swinbase.pth)\n[LVIS-Res50](configs\u002Fdiffdet.lvis.res50.yaml) | 30.4 | 31.8 | [模型](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_lvis_res50.pth)\n[LVIS-Res101](configs\u002Fdiffdet.lvis.res101.yaml) | 31.9 | 32.9 | [模型](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_lvis_res101.pth)\n[LVIS-SwinBase](configs\u002Fdiffdet.lvis.swinbase.yaml) | 40.6 | 41.9 | [模型](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_lvis_swinbase.pth)\n\n\n## 快速入门\n\n安装说明和使用方法请参阅 [DiffusionDet 快速入门](GETTING_STARTED.md)。\n\n\n## 许可证\n\n本项目采用 CC-BY-NC 4.0 许可协议。详情请见 [LICENSE](LICENSE)。\n\n\n## 引用 DiffusionDet\n\n如果您在研究中使用了 DiffusionDet，或希望引用此处发布的基准结果，请使用以下 BibTeX 条目。\n\n```BibTeX\n@article{chen2022diffusiondet,\n      title={DiffusionDet: Diffusion Model for Object Detection},\n      author={Chen, Shoufa and Sun, Peize and Song, Yibing and Luo, Ping},\n      journal={arXiv preprint arXiv:2211.09788},\n      year={2022}\n}\n```","# DiffusionDet 快速上手指南\n\nDiffusionDet 是首个将扩散模型（Diffusion Model）应用于目标检测任务的工作。本指南帮助开发者快速搭建环境并运行预训练模型。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+)\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡（建议显存 >= 16GB 以运行 SwinBase 等大模型）\n*   **CUDA**: 与您的 PyTorch 版本匹配的 CUDA  toolkit\n\n**前置依赖**:\n本项目基于 [Detectron2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2) 框架开发，安装前需先正确安装 PyTorch 和 Detectron2。\n\n## 安装步骤\n\n### 1. 创建虚拟环境并安装 PyTorch\n建议使用 Conda 管理环境。以下命令使用国内镜像源加速下载：\n\n```bash\nconda create -n diffdet python=3.8 -y\nconda activate diffdet\n\n# 安装 PyTorch (根据实际 CUDA 版本选择，此处以 CUDA 11.3 为例，使用清华源)\npip install torch==1.10.1+cu113 torchvision==0.11.2+cu113 torchaudio==0.10.1 -f https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 2. 安装 Detectron2\nDiffusionDet 依赖特定版本的 Detectron2。\n\n```bash\n# 使用国内镜像安装 detectron2 依赖\npip install 'git+https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Ffvcore.git' 'git+https:\u002F\u002Fgithub.com\u002Fcocodataset\u002Fcocoapi.git#subdirectory=PythonAPI'\n\n# 编译安装 detectron2 (使用清华源加速)\npip install detectron2 -f https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002Fwheels\u002Fcu113\u002Ftorch1.10\u002Findex.html --extra-index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 3. 克隆代码并安装 DiffusionDet\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet.git\ncd DiffusionDet\n\n# 安装项目依赖\npip install -r requirements.txt --extra-index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 以可编辑模式安装当前包\npip install -e .\n```\n\n## 基本使用\n\n以下示例展示如何使用预训练的 **COCO-Res50** 模型进行单步推理（1 step）。\n\n### 1. 下载预训练模型\n从 GitHub Release 下载模型权重，或使用 `wget`：\n\n```bash\nmkdir models\nwget -P models https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Freleases\u002Fdownload\u002Fv0.1\u002Fdiffdet_coco_res50.pth\n```\n\n### 2. 运行推理\n使用提供的配置文件和下载的权重运行评估或推理。以下命令在 COCO val2017 数据集上运行评估（需提前准备好 COCO 数据集）：\n\n```bash\npython train_net.py --eval-only \\\n  --config-file configs\u002Fdiffdet.coco.res50.yaml \\\n  --num-gpus 1 \\\n  MODEL.WEIGHTS models\u002Fdiffdet_coco_res50.pth \\\n  MODEL.DIFFUSION.NUM_SAMPLE_STEP 1\n```\n\n**参数说明：**\n*   `--config-file`: 指定模型配置文件。\n*   `MODEL.WEIGHTS`: 指定下载的预训练权重路径。\n*   `MODEL.DIFFUSION.NUM_SAMPLE_STEP`: 设置扩散采样步数（1 或 4，步数越多精度略高但速度越慢）。\n\n若仅需对单张图片进行测试，可参考 `GETTING_STARTED.md` 中的 Demo 脚本编写简单的 Python 调用代码，加载配置与权重后即可输入图像获取检测框。","某自动驾驶感知团队正在优化夜间复杂路况下的车辆与行人检测系统，以应对低对比度和密集遮挡的挑战。\n\n### 没有 DiffusionDet 时\n- **小目标漏检严重**：传统检测器在远距离或模糊场景下，难以从噪声中区分微小行人，导致安全预警缺失。\n- **密集遮挡失效**：当多辆车紧密并排或重叠时，模型常将多个目标合并为一个边界框，无法输出独立计数。\n- **调参依赖经验**：为了平衡召回率与误报率，工程师需花费数周手动调整锚框（Anchor）尺寸和非极大值抑制（NMS）阈值。\n- **长尾分布表现差**：对于训练数据中罕见的特殊车型或异常姿态，模型泛化能力弱，极易产生漏判。\n\n### 使用 DiffusionDet 后\n- **噪声中精准定位**：利用扩散模型的去噪特性，DiffusionDet 能从模糊背景中逐步“还原”出清晰的目标位置，显著降低夜间小目标漏检率。\n- **天然解决重叠问题**：摒弃了传统的 NMS 后处理步骤，通过迭代细化直接生成独立的高质量边界框，完美分离密集遮挡的车辆。\n- **简化部署流程**：无需设计复杂的锚框或调节繁琐的阈值参数，仅需少量推理步数即可获得稳定结果，大幅缩短研发周期。\n- **强泛化稀有目标**：基于生成式的建模方式使其对未见过的物体形态具有更强的鲁棒性，有效提升了罕见交通参与者的识别准确度。\n\nDiffusionDet 通过将目标检测重构为去噪过程，从根本上突破了传统方法在复杂场景下的精度瓶颈与工程复杂度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FShoufaChen_DiffusionDet_2d121dc4.png","ShoufaChen","Shoufa Chen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FShoufaChen_629d6168.jpg","Ph.D. student, The University of Hong Kong","The University of Hong Kong","Hong Kong",null,"https:\u002F\u002Fwww.shoufachen.com","https:\u002F\u002Fgithub.com\u002FShoufaChen",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,2250,181,"2026-04-02T01:18:19","NOASSERTION","","未说明",{"notes":94,"python":92,"dependencies":95},"README 中未直接列出环境需求，具体安装指令和依赖请参考项目中的 GETTING_STARTED.md 文档。该项目基于检测框架（通常为 Detectron2）和扩散模型，通常需要在 Linux 环境下运行并依赖 NVIDIA GPU 及 CUDA。",[],[15],"2026-03-27T02:49:30.150509","2026-04-11T20:53:42.712620",[100,105,110,115,120,125],{"id":101,"question_zh":102,"answer_zh":103,"source_url":104},29758,"DiffusionDet 模型的训练时间大概需要多久？","在 8 张 A100 GPU 上，训练 DiffusionDet-COCO-Res50 模型大约需要 39 小时。具体配置可参考官方提供的 diffdet.coco.res50.yaml 文件。","https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Fissues\u002F5",{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},29759,"运行 demo.py 处理视频时检测到过多的边界框怎么办？","这是因为检测阈值过低导致的。请打开 detector.py 文件，调整其中的阈值（threshold）参数。提高阈值可以过滤掉低置信度的框，从而减少生成的边界框数量。","https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Fissues\u002F81",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},29760,"如何使用 Swin Transformer (如 SwinLarge) 作为骨干网络？预训练权重如何加载？","可以使用 Facebook Detic 仓库提供的脚本将第三方预训练模型转换为 Detectron2 格式。命令如下：\npython tools\u002Fconvert-thirdparty-pretrained-model-to-d2.py \n注意：微软提供的 Swin 权重通常以 .pth 结尾，而部分配置可能需要 .pkl 格式，转换脚本可解决此兼容性问题。","https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Fissues\u002F42",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},29761,"ddim_sample() 函数中是否存在逻辑问题导致多步采样性能较低？","是的，存在一个逻辑缺陷。当 time_next \u003C 0 时，原代码使用 continue 跳过了最后一次迭代结果的添加。建议修改 ddim_sample() 函数，在判断 time_next \u003C 0 时，先执行推理并将结果（box_pred, scores, labels）添加到 ensemble 列表中，然后再 continue。实测该修改在 COCO 验证集上能略微提升 mAP（例如从 45.91 提升至 45.99）。","https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Fissues\u002F56",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},29762,"论文中报告的 FPS 是如何基准测试的？为什么不同框数量下推理时间差异大但 FPS 相近？","FPS 是基于整体推理流程计算的，包括数据加载、模型推理和后处理。日志显示总耗时（Total）约为 0.039s\u002Fiter。虽然不同设置下框数量不同会影响后处理时间，但在基准测试中通常固定输入分辨率（如 ResizeShortestEdge short_edge_length=800）和 Batch Size（通常为 1），并在预热后统计平均耗时。具体的基准测试日志会显示 'Inference' 和 'Eval' 的分项耗时。","https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Fissues\u002F13",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},29763,"我的训练结果比论文结果低约 1.7，可能是什么原因？配置文件需要修改吗？","请检查是否错误修改了配置文件。特别是某些默认配置文件（如 mask_rcnn_R_50_FPN_inference_acc_test.yaml）仅用于特定测试，训练时不应随意替换或改动核心训练配置文件（如 diffdet.coco.res50.yaml）。确保使用的是官方推荐的训练配置，并且没有遗漏任何数据增强或超参数设置。如果不确定，尽量保持默认配置文件不变。","https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet\u002Fissues\u002F73",[131],{"id":132,"version":133,"summary_zh":134,"released_at":135},206289,"v0.1","发布模型。","2022-11-17T23:46:55"]