[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xiaolai-sqlai--mobilenetv3":3,"tool-xiaolai-sqlai--mobilenetv3":64},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,2,"2026-04-06T11:32:50",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[43,15,13,14],"语言模型",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[15,16,52,61,13,62,43,14,63],"插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":32,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":99,"github_topics":79,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":100,"updated_at":101,"faqs":102,"releases":133},5437,"xiaolai-sqlai\u002Fmobilenetv3","mobilenetv3","mobilenetv3 with pytorch，provide pre-train model","MobileNetV3 是一个基于 PyTorch 框架实现的轻量级卷积神经网络项目，旨在为移动设备和嵌入式系统提供高效的图像识别能力。它复现并优化了论文《Searching for MobileNetV3》中提出的架构，解决了在计算资源受限环境下如何平衡模型速度与精度的难题。\n\n该项目不仅提供了完整的训练代码和详细的训练日志，还直接开放了经过重新训练的高质量预训练权重。开发者只需几行代码即可加载 Small 或 Large 版本的模型，快速应用于实际任务。其独特的技术亮点在于结合了新颖的训练技巧与 timm 库的优势，使得模型性能超越了原始论文及 torchvision 官方版本：例如，其 Small 版本在 ImageNet 上的 Top-1 准确率提升至 69.2%，Large 版本则达到 75.9%，同时保持了极低的参数量和计算开销。\n\nMobileNetV3 非常适合从事移动端开发、边缘计算部署的工程师，以及希望深入研究轻量化网络结构的科研人员。无论是需要快速构建原型的应用开发者，还是追求极致性能的算法研究者，都能从中获得高效、可靠的模型支持，轻松将先进的 AI 视觉能力集成","MobileNetV3 是一个基于 PyTorch 框架实现的轻量级卷积神经网络项目，旨在为移动设备和嵌入式系统提供高效的图像识别能力。它复现并优化了论文《Searching for MobileNetV3》中提出的架构，解决了在计算资源受限环境下如何平衡模型速度与精度的难题。\n\n该项目不仅提供了完整的训练代码和详细的训练日志，还直接开放了经过重新训练的高质量预训练权重。开发者只需几行代码即可加载 Small 或 Large 版本的模型，快速应用于实际任务。其独特的技术亮点在于结合了新颖的训练技巧与 timm 库的优势，使得模型性能超越了原始论文及 torchvision 官方版本：例如，其 Small 版本在 ImageNet 上的 Top-1 准确率提升至 69.2%，Large 版本则达到 75.9%，同时保持了极低的参数量和计算开销。\n\nMobileNetV3 非常适合从事移动端开发、边缘计算部署的工程师，以及希望深入研究轻量化网络结构的科研人员。无论是需要快速构建原型的应用开发者，还是追求极致性能的算法研究者，都能从中获得高效、可靠的模型支持，轻松将先进的 AI 视觉能力集成到各类资源受限的设备中。","# A PyTorch implementation of MobileNetV3\nI retrain the mobilenetv3 with some novel tricks and [timm](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-image-models). \nI also provide the train code, pre-training weight and training logs on this project. \n\nYou should use torch.load to load the model.\n```\nfrom mobilenetv3 import MobileNetV3_Small, MobileNetV3_Large\n\n# MobileNetV3_Small\nnet = MobileNetV3_Small()\nnet.load_state_dict(torch.load(\"450_act3_mobilenetv3_small.pth\", map_location='cpu'))\n\n# MobileNetV3_Large\nnet = MobileNetV3_Large()\nnet.load_state_dict(torch.load(\"450_act3_mobilenetv3_large.pth\", map_location='cpu'))\n```\n\nYou could reproduce the model by the code.\n```\nnohup python -u -m torch.distributed.run --nproc_per_node=8 main.py --model mobilenet_v3_small --epochs 300 --batch_size 256 --lr 4e-3 --update_freq 2 --model_ema false --model_ema_eval false --use_amp true --data_path \u002Fdata\u002Fbenchmarks\u002FILSVRC2012 --output_dir .\u002Fcheckpoint &\n\nnohup python -u -m torch.distributed.run --nproc_per_node=8 main.py --model mobilenet_v3_small --epochs 450 --batch_size 256 --lr 4e-3 --update_freq 2 --model_ema false --model_ema_eval false --use_amp true --data_path \u002Fdata\u002Fbenchmarks\u002FILSVRC2012 --output_dir .\u002Fcheckpoint &\n\nnohup python -u -m torch.distributed.run --nproc_per_node=8 main.py --model mobilenet_v3_large --epochs 300 --batch_size 256 --lr 4e-3 --update_freq 2 --model_ema false --model_ema_eval false --use_amp true --data_path \u002Fdata\u002Fbenchmarks\u002FILSVRC2012 --output_dir .\u002Fcheckpoint &\n\nnohup python -u -m torch.distributed.run --nproc_per_node=8 main.py --model mobilenet_v3_large --epochs 450 --batch_size 256 --lr 4e-3 --update_freq 2 --model_ema false --model_ema_eval false --use_amp true --data_path \u002Fdata\u002Fbenchmarks\u002FILSVRC2012 --output_dir .\u002Fcheckpoint &\n```\n\nThis is a PyTorch implementation of MobileNetV3 architecture as described in the paper [Searching for MobileNetV3](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.02244.pdf).\n\nSome details may be different from the original paper, welcome to discuss and help me figure it out.\n\n### MobileNetV3\n|                       | Madds     | Parameters | Top1-acc  |\n| -------------------   | --------- | ---------- | --------- |\n| Small (paper)         | 66  M     | 2.9 M      | 67.4%     |\n| Small (torchvision)   | 62  M     | 2.5 M      | 67.7%     |\n| Small (our 300 epoch) | 69  M     | 3.0 M      | 68.9%     |\n| Small (our 450 epoch) | 69  M     | 3.0 M      | 69.2%     |\n| Large (paper)         | 219  M    | 5.4 M      | 75.2%     |\n| Large (torchvision)   | 235  M    | 5.5 M      | 74.0%     |\n| Large (our 300 epoch) | 241  M    | 5.2 M      | 75.6%     |\n| Large (our 450 epoch) | 241  M    | 5.2 M      | 75.9%     |\n","# MobileNetV3 的 PyTorch 实现\n我使用一些新颖的技巧以及 [timm](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-image-models) 对 MobileNetV3 进行了重新训练。\n在这个项目中，我还提供了训练代码、预训练权重和训练日志。\n\n请使用 `torch.load` 来加载模型。\n```\nfrom mobilenetv3 import MobileNetV3_Small, MobileNetV3_Large\n\n# MobileNetV3_Small\nnet = MobileNetV3_Small()\nnet.load_state_dict(torch.load(\"450_act3_mobilenetv3_small.pth\", map_location='cpu'))\n\n# MobileNetV3_Large\nnet = MobileNetV3_Large()\nnet.load_state_dict(torch.load(\"450_act3_mobilenetv3_large.pth\", map_location='cpu'))\n```\n\n你可以通过以下代码复现该模型。\n```\nnohup python -u -m torch.distributed.run --nproc_per_node=8 main.py --model mobilenet_v3_small --epochs 300 --batch_size 256 --lr 4e-3 --update_freq 2 --model_ema false --model_ema_eval false --use_amp true --data_path \u002Fdata\u002Fbenchmarks\u002FILSVRC2012 --output_dir .\u002Fcheckpoint &\n\nnohup python -u -m torch.distributed.run --nproc_per_node=8 main.py --model mobilenet_v3_small --epochs 450 --batch_size 256 --lr 4e-3 --update_freq 2 --model_ema false --model_ema_eval false --use_amp true --data_path \u002Fdata\u002Fbenchmarks\u002FILSVRC2012 --output_dir .\u002Fcheckpoint &\n\nnohup python -u -m torch.distributed.run --nproc_per_node=8 main.py --model mobilenet_v3_large --epochs 300 --batch_size 256 --lr 4e-3 --update_freq 2 --model_ema false --model_ema_eval false --use_amp true --data_path \u002Fdata\u002Fbenchmarks\u002FILSVRC2012 --output_dir .\u002Fcheckpoint &\n\nnohup python -u -m torch.distributed.run --nproc_per_node=8 main.py --model mobilenet_v3_large --epochs 450 --batch_size 256 --lr 4e-3 --update_freq 2 --model_ema false --model_ema_eval false --use_amp true --data_path \u002Fdata\u002Fbenchmarks\u002FILSVRC2012 --output_dir .\u002Fcheckpoint &\n```\n\n这是根据论文 [Searching for MobileNetV3](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.02244.pdf) 中描述的 MobileNetV3 架构实现的 PyTorch 版本。\n\n部分细节可能与原始论文有所不同，欢迎讨论并帮助我进一步完善。\n\n### MobileNetV3\n|                       | Madds     | 参数量 | Top1 准确率 |\n| -------------------   | --------- | ---------- | --------- |\n| Small（论文）         | 66 M     | 2.9 M      | 67.4%     |\n| Small（torchvision）  | 62 M     | 2.5 M      | 67.7%     |\n| Small（我们 300 轮） | 69 M     | 3.0 M      | 68.9%     |\n| Small（我们 450 轮） | 69 M     | 3.0 M      | 69.2%     |\n| Large（论文）         | 219 M    | 5.4 M      | 75.2%     |\n| Large（torchvision）  | 235 M    | 5.5 M      | 74.0%     |\n| Large（我们 300 轮） | 241 M    | 5.2 M      | 75.6%     |\n| Large（我们 450 轮） | 241 M    | 5.2 M      | 75.9%     |","# MobileNetV3 快速上手指南\n\n本指南基于 PyTorch 实现的 MobileNetV3 模型，包含经过优化训练的小型（Small）和大型（Large）版本预训练权重及复现代码。\n\n## 环境准备\n\n- **系统要求**：Linux \u002F macOS \u002F Windows\n- **Python 版本**：建议 Python 3.8+\n- **核心依赖**：\n  - PyTorch (建议 1.8+)\n  - torchvision\n  - timm (Hugging Face PyTorch Image Models)\n  - CUDA (可选，用于 GPU 加速)\n\n**安装依赖命令：**\n```bash\npip install torch torchvision timm\n# 国内用户推荐使用清华源加速安装\npip install torch torchvision timm -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 安装步骤\n\n1. 克隆或下载本项目代码到本地。\n2. 确保项目目录中包含 `mobilenetv3.py` 模型定义文件以及预训练权重文件（如 `450_act3_mobilenetv3_small.pth`）。\n3. 无需额外编译，直接通过 Python 导入即可使用。\n\n## 基本使用\n\n以下是加载预训练模型进行推理的最简示例。请确保权重文件路径正确。\n\n### 1. 导入模型与加载权重\n\n```python\nimport torch\nfrom mobilenetv3 import MobileNetV3_Small, MobileNetV3_Large\n\n# --- 加载 MobileNetV3_Small ---\nnet_small = MobileNetV3_Small()\n# 请替换为实际的权重文件路径\nnet_small.load_state_dict(torch.load(\"450_act3_mobilenetv3_small.pth\", map_location='cpu'))\nnet_small.eval()  # 切换到评估模式\n\n# --- 加载 MobileNetV3_Large ---\nnet_large = MobileNetV3_Large()\n# 请替换为实际的权重文件路径\nnet_large.load_state_dict(torch.load(\"450_act3_mobilenetv3_large.pth\", map_location='cpu'))\nnet_large.eval()  # 切换到评估模式\n```\n\n### 2. 模型复现与训练（可选）\n\n若需从头复现模型或使用分布式训练，可参考以下命令。以下示例展示了在 8 卡环境下训练 Small 和 Large 模型的不同配置（300 epoch 与 450 epoch）。\n\n**注意**：请修改 `--data_path` 为你的 ImageNet 数据集路径。\n\n```bash\n# 训练 MobileNetV3 Small (300 epochs)\nnohup python -u -m torch.distributed.run --nproc_per_node=8 main.py --model mobilenet_v3_small --epochs 300 --batch_size 256 --lr 4e-3 --update_freq 2 --model_ema false --model_ema_eval false --use_amp true --data_path \u002Fdata\u002Fbenchmarks\u002FILSVRC2012 --output_dir .\u002Fcheckpoint &\n\n# 训练 MobileNetV3 Small (450 epochs)\nnohup python -u -m torch.distributed.run --nproc_per_node=8 main.py --model mobilenet_v3_small --epochs 450 --batch_size 256 --lr 4e-3 --update_freq 2 --model_ema false --model_ema_eval false --use_amp true --data_path \u002Fdata\u002Fbenchmarks\u002FILSVRC2012 --output_dir .\u002Fcheckpoint &\n\n# 训练 MobileNetV3 Large (300 epochs)\nnohup python -u -m torch.distributed.run --nproc_per_node=8 main.py --model mobilenet_v3_large --epochs 300 --batch_size 256 --lr 4e-3 --update_freq 2 --model_ema false --model_ema_eval false --use_amp true --data_path \u002Fdata\u002Fbenchmarks\u002FILSVRC2012 --output_dir .\u002Fcheckpoint &\n\n# 训练 MobileNetV3 Large (450 epochs)\nnohup python -u -m torch.distributed.run --nproc_per_node=8 main.py --model mobilenet_v3_large --epochs 450 --batch_size 256 --lr 4e-3 --update_freq 2 --model_ema false --model_ema_eval false --use_amp true --data_path \u002Fdata\u002Fbenchmarks\u002FILSVRC2012 --output_dir .\u002Fcheckpoint &\n```\n\n### 性能参考\n本项目提供的模型在 ImageNet 上的 Top-1 准确率表现如下：\n- **Small (450 epoch)**: 69.2%\n- **Large (450 epoch)**: 75.9%","某初创团队正在开发一款运行在低端安卓手机上的实时垃圾分类应用，需要在有限的算力下实现高精度的图像识别。\n\n### 没有 mobilenetv3 时\n- **推理延迟高**：使用传统大型卷积网络导致在低配手机上识别一张图片需耗时 2 秒以上，用户等待体验极差。\n- **模型体积过大**：参数量高达数千万，安装包臃肿，且容易因内存不足导致应用在后台被系统杀死。\n- **精度与速度难平衡**：为了追求速度强行裁剪模型，导致 Top1 准确率跌至 65% 以下，频繁误判垃圾类别。\n- **复现训练困难**：缺乏经过验证的预训练权重和详细的训练脚本，团队需花费数周时间调试超参数才能勉强收敛。\n\n### 使用 mobilenetv3 后\n- **毫秒级响应**：部署 MobileNetV3_Small 版本后，单张图片推理时间缩短至 200 毫秒内，实现了流畅的实时检测体验。\n- **极致轻量化**：模型参数仅约 3.0M，显著降低了内存占用和安装包体积，确保应用在低端机上稳定运行。\n- **精度显著提升**：借助官方提供的 450 epoch 预训练权重，小模型在自定义数据集上的 Top1 准确率提升至 69.2%，有效减少误判。\n- **快速落地迭代**：直接加载 `torch.load` 提供的预训练模型并复用开源训练代码，团队将模型适配周期从数周缩短至 2 天。\n\nMobileNetV3 通过卓越的架构设计，成功解决了移动端设备在算力受限场景下“跑得动”与“认得准”难以兼得的核心矛盾。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaolai-sqlai_mobilenetv3_cad56def.png","xiaolai-sqlai","laishenqi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxiaolai-sqlai_e1d3816f.png",null,"https:\u002F\u002Fgithub.com\u002Fxiaolai-sqlai",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,1842,346,"2026-04-03T13:20:58","MIT","Linux","训练必需：推荐 NVIDIA GPU，命令示例显示需 8 卡并行 (--nproc_per_node=8)，支持混合精度训练 (--use_amp true)；推理可选 CPU。具体显存和 CUDA 版本未说明。","未说明（建议根据 Batch Size 256 及多卡训练需求配置大内存）",{"notes":94,"python":95,"dependencies":96},"该工具基于 PyTorch 实现，依赖 timm 库进行复现。训练脚本使用 torch.distributed.run 进行分布式训练，示例命令针对 ImageNet (ILSVRC2012) 数据集。提供预训练权重可通过 torch.load 加载，支持 CPU 或 GPU 推理。README 未明确指定具体的 Python 版本、CUDA 版本及最低显存要求，但分布式训练和高批次大小隐含了较高的硬件需求。","未说明",[97,98],"torch","timm",[15],"2026-03-27T02:49:30.150509","2026-04-08T17:36:33.462808",[103,108,113,118,123,128],{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},24665,"为什么在推理单张图片（batch size = 1）时会报 BatchNorm 错误？","这是因为在 SEmodule 中使用了 AdaptiveAvgPool2d，当特征图被压缩为 1x1 且 batch size 为 1 时，BatchNorm 层会因每个通道的值少于 2 个而报错。根据论文（arxiv.org\u002Fpdf\u002F1905.02244.pdf），SEmodule 中本就不应包含 BatchNorm 层。解决方法是移除 SEmodule 中的 BN 选项即可正常运行。","https:\u002F\u002Fgithub.com\u002Fxiaolai-sqlai\u002Fmobilenetv3\u002Fissues\u002F2",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},24666,"代码中 SeModule 的实现是否与论文不符，是否误用了像素级注意力机制？","是的，原代码实现存在遗留问题。用户指出代码中未正确使用平均池化（avg pool），导致实际上实现成了像素级注意力机制而非通道注意力。这通常是因为缺乏静态检查导致的代码遗留错误，建议参考标准 MobileNetV3 实现修正 SeModule 结构。","https:\u002F\u002Fgithub.com\u002Fxiaolai-sqlai\u002Fmobilenetv3\u002Fissues\u002F3",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},24667,"MobileNetV3 模块中 SE 单元的位置是否放错了？","是的，多个用户指出该仓库的 SE 单元位置有误。根据论文《Searching for MobileNetV3》图 4 所示，SE 单元应该位于块内最后一个卷积层之前，而不是在 PointWise 卷积之后。当前代码将 SE 机制放在了 PointWise 结束后，这与官方论文描述不符，需要调整代码顺序。","https:\u002F\u002Fgithub.com\u002Fxiaolai-sqlai\u002Fmobilenetv3\u002Fissues\u002F30",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},24668,"MobileNetV3_Large 最后两层的归一化方式与论文描述不一致怎么办？","论文中指出 MobileNetV3_Large 的最后两层操作应为卷积后接 NBN（No Batch Normalization，即不使用批归一化）。但当前代码在第 130 行和 187 行使用了 self.bn3。请检查并修改代码，确保最后两层移除 BatchNorm 层以符合论文规范。","https:\u002F\u002Fgithub.com\u002Fxiaolai-sqlai\u002Fmobilenetv3\u002Fissues\u002F28",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},24669,"SE 模块是在 DepthWise 之后还是 PointWise 之后使用？输入通道数应该是多少？","根据论文及其他主流实现，SE 模块应在 DepthWise 卷积之后、PointWise 卷积之前使用。此时 SE 模块的输入通道数应为 expand_size（即扩张后的通道数），而不是 PointWise 输出后的通道数。当前代码将其放在 PointWise 之后可能是不正确的，建议调整顺序。","https:\u002F\u002Fgithub.com\u002Fxiaolai-sqlai\u002Fmobilenetv3\u002Fissues\u002F51",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},24670,"代码中的 AdaptiveAvgPool2d 是否真的在计算图中起作用？","有用户质疑该实现中 SeModule 里的 AdaptiveAvgPool2d 并未真正参与计算图。此问题与 Issue #3 相关，暗示可能存在实现逻辑错误，导致池化操作未被正确调用或连接。建议检查前向传播逻辑，确保池化层正确接入网络结构。","https:\u002F\u002Fgithub.com\u002Fxiaolai-sqlai\u002Fmobilenetv3\u002Fissues\u002F7",[]]