[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-d-li14--mobilenetv2.pytorch":3,"tool-d-li14--mobilenetv2.pytorch":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":77,"languages":78,"stars":83,"forks":84,"last_commit_at":85,"license":86,"difficulty_score":32,"env_os":87,"env_gpu":88,"env_ram":87,"env_deps":89,"category_tags":94,"github_topics":95,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":102,"updated_at":103,"faqs":104,"releases":145},9798,"d-li14\u002Fmobilenetv2.pytorch","mobilenetv2.pytorch","72.8% MobileNetV2 1.0 model on ImageNet and a spectrum of pre-trained MobileNetV2 models","mobilenetv2.pytorch 是经典轻量级神经网络 MobileNetV2 的 PyTorch 版本复现，专为图像识别任务设计。它基于论文《MobileNetV2: Inverted Residuals and Linear Bottlenecks》构建，核心目标是解决在手机、嵌入式设备等资源受限平台上运行深度学习模型时，如何平衡计算速度与识别精度的难题。\n\n该项目不仅完整还原了网络架构，还提供了一个模块化的训练与验证流程，集成了数据处理、日志记录和可视化功能，帮助用户快速上手深度学习模型的開發。其最显著的技术亮点在于提供了多种预训练模型：除了标准的 MobileNetV2 1.0 在 ImageNet 上达到 72.8% 的顶尖准确率外，还涵盖了从 0.1 到 1.0 不同宽度系数的模型，以及适配 96x96 至 224x224 多种输入分辨率的版本。这些模型让开发者能根据具体硬件的性能瓶颈，灵活选择参数量更小或计算量更低的配置，而无需从头训练。\n\nmobilenetv2.pytorch 非常适合需要在移动端部署视觉算法的 AI 工程师、希望研究轻量化网络结构的研究人员，以","mobilenetv2.pytorch 是经典轻量级神经网络 MobileNetV2 的 PyTorch 版本复现，专为图像识别任务设计。它基于论文《MobileNetV2: Inverted Residuals and Linear Bottlenecks》构建，核心目标是解决在手机、嵌入式设备等资源受限平台上运行深度学习模型时，如何平衡计算速度与识别精度的难题。\n\n该项目不仅完整还原了网络架构，还提供了一个模块化的训练与验证流程，集成了数据处理、日志记录和可视化功能，帮助用户快速上手深度学习模型的開發。其最显著的技术亮点在于提供了多种预训练模型：除了标准的 MobileNetV2 1.0 在 ImageNet 上达到 72.8% 的顶尖准确率外，还涵盖了从 0.1 到 1.0 不同宽度系数的模型，以及适配 96x96 至 224x224 多种输入分辨率的版本。这些模型让开发者能根据具体硬件的性能瓶颈，灵活选择参数量更小或计算量更低的配置，而无需从头训练。\n\nmobilenetv2.pytorch 非常适合需要在移动端部署视觉算法的 AI 工程师、希望研究轻量化网络结构的研究人员，以及需要高效基线模型进行二次开发的深度学习爱好者。通过直接调用预训练权重，用户可以轻松将其迁移到其他视觉任务中，大幅降低开发门槛。","# PyTorch Implemention of MobileNet V2\n\n\u003Ch2>\n\n```diff\n+ Release of next generation of MobileNet in my repo *mobilenetv3.pytorch*\n+ Release of advanced design of MobileNetV2 in my repo *HBONet* [ICCV 2019]\n+ Release of better pre-trained model. See below for details.\n```\n\n\u003C\u002Fh2>\n\nReproduction of MobileNet V2 architecture as described in [MobileNetV2: Inverted Residuals and Linear Bottlenecks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.04381) by Mark Sandler, Andrew Howard, Menglong Zhu, Andrey Zhmoginov and Liang-Chieh Chen on ILSVRC2012 benchmark with [PyTorch](pytorch.org) framework.\n\nThis implementation provides an example procedure of training and validating any prevalent deep neural network architecture, with modular data processing, training, logging and visualization integrated.\n\n# Requirements\n## Dependencies\n* PyTorch 1.0+\n* [NVIDIA-DALI](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002FDALI) (in development, not recommended)\n## Dataset\nDownload the ImageNet dataset and move validation images to labeled subfolders.\nTo do this, you can use the following script: https:\u002F\u002Fraw.githubusercontent.com\u002Fsoumith\u002Fimagenetloader.torch\u002Fmaster\u002Fvalprep.sh\n\n# Pretrained models\nThe pretrained [MobileNetV2 1.0](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2-c5e733a8.pth) achieves **72.834% top-1 accuracy** and 91.060% top-5 accuracy on ImageNet validation set, which is higher than the statistics reported in the original paper and official [TensorFlow implementation](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fslim\u002Fnets\u002Fmobilenet).\n\n### MobileNetV2 with a spectrum of width multipliers\n| Architecture      | # Parameters | MFLOPs | Top-1 \u002F Top-5 Accuracy (%) |\n| ----------------- | ------------ | ------ | -------------------------- |\n| [MobileNetV2 1.0](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_1.0-0c6065bc.pth)    | 3.504M | 300.79 | 72.192 \u002F 90.534 |\n| [MobileNetV2 0.75](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_0.75-dace9791.pth)  | 2.636M | 209.08 | 69.952 \u002F 88.986 |\n| [MobileNetV2 0.5](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_0.5-eaa6f9ad.pth)    | 1.968M | 97.14 | 64.592 \u002F 85.392 |\n| [MobileNetV2 0.35](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_0.35-b2e15951.pth)  | 1.677M |     59.29 | 60.092 \u002F 82.172  |\n| [MobileNetV2 0.25](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_0.25-b61d2159.pth)  | 1.519M |     37.21 | 52.352 \u002F 75.932  |\n| [MobileNetV2 0.1](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_0.1-7d1d638a.pth)    | 1.356M | 12.92 | 34.896 \u002F 56.564 |\n\n### MobileNetV2 1.0 with a spectrum of input resolutions\n| Architecture      | # Parameters | MFLOPs | Top-1 \u002F Top-5 Accuracy (%) |\n| ----------------- | ------------ | ------ | -------------------------- |\n| [MobileNetV2 224x224](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_1.0-0c6065bc.pth)    | 3.504M | 300.79 | 72.192 \u002F 90.534 |\n| [MobileNetV2 192x192](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_192x192-e423d99e.pth)| 3.504M | 221.33 | 71.076 \u002F 89.760 |\n| [MobileNetV2 160x160](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_160x160-64dc7fa1.pth)| 3.504M |  154.10 | 69.504 \u002F 88.848 |\n| [MobileNetV2 128x128](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_128x128-fd66a69d.pth)| 3.504M |  99.09 | 66.740 \u002F 86.952 |\n| [MobileNetV2 96x96](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_96x96-ff0e83d8.pth)    | 3.504M |  56.31 | 62.696 \u002F 84.046 |\n\nTaking MobileNetV2 1.0 as an example, pretrained models can be easily imported using the following lines and then finetuned for other vision tasks or utilized in resource-aware platforms.\n\n```python\nfrom models.imagenet import mobilenetv2\n\nnet = mobilenetv2()\nnet.load_state_dict(torch.load('pretrained\u002Fmobilenetv2-c5e733a8.pth'))\n```\n\n# Usage\n## Training\nConfiguration to reproduce our strong results efficiently, consuming around 2 days on 4x TiTan XP GPUs with [non-distributed DataParallel](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fmaster\u002Fnn.html#torch.nn.DataParallel) and [PyTorch dataloader](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fmaster\u002Fdata.html#torch.utils.data.DataLoader).\n* *batch size* 256\n* *epoch* 150\n* *learning rate* 0.05\n* *LR decay strategy* cosine\n* *weight decay* 0.00004\n\nThe [newly released model](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2-c5e733a8.pth) achieves even higher accuracy, with larger bacth size (1024) on 8 GPUs, higher initial learning rate (0.4) and longer training epochs (250). In addition, a dropout layer with the dropout rate of 0.2 is inserted before the final FC layer, no weight decay is imposed on biases and BN layers and the learning rate ramps up from 0.1 to 0.4 in the first five training epochs.\n\n```shell\npython imagenet.py \\\n    -a mobilenetv2 \\\n    -d \u003Cpath-to-ILSVRC2012-data> \\\n    --epochs 150 \\\n    --lr-decay cos \\\n    --lr 0.05 \\\n    --wd 4e-5 \\\n    -c \u003Cpath-to-save-checkpoints> \\\n    --width-mult \u003Cwidth-multiplier> \\\n    --input-size \u003Cinput-resolution> \\\n    -j \u003Cnum-workers>\n```\n\n## Test\n```shell\npython imagenet.py \\\n    -a mobilenetv2 \\\n    -d \u003Cpath-to-ILSVRC2012-data> \\\n    --weight \u003Cpretrained-pth-file> \\\n    --width-mult \u003Cwidth-multiplier> \\\n    --input-size \u003Cinput-resolution> \\\n    -e\n```\n\n# Citations\nThe following is a [BibTeX](www.bibtex.org) entry for the MobileNet V2 paper that you should cite if you use this model.\n```\n@InProceedings{Sandler_2018_CVPR,\nauthor = {Sandler, Mark and Howard, Andrew and Zhu, Menglong and Zhmoginov, Andrey and Chen, Liang-Chieh},\ntitle = {MobileNetV2: Inverted Residuals and Linear Bottlenecks},\nbooktitle = {The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\nmonth = {June},\nyear = {2018}\n}\n```\nIf you find this implementation helpful in your research, please also consider citing:\n```\n@InProceedings{Li_2019_ICCV,\nauthor = {Li, Duo and Zhou, Aojun and Yao, Anbang},\ntitle = {HBONet: Harmonious Bottleneck on Two Orthogonal Dimensions},\nbooktitle = {The IEEE International Conference on Computer Vision (ICCV)},\nmonth = {Oct},\nyear = {2019}\n}\n```\n\n# License\nThis repository is licensed under the [Apache License 2.0](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002FLICENSE).\n","# MobileNet V2 的 PyTorch 实现\n\n\u003Ch2>\n\n```diff\n+ 我的仓库 *mobilenetv3.pytorch* 中发布了新一代 MobileNet\n+ 我的仓库 *HBONet* 中发布了 MobileNetV2 的高级设计 [ICCV 2019]\n+ 发布了性能更好的预训练模型。详情见下文。\n```\n\n\u003C\u002Fh2>\n\n按照 Mark Sandler、Andrew Howard、Menglong Zhu、Andrey Zhmoginov 和 Liang-Chieh Chen 在 ILSVRC2012 基准测试上发表的论文《MobileNetV2：倒置残差与线性瓶颈》（https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.04381）中描述的 MobileNet V2 架构，使用 [PyTorch](pytorch.org) 框架进行复现。\n\n该实现提供了一个训练和验证任何主流深度神经网络架构的示例流程，集成了模块化的数据处理、训练、日志记录和可视化功能。\n\n# 需求\n## 依赖\n* PyTorch 1.0+\n* [NVIDIA-DALI](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002FDALI)（开发中，不推荐）\n## 数据集\n下载 ImageNet 数据集，并将验证图像移动到带有标签的子文件夹中。\n可以使用以下脚本完成此操作：https:\u002F\u002Fraw.githubusercontent.com\u002Fsoumith\u002Fimagenetloader.torch\u002Fmaster\u002Fvalprep.sh\n\n# 预训练模型\n预训练的 [MobileNetV2 1.0](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2-c5e733a8.pth) 在 ImageNet 验证集上达到了 **72.834% 的 top-1 精度** 和 91.060% 的 top-5 精度，高于原始论文以及官方 [TensorFlow 实现](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fslim\u002Fnets\u002Fmobilenet)中报告的指标。\n\n### 具有不同宽度乘数的 MobileNetV2\n| 架构      | 参数量 | MFLOPs | Top-1 \u002F Top-5 精度 (%) |\n| ----------------- | ------------ | ------ | -------------------------- |\n| [MobileNetV2 1.0](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_1.0-0c6065bc.pth)    | 3.504M | 300.79 | 72.192 \u002F 90.534 |\n| [MobileNetV2 0.75](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_0.75-dace9791.pth)  | 2.636M | 209.08 | 69.952 \u002F 88.986 |\n| [MobileNetV2 0.5](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_0.5-eaa6f9ad.pth)    | 1.968M | 97.14 | 64.592 \u002F 85.392 |\n| [MobileNetV2 0.35](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_0.35-b2e15951.pth)  | 1.677M |     59.29 | 60.092 \u002F 82.172  |\n| [MobileNetV2 0.25](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_0.25-b61d2159.pth)  | 1.519M |     37.21 | 52.352 \u002F 75.932  |\n| [MobileNetV2 0.1](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_0.1-7d1d638a.pth)    | 1.356M | 12.92 | 34.896 \u002F 56.564 |\n\n### 具有不同输入分辨率的 MobileNetV2 1.0\n| 架构      | 参数量 | MFLOPs | Top-1 \u002F Top-5 精度 (%) |\n| ----------------- | ------------ | ------ | -------------------------- |\n| [MobileNetV2 224x224](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_1.0-0c6065bc.pth)    | 3.504M | 300.79 | 72.192 \u002F 90.534 |\n| [MobileNetV2 192x192](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_192x192-e423d99e.pth)| 3.504M | 221.33 | 71.076 \u002F 89.760 |\n| [MobileNetV2 160x160](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_160x160-64dc7fa1.pth)| 3.504M |  154.10 | 69.504 \u002F 88.848 |\n| [MobileNetV2 128x128](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_128x128-fd66a69d.pth)| 3.504M |  99.09 | 66.740 \u002F 86.952 |\n| [MobileNetV2 96x96](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2_96x96-ff0e83d8.pth)    | 3.504M |  56.31 | 62.696 \u002F 84.046 |\n\n以 MobileNetV2 1.0 为例，可以使用以下代码轻松导入预训练模型，然后针对其他视觉任务进行微调，或在资源受限的平台上使用。\n\n```python\nfrom models.imagenet import mobilenetv2\n\nnet = mobilenetv2()\nnet.load_state_dict(torch.load('pretrained\u002Fmobilenetv2-c5e733a8.pth'))\n```\n\n# 使用方法\n## 训练\n为了高效复现我们的强大结果，配置如下：在 4 张 TiTan XP GPU 上运行约 2 天，采用 [非分布式 DataParallel](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fmaster\u002Fnn.html#torch.nn.DataParallel) 和 [PyTorch 数据加载器](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fmaster\u002Fdata.html#torch.utils.data.DataLoader)。\n* *批量大小* 256\n* *epoch* 150\n* *学习率* 0.05\n* *学习率衰减策略* 余弦\n* *权重衰减* 0.00004\n\n而 [最新发布的模型](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2-c5e733a8.pth) 则实现了更高的精度，它使用更大的批量大小（1024），在 8 张 GPU 上训练，初始学习率更高（0.4），训练轮数也更长（250）。此外，在最终的全连接层之前插入了一个 dropout 层，dropout 率为 0.2；对偏置和 BN 层不施加权重衰减；并且学习率在前五个 epoch 内从 0.1 线性增加到 0.4。\n\n```shell\npython imagenet.py \\\n    -a mobilenetv2 \\\n    -d \u003Cpath-to-ILSVRC2012-data> \\\n    --epochs 150 \\\n    --lr-decay cos \\\n    --lr 0.05 \\\n    --wd 4e-5 \\\n    -c \u003Cpath-to-save-checkpoints> \\\n    --width-mult \u003C宽度乘数> \\\n    --input-size \u003C输入分辨率> \\\n    -j \u003C工作线程数>\n```\n\n## 测试\n```shell\npython imagenet.py \\\n    -a mobilenetv2 \\\n    -d \u003Cpath-to-ILSVRC2012-data> \\\n    --weight \u003C预训练的pth文件> \\\n    --width-mult \u003C宽度乘数> \\\n    --input-size \u003C输入分辨率> \\\n    -e\n```\n\n# 引用\n如果您使用此模型，请引用 MobileNet V2 论文的 [BibTeX](www.bibtex.org) 条目：\n```\n@InProceedings{Sandler_2018_CVPR,\nauthor = {Sandler, Mark and Howard, Andrew and Zhu, Menglong and Zhmoginov, Andrey and Chen, Liang-Chieh},\ntitle = {MobileNetV2: Inverted Residuals and Linear Bottlenecks},\nbooktitle = {IEEE 计算机视觉与模式识别会议 (CVPR)},\nmonth = {六月},\nyear = {2018}\n}\n```\n\n如果您发现此实现对您的研究有所帮助，请也考虑引用：\n```\n@InProceedings{Li_2019_ICCV,\nauthor = {Li, Duo and Zhou, Aojun and Yao, Anbang},\ntitle = {HBONet：两个正交维度上的和谐瓶颈},\nbooktitle = {IEEE 国际计算机视觉会议 (ICCV)},\nmonth = {十月},\nyear = {2019}\n}\n```\n\n# 许可证\n本仓库采用 [Apache License 2.0](https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002FLICENSE) 许可证。","# MobileNetV2 PyTorch 快速上手指南\n\n本指南基于 `mobilenetv2.pytorch` 开源项目，帮助开发者快速在 PyTorch 环境中复现和使用 MobileNetV2 模型。\n\n## 环境准备\n\n### 系统要求\n*   **Python**: 建议 Python 3.6+\n*   **PyTorch**: 版本需 >= 1.0\n*   **GPU**: 推荐使用 NVIDIA GPU 进行训练或推理（可选 DALI 加速，但当前处于开发阶段，暂不推荐）\n\n### 依赖安装\n请确保已安装 PyTorch。若未安装，可使用以下命令（推荐国内镜像源加速）：\n\n```bash\npip install torch torchvision -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n其他依赖通常随 PyTorch 自动安装，本项目无需额外复杂的环境配置。\n\n## 安装步骤\n\n1.  **克隆仓库**\n    将代码库克隆到本地：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch.git\n    cd mobilenetv2.pytorch\n    ```\n\n2.  **准备数据集 (ImageNet)**\n    本项目主要在 ImageNet (ILSVRC2012) 上运行。请下载数据集并将验证集图片移动到带标签的子文件夹中。\n    \n    可以使用官方提供的脚本自动处理验证集目录结构：\n    ```bash\n    wget https:\u002F\u002Fraw.githubusercontent.com\u002Fsoumith\u002Fimagenetloader.torch\u002Fmaster\u002Fvalprep.sh\n    bash valprep.sh\n    ```\n    *注意：请将 `\u003Cpath-to-ILSVRC2012-data>` 替换为你本地的 ImageNet 数据集根目录路径。*\n\n3.  **下载预训练模型 (可选)**\n    如果仅需推理或微调，可直接下载预训练权重。例如下载精度最高的 MobileNetV2 1.0 模型：\n    ```bash\n    mkdir -p pretrained\n    # 此处以手动下载为例，也可在代码中指定远程 URL\n    # 模型地址: https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fpretrained\u002Fmobilenetv2-c5e733a8.pth\n    ```\n\n## 基本使用\n\n### 1. 加载预训练模型 (Python API)\n最简单的使用方式是直接在 Python 代码中加载模型和权重，用于迁移学习或特征提取。\n\n```python\nimport torch\nfrom models.imagenet import mobilenetv2\n\n# 初始化网络\nnet = mobilenetv2()\n\n# 加载预训练权重 (确保文件路径正确)\n# 该模型在 ImageNet 验证集上达到了 72.834% 的 Top-1 准确率\nnet.load_state_dict(torch.load('pretrained\u002Fmobilenetv2-c5e733a8.pth'))\n\n# 设置为评估模式\nnet.eval()\n\n# 示例：准备输入数据 (batch_size=1, channels=3, height=224, width=224)\ninput_tensor = torch.randn(1, 3, 224, 224)\n\n# 前向传播\nwith torch.no_grad():\n    output = net(input_tensor)\n    \nprint(output.shape)\n```\n\n### 2. 模型测试 (命令行)\n使用提供的脚本对验证集进行测试：\n\n```shell\npython imagenet.py \\\n    -a mobilenetv2 \\\n    -d \u003Cpath-to-ILSVRC2012-data> \\\n    --weight pretrained\u002Fmobilenetv2-c5e733a8.pth \\\n    --width-mult 1.0 \\\n    --input-size 224 \\\n    -e\n```\n\n### 3. 开始训练 (命令行)\n若要从头训练或微调模型，可使用以下命令。以下配置可在 4 张 Titan XP GPU 上约 2 天复现结果：\n\n```shell\npython imagenet.py \\\n    -a mobilenetv2 \\\n    -d \u003Cpath-to-ILSVRC2012-data> \\\n    --epochs 150 \\\n    --lr-decay cos \\\n    --lr 0.05 \\\n    --wd 4e-5 \\\n    -c .\u002Fcheckpoints \\\n    --width-mult 1.0 \\\n    --input-size 224 \\\n    -j 4\n```\n\n*   `--width-mult`: 宽度乘数，可选值包括 1.0, 0.75, 0.5, 0.35, 0.25, 0.1，用于调整模型大小。\n*   `--input-size`: 输入分辨率，可选 224, 192, 160, 128, 96 等。","某边缘计算团队正在为低功耗无人机开发实时货物识别系统，需要在有限的算力和电池续航下实现高精度的图像分类。\n\n### 没有 mobilenetv2.pytorch 时\n- **模型移植困难**：团队需手动将论文中的“倒残差结构”和“线性瓶颈”转换为 PyTorch 代码，极易因细节偏差导致复现失败或精度大幅下降。\n- **硬件适配耗时**：缺乏预训练好的多尺度模型，工程师必须从头训练不同宽度和分辨率的变体以匹配无人机芯片，耗费数周 GPU 资源和时间。\n- **性能基准模糊**：官方 TensorFlow 实现的精度数据无法直接作为 PyTorch 项目的参考，难以评估当前模型在 ImageNet 上的真实性能上限。\n- **工程集成繁琐**：缺少模块化的数据处理、训练日志和可视化组件，搭建完整的训练验证流程需要重复造轮子。\n\n### 使用 mobilenetv2.pytorch 后\n- **开箱即用架构**：直接调用已完美复现的 MobileNetV2 架构，确保核心算法与论文一致，消除了手动编码带来的潜在错误。\n- **灵活资源调度**：利用提供的从 0.1 到 1.0 多种宽度乘数及不同输入分辨率（如 96x96 至 224x224）的预训练权重，迅速筛选出兼顾速度与精度的最佳模型部署到无人机。\n- **精度超越预期**：直接使用 Top-1 准确率达 72.83% 的预训练模型进行微调，起点高于原始论文报告值，显著提升了货物识别的可靠性。\n- **全流程加速**：借助集成的模块化训练与验证流程，团队快速完成了数据加载、模型微调及性能监控，将研发周期从数周缩短至数天。\n\nmobilenetv2.pytorch 通过提供高精度、多规格的预训练模型及标准化工程实现，让资源受限的边缘设备也能轻松拥有工业级的视觉识别能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fd-li14_mobilenetv2.pytorch_6ea430a8.png","d-li14","Duo Li","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fd-li14_4c198a46.png",null,"https:\u002F\u002Fgithub.com\u002Fd-li14",[79],{"name":80,"color":81,"percentage":82},"Python","#3572A5",100,727,189,"2026-04-09T13:17:03","Apache-2.0","未说明","需要 NVIDIA GPU (训练示例使用 4x Titan XP 或 8 GPU)，需安装 NVIDIA-DALI (开发中，不推荐)，CUDA 版本未明确说明",{"notes":90,"python":87,"dependencies":91},"数据集需自行下载 ImageNet (ILSVRC2012) 并运行脚本整理验证集文件夹。官方提供的预训练模型在 ImageNet 验证集上 Top-1 准确率可达 72.834%。训练配置示例基于 4 块 Titan XP GPU 耗时约 2 天。NVIDIA-DALI 依赖目前处于开发阶段，README 不建议使用。",[92,93],"PyTorch>=1.0","NVIDIA-DALI",[15,14],[96,97,98,99,100,101],"deep-neural-networks","pytorch","pretrained-models","mobilenetv2","imagenet","cvpr2018","2026-03-27T02:49:30.150509","2026-04-20T07:18:28.517935",[105,110,115,120,125,130,135,140],{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},43998,"如何在 ImageNet 上训练 MobileNet V2 以达到约 72% 的 Top-1 准确率？具体的训练命令和超参数是什么？","可以使用以下命令从头开始训练 MobileNet V2：\npython3 imagenet.py -d \u002Fpath\u002Fto\u002Fyour\u002FImageNet\u002Froot\u002F -j16 --epochs=300 --arch=\"mobilenetv2\" --gpu-id=\"0,1,2,3\" --lr=0.045 --lr-decay=\"linear2exp\" --gamma=0.98 --weight-decay=0.00004\n\n环境参考：4 块 2080ti GPU，PyTorch 1.0。在此配置下，模型在第 249 个 epoch 可达到 71.79% 的 Top-1 准确率。","https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fissues\u002F2",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},43999,"训练 MobileNet V2 需要多长时间？对硬件有什么要求？","通常在 4 块 TITAN Xp GPU 上进行训练，整个训练过程大约需要 60 小时即可收敛。使用 4 块 1080Ti GPU 的时间也差不多。","https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fissues\u002F1",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},44000,"使用预训练模型时，图像应该如何进行预处理（均值、方差、通道顺序）？","请参考源码中的具体实现：\n验证集预处理代码：https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fimagenet.py#L197-L202\n训练集预处理代码：https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fblob\u002Fmaster\u002Fimagenet.py#L214-L218\n这些代码中包含了标准的归一化均值、方差设置以及 RGB 通道处理逻辑。","https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fissues\u002F9",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},44001,"为什么预训练模型中存在偏置（bias），而模型定义中 Conv2d 的 bias 被设置为 False？","这是一个误解。模型中观察到的偏置值实际上来自批量归一化（Batch Normalization）层的 gamma 参数。此外，即使存在微小的偏置值，它们相对于权重也可以忽略不计，近似为零。","https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fissues\u002F11",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},44002,"是否推荐使用 DALI 数据加载器？","目前不推荐使用 DALI 数据加载器，因为已知存在一些影响模型准确性的问题。","https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fissues\u002F15",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},44003,"MobileNet V2 的训练参数与 ResNet 默认参数有何不同？","轻量级 MobileNet 模型的训练细节与 ResNet 系列完全不同，不能直接使用 ResNet 的默认参数。建议参考原始论文 (https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.04381) 获取详细的训练策略，或使用本项目提供的特定超参数（如学习率 0.045，特定的衰减策略等）。","https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fissues\u002F3",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},44004,"当调整 width_mult 参数时，模型的嵌入层（embedding size）形状会随之改变吗？","如果设置的 width_mult 小于 1，嵌入层的大小（embedding size）不会发生改变，保持固定值（例如 1280）。","https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fissues\u002F19",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},44005,"代码中关于 step lr_decay 的学习率计算是否存在错误？","是的，之前代码中存在一个错误。在计算学习率时，应该使用浮点除法 `\u002F` 而不是整数除法 `\u002F\u002F`。该问题已在后续版本中修复。","https:\u002F\u002Fgithub.com\u002Fd-li14\u002Fmobilenetv2.pytorch\u002Fissues\u002F22",[]]