[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-tonylins--pytorch-mobilenet-v2":3,"tool-tonylins--pytorch-mobilenet-v2":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,2,"2026-04-18T11:18:24",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":92,"env_os":93,"env_gpu":94,"env_ram":94,"env_deps":95,"category_tags":100,"github_topics":80,"view_count":32,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":101,"updated_at":102,"faqs":103,"releases":138},9168,"tonylins\u002Fpytorch-mobilenet-v2","pytorch-mobilenet-v2","A PyTorch implementation of MobileNet V2 architecture and pretrained model.","pytorch-mobilenet-v2 是一个基于 PyTorch 框架实现的 MobileNet V2 深度学习模型库，完整复现了论文中提出的“倒残差结构”与“线性瓶颈”架构。它主要解决了在移动设备或资源受限环境下，如何平衡神经网络运行速度与识别精度的难题，让轻量级模型也能拥有出色的图像分类能力。\n\n该项目非常适合计算机视觉领域的开发者、研究人员以及需要在边缘设备部署 AI 应用的学生使用。通过几行代码，用户即可加载预训练权重快速启动项目，或参考提供的高效训练策略（如余弦学习率调度、去除 Dropout 等）从头训练模型。其独特的技术亮点在于性能表现卓越：在参数量（约 347 万）和计算量（约 300M FLOPs）与官方 TensorFlow 版本几乎一致的前提下，pytorch-mobilenet-v2 成功复现了 71.8% 的 Top-1 准确率，并支持自动下载预训练模型，极大地降低了复现前沿算法的门槛，是进行移动端模型研究与落地的得力助手。","# A PyTorch implementation of MobileNetV2\n\nThis is a PyTorch implementation of MobileNetV2 architecture as described in the paper [Inverted Residuals and Linear Bottlenecks: Mobile Networks for Classification, Detection and Segmentation](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1801.04381).\n\n\u003Cu>**[NEW]** Add the code to automatically download the pre-trained weights.\u003C\u002Fu>\n\n## Training Recipe\n\nRecently I have figured out a good training setting:\n\n1. number of epochs: 150\n2. learning rate schedule: cosine learning rate, initial lr=0.05\n3. weight decay: 4e-5\n4. remove dropout\n\nYou should get >72% top-1 accuracy with this training recipe!\n\n## Accuracy & Statistics\n\nHere is a comparison of statistics against the official TensorFlow [implementation](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fslim\u002Fnets\u002Fmobilenet).\n\n|             | FLOPs     | Parameters | Top1-acc  | Pretrained Model                                             |\n| ----------- | --------- | ---------- | --------- | ------------------------------------------------------------ |\n| Official TF | 300 M     | 3.47 M     | 71.8%     | -                                                            |\n| Ours        | 300.775 M | 3.471 M    | **71.8%** | [[google drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1jlto6HRVD3ipNkAl1lNhDbkBp7HylaqR)] |\n\n## Usage\n\nTo use the pretrained model, run\n\n```python\nfrom MobileNetV2 import mobilenet_v2\n\nnet = mobilenet_v2(pretrained=True)\n```\n\n## Data Pre-processing\n\nI used the following code for data pre-processing on ImageNet:\n\n```python\nnormalize = transforms.Normalize(mean=[0.485, 0.456, 0.406],\n                                 std=[0.229, 0.224, 0.225])\n\ninput_size = 224\ntrain_dataset = datasets.ImageFolder(\n    traindir,\n    transforms.Compose([\n        transforms.RandomResizedCrop(input_size, scale=(0.2, 1.0)), \n        transforms.RandomHorizontalFlip(),\n        transforms.ToTensor(),\n        normalize,\n    ]))\n\ntrain_loader = torch.utils.data.DataLoader(\n    train_dataset, batch_size=batch_size, shuffle=True,\n    num_workers=n_worker, pin_memory=True)\n\nval_loader = torch.utils.data.DataLoader(\n    datasets.ImageFolder(valdir, transforms.Compose([\n        transforms.Resize(int(input_size\u002F0.875)),\n        transforms.CenterCrop(input_size),\n        transforms.ToTensor(),\n        normalize,\n    ])),\n    batch_size=batch_size, shuffle=False,\n    num_workers=n_worker, pin_memory=True)\n```","# MobileNetV2 的 PyTorch 实现\n\n这是根据论文 [Inverted Residuals and Linear Bottlenecks: Mobile Networks for Classification, Detection and Segmentation](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1801.04381) 中描述的 MobileNetV2 架构实现的 PyTorch 版本。\n\n\u003Cu>**[新]** 添加了自动下载预训练权重的代码。\u003C\u002Fu>\n\n## 训练方案\n\n最近我找到了一套不错的训练设置：\n\n1. epoch 数：150\n2. 学习率调度：余弦退火学习率，初始学习率为 0.05\n3. 权重衰减：4e-5\n4. 移除 Dropout 层\n\n使用这套训练方案，你应该能够获得超过 72% 的 Top-1 准确率！\n\n## 准确率与统计信息\n\n以下是与官方 TensorFlow [实现](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fslim\u002Fnets\u002Fmobilenet) 的统计对比：\n\n|             | FLOPs     | 参数量   | Top1-准确率 | 预训练模型                                             |\n| ----------- | --------- | -------- | ---------- | ------------------------------------------------------ |\n| 官方 TF     | 300 M     | 3.47 M   | 71.8%      | -                                                      |\n| 我们的实现  | 300.775 M | 3.471 M  | **71.8%**  | [[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1jlto6HRVD3ipNkAl1lNhDbkBp7HylaqR)] |\n\n## 使用方法\n\n要使用预训练模型，请运行以下代码：\n\n```python\nfrom MobileNetV2 import mobilenet_v2\n\nnet = mobilenet_v2(pretrained=True)\n```\n\n## 数据预处理\n\n我在 ImageNet 数据集上使用了以下数据预处理代码：\n\n```python\nnormalize = transforms.Normalize(mean=[0.485, 0.456, 0.406],\n                                 std=[0.229, 0.224, 0.225])\n\ninput_size = 224\ntrain_dataset = datasets.ImageFolder(\n    traindir,\n    transforms.Compose([\n        transforms.RandomResizedCrop(input_size, scale=(0.2, 1.0)), \n        transforms.RandomHorizontalFlip(),\n        transforms.ToTensor(),\n        normalize,\n    ]))\n\ntrain_loader = torch.utils.data.DataLoader(\n    train_dataset, batch_size=batch_size, shuffle=True,\n    num_workers=n_worker, pin_memory=True)\n\nval_loader = torch.utils.data.DataLoader(\n    datasets.ImageFolder(valdir, transforms.Compose([\n        transforms.Resize(int(input_size\u002F0.875)),\n        transforms.CenterCrop(input_size),\n        transforms.ToTensor(),\n        normalize,\n    ])),\n    batch_size=batch_size, shuffle=False,\n    num_workers=n_worker, pin_memory=True)\n```","# PyTorch MobileNetV2 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (推荐), macOS, 或 Windows\n*   **Python 版本**：Python 3.6+\n*   **核心依赖**：\n    *   PyTorch (建议版本 1.0+)\n    *   torchvision\n    *   tqdm (用于显示下载进度)\n\n**安装前置依赖：**\n\n建议使用国内镜像源加速安装：\n\n```bash\npip install torch torchvision -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\npip install tqdm -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 安装步骤\n\n本项目通常为单文件或少量文件结构，无需复杂的 `setup.py` 安装过程。\n\n1.  克隆仓库或下载源码：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Ftonylins\u002Fpytorch-mobilenet-v2.git\n    cd pytorch-mobilenet-v2\n    ```\n\n2.  确保 `MobileNetV2.py` (或相应模型定义文件) 位于您的 Python 路径中，或者直接在项目目录下运行代码。\n\n## 基本使用\n\n### 加载预训练模型\n\n该工具已支持自动下载预训练权重。只需几行代码即可加载在 ImageNet 上预训练的 MobileNetV2 模型（Top-1 准确率约 71.8%）。\n\n```python\nfrom MobileNetV2 import mobilenet_v2\n\n# 加载预训练模型 (首次运行会自动下载权重)\nnet = mobilenet_v2(pretrained=True)\n\n# 将模型设置为评估模式\nnet.eval()\n```\n\n### 数据预处理参考\n\n为了获得最佳的推理效果，建议使用与训练时一致的预处理流程（基于 ImageNet 统计值）：\n\n```python\nimport torchvision.transforms as transforms\n\nnormalize = transforms.Normalize(mean=[0.485, 0.456, 0.406],\n                                 std=[0.229, 0.224, 0.225])\n\ninput_size = 224\n\n# 验证集\u002F推理时的预处理流程\npreprocess = transforms.Compose([\n    transforms.Resize(int(input_size\u002F0.875)),\n    transforms.CenterCrop(input_size),\n    transforms.ToTensor(),\n    normalize,\n])\n```\n\n### 训练建议（可选）\n\n如果您需要从头训练模型，作者推荐以下配置以达到 >72% 的 Top-1 准确率：\n\n*   **Epochs**: 150\n*   **学习率策略**: Cosine Learning Rate, 初始 lr=0.05\n*   **Weight Decay**: 4e-5\n*   **Dropout**: 移除 Dropout 层","某初创团队正致力于开发一款运行在低端安卓手机上的实时植物病害识别应用，需要在有限的算力下实现高精度的图像分类。\n\n### 没有 pytorch-mobilenet-v2 时\n- **模型移植困难**：团队需手动将官方 TensorFlow 实现的 MobileNetV2 架构重写为 PyTorch 代码，极易因细节偏差导致复现失败。\n- **训练调优耗时**：缺乏经过验证的训练配方（如学习率策略、权重衰减设置），工程师需花费数周盲目尝试才能逼近 72% 的准确率。\n- **部署性能瓶颈**：难以找到参数量仅 3.47M 且 FLOPs 控制在 300M 左右的预训练模型，导致应用在旧款手机上推理延迟过高甚至崩溃。\n- **数据预处理繁琐**：需要自行摸索 ImageNet 标准的归一化参数和增强策略，稍有不慎就会造成训练集与预训练权重的分布不一致。\n\n### 使用 pytorch-mobilenet-v2 后\n- **开箱即用架构**：直接调用 `mobilenet_v2(pretrained=True)` 即可加载与官方 TensorFlow 版本精度持平（Top-1 71.8%）的模型，零成本完成架构迁移。\n- **高效训练复现**：直接套用 README 中提供的“黄金训练配方”（150 轮次 + 余弦退火学习率），快速复现高精度结果，节省大量实验时间。\n- **端侧流畅运行**：得益于工具提供的轻量化预训练权重，应用在低配手机上也能保持毫秒级响应，完美平衡了精度与速度。\n- **标准化数据处理**：直接复用代码中内置的 ImageNet 预处理流程（包括特定的均值方差归一化），确保输入数据与预训练模型完美匹配。\n\npytorch-mobilenet-v2 通过提供经严格验证的架构实现与预训练权重，让开发者无需重复造轮子，即可在资源受限的边缘设备上快速落地高性能视觉应用。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftonylins_pytorch-mobilenet-v2_7d99b8ce.png","tonylins","Ji Lin","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftonylins_5309ade8.jpg","Ph.D. student at MIT.","MIT, EECS","Cambridge","jilin@mit.edu",null,"linji.me","https:\u002F\u002Fgithub.com\u002Ftonylins",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,1406,330,"2026-04-18T11:00:07","Apache-2.0",1,"","未说明",{"notes":96,"python":94,"dependencies":97},"README 中未明确列出具体的操作系统、GPU、内存及 Python 版本要求。该工具基于 PyTorch 实现 MobileNetV2，主要依赖 torch 和 torchvision（用于数据预处理 transforms 和数据集加载 datasets）。训练建议设置为 150 个 epoch，使用余弦学习率调度（初始 lr=0.05），权重衰减 4e-5，并移除 dropout，预期可获得超过 72% 的 Top-1 准确率。支持自动下载预训练权重。",[98,99],"torch","torchvision",[15],"2026-03-27T02:49:30.150509","2026-04-19T03:09:50.141986",[104,109,114,119,124,129,134],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},41167,"如何加载预训练的 MobileNetV2 模型文件（.pth.tar）？解压时提示不是 tar 归档怎么办？","该文件虽然后缀为 .tar，但实际上是 PyTorch 的权重文件，不应使用 tar 命令解压。请直接使用 PyTorch 代码加载：\n```python\nimport torch\ncheckpoint = torch.load('mobilenet_v2.pth.tar')\n```\n或者参考源码中的加载方式。维护者已更新代码以支持自动加载检查点。","https:\u002F\u002Fgithub.com\u002Ftonylins\u002Fpytorch-mobilenet-v2\u002Fissues\u002F36",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},41168,"运行代码时出现 TypeError: new() received an invalid combination of arguments (float, float, int, int) 错误如何解决？","这是由于 Python 2.7 中 `round()` 函数返回的是浮点数而非整数，导致维度参数类型不匹配。解决方法是将计算隐藏层维度的代码：\n`hidden_dim = round(inp * expand_ratio)`\n修改为显式转换为整数：\n`hidden_dim = int(round(inp * expand_ratio))`","https:\u002F\u002Fgithub.com\u002Ftonylins\u002Fpytorch-mobilenet-v2\u002Fissues\u002F25",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},41169,"为什么在 PC (Mac\u002FGPU) 上 MobileNetV2 的运行速度比 MobileNetV1 慢？","这主要是受限于设备的内存带宽。MobileNetV2 使用了更多的深度可分离卷积（separable conv），其计算密度较低（每个特征点仅计算 9 次），导致在内存带宽相对较小的 PC GPU\u002FCPU 上容易成为瓶颈。而在移动设备上，内存带宽通常较大，MobileNetV2 会表现得更快。此外，原论文实验是在 Google Pixel 上使用 TFLite 和 int8 量化进行的，这也减少了内存带宽消耗。","https:\u002F\u002Fgithub.com\u002Ftonylins\u002Fpytorch-mobilenet-v2\u002Fissues\u002F6",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},41170,"训练 MobileNetV2 达到最佳性能的关键超参数是什么？","关键超参数是将初始学习率设置为 0.1 (1e-1)。推荐的训练配置包括：\n- 初始学习率：1e-1\n- 学习率策略：SGDR (无重启)\n- 训练轮数：120 epochs\n- 权重衰减 (wd)：1e-4\n- 使用 Nesterov 动量\n命令行示例：`--lr 1e-1 --lr_policy sgdr --lr_custom_step 120 --wd 1e-4 --nesterov`","https:\u002F\u002Fgithub.com\u002Ftonylins\u002Fpytorch-mobilenet-v2\u002Fissues\u002F1",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},41171,"为什么代码中有 `assert input_size % 32 == 0` 的限制？输入尺寸为什么要能被 32 整除？","这是因为网络结构中包含多次下采样操作。标准输入尺寸为 224，经过 7 次下采样（每次 stride=2 或类似操作累积），最终特征图尺寸为 224 \u002F 7 = 32。为了保证特征图尺寸在计算过程中保持整数且对齐，输入尺寸需要是 32 的倍数。","https:\u002F\u002Fgithub.com\u002Ftonylins\u002Fpytorch-mobilenet-v2\u002Fissues\u002F15",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},41172,"为什么此 PyTorch 版本的参数量比官方 TensorFlow 版本多出约 1k？","这并不是模型结构差异导致的实际参数量增加。官方 TensorFlow 版本在报告参数量时对小数位进行了舍入（保留较少的小数位），而此 PyTorch 实现保留了 3 位小数，因此显示数值略有不同（3.471M vs 3.47M）。","https:\u002F\u002Fgithub.com\u002Ftonylins\u002Fpytorch-mobilenet-v2\u002Fissues\u002F19",{"id":135,"question_zh":136,"answer_zh":137,"source_url":123},41173,"导入模型时提示 \"name 'models' is not defined\" 错误怎么办？","这是因为代码中直接使用了 `models.MobileNetV2` 但未导入 `torchvision.models` 或本地模块定义冲突。请确保直接使用本项目提供的 `MobileNetV2` 类进行实例化，例如：\n```python\nfrom MobileNetV2 import MobileNetV2\nnet = MobileNetV2(n_class=1000)\n```\n不要混用 torchvision 的 models 命名空间，除非明确知道自己在做什么。",[]]