[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-bearpaw--pytorch-classification":3,"tool-bearpaw--pytorch-classification":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161692,"2026-04-20T11:33:57",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":10,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":98,"github_topics":99,"view_count":24,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":154},10192,"bearpaw\u002Fpytorch-classification","pytorch-classification","Classification with PyTorch.","pytorch-classification 是一个基于 PyTorch 构建的开源图像分类工具箱，专注于在 CIFAR-10\u002F100 和 ImageNet 等主流数据集上复现经典的深度学习模型。它有效解决了研究人员在尝试不同网络架构时，需要重复编写训练代码、配置多显卡环境以及手动记录实验数据的痛点，让用户能将精力集中在算法改进而非工程实现上。\n\n该项目非常适合 AI 开发者、学术研究人员以及希望快速上手深度学习的学生使用。其核心亮点在于提供了一套统一的接口，轻松切换 AlexNet、VGG、ResNet、DenseNet、ResNeXt 等多种主流网络结构，并原生支持多 GPU 并行加速训练。此外，工具内置了丰富的训练进度条、自动日志记录及可视化曲线功能，帮助用户直观监控模型收敛情况。项目不仅提供了详细的训练指南，还开放了预训练模型和完整的实验日志，极大地降低了复现前沿论文结果的门槛，是进行图像分类算法研究与教学的得力助手。","# pytorch-classification\nClassification on CIFAR-10\u002F100 and ImageNet with PyTorch.\n\n## Features\n* Unified interface for different network architectures\n* Multi-GPU support\n* Training progress bar with rich info\n* Training log and training curve visualization code (see `.\u002Futils\u002Flogger.py`)\n\n## Install\n* Install [PyTorch](http:\u002F\u002Fpytorch.org\u002F)\n* Clone recursively\n  ```\n  git clone --recursive https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fpytorch-classification.git\n  ```\n\n## Training\nPlease see the [Training recipes](TRAINING.md) for how to train the models.\n\n## Results\n\n### CIFAR\nTop1 error rate on the CIFAR-10\u002F100 benchmarks are reported. You may get different results when training your models with different random seed.\nNote that the number of parameters are computed on the CIFAR-10 dataset.\n\n| Model                     | Params (M)         |  CIFAR-10 (%)      | CIFAR-100 (%)      |\n| -------------------       | ------------------ | ------------------ | ------------------ |\n| alexnet                   | 2.47               | 22.78              | 56.13              |\n| vgg19_bn                  | 20.04              | 6.66               | 28.05              |\n| ResNet-110                | 1.70               | 6.11               | 28.86              |\n| PreResNet-110             | 1.70               | 4.94               | 23.65              |\n| WRN-28-10 (drop 0.3)      | 36.48              | 3.79               | 18.14              |\n| ResNeXt-29, 8x64          | 34.43              | 3.69               | 17.38              |\n| ResNeXt-29, 16x64         | 68.16              | 3.53               | 17.30              |\n| DenseNet-BC (L=100, k=12) | 0.77               | 4.54               | 22.88              |\n| DenseNet-BC (L=190, k=40) | 25.62              | 3.32               | 17.17              |\n\n\n![cifar](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbearpaw_pytorch-classification_readme_61a29e927602.png)\n\n### ImageNet\nSingle-crop (224x224) validation error rate is reported. \n\n\n| Model                | Params (M)         |  Top-1 Error (%)   | Top-5 Error  (%)   |\n| -------------------  | ------------------ | ------------------ | ------------------ |\n| ResNet-18            | 11.69              |  30.09             | 10.78              |\n| ResNeXt-50 (32x4d)   | 25.03              |  22.6              | 6.29               |\n\n![Validation curve](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbearpaw_pytorch-classification_readme_eb8a8075e0af.png)\n\n## Pretrained models\nOur trained models and training logs are downloadable at [OneDrive](https:\u002F\u002Fmycuhk-my.sharepoint.com\u002Fpersonal\u002F1155056070_link_cuhk_edu_hk\u002F_layouts\u002F15\u002Fguestaccess.aspx?folderid=0a380d1fece1443f0a2831b761df31905&authkey=Ac5yBC-FSE4oUJZ2Lsx7I5c).\n\n## Supported Architectures\n\n### CIFAR-10 \u002F CIFAR-100\nSince the size of images in CIFAR dataset is `32x32`, popular network structures for ImageNet need some modifications to adapt this input size. The modified models is in the package `models.cifar`:\n- [x] [AlexNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1404.5997)\n- [x] [VGG](https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.1556) (Imported from [pytorch-cifar](https:\u002F\u002Fgithub.com\u002Fkuangliu\u002Fpytorch-cifar))\n- [x] [ResNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385)\n- [x] [Pre-act-ResNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.05027)\n- [x] [ResNeXt](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.05431) (Imported from [ResNeXt.pytorch](https:\u002F\u002Fgithub.com\u002Fprlz77\u002FResNeXt.pytorch))\n- [x] [Wide Residual Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07146) (Imported from [WideResNet-pytorch](https:\u002F\u002Fgithub.com\u002Fxternalz\u002FWideResNet-pytorch))\n- [x] [DenseNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993)\n\n### ImageNet\n- [x] All models in `torchvision.models` (alexnet, vgg, resnet, densenet, inception_v3, squeezenet)\n- [x] [ResNeXt](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.05431)\n- [ ] [Wide Residual Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07146)\n\n\n## Contribute\nFeel free to create a pull request if you find any bugs or you want to contribute (e.g., more datasets and more network structures).\n","# pytorch-classification\n使用 PyTorch 在 CIFAR-10\u002F100 和 ImageNet 数据集上进行分类。\n\n## 特性\n* 针对不同网络架构的统一接口\n* 多 GPU 支持\n* 带有丰富信息的训练进度条\n* 训练日志和训练曲线可视化代码（见 `.\u002Futils\u002Flogger.py`）\n\n## 安装\n* 安装 [PyTorch](http:\u002F\u002Fpytorch.org\u002F)\n* 递归克隆\n  ```\n  git clone --recursive https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fpytorch-classification.git\n  ```\n\n## 训练\n请参阅 [训练指南](TRAINING.md)，了解如何训练模型。\n\n## 结果\n\n### CIFAR\n报告了在 CIFAR-10\u002F100 基准上的 Top-1 错误率。使用不同的随机种子训练模型可能会得到不同的结果。\n请注意，参数数量是在 CIFAR-10 数据集上计算的。\n\n| 模型                     | 参数量 (M)         |  CIFAR-10 (%)      | CIFAR-100 (%)      |\n| -------------------       | ------------------ | ------------------ | ------------------ |\n| alexnet                   | 2.47               | 22.78              | 56.13              |\n| vgg19_bn                  | 20.04              | 6.66               | 28.05              |\n| ResNet-110                | 1.70               | 6.11               | 28.86              |\n| PreResNet-110             | 1.70               | 4.94               | 23.65              |\n| WRN-28-10 (drop 0.3)      | 36.48              | 3.79               | 18.14              |\n| ResNeXt-29, 8x64          | 34.43              | 3.69               | 17.38              |\n| ResNeXt-29, 16x64         | 68.16              | 3.53               | 17.30              |\n| DenseNet-BC (L=100, k=12) | 0.77               | 4.54               | 22.88              |\n| DenseNet-BC (L=190, k=40) | 25.62              | 3.32               | 17.17              |\n\n\n![cifar](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbearpaw_pytorch-classification_readme_61a29e927602.png)\n\n### ImageNet\n报告了单裁剪（224×224）验证错误率。\n\n\n| 模型                | 参数量 (M)         |  Top-1 错误率 (%)   | Top-5 错误率 (%)   |\n| -------------------  | ------------------ | ------------------ | ------------------ |\n| ResNet-18            | 11.69              |  30.09             | 10.78              |\n| ResNeXt-50 (32x4d)   | 25.03              |  22.6              | 6.29               |\n\n![验证曲线](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbearpaw_pytorch-classification_readme_eb8a8075e0af.png)\n\n## 预训练模型\n我们训练好的模型和训练日志可在 [OneDrive](https:\u002F\u002Fmycuhk-my.sharepoint.com\u002Fpersonal\u002F1155056070_link_cuhk_edu_hk\u002F_layouts\u002F15\u002Fguestaccess.aspx?folderid=0a380d1fece1443f0a2831b761df31905&authkey=Ac5yBC-FSE4oUJZ2Lsx7I5c) 下载。\n\n## 支持的架构\n\n### CIFAR-10 \u002F CIFAR-100\n由于 CIFAR 数据集中的图像尺寸为 `32x32`，因此用于 ImageNet 的流行网络结构需要进行一些修改以适应此输入尺寸。修改后的模型位于 `models.cifar` 包中：\n- [x] [AlexNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1404.5997)\n- [x] [VGG](https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.1556)（从 [pytorch-cifar](https:\u002F\u002Fgithub.com\u002Fkuangliu\u002Fpytorch-cifar) 导入）\n- [x] [ResNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385)\n- [x] [Pre-act-ResNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.05027)\n- [x] [ResNeXt](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.05431)（从 [ResNeXt.pytorch](https:\u002F\u002Fgithub.com\u002Fprlz77\u002FResNeXt.pytorch) 导入）\n- [x] [Wide Residual Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07146)（从 [WideResNet-pytorch](https:\u002F\u002Fgithub.com\u002Fxternalz\u002FWideResNet-pytorch) 导入）\n- [x] [DenseNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993)\n\n### ImageNet\n- [x] `torchvision.models` 中的所有模型（alexnet、vgg、resnet、densenet、inception_v3、squeezenet）\n- [x] [ResNeXt](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.05431)\n- [ ] [Wide Residual Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07146)\n\n\n## 贡献\n如果您发现任何错误或希望做出贡献（例如，添加更多数据集和网络结构），欢迎提交拉取请求。","# pytorch-classification 快速上手指南\n\n本指南帮助开发者快速使用 `pytorch-classification` 在 CIFAR-10\u002F100 和 ImageNet 数据集上进行模型训练与评估。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐) 或 macOS\n*   **Python**: 建议 Python 3.6+\n*   **核心依赖**:\n    *   [PyTorch](http:\u002F\u002Fpytorch.org\u002F) (请根据显卡型号安装对应版本)\n    *   `torchvision`\n    *   `tqdm` (用于显示训练进度条)\n    *   `matplotlib` (用于可视化训练曲线)\n\n> **提示**：国内用户安装 PyTorch 时，推荐使用清华或中科大镜像源加速。\n> ```bash\n> pip install torch torchvision -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> pip install tqdm matplotlib -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n通过 Git 递归克隆项目仓库（包含子模块）：\n\n```bash\ngit clone --recursive https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fpytorch-classification.git\ncd pytorch-classification\n```\n\n## 基本使用\n\n### 1. 数据准备\n确保已下载 CIFAR-10\u002F100 或 ImageNet 数据集，并放置在指定目录。如果是首次运行，部分脚本可能支持自动下载 CIFAR 数据集。\n\n### 2. 开始训练\n项目提供了统一的训练接口。以在 **CIFAR-10** 上训练 **ResNet-110** 为例：\n\n```bash\npython main.py -a resnet --dataset cifar10 --depth 110 .\u002Fdata.cifar\n```\n\n**常用参数说明：**\n*   `-a`: 网络架构名称 (如 `resnet`, `vgg`, `densenet`, `wrn` 等)\n*   `--dataset`: 数据集类型 (`cifar10`, `cifar100`, `imagenet`)\n*   `--depth`: 网络深度 (针对 ResNet\u002FDenseNet 等)\n*   最后一个参数为数据存放路径\n\n### 3. 多 GPU 训练\n若机器配备多张显卡，可使用 `--gpu` 参数指定使用的 GPU ID：\n\n```bash\npython main.py -a resnet --dataset cifar10 --depth 110 --gpu 0,1 .\u002Fdata.cifar\n```\n\n### 4. 查看结果\n训练完成后，日志文件和训练曲线图将自动生成在项目目录下（具体逻辑参考 `.\u002Futils\u002Flogger.py`）。预训练模型和完整训练日志也可从项目提供的 OneDrive 链接下载。\n\n> **注意**：不同随机种子可能导致最终精度略有差异，具体复现细节请参考项目中的 `TRAINING.md` 文档。","某计算机视觉初创团队需要在两周内为新的安防摄像头系统训练一个能精准识别 100 种违规行为的分类模型，且必须适配多张显卡以加速迭代。\n\n### 没有 pytorch-classification 时\n- **架构适配繁琐**：工程师需手动修改 ResNet 或 DenseNet 等主流网络的输入层代码，以适配非标准尺寸图像，极易引入维度错误。\n- **实验管理混乱**：缺乏统一的训练接口，每次切换模型架构都要重写数据加载和训练循环脚本，导致代码库冗余且难以维护。\n- **调试效率低下**：缺少内置的进度条和可视化日志工具，团队只能依靠打印散乱的终端输出来监控损失曲线，难以直观判断模型是否收敛。\n- **多卡配置困难**：手动配置多 GPU 并行训练涉及复杂的进程通信代码，新手容易出错，导致昂贵的算力资源闲置或利用率极低。\n\n### 使用 pytorch-classification 后\n- **开箱即用架构**：直接调用 `models.cifar` 或 `models.imagenet` 包中已适配好的 AlexNet、ResNeXt 等十几种架构，无需修改底层代码即可启动训练。\n- **统一实验流程**：利用统一的接口规范，团队成员仅需更改配置文件即可在不同网络间快速切换对比，大幅降低了试错成本。\n- **可视化监控增强**：内置的 logger 模块自动生成训练曲线和详细日志，配合丰富的进度条信息，让模型性能趋势一目了然。\n- **高效并行计算**：原生支持多 GPU 训练，简单配置即可线性提升训练速度，确保团队在紧迫工期内完成大规模参数搜索。\n\npytorch-classification 通过提供标准化的基准实现和完善的工具链，将研究人员从重复的“造轮子”工作中解放出来，使其能专注于核心算法的优化与创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbearpaw_pytorch-classification_61a29e92.png","bearpaw","Wei Yang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbearpaw_80502dc6.jpg","NVIDIA Robotics Research Lab","NVIDIA","Seattle, WA, USA",null,"wei_yang_cv","www.wyang.me","https:\u002F\u002Fgithub.com\u002Fbearpaw",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,1741,557,"2026-04-09T10:28:59","MIT","","支持多 GPU 训练（Multi-GPU support），具体型号、显存大小及 CUDA 版本未说明","未说明",{"notes":95,"python":93,"dependencies":96},"该项目主要用于 CIFAR-10\u002F100 和 ImageNet 数据集的分类任务。安装时需递归克隆仓库（git clone --recursive）。虽然未明确指定操作系统，但作为 PyTorch 项目，通常兼容 Linux、macOS 和 Windows。训练不同模型时结果可能因随机种子不同而有所差异。预训练模型和日志可通过提供的 OneDrive 链接下载。",[97],"torch (PyTorch)",[14,15],[100,101,102,103,104,105,106,107,108,109,110],"classification","cifar10","cifar100","imagenet","pytorch","resnet","resnext","wide-residual-networks","wrn","densenet","preresnet","2026-03-27T02:49:30.150509","2026-04-20T21:06:06.992550",[114,119,124,129,134,139,144,149],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},45737,"如何加载预训练模型或断点续训？","不要直接使用 `model.load_state_dict(torch.load('...'))` 加载，因为文件中可能包含额外的键（如 'acc' 或完整的优化器状态）。应使用代码中提供的 `--resume` 参数来加载检查点。例如在命令行中添加 `--resume path\u002Fto\u002Fcheckpoint.pth.tar`，或者参考源码中关于加载逻辑的实现（通常在 main 函数中处理 state_dict 的提取）。","https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fpytorch-classification\u002Fissues\u002F18",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},45738,"遇到 ImportError: No module named progress.bar 错误怎么办？","这是因为缺少 `progress` 库。请运行以下命令安装依赖：`pip install progress`。安装后即可解决该导入错误。","https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fpytorch-classification\u002Fissues\u002F15",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},45739,"在哪里可以下载预训练的模型文件和训练日志？","所有预训练模型和训练日志已发布在项目 README 的 \"Pretrained Models\" 章节中。请访问项目主页 https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fpytorch-classification#pretrained-models 查看下载链接。","https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fpytorch-classification\u002Fissues\u002F3",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},45740,"加载 VGG16 预训练权重时出现 classifier 层不匹配的错误如何解决？","该错误通常是因为混淆了数据集。官方提供的 VGG16 预训练模型（来自 pytorch.org）是在 ImageNet 上训练的，因此包含三个全连接层（classifier.0, 3, 6），而 CIFAR-10 的模型结构只有一个分类层。请确保你加载的预训练权重与当前模型架构（数据集）相匹配，不要将 ImageNet 的权重直接用于 CIFAR 模型。","https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fpytorch-classification\u002Fissues\u002F34",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},45741,"如何在训练过程中可视化损失和准确率曲线（类似 TensorBoard）？","该项目代码未直接集成 TensorBoard，但会在模型保存目录（如 `checkpoints\u002Fcifar10\u002Falexnet\u002F`）下生成 `log.txt` 文件，其中记录了每轮的训练\u002F验证损失和准确率。你可以读取该文件并使用 matplotlib 等工具自行绘制曲线。此外，社区推荐使用 `tensorboard_logger` 库来实现可视化功能。","https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fpytorch-classification\u002Fissues\u002F1",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},45742,"无法使用 tar 命令解压 .pth.tar 格式的模型文件怎么办？","这些文件实际上不是 tar 归档文件，而是 PyTorch 的序列化文件，只是后缀名包含了 .tar。解决方法是直接将文件重命名，去掉末尾的 `.tar`（例如将 `model_best.pth.tar` 重命名为 `model_best.pth`），然后即可在 PyTorch 中正常加载使用。","https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fpytorch-classification\u002Fissues\u002F52",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},45743,"CIFAR-10 上的 ResNet 深度计算公式应该是 6n+2 还是 6n+8？","为了与原始的 Torch 实现保持一致，CIFAR-10 上的 ResNet 通常始终使用 `BasicBlock`。在这种情况下，深度计算公式应为 `(depth - 2) \u002F 6`。如果代码中根据深度自动切换 Block 类型导致不一致，建议强制指定使用 `BasicBlock` 或添加选项手动选择构建块。","https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fpytorch-classification\u002Fissues\u002F6",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},45744,"数据预处理中的归一化均值和标准差是针对哪个数据集计算的？","代码中使用的均值和标准差是针对特定数据集计算的。对于 CIFAR 数据集，通常使用 CIFAR 特有的统计值；如果是 ImageNet 任务，则使用 ImageNet 的均值和标准差。请检查代码中 `transforms.Normalize` 部分的参数设置，确保其与当前训练的数据集匹配。","https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fpytorch-classification\u002Fissues\u002F28",[]]