[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ildoonet--pytorch-randaugment":3,"tool-ildoonet--pytorch-randaugment":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":77,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":91,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":100,"github_topics":101,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":148},4924,"ildoonet\u002Fpytorch-randaugment","pytorch-randaugment","Unofficial PyTorch Reimplementation of RandAugment.","pytorch-randaugment 是 RandAugment 数据增强策略的非官方 PyTorch 实现版本，旨在帮助开发者更轻松地提升深度学习模型的训练效果。在传统方法中，为了获得最佳的数据增强策略，往往需要耗费大量算力进行复杂的搜索任务。而 pytorch-randaugment 解决了这一痛点，它无需单独的代理搜索过程，仅需调整两个简单的超参数（N 和 M），即可在各类数据集上达到与复杂自动搜索方法相媲美的性能。\n\n这款工具特别适合从事计算机视觉研究的科研人员、算法工程师以及希望优化模型表现的深度学习开发者。其核心亮点在于“化繁为简”：将原本繁琐的增强策略搜索简化为直观的参数调节，大幅降低了使用门槛和计算成本。代码主要基于 Fast AutoAugment 项目重构，并提供了清晰的 API 接口，用户只需几行代码即可将其集成到现有的 torchvision 数据处理流程中。实验数据显示，在 CIFAR-10、CIFAR-100 等经典基准测试中，使用该工具训练的 Wide-ResNet 等模型均取得了极具竞争力的准确率。如果你正在寻找一种高效、易用且能显著提升模型泛化能力的","pytorch-randaugment 是 RandAugment 数据增强策略的非官方 PyTorch 实现版本，旨在帮助开发者更轻松地提升深度学习模型的训练效果。在传统方法中，为了获得最佳的数据增强策略，往往需要耗费大量算力进行复杂的搜索任务。而 pytorch-randaugment 解决了这一痛点，它无需单独的代理搜索过程，仅需调整两个简单的超参数（N 和 M），即可在各类数据集上达到与复杂自动搜索方法相媲美的性能。\n\n这款工具特别适合从事计算机视觉研究的科研人员、算法工程师以及希望优化模型表现的深度学习开发者。其核心亮点在于“化繁为简”：将原本繁琐的增强策略搜索简化为直观的参数调节，大幅降低了使用门槛和计算成本。代码主要基于 Fast AutoAugment 项目重构，并提供了清晰的 API 接口，用户只需几行代码即可将其集成到现有的 torchvision 数据处理流程中。实验数据显示，在 CIFAR-10、CIFAR-100 等经典基准测试中，使用该工具训练的 Wide-ResNet 等模型均取得了极具竞争力的准确率。如果你正在寻找一种高效、易用且能显著提升模型泛化能力的增强方案，pytorch-randaugment 是一个值得尝试的选择。","# pytorch-randaugment\n\nUnofficial PyTorch Reimplementation of RandAugment. Most of codes are from [Fast AutoAugment](https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment).\n\n## Introduction\n\nModels can be trained with RandAugment for the dataset of interest with no need for a separate proxy task. By only tuning two hyperparameters(N, M), you can achieve competitive performances as AutoAugments.\n\n## Install\n\n```bash\n$ pip install git+https:\u002F\u002Fgithub.com\u002Fildoonet\u002Fpytorch-randaugment\n```\n\n## Usage\n\n```python\nfrom torchvision.transforms import transforms\nfrom RandAugment import RandAugment\n\ntransform_train = transforms.Compose([\n    transforms.RandomCrop(32, padding=4),\n    transforms.RandomHorizontalFlip(),\n    transforms.ToTensor(),\n    transforms.Normalize(_CIFAR_MEAN, _CIFAR_STD),\n])\n\n# Add RandAugment with N, M(hyperparameter)\ntransform_train.transforms.insert(0, RandAugment(N, M))\n```\n\n## Experiment\n\nWe use same hyperparameters as the paper mentioned. We observed similar results as reported. \n\nYou can run an experiment with, \n\n```bash\n$ python RandAugment\u002Ftrain.py -c confs\u002Fwresnet28x10_cifar10_b256.yaml --save cifar10_wres28x10.pth\n```\n\n### CIFAR-10 Classification\n\n| Model             | Paper's Result | Ours         |\n|-------------------|---------------:|-------------:|\n| Wide-ResNet 28x10 | 97.3           | 97.4         |\n| Shake26 2x96d     | 98.0           | 98.1         |\n| Pyramid272        | 98.5           |\n\n### CIFAR-100 Classification\n\n| Model             | Paper's Result | Ours         |\n|-------------------|---------------:|-------------:|\n| Wide-ResNet 28x10 | 83.3           | 83.3         |\n\n### SVHN Classification\n\n| Model             | Paper's Result | Ours         |\n|-------------------|---------------:|-------------:|\n| Wide-ResNet 28x10 | 98.9           | 98.8         |\n\n### ImageNet Classification\n\nI have experienced some difficulties while reproducing paper's result.\n\n**Issue : https:\u002F\u002Fgithub.com\u002Fildoonet\u002Fpytorch-randaugment\u002Fissues\u002F9**\n\n| Model             | Paper's Result | Ours         |\n|-------------------|---------------:|-------------:|\n| ResNet-50         | 77.6 \u002F 92.8    | TODO \n| EfficientNet-B5   | 83.2 \u002F 96.7    | TODO\n| EfficientNet-B7   | 84.4 \u002F 97.1    | TODO\n\n## References\n\n- RandAugment : [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.13719)\n- Fast AutoAugment : [Code](https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment) [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.00397)\n","# pytorch-randaugment\n\nRandAugment 的非官方 PyTorch 重新实现。大部分代码源自 [Fast AutoAugment](https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment)。\n\n## 简介\n\n可以使用 RandAugment 直接针对感兴趣的数据集进行训练，无需单独的代理任务。只需调整两个超参数（N, M），即可获得与 AutoAugment 相当的性能。\n\n## 安装\n\n```bash\n$ pip install git+https:\u002F\u002Fgithub.com\u002Fildoonet\u002Fpytorch-randaugment\n```\n\n## 使用方法\n\n```python\nfrom torchvision.transforms import transforms\nfrom RandAugment import RandAugment\n\ntransform_train = transforms.Compose([\n    transforms.RandomCrop(32, padding=4),\n    transforms.RandomHorizontalFlip(),\n    transforms.ToTensor(),\n    transforms.Normalize(_CIFAR_MEAN, _CIFAR_STD),\n])\n\n# 添加 RandAugment，并指定超参数 N 和 M\ntransform_train.transforms.insert(0, RandAugment(N, M))\n```\n\n## 实验\n\n我们使用了论文中提到的相同超参数，并观察到与报告结果相似的效果。\n\n你可以通过以下命令运行实验：\n\n```bash\n$ python RandAugment\u002Ftrain.py -c confs\u002Fwresnet28x10_cifar10_b256.yaml --save cifar10_wres28x10.pth\n```\n\n### CIFAR-10 分类\n\n| 模型             | 论文结果 | 我们的结果         |\n|-------------------|---------------:|-------------:|\n| Wide-ResNet 28x10 | 97.3           | 97.4         |\n| Shake26 2x96d     | 98.0           | 98.1         |\n| Pyramid272        | 98.5           |\n\n### CIFAR-100 分类\n\n| 模型             | 论文结果 | 我们的结果         |\n|-------------------|---------------:|-------------:|\n| Wide-ResNet 28x10 | 83.3           | 83.3         |\n\n### SVHN 分类\n\n| 模型             | 论文结果 | 我们的结果         |\n|-------------------|---------------:|-------------:|\n| Wide-ResNet 28x10 | 98.9           | 98.8         |\n\n### ImageNet 分类\n\n在复现论文结果时，我遇到了一些困难。\n\n**问题：https:\u002F\u002Fgithub.com\u002Fildoonet\u002Fpytorch-randaugment\u002Fissues\u002F9**\n\n| 模型             | 论文结果 | 我们的结果         |\n|-------------------|---------------:|-------------:|\n| ResNet-50         | 77.6 \u002F 92.8    | 待完成 \n| EfficientNet-B5   | 83.2 \u002F 96.7    | 待完成\n| EfficientNet-B7   | 84.4 \u002F 97.1    | 待完成\n\n## 参考文献\n\n- RandAugment：[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.13719)\n- Fast AutoAugment：[代码](https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment) [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.00397)","# pytorch-randaugment 快速上手指南\n\n## 环境准备\n\n- **系统要求**：Linux \u002F macOS \u002F Windows（需支持 PyTorch 的环境）\n- **前置依赖**：\n  - Python 3.6+\n  - PyTorch\n  - torchvision\n  - 其他常见深度学习依赖（如 numpy, PIL 等）\n\n> 建议先确保已安装最新版本的 PyTorch。国内用户可使用清华或阿里镜像加速安装：\n> ```bash\n> pip install torch torchvision -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n通过 pip 直接安装官方仓库版本：\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002Fildoonet\u002Fpytorch-randaugment\n```\n\n**国内加速安装方案**（推荐）：\n若直接安装较慢，可先克隆代码再本地安装：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fildoonet\u002Fpytorch-randaugment.git\ncd pytorch-randaugment\npip install . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n`RandAugment` 可直接插入到 `torchvision.transforms` 流程中。只需设定两个超参数 `N`（变换次数）和 `M`（变换强度）。\n\n以下是一个针对 CIFAR-10 数据集的最简使用示例：\n\n```python\nfrom torchvision.transforms import transforms\nfrom RandAugment import RandAugment\n\n# 定义基础变换\ntransform_train = transforms.Compose([\n    transforms.RandomCrop(32, padding=4),\n    transforms.RandomHorizontalFlip(),\n    transforms.ToTensor(),\n    transforms.Normalize(_CIFAR_MEAN, _CIFAR_STD),\n])\n\n# 在变换链最前端插入 RandAugment\n# N: 每次应用随机选择的变换数量\n# M: 变换的幅度 (0-30)\nN = 2\nM = 9\ntransform_train.transforms.insert(0, RandAugment(N, M))\n```\n\n将 `transform_train` 应用于你的训练数据集即可开始使用 RandAugment 进行数据增强。","某计算机视觉团队正在基于 CIFAR-10 数据集训练一个宽残差网络（Wide-ResNet），旨在提升模型在复杂光照和角度下的分类准确率。\n\n### 没有 pytorch-randaugment 时\n- **调参成本高昂**：为了复现 AutoAugment 的效果，团队需要耗费数天时间运行独立的代理任务来搜索最佳数据增强策略，严重拖慢迭代进度。\n- **代码集成复杂**：手动实现多种图像变换逻辑（如剪切、旋转、颜色抖动）不仅代码量大，还容易因参数配置错误导致训练不稳定。\n- **性能提升瓶颈**：仅依靠基础的数据增强（如随机翻转和裁剪），模型在测试集上的准确率卡在 96% 左右，难以突破泛化能力的瓶颈。\n- **超参数难以把控**：缺乏统一的接口来动态调整增强强度，工程师只能凭经验盲目尝试，往往顾此失彼。\n\n### 使用 pytorch-randaugment 后\n- **极简策略部署**：只需在 `transforms` 中插入一行代码并设定 N、M 两个超参数，即可直接启用强大的随机增强策略，无需任何额外的搜索过程。\n- **开发效率倍增**：直接复用经过验证的官方实现，团队省去了重复造轮子的时间，将精力集中在模型架构优化上。\n- **准确率显著跃升**：在相同硬件条件下，模型在 CIFAR-10 上的分类准确率从 96% 提升至 97.4%，成功超越原论文报告的水平。\n- **灵活可控**：通过简单调节 N（操作数量）和 M（操作幅度），就能轻松平衡增强的多样性与图像的可识别性，快速适配不同数据集。\n\npytorch-randaugment 通过消除繁琐的策略搜索环节，让开发者能以最低的成本获得媲美自动搜索算法的模型性能。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fildoonet_pytorch-randaugment_64e012ad.png","ildoonet","curtis.abcd","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fildoonet_2e862c4d.jpg","CEO \u002F AI Researcher @ OpenResearch",null,"Seoul","ildoo@ildoo.net","https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fildoo-kim-56962034","https:\u002F\u002Fgithub.com\u002Fildoonet",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,637,97,"2026-04-02T12:51:57","MIT",1,"未说明","未说明（基于 PyTorch，训练大型模型如 ImageNet 通常建议配备 NVIDIA GPU，但 README 未指定具体型号或显存要求）",{"notes":95,"python":92,"dependencies":96},"该工具是 RandAugment 的非官方 PyTorch 复现版本，代码主要源自 Fast AutoAugment。安装可通过 pip 直接指向 GitHub 仓库。在复现 ImageNet 数据集结果时作者报告遇到困难，相关结果标记为 TODO。实验部分展示了在 CIFAR-10、CIFAR-100 和 SVHN 上的分类性能，配置文件示例显示需要 pyyaml 支持。",[97,98,99],"torch","torchvision","pyyaml",[14,15],[102,103,104,105,106,107,108,109,110],"pytorch","autoaugment","augmentation","computer-vision","imagenet","cifar","classification","deep-learning","convolutional-neural-networks","2026-03-27T02:49:30.150509","2026-04-11T16:52:57.678438",[114,119,124,129,134,139,144],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},22354,"为什么运行时报错 `ImportError: cannot import name 'Config' from theconf`？","这是因为使用了错误版本的 `theconf` 库。请卸载当前版本，并安装维护者指定的分支：`pip install git+https:\u002F\u002Fgithub.com\u002Fwbaek\u002Ftheconf`。或者直接运行项目根目录下的 `requirements.txt` 来安装所有正确的依赖项。","https:\u002F\u002Fgithub.com\u002Fildoonet\u002Fpytorch-randaugment\u002Fissues\u002F10",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},22355,"如何复现论文中 CIFAR-10 和 CIFAR-100 的基准结果（如 WideResNet-28-10）？","要成功复现结果，需要注意以下几点：\n1. **数据增强策略**：使用论文建议的操作列表（Identity, AutoContrast, Equalize, Rotate, Solarize, Color, Contrast, Brightness, Sharpness, ShearX, TranslateX, TranslateY, Posterize, ShearY）。\n2. **超参数调整**：对于 WideResNet-28-10，将 Batch Size 从 128 增加到 512，学习率从 0.1 提高到 0.4；对于 PyramidNet，Batch Size 设为 1024。\n3. **训练设置**：部分用户反馈需要开启学习率预热（Warm-up），并将训练轮数（epochs）从 200 增加到 300 以达到最佳效果（约 97.37% 准确率）。","https:\u002F\u002Fgithub.com\u002Fildoonet\u002Fpytorch-randaugment\u002Fissues\u002F12",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},22356,"Posterize（色调分离）增强函数在 level=0 时导致图像全黑，这是正常的吗？","这是一个已知问题。原始实现中 level=0 会导致图像没有层级从而变黑。维护者已确认并修复了代码，现在会将 zero level 替换为 1。此外，根据讨论，Posterize 的效果应该是 level 越高图像越模糊（信息越少），如果观察到相反的效果，可能是实现逻辑与原作者意图不一致，建议更新到最新代码或参考 TensorFlow 官方实现进行核对。","https:\u002F\u002Fgithub.com\u002Fildoonet\u002Fpytorch-randaugment\u002Fissues\u002F13",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},22357,"为什么 PyramidNet 的深度（depth）被设置为 272？训练时间太长了。","这是为了严格遵循 AutoAugment 原论文的实验设置。Google 在该论文中使用深度为 272 的 PyramidNet 并在 1800 个 epoch 上进行训练。本仓库为了复现和对比论文结果，保持了相同的超参数设置。如果仅需快速测试，可以自行修改配置文件减小深度。","https:\u002F\u002Fgithub.com\u002Fildoonet\u002Fpytorch-randaugment\u002Fissues\u002F3",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},22358,"我的显存有限，无法使用配置文件中较大的 Batch Size（如 256 或 512），可以使用较小的 Batch Size 吗？","配置文件中的大 Batch Size 是为了匹配论文结果和优化训练速度。如果显存受限必须减小 Batch Size，通常需要相应地调整学习率（通常按比例减小）以保证收敛。有用户反馈在保持其他超参数不变仅减小 Batch Size 时可能难以复现最佳结果，建议尝试配合学习率预热（Warm-up）和增加训练轮数（如 300 epochs）来弥补。","https:\u002F\u002Fgithub.com\u002Fildoonet\u002Fpytorch-randaugment\u002Fissues\u002F19",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},22359,"修改了 RandAugment 目录下的代码，但运行时似乎没有生效，怎么办？","这通常是因为通过 `pip install` 安装了该包，导致 Python 导入的是安装目录下的旧代码而非本地修改的文件。解决方法是：\n1. 卸载已安装的包：`pip uninstall pytorch-randaugment`（或对应包名）。\n2. 确保在运行脚本时，Python 路径优先指向你本地修改的源代码目录（例如在 project 根目录运行，或将源码目录加入 `PYTHONPATH`）。\n3. 或者以可编辑模式重新安装：`pip install -e .`。","https:\u002F\u002Fgithub.com\u002Fildoonet\u002Fpytorch-randaugment\u002Fissues\u002F29",{"id":145,"question_zh":146,"answer_zh":147,"source_url":123},22360,"WideResNet 在 CIFAR-10 上的测试结果只有 96.2%，远低于预期的 97%+，可能是什么原因？","结果不匹配通常由以下原因造成：\n1. **环境差异**：检查 PyTorch、CUDA 和 Python 版本是否与复现环境一致（推荐 PyTorch 1.3+）。\n2. **增强实现细节**：检查 `translateX`, `translateY`, `Solarize` 等具体增强函数的实现是否与论文或原作者代码完全一致。\n3. **超参数未对齐**：确认是否应用了正确的 Batch Size 和学习率调整（如 BS=512, LR=0.4）。\n4. **代码版本**：维护者曾提到某些提交修改了代码导致暂时无法复现，请尝试回退到标记为“已复现”的稳定版本提交。",[]]