[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-zhunzhong07--Random-Erasing":3,"tool-zhunzhong07--Random-Erasing":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",149489,2,"2026-04-10T11:32:46",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":77,"languages":78,"stars":83,"forks":84,"last_commit_at":85,"license":86,"difficulty_score":32,"env_os":87,"env_gpu":88,"env_ram":87,"env_deps":89,"category_tags":94,"github_topics":95,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":101,"updated_at":102,"faqs":103,"releases":139},6319,"zhunzhong07\u002FRandom-Erasing","Random-Erasing","Random Erasing Data Augmentation. Experiments on CIFAR10, CIFAR100 and Fashion-MNIST","Random-Erasing 是一种专为深度学习图像分类任务设计的数据增强技术。它的核心原理是在训练过程中，随机选择图像中的一部分矩形区域并将其像素值抹除（可设为黑色、白色或随机噪声），从而模拟物体被遮挡的场景。\n\n这种方法主要解决了模型在训练中过度依赖图像局部特征而导致泛化能力不足的问题。通过强制网络学习更全局、更鲁棒的特征表示，Random-Erasing 能显著降低过拟合风险，提升模型在未知数据上的准确率。实验数据显示，在 CIFAR-10、CIFAR-100 和 Fashion-MNIST 等主流数据集上，结合该方法的 ResNet 等模型错误率均有明显下降。\n\nRandom-Erasing 特别适合人工智能研究人员、算法工程师以及计算机视觉领域的开发者使用。无论是复现学术论文结果，还是在实际项目中优化识别模型的性能，它都是一个轻量且高效的解决方案。其独特的技术亮点在于实现简单却效果显著，无需复杂的网络结构调整，仅需在数据预处理阶段引入即可。目前，该技术已被集成到 PyTorch 官方库及多个主流开源框架中，成为了现代图像识别模型训练的标准组件之一。","# Random Erasing Data Augmentation\n===============================================================\n\n![Examples](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_4e0f635be354.jpg)\n\n| black  | white | random |\n|----------------------------------------------------------------------------------------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------|\n|![i1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_5a1ebdd3bd67.gif)|![i2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_b641ce236f73.gif)| ![i3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_2aafe799d243.gif)|\n|![i4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_1d8bc0232015.gif)|![i5](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_23fc5cd4ac61.gif)| ![i6](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_a30e4409566c.gif)|\n\n### This code has the source code for the paper \"[Random Erasing Data Augmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.04896)\".\n\nIf you find this code useful in your research, please consider citing:\n\n    @inproceedings{zhong2020random,\n    title={Random Erasing Data Augmentation},\n    author={Zhong, Zhun and Zheng, Liang and Kang, Guoliang and Li, Shaozi and Yang, Yi},\n    booktitle={Proceedings of the AAAI Conference on Artificial Intelligence (AAAI)},\n    year={2020}\n    }\n\n\n### Other re-implementations\n\n[\\[Official Torchvision in Transform\\]](https:\u002F\u002Fpytorch.org\u002Fvision\u002Fstable\u002Ftransforms.html#torchvision.transforms.RandomErasing)\n\n[\\[Pytorch: Random Erasing for ImageNet\\]](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models)\n\n[\\[Python Augmentor\\]](http:\u002F\u002Faugmentor.readthedocs.io\u002Fen\u002Fmaster\u002Fcode.html#Augmentor.Pipeline.Pipeline.random_erasing)\n\n[\\[Person_reID CamStyle\\]](https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FCamStyle)\n\n[\\[Person_reID_baseline + Random Erasing + Re-ranking\\]](https:\u002F\u002Fgithub.com\u002Flayumi\u002FPerson_reID_baseline_pytorch)\n\n[\\[Keras re-implementation\\]](https:\u002F\u002Fgithub.com\u002Fyu4u\u002Fcutout-random-erasing)\n\n\n### Installation\n\nRequirements for Pytorch （see [Pytorch](http:\u002F\u002Fpytorch.org\u002F) installation instructions）\n\n### Examples:\n\n#### CIFAR10\n\nResNet-20 baseline on CIFAR10：\n    ```\n    python cifar.py --dataset cifar10 --arch resnet --depth 20\n    ```\n    \nResNet-20 + Random Erasing on CIFAR10：\n    ```\n    python cifar.py --dataset cifar10 --arch resnet --depth 20 --p 0.5\n    ```\n\n#### CIFAR100\n\nResNet-20 baseline on CIFAR100：\n    ```\n    python cifar.py --dataset cifar100 --arch resnet --depth 20\n    ```\n    \nResNet-20 + Random Erasing on CIFAR100：\n    ```\n    python cifar.py --dataset cifar100 --arch resnet --depth 20 --p 0.5\n    ```\n\n#### Fashion-MNIST\n\n\nResNet-20 baseline on Fashion-MNIST：\n    ```\n    python fashionmnist.py --dataset fashionmnist --arch resnet --depth 20\n    ```\n    \nResNet-20 + Random Erasing on Fashion-MNIST：\n    ```\n    python fashionmnist.py --dataset fashionmnist --arch resnet --depth 20 --p 0.5\n    ```\n\n### Other architectures\n\nFor ResNet： \n    ```\n    --arch resnet --depth (20， 32， 44， 56， 110)\n    ```\n\nFor WRN：\n    ```\n    --arch wrn --depth 28 --widen-factor 10\n    ```\n\n### Our results\n\nYou can reproduce the results in our paper:\n\n| |  CIFAR10 | CIFAR10| CIFAR100 | CIFAR100| Fashion-MNIST | Fashion-MNIST|\n| -----   | -----  | ----  | -----  | ----  | -----  | ----  |\n|Models |  Base. | +RE | Base. | +RE | Base. | +RE |\n|ResNet-20 |  7.21 | 6.73 | 30.84 | 29.97 | 4.39 | 4.02 |\n|ResNet-32 |  6.41 | 5.66 | 28.50 | 27.18 | 4.16 | 3.80 |\n|ResNet-44 |  5.53 | 5.13 | 25.27 | 24.29 | 4.41 | 4.01 |\n|ResNet-56 |  5.31 | 4.89| 24.82 | 23.69 | 4.39 | 4.13 |\n|ResNet-110 |  5.10 | 4.61 | 23.73 | 22.10 | 4.40 | 4.01 |\n|WRN-28-10 |  3.80 | 3.08 | 18.49 | 17.73 | 4.01 | 3.65 |\n\n### NOTE THAT, if you use the latest released Fashion-MNIST, the performance of Baseline and RE will slightly lower than the results reported in our paper. Please refer to the [issue](https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing\u002Fissues\u002F9).\n\n\n\nIf you have any questions about this code, please do not hesitate to contact us.\n\n[Zhun Zhong](http:\u002F\u002Fzhunzhong.site)\n\n[Liang Zheng](http:\u002F\u002Fliangzheng.com.cn)\n","# 随机擦除数据增强\n===============================================================\n\n![示例](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_4e0f635be354.jpg)\n\n| 黑色  | 白色 | 随机 |\n|----------------------------------------------------------------------------------------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------|\n|![i1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_5a1ebdd3bd67.gif)|![i2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_b641ce236f73.gif)| ![i3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_2aafe799d243.gif)|\n|![i4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_1d8bc0232015.gif)|![i5](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_23fc5cd4ac61.gif)| ![i6](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_readme_a30e4409566c.gif)|\n\n### 本代码包含论文“[随机擦除数据增强](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.04896)”的源代码。\n\n如果您在研究中使用了此代码，请考虑引用：\n\n    @inproceedings{zhong2020random,\n    title={Random Erasing Data Augmentation},\n    author={Zhong, Zhun and Zheng, Liang and Kang, Guoliang and Li, Shaozi and Yang, Yi},\n    booktitle={Proceedings of the AAAI Conference on Artificial Intelligence (AAAI)},\n    year={2020}\n    }\n\n\n### 其他重新实现\n\n[\\[官方 Torchvision 中的 Transform\\]](https:\u002F\u002Fpytorch.org\u002Fvision\u002Fstable\u002Ftransforms.html#torchvision.transforms.RandomErasing)\n\n[\\[PyTorch：用于 ImageNet 的随机擦除\\]](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models)\n\n[\\[Python Augmentor\\]](http:\u002F\u002Faugmentor.readthedocs.io\u002Fen\u002Fmaster\u002Fcode.html#Augmentor.Pipeline.Pipeline.random_erasing)\n\n[\\[Person_reID CamStyle\\]](https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FCamStyle)\n\n[\\[Person_reID 基线 + 随机擦除 + 重排序\\]](https:\u002F\u002Fgithub.com\u002Flayumi\u002FPerson_reID_baseline_pytorch)\n\n[\\[Keras 重新实现\\]](https:\u002F\u002Fgithub.com\u002Fyu4u\u002Fcutout-random-erasing)\n\n\n### 安装\n\nPyTorch 的要求（请参阅 [PyTorch](http:\u002F\u002Fpytorch.org\u002F) 的安装说明）\n\n### 示例：\n\n#### CIFAR10\n\nCIFAR10 上的 ResNet-20 基线：\n    ```\n    python cifar.py --dataset cifar10 --arch resnet --depth 20\n    ```\n    \nCIFAR10 上的 ResNet-20 + 随机擦除：\n    ```\n    python cifar.py --dataset cifar10 --arch resnet --depth 20 --p 0.5\n    ```\n\n#### CIFAR100\n\nCIFAR100 上的 ResNet-20 基线：\n    ```\n    python cifar.py --dataset cifar100 --arch resnet --depth 20\n    ```\n    \nCIFAR100 上的 ResNet-20 + 随机擦除：\n    ```\n    python cifar.py --dataset cifar100 --arch resnet --depth 20 --p 0.5\n    ```\n\n#### Fashion-MNIST\n\n\nFashion-MNIST 上的 ResNet-20 基线：\n    ```\n    python fashionmnist.py --dataset fashionmnist --arch resnet --depth 20\n    ```\n    \nFashion-MNIST 上的 ResNet-20 + 随机擦除：\n    ```\n    python fashionmnist.py --dataset fashionmnist --arch resnet --depth 20 --p 0.5\n    ```\n\n### 其他架构\n\n对于 ResNet：\n    ```\n    --arch resnet --depth (20， 32， 44， 56， 110)\n    ```\n\n对于 WRN：\n    ```\n    --arch wrn --depth 28 --widen-factor 10\n    ```\n\n### 我们的结果\n\n您可以复现我们论文中的结果：\n\n| |  CIFAR10 | CIFAR10| CIFAR100 | CIFAR100| Fashion-MNIST | Fashion-MNIST|\n| -----   | -----  | ----  | -----  | ----  | -----  | ----  |\n|模型 |  基线。 | +RE | 基线。 | +RE | 基线。 | +RE |\n|ResNet-20 |  7.21 | 6.73 | 30.84 | 29.97 | 4.39 | 4.02 |\n|ResNet-32 |  6.41 | 5.66 | 28.50 | 27.18 | 4.16 | 3.80 |\n|ResNet-44 |  5.53 | 5.13 | 25.27 | 24.29 | 4.41 | 4.01 |\n|ResNet-56 |  5.31 | 4.89| 24.82 | 23.69 | 4.39 | 4.13 |\n|ResNet-110 |  5.10 | 4.61 | 23.73 | 22.10 | 4.40 | 4.01 |\n|WRN-28-10 |  3.80 | 3.08 | 18.49 | 17.73 | 4.01 | 3.65 |\n\n### 请注意，如果您使用最新发布的 Fashion-MNIST 数据集，基线和 RE 的性能会略低于我们论文中报告的结果。请参考 [issue](https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing\u002Fissues\u002F9)。\n\n\n\n如果您对本代码有任何疑问，请随时与我们联系。\n\n[Zhun Zhong](http:\u002F\u002Fzhunzhong.site)\n\n[Liang Zheng](http:\u002F\u002Fliangzheng.com.cn)","# Random Erasing 快速上手指南\n\nRandom Erasing 是一种数据增强技术，通过在训练图像中随机擦除矩形区域，提升模型的泛化能力和鲁棒性。本指南基于官方开源代码，帮助开发者快速在 PyTorch 环境中部署该工具。\n\n## 环境准备\n\n*   **系统要求**：Linux \u002F macOS \u002F Windows\n*   **核心依赖**：\n    *   Python 3.x\n    *   PyTorch (推荐最新稳定版)\n    *   torchvision\n*   **安装建议**：\n    建议使用国内镜像源加速 PyTorch 及相关依赖的安装。以下命令使用清华大学开源软件镜像站：\n\n    ```bash\n    pip install torch torchvision -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n## 安装步骤\n\n本项目无需复杂的编译过程，只需克隆仓库即可使用。\n\n1.  **克隆代码库**：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing.git\n    cd Random-Erasing\n    ```\n\n2.  **验证环境**：\n    确保当前目录下存在 `cifar.py` 和 `fashionmnist.py` 等脚本文件。\n\n## 基本使用\n\n以下示例展示如何在 CIFAR-10 数据集上运行 ResNet-20 模型，并启用 Random Erasing 数据增强。\n\n### 1. 运行基准模型（无数据增强）\n首先运行基线模型以获取参考性能：\n\n```bash\npython cifar.py --dataset cifar10 --arch resnet --depth 20\n```\n\n### 2. 运行 Random Erasing 增强模型\n添加 `--p 0.5` 参数即可启用随机擦除功能（擦除概率为 50%）：\n\n```bash\npython cifar.py --dataset cifar10 --arch resnet --depth 20 --p 0.5\n```\n\n### 其他常用配置\n*   **切换数据集**：将 `--dataset cifar10` 替换为 `cifar100` 或 `fashionmnist`。\n    *   Fashion-MNIST 示例：\n        ```bash\n        python fashionmnist.py --dataset fashionmnist --arch resnet --depth 20 --p 0.5\n        ```\n*   **更换网络架构**：\n    *   不同深度的 ResNet：`--depth` 可选值为 20, 32, 44, 56, 110。\n    *   宽残差网络 (WRN)：\n        ```bash\n        python cifar.py --dataset cifar10 --arch wrn --depth 28 --widen-factor 10 --p 0.5\n        ```\n\n> **注意**：若使用最新版的 Fashion-MNIST 数据集，复现结果可能略低于论文报告数值，属正常现象。","某电商初创公司的算法团队正在训练一个服装分类模型，旨在让用户上传照片即可自动识别衣物款式，但初期模型在用户拍摄角度刁钻或衣物被遮挡时识别率极低。\n\n### 没有 Random-Erasing 时\n- 模型过度依赖图像中的显著特征（如明显的 Logo 或特定背景），一旦这些区域被遮挡，预测结果便完全错误。\n- 面对用户日常拍摄中常见的局部遮挡（如手插口袋、背包挡住衣角），模型的泛化能力极差，测试集准确率停滞在 85% 难以突破。\n- 为了提升鲁棒性，团队不得不花费大量时间收集更多极端场景的标注数据，导致项目上线周期被迫推迟。\n- 训练过程容易陷入局部最优，模型“死记硬背”了训练图的完整形态，缺乏对物体整体结构的理解能力。\n\n### 使用 Random-Erasing 后\n- 通过在训练过程中随机擦除图像中的矩形区域，强制模型学习衣物的纹理、边缘等全局特征，不再单纯依赖局部关键点。\n- 模拟了真实的遮挡场景，模型在面对用户照片中手部遮挡或光线不均的情况时，分类准确率提升了约 4%，达到商用标准。\n- 无需额外采集昂贵的长尾场景数据，仅通过数据增强策略就显著提升了模型鲁棒性，大幅缩短了数据准备时间。\n- 有效防止了过拟合，使得较浅层的 ResNet-20 网络也能发挥出接近深层网络的性能，降低了推理时的算力成本。\n\nRandom-Erasing 通过模拟局部遮挡的训练机制，以零数据成本显著提升了视觉模型在复杂真实场景下的泛化能力和鲁棒性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhunzhong07_Random-Erasing_4e0f635b.jpg","zhunzhong07","Zhun Zhong","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fzhunzhong07_d0f373ec.jpg",null,"Xiamen University","https:\u002F\u002Fgithub.com\u002Fzhunzhong07",[79],{"name":80,"color":81,"percentage":82},"Python","#3572A5",100,735,155,"2026-03-17T03:20:31","Apache-2.0","未说明","未说明（基于 PyTorch，通常支持 CPU 或 NVIDIA GPU，具体取决于训练规模）",{"notes":90,"python":87,"dependencies":91},"该工具是论文《Random Erasing Data Augmentation》的官方代码实现，主要用于图像分类任务的数据增强。安装需先配置 PyTorch 环境（参考 PyTorch 官网安装指南）。支持 CIFAR10、CIFAR100 和 Fashion-MNIST 数据集，以及 ResNet 和 WRN 等架构。注意：若使用最新版的 Fashion-MNIST 数据集，复现结果可能会略低于论文报告的性能。",[92,93],"pytorch","torchvision",[14,16,15],[96,97,98,99,92,100],"data-augmentation","image-classification","object-detection","person-re-identification","aaai2020","2026-03-27T02:49:30.150509","2026-04-11T00:56:57.584037",[104,109,114,119,124,129,134],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},28606,"为什么我无法复现论文中 Fashion-MNIST 数据集的报告结果（准确率偏低）？","这是因为数据集版本不同。原始代码使用的是 2017 年 8 月 31 日之前发布的早期版本，该版本训练集和测试集之间存在图像重叠，导致结果略高（约 +0.4% 准确率）。最新发布的 dataset 已修复此问题，因此使用最新数据集时，无论是基线还是加上随机擦除（RE），性能都会略低一些，但该方法仍能提升性能。建议参考官方 Fashion-MNIST 仓库的相关讨论以获取更多细节。","https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing\u002Fissues\u002F9",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},28607,"代码实现与论文算法描述不一致：论文中提到 re = Rand(r1, r2)，但代码中似乎只用了 r1？","请参考论文第 5.1.2 节的实验设置。实验中设定了 r1 = 1\u002Fr2。在代码实现中，直接取 r1 的倒数作为 r2 的上限。如果在实验中设置 r1 = 1\u002Fr2 = 0.3，可以获得适当的性能提升。如果您希望自由设置 r1 和 r2 的值，可以自行修改代码。","https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing\u002Fissues\u002F6",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},28608,"论文中的 `RE-R`（使用随机值擦除）具体是指区域级随机化还是像素级随机化？两者有区别吗？","论文中的 RE-R 对应的是像素级随机化（即第二种方式：`img[:, x1:x1+h, y1:y1+w] = torch.from_numpy(np.random.rand(3, h, w))`）。不过，这两种赋值方式（区域级统一随机值 vs 像素级独立随机值）取得的性能相似，您可以尝试对比。有用户测试反馈像素级随机化效果略好。","https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing\u002Fissues\u002F2",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},28609,"运行代码时遇到报错，提示需要整数类型（例如涉及 block 数量或索引时），如何解决？","请将相关变量转换为整数（int）类型即可解决。例如，如果代码中涉及块数量（number blocks）或索引计算，确保它们是 int 类型，否则可能会引发类型错误。","https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing\u002Fissues\u002F5",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},28610,"该项目代码是基于哪个版本的 PyTorch 开发的？","论文中的结果是基于 PyTorch 0.2.0 版本产生的。如果您在使用新版本 PyTorch 时遇到兼容性警告（如 `volatile` 已被移除或 0 维 tensor 索引警告），请参考 PyTorch 迁移指南进行相应调整（例如使用 `torch.no_grad()` 替代 `volatile=True`，使用 `.item()` 获取标量值）。","https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing\u002Fissues\u002F11",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},28611,"当擦除区域高度或宽度等于图像尺寸时，`random.randint` 是否会抛出 `ValueError: low >= high` 错误？","在当前代码版本中不会报错。因为 Python 的 `random.randint(0, 0)` 会正常返回值 0，所以即使 `h` 等于图像高度或 `w` 等于图像宽度，导致 `randint` 的上下限相等，程序也能正常运行，无需将判断条件改为严格小于（\u003C）。","https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing\u002Fissues\u002F4",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},28612,"该仓库是否有开源许可证？我可以合法使用或克隆代码吗？","维护者已根据社区建议添加了 LICENSE 文件。该仓库现在采用 Apache 2.0 许可证，这与 TensorFlow 使用的许可证相同，并且与 PyTorch 许可证兼容，允许您合法地克隆、运行和修改代码。","https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing\u002Fissues\u002F12",[]]