[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kakaobrain--fast-autoaugment":3,"tool-kakaobrain--fast-autoaugment":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":10,"env_os":88,"env_gpu":89,"env_ram":88,"env_deps":90,"category_tags":97,"github_topics":98,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":109,"updated_at":110,"faqs":111,"releases":152},4778,"kakaobrain\u002Ffast-autoaugment","fast-autoaugment","Official Implementation of 'Fast AutoAugment' in PyTorch.","fast-autoaugment 是谷歌研究团队提出的“快速自动增强”算法的官方 PyTorch 实现，曾入选 NeurIPS 2019。它主要致力于解决深度学习模型训练中数据增强策略搜索耗时过长的问题。传统的 AutoAugment 方法虽然能显著提升模型精度，但其搜索过程极其缓慢，往往需要数千个 GPU 小时。\n\nfast-autoaugment 通过引入基于密度匹配的高效搜索策略，在保持与原有方法相当甚至更优性能的前提下，将搜索速度提升了数个数量级。例如在 CIFAR-10 数据集上，其搜索时间仅需 3.5 个 GPU 小时，比原版快了近 1500 倍；在 ImageNet 上也实现了 33 倍的加速。这使得在资源有限的情况下探索最优数据增强方案成为可能。\n\n该工具非常适合人工智能研究人员、算法工程师以及希望优化模型性能的开发者使用。无论是处理 CIFAR 还是 ImageNet 等大型图像分类任务，用户都能利用它快速找到适合特定数据集和模型架构的增强策略，从而轻松提升模型的泛化能力和准确率。作为开源项目，它提供了预训练模型和清晰的代码结构，便于社区复现结果或将其集成到现有的深度","fast-autoaugment 是谷歌研究团队提出的“快速自动增强”算法的官方 PyTorch 实现，曾入选 NeurIPS 2019。它主要致力于解决深度学习模型训练中数据增强策略搜索耗时过长的问题。传统的 AutoAugment 方法虽然能显著提升模型精度，但其搜索过程极其缓慢，往往需要数千个 GPU 小时。\n\nfast-autoaugment 通过引入基于密度匹配的高效搜索策略，在保持与原有方法相当甚至更优性能的前提下，将搜索速度提升了数个数量级。例如在 CIFAR-10 数据集上，其搜索时间仅需 3.5 个 GPU 小时，比原版快了近 1500 倍；在 ImageNet 上也实现了 33 倍的加速。这使得在资源有限的情况下探索最优数据增强方案成为可能。\n\n该工具非常适合人工智能研究人员、算法工程师以及希望优化模型性能的开发者使用。无论是处理 CIFAR 还是 ImageNet 等大型图像分类任务，用户都能利用它快速找到适合特定数据集和模型架构的增强策略，从而轻松提升模型的泛化能力和准确率。作为开源项目，它提供了预训练模型和清晰的代码结构，便于社区复现结果或将其集成到现有的深度学习工作流中。","# Fast AutoAugment **(Accepted at NeurIPS 2019)**\n\nOfficial [Fast AutoAugment](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.00397) implementation in PyTorch.\n\n- Fast AutoAugment learns augmentation policies using a more efficient search strategy based on density matching.\n- Fast AutoAugment speeds up the search time by orders of magnitude while maintaining the comparable performances.\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkakaobrain_fast-autoaugment_readme_419090f9a9b2.jpg\" height=350>\n\u003C\u002Fp>\n\n## Results\n\n### CIFAR-10 \u002F 100\n\nSearch : **3.5 GPU Hours (1428x faster than AutoAugment)**, WResNet-40x2 on Reduced CIFAR-10\n\n| Model(CIFAR-10)         | Baseline   | Cutout     | AutoAugment | Fast AutoAugment\u003Cbr\u002F>(transfer\u002Fdirect) |   |\n|-------------------------|------------|------------|-------------|------------------|----|\n| Wide-ResNet-40-2        | 5.3        | 4.1        | 3.7         | 3.6 \u002F 3.7        | [Download](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar10_wresnet40x2_top1_3.52.pth) |\n| Wide-ResNet-28-10       | 3.9        | 3.1        | 2.6         | 2.7 \u002F 2.7        | [Download](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar10_wresnet28x10_top1.pth) |\n| Shake-Shake(26 2x32d)   | 3.6        | 3.0        | 2.5         | 2.7 \u002F 2.5        | [Download](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar10_shake26_2x32d_top1_2.68.pth) |\n| Shake-Shake(26 2x96d)   | 2.9        | 2.6        | 2.0         | 2.0 \u002F 2.0        | [Download](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar10_shake26_2x96d_top1_1.97.pth) |\n| Shake-Shake(26 2x112d)  | 2.8        | 2.6        | 1.9         | 2.0 \u002F 1.9        | [Download](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar10_shake26_2x112d_top1_2.04.pth) |\n| PyramidNet+ShakeDrop    | 2.7        | 2.3        | 1.5         | 1.8 \u002F 1.7        | [Download](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar10_pyramid272_top1_1.44.pth) |\n\n| Model(CIFAR-100)      | Baseline   | Cutout     | AutoAugment | Fast AutoAugment\u003Cbr\u002F>(transfer\u002Fdirect) |    |\n|-----------------------|------------|------------|-------------|------------------|----|\n| Wide-ResNet-40-2      | 26.0       | 25.2       | 20.7        | 20.7 \u002F 20.6      | [Download](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar100_wresnet40x2_top1_20.43.pth) |\n| Wide-ResNet-28-10     | 18.8       | 18.4       | 17.1        | 17.3 \u002F 17.3      | [Download](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar100_wresnet28x10_top1_17.17.pth) |\n| Shake-Shake(26 2x96d) | 17.1       | 16.0       | 14.3        | 14.9 \u002F 14.6      | [Download](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar100_shake26_2x96d_top1_15.15.pth) |\n| PyramidNet+ShakeDrop  | 14.0       | 12.2       | 10.7        | 11.9 \u002F 11.7      | [Download](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar100_pyramid272_top1_11.74.pth) |\n\n### ImageNet\n\nSearch : **450 GPU Hours (33x faster than AutoAugment)**, ResNet-50 on Reduced ImageNet\n\n| Model      | Baseline   | AutoAugment | Fast AutoAugment\u003Cbr\u002F>(Top1\u002FTop5) |    |\n|------------|------------|-------------|------------------|----|\n| ResNet-50  | 23.7 \u002F 6.9 | 22.4 \u002F 6.2  | **22.4 \u002F 6.3**   | [Download](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fimagenet_resnet50_top1_22.2.pth) |\n| ResNet-200 | 21.5 \u002F 5.8 | 20.0 \u002F 5.0  | **19.4 \u002F 4.7**   | [Download](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fimagenet_resnet200_top1_19.4.pth) |\n\nNotes\n* We evaluated resnet-50 and resnet-200 with resolution of 224 and 320, respectively. According to the original resnet paper, resnet 200 was tested with the resolution of 320. Also our resnet-200 baseline's performance was similar when we use the resolution.\n* But with recent our code clean-up and bugfixes, we've found that the baseline performs similar to the baseline even using 224x224.\n* When we use 224x224, resnet-200 performs **20.0 \u002F 5.2**. Download link for the trained model is [here](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fimagenet_resnet200_res224.pth).\n\nWe have conducted additional experiments with EfficientNet.\n\n| Model | Baseline   | AutoAugment |   | Our Baseline(Batch) | +Fast AA |\n|-------|------------|-------------|---|---------------------|----------|\n| B0    | 23.2       | 22.7        |   | 22.96               | 22.68    |\n\n### SVHN Test\n\nSearch : **1.5 GPU Hours**\n\n|                                  | Baseline | AutoAug \u002F Our | Fast AutoAugment  |\n|----------------------------------|---------:|--------------:|--------:|\n| Wide-Resnet28x10                 | 1.5      | 1.1           | 1.1     |\n\n## Run\n\nWe conducted experiments under\n\n- python 3.6.9\n- pytorch 1.2.0, torchvision 0.4.0, cuda10\n\n### Search a augmentation policy\n\nPlease read ray's document to construct a proper ray cluster : https:\u002F\u002Fgithub.com\u002Fray-project\u002Fray, and run search.py with the master's redis address.\n\n```\n$ python search.py -c confs\u002Fwresnet40x2_cifar10_b512.yaml --dataroot ... --redis ...\n```\n\n### Train a model with found policies\n\nYou can train network architectures on CIFAR-10 \u002F 100 and ImageNet with our searched policies.\n\n- fa_reduced_cifar10 : reduced CIFAR-10(4k images), WResNet-40x2\n- fa_reduced_imagenet : reduced ImageNet(50k images, 120 classes), ResNet-50\n\n```\n$ export PYTHONPATH=$PYTHONPATH:$PWD\n$ python FastAutoAugment\u002Ftrain.py -c confs\u002Fwresnet40x2_cifar10_b512.yaml --aug fa_reduced_cifar10 --dataset cifar10\n$ python FastAutoAugment\u002Ftrain.py -c confs\u002Fwresnet40x2_cifar10_b512.yaml --aug fa_reduced_cifar10 --dataset cifar100\n$ python FastAutoAugment\u002Ftrain.py -c confs\u002Fwresnet28x10_cifar10_b512.yaml --aug fa_reduced_cifar10 --dataset cifar10\n$ python FastAutoAugment\u002Ftrain.py -c confs\u002Fwresnet28x10_cifar10_b512.yaml --aug fa_reduced_cifar10 --dataset cifar100\n...\n$ python FastAutoAugment\u002Ftrain.py -c confs\u002Fresnet50_b512.yaml --aug fa_reduced_imagenet\n$ python FastAutoAugment\u002Ftrain.py -c confs\u002Fresnet200_b512.yaml --aug fa_reduced_imagenet\n```\n\nBy adding --only-eval and --save arguments, you can test trained models without training.\n\nIf you want to train with multi-gpu\u002Fnode, use `torch.distributed.launch` such as\n\n```bash\n$ python -m torch.distributed.launch --nproc_per_node={num_gpu_per_node} --nnodes={num_node} --master_addr={master} --master_port={master_port} --node_rank={0,1,2,...,num_node} FastAutoAugment\u002Ftrain.py -c confs\u002Fefficientnet_b4.yaml --aug fa_reduced_imagenet\n```\n\n## Citation\n\nIf you use this code in your research, please cite our [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.00397).\n\n```\n@inproceedings{lim2019fast,\n  title={Fast AutoAugment},\n  author={Lim, Sungbin and Kim, Ildoo and Kim, Taesup and Kim, Chiheon and Kim, Sungwoong},\n  booktitle={Advances in Neural Information Processing Systems (NeurIPS)},\n  year={2019}\n}\n```\n\n## Contact for Issues\n- Ildoo Kim, ildoo.kim@kakaobrain.com\n\n## References & Opensources\n\nWe increase the batch size and adapt the learning rate accordingly to boost the training. Otherwise, we set other hyperparameters equal to AutoAugment if possible. For the unknown hyperparameters, we follow values from the original references or we tune them to match baseline performances.\n\n- **ResNet** : [paper1](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385), [paper2](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.05027), [code](https:\u002F\u002Fgithub.com\u002Fosmr\u002Fimgclsmob\u002Ftree\u002Fmaster\u002Fpytorch\u002Fpytorchcv\u002Fmodels)\n- **PyramidNet** : [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1610.02915), [code](https:\u002F\u002Fgithub.com\u002Fdyhan0920\u002FPyramidNet-PyTorch)\n- **Wide-ResNet** : [code](https:\u002F\u002Fgithub.com\u002Fmeliketoy\u002Fwide-resnet.pytorch)\n- **Shake-Shake** : [code](https:\u002F\u002Fgithub.com\u002Fowruby\u002Fshake-shake_pytorch)\n- **ShakeDrop Regularization** : [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.02375), [code](https:\u002F\u002Fgithub.com\u002Fowruby\u002Fshake-drop_pytorch)\n- **AutoAugment** : [code](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fautoaugment)\n- **Ray** : [code](https:\u002F\u002Fgithub.com\u002Fray-project\u002Fray)\n- **HyperOpt** : [code](https:\u002F\u002Fgithub.com\u002Fhyperopt\u002Fhyperopt)\n","# Fast AutoAugment **(被 NeurIPS 2019 接受)**\n\nPyTorch 中官方的 [Fast AutoAugment](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.00397) 实现。\n\n- Fast AutoAugment 基于密度匹配，采用更高效的搜索策略来学习数据增强策略。\n- 在保持相当性能的同时，Fast AutoAugment 将搜索时间提升了多个数量级。\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkakaobrain_fast-autoaugment_readme_419090f9a9b2.jpg\" height=350>\n\u003C\u002Fp>\n\n## 结果\n\n### CIFAR-10 \u002F 100\n\n搜索：**3.5 GPU 小时（比 AutoAugment 快 1428 倍）**，在缩减版 CIFAR-10 上使用 WResNet-40x2\n\n| 模型（CIFAR-10）         | 基线   | Cutout     | AutoAugment | Fast AutoAugment\u003Cbr\u002F>(迁移\u002F直接) |   |\n|-------------------------|------------|------------|-------------|------------------|----|\n| Wide-ResNet-40-2        | 5.3        | 4.1        | 3.7         | 3.6 \u002F 3.7        | [下载](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar10_wresnet40x2_top1_3.52.pth) |\n| Wide-ResNet-28-10       | 3.9        | 3.1        | 2.6         | 2.7 \u002F 2.7        | [下载](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar10_wresnet28x10_top1.pth) |\n| Shake-Shake(26 2x32d)   | 3.6        | 3.0        | 2.5         | 2.7 \u002F 2.5        | [下载](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar10_shake26_2x32d_top1_2.68.pth) |\n| Shake-Shake(26 2x96d)   | 2.9        | 2.6        | 2.0         | 2.0 \u002F 2.0        | [下载](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar100_shake26_2x96d_top1_1.97.pth) |\n| Shake-Shake(26 2x112d)  | 2.8        | 2.6        | 1.9         | 2.0 \u002F 1.9        | [下载](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar10_shake26_2x112d_top1_2.04.pth) |\n| PyramidNet+ShakeDrop    | 2.7        | 2.3        | 1.5         | 1.8 \u002F 1.7        | [下载](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar100_pyramid272_top1_1.44.pth) |\n\n| 模型（CIFAR-100）      | 基线   | Cutout     | AutoAugment | Fast AutoAugment\u003Cbr\u002F>(迁移\u002F直接) |    |\n|-----------------------|------------|------------|-------------|------------------|----|\n| Wide-ResNet-40-2      | 26.0       | 25.2       | 20.7        | 20.7 \u002F 20.6      | [下载](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar100_wresnet40x2_top1_20.43.pth) |\n| Wide-ResNet-28-10     | 18.8       | 18.4       | 17.1        | 17.3 \u002F 17.3      | [下载](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar100_wresnet28x10_top1_17.17.pth) |\n| Shake-Shake(26 2x96d) | 17.1       | 16.0       | 14.3        | 14.9 \u002F 14.6      | [下载](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar100_shake26_2x96d_top1_15.15.pth) |\n| PyramidNet+ShakeDrop  | 14.0       | 12.2       | 10.7        | 11.9 \u002F 11.7      | [下载](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fcifar100_pyramid272_top1_11.74.pth) |\n\n### ImageNet\n\n搜索：**450 GPU 小时（比 AutoAugment 快 33 倍）**，在缩减版 ImageNet 上使用 ResNet-50\n\n| 模型      | 基线   | AutoAugment | Fast AutoAugment\u003Cbr\u002F>(Top1\u002FTop5) |    |\n|------------|------------|-------------|------------------|----|\n| ResNet-50  | 23.7 \u002F 6.9 | 22.4 \u002F 6.2  | **22.4 \u002F 6.3**   | [下载](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fimagenet_resnet50_top1_22.2.pth) |\n| ResNet-200 | 21.5 \u002F 5.8 | 20.0 \u002F 5.0  | **19.4 \u002F 4.7**   | [下载](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fimagenet_resnet200_top1_19.4.pth) |\n\n注释\n* 我们分别以 224 和 320 的分辨率评估了 resnet-50 和 resnet-200。根据原始 resnet 论文，resnet 200 是在 320 分辨率下测试的。此外，当我们使用该分辨率时，我们的 resnet-200 基线表现也相似。\n* 然而，经过最近的代码清理和错误修复，我们发现即使使用 224x224，基线的表现仍然与之前相似。\n* 当我们使用 224x224 时，resnet-200 的表现是 **20.0 \u002F 5.2**。训练好的模型下载链接在此：[这里](https:\u002F\u002Farena.kakaocdn.net\u002Fbrainrepo\u002Ffast-autoaugment\u002Fimagenet_resnet200_res224.pth)。\n\n我们还进行了使用 EfficientNet 的额外实验。\n\n| 模型 | 基线   | AutoAugment |   | 我们的基线（批次） | +Fast AA |\n|-------|------------|-------------|---|---------------------|----------|\n| B0    | 23.2       | 22.7        |   | 22.96               | 22.68    |\n\n### SVHN 测试\n\n搜索：**1.5 GPU 小时**\n\n|                                  | 基线 | AutoAug \u002F 我们 | Fast AutoAugment  |\n|----------------------------------|---------:|--------------:|--------:|\n| Wide-Resnet28x10                 | 1.5      | 1.1           | 1.1     |\n\n## 运行\n\n我们在以下环境下进行了实验：\n\n- python 3.6.9\n- pytorch 1.2.0, torchvision 0.4.0, cuda10\n\n### 搜索数据增强策略\n\n请阅读 ray 的文档以构建合适的 ray 集群：https:\u002F\u002Fgithub.com\u002Fray-project\u002Fray，并使用 master 的 redis 地址运行 search.py。\n\n```\n$ python search.py -c confs\u002Fwresnet40x2_cifar10_b512.yaml --dataroot ... --redis ...\n```\n\n### 使用找到的策略训练模型\n\n您可以使用我们在 CIFAR-10 \u002F 100 和 ImageNet 上搜索到的策略来训练网络架构。\n\n- fa_reduced_cifar10：缩减版 CIFAR-10（4k 张图像），WResNet-40x2\n- fa_reduced_imagenet：缩减版 ImageNet（50k 张图像，120 个类别），ResNet-50\n\n```\n$ export PYTHONPATH=$PYTHONPATH:$PWD\n$ python FastAutoAugment\u002Ftrain.py -c confs\u002Fwresnet40x2_cifar10_b512.yaml --aug fa_reduced_cifar10 --dataset cifar10\n$ python FastAutoAugment\u002Ftrain.py -c confs\u002Fwresnet40x2_cifar10_b512.yaml --aug fa_reduced_cifar10 --dataset cifar100\n$ python FastAutoAugment\u002Ftrain.py -c confs\u002Fwresnet28x10_cifar10_b512.yaml --aug fa_reduced_cifar10 --dataset cifar10\n$ python FastAutoAugment\u002Ftrain.py -c confs\u002Fwresnet28x10_cifar10_b512.yaml --aug fa_reduced_cifar10 --dataset cifar100\n...\n$ python FastAutoAugment\u002Ftrain.py -c confs\u002Fresnet50_b512.yaml --aug fa_reduced_imagenet\n$ python FastAutoAugment\u002Ftrain.py -c confs\u002Fresnet200_b512.yaml --aug fa_reduced_imagenet\n```\n\n通过添加 --only-eval 和 --save 参数，您可以在不进行训练的情况下测试已训练的模型。\n\n如果您想使用多 GPU\u002F节点进行训练，请使用 `torch.distributed.launch`，例如：\n\n```bash\n$ python -m torch.distributed.launch --nproc_per_node={num_gpu_per_node} --nnodes={num_node} --master_addr={master} --master_port={master_port} --node_rank={0,1,2,...,num_node} FastAutoAugment\u002Ftrain.py -c confs\u002Fefficientnet_b4.yaml --aug fa_reduced_imagenet\n```\n\n## 引用\n\n如果您在研究中使用此代码，请引用我们的论文 [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.00397)。\n\n```\n@inproceedings{lim2019fast,\n  title={Fast AutoAugment},\n  author={Lim, Sungbin and Kim, Ildoo and Kim, Taesup and Kim, Chiheon and Kim, Sungwoong},\n  booktitle={Advances in Neural Information Processing Systems (NeurIPS)},\n  year={2019}\n}\n```\n\n## 问题反馈联系方式\n- Ildoo Kim, ildoo.kim@kakaobrain.com\n\n## 参考文献与开源项目\n\n我们通过增大批量大小并相应调整学习率来加速训练。其余超参数则尽可能与 AutoAugment 保持一致。对于未知的超参数，我们沿用原始参考文献中的取值，或对其进行调优以达到基线性能。\n\n- **ResNet**：[论文1](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385)、[论文2](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.05027)、[代码](https:\u002F\u002Fgithub.com\u002Fosmr\u002Fimgclsmob\u002Ftree\u002Fmaster\u002Fpytorch\u002Fpytorchcv\u002Fmodels)\n- **PyramidNet**：[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1610.02915)、[代码](https:\u002F\u002Fgithub.com\u002Fdyhan0920\u002FPyramidNet-PyTorch)\n- **Wide-ResNet**：[代码](https:\u002F\u002Fgithub.com\u002Fmeliketoy\u002Fwide-resnet.pytorch)\n- **Shake-Shake**：[代码](https:\u002F\u002Fgithub.com\u002Fowruby\u002Fshake-shake_pytorch)\n- **ShakeDrop 正则化**：[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.02375)、[代码](https:\u002F\u002Fgithub.com\u002Fowruby\u002Fshake-drop_pytorch)\n- **AutoAugment**：[代码](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fautoaugment)\n- **Ray**：[代码](https:\u002F\u002Fgithub.com\u002Fray-project\u002Fray)\n- **HyperOpt**：[代码](https:\u002F\u002Fgithub.com\u002Fhyperopt\u002Fhyperopt)","# Fast AutoAugment 快速上手指南\n\nFast AutoAugment 是一种高效的数据增强策略搜索算法，能在保持与 AutoAugment 相当性能的同时，将搜索速度提升数个数量级。本项目基于 PyTorch 实现，适用于 CIFAR-10\u002F100、ImageNet 等数据集。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐)\n*   **Python**: 3.6.9 (兼容 3.6+)\n*   **PyTorch**: 1.2.0+\n*   **Torchvision**: 0.4.0+\n*   **CUDA**: 10.0+ (如需 GPU 加速)\n*   **核心依赖**:\n    *   `ray`: 用于分布式搜索集群管理\n    *   `hyperopt`: 用于超参数优化\n\n**国内加速建议**：\n安装 Python 依赖时，推荐使用清华或阿里镜像源以提升下载速度：\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n*(注：若项目中无 requirements.txt，请手动安装上述核心依赖)*\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment.git\n    cd fast-autoaugment\n    ```\n\n2.  **配置环境变量**\n    为了确保模块能正确导入，请将当前目录添加到 `PYTHONPATH`：\n    ```bash\n    export PYTHONPATH=$PYTHONPATH:$PWD\n    ```\n\n3.  **安装依赖**\n    确保已安装 PyTorch 和 torchvision，然后安装其他必要库（如 ray, hyperopt）：\n    ```bash\n    pip install ray hyperopt\n    ```\n\n## 基本使用\n\nFast AutoAugment 的工作流程分为两步：**搜索增强策略** 和 **使用策略训练模型**。\n\n### 1. 搜索数据增强策略 (Search)\n\n首先需要启动一个 Ray 集群（参考 [Ray 文档](https:\u002F\u002Fgithub.com\u002Fray-project\u002Fray)），然后运行搜索脚本。以下是在 CIFAR-10 上使用 Wide-ResNet-40x2 进行搜索的示例：\n\n```bash\npython search.py -c confs\u002Fwresnet40x2_cifar10_b512.yaml --dataroot \u002Fpath\u002Fto\u002Fdataset --redis \u003Cmaster_redis_address>\n```\n*   `--dataroot`: 替换为您的数据集路径。\n*   `--redis`: 替换为 Ray 主节点的 Redis 地址。\n*   **说明**: 搜索过程在 Reduced CIFAR-10 (4k 图像) 上进行，仅需约 3.5 GPU 小时。\n\n### 2. 使用找到的策略训练模型 (Train)\n\n搜索完成后，可以使用生成的策略（通过 `--aug` 参数指定）在完整数据集上训练模型。\n\n**CIFAR-10\u002F100 训练示例：**\n```bash\n# 训练 CIFAR-10\npython FastAutoAugment\u002Ftrain.py -c confs\u002Fwresnet40x2_cifar10_b512.yaml --aug fa_reduced_cifar10 --dataset cifar10\n\n# 训练 CIFAR-100\npython FastAutoAugment\u002Ftrain.py -c confs\u002Fwresnet40x2_cifar10_b512.yaml --aug fa_reduced_cifar10 --dataset cifar100\n```\n\n**ImageNet 训练示例：**\n```bash\npython FastAutoAugment\u002Ftrain.py -c confs\u002Fresnet50_b512.yaml --aug fa_reduced_imagenet\n```\n\n**多 GPU\u002F多节点分布式训练：**\n如果您需要在多卡或多机环境下训练，请使用 `torch.distributed.launch`：\n\n```bash\npython -m torch.distributed.launch --nproc_per_node={num_gpu_per_node} --nnodes={num_node} --master_addr={master} --master_port={master_port} --node_rank={0,1,2,...,num_node} FastAutoAugment\u002Ftrain.py -c confs\u002Fefficientnet_b4.yaml --aug fa_reduced_imagenet\n```\n*   请将 `{...}` 替换为实际的数值和地址。\n\n**仅评估已有模型：**\n如果您只想测试已训练好的模型而不进行训练，可添加 `--only-eval` 和 `--save` 参数。","某计算机视觉团队正在为医疗影像诊断系统训练一个高精度的 ResNet-50 模型，急需通过数据增强策略来提升模型在复杂病灶识别上的泛化能力。\n\n### 没有 fast-autoaugment 时\n- **搜索成本极高**：若采用传统的 AutoAugment 算法寻找最优增强策略，需要在 ImageNet 子集上耗费约 15,000 GPU 小时，团队现有的算力集群需连续运行数月才能完成搜索。\n- **迭代周期漫长**：由于策略搜索时间过长，算法工程师无法在短时间内验证不同架构的效果，严重拖慢了从实验到部署的整体研发节奏。\n- **资源挤占严重**：漫长的搜索过程长期占用大量昂贵的 GPU 资源，导致其他并行的模型调优任务被迫排队等待，降低了团队整体产出效率。\n- **试错门槛过高**：高昂的时间和经济成本使得团队不敢轻易尝试针对特定医疗数据集的定制化策略搜索，只能沿用通用的预设增强方案，限制了模型性能上限。\n\n### 使用 fast-autoaugment 后\n- **搜索效率飞跃**：利用基于密度匹配的高效搜索策略，fast-autoaugment 将同样的策略搜索时间缩短至 450 GPU 小时，速度提升了 33 倍，仅需数天即可完成。\n- **快速验证迭代**：工程师可以在一周内完成多轮“搜索 - 训练”闭环，迅速针对不同部位的影像数据定制专属增强策略，大幅加速模型优化进程。\n- **释放算力资源**：极短的搜索窗口释放了宝贵的 GPU 集群，使团队能够同时开展多个病种模型的并行实验，显著提升了资源利用率。\n- **性能无损提升**：在速度大幅提升的同时，最终训练出的 ResNet-50 模型在 Top-1 准确率上达到了 22.4%，与传统 AutoAugment 效果持平，确保了诊断系统的可靠性。\n\nfast-autoaugment 通过将数据增强策略的搜索速度提升数十倍，让高精度模型的自动化调优从“奢侈品”变成了日常开发中可负担的标准流程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkakaobrain_fast-autoaugment_6cde93c0.png","kakaobrain","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkakaobrain_a00b2530.png","Kakao Brain Corp.",null,"https:\u002F\u002Fkakaobrain.com","https:\u002F\u002Fgithub.com\u002Fkakaobrain",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,1609,197,"2026-04-06T10:37:10","MIT","未说明","需要 NVIDIA GPU (实验基于 CUDA 10)，具体显存需求未说明，但支持多卡分布式训练",{"notes":91,"python":92,"dependencies":93},"搜索增强策略阶段需要配置 Ray 集群并指定 Redis 地址；支持使用 torch.distributed.launch 进行多 GPU\u002F多节点分布式训练；实验数据包括缩减版的 CIFAR-10 和 ImageNet。","3.6.9",[94,95,96],"torch==1.2.0","torchvision==0.4.0","ray",[15,14],[99,100,101,102,103,104,105,106,107,108],"deep-learning","convolutional-neural-networks","pytorch","augmentation","image-classification","computer-vision","distributed","cnn","automl","automated-machine-learning","2026-03-27T02:49:30.150509","2026-04-07T10:51:50.033313",[112,117,122,127,132,137,142,147],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},21697,"如何在其他数据集（如 CIFAR）上使用该技术寻找最佳策略？","作者已发布搜索阶段的代码。若要为新领域的数据集训练新策略，简单的策略迁移可能效果不佳，建议直接运行搜索代码来生成针对该数据集的专用策略。如有问题可进一步联系维护者。","https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment\u002Fissues\u002F8",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},21698,"如何正确获取用于搜索的 6,000 张 ImageNet 缩减样本？","原始代码逻辑有误，导致类别数量不足。正确的步骤是：首先从 1000 个类别中随机采样约 500,000 张训练数据（每类约 500 张），然后从中随机选择 120 个唯一类别。可以使用以下代码获取 120 个唯一类别的索引：`idx120 = sorted(random.sample(list(range(1000)), k=120))`。注意不要先过滤类别再采样，否则会导致数据量过少。","https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment\u002Fissues\u002F37",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},21699,"运行 search.py 时提示找不到模型检查点文件（.model），应该如何解决？","search.py 在启动时会尝试加载之前的检查点以恢复训练进度。如果是首次运行，这些文件不存在是正常的，代码中的 `try-except` 块会捕获异常并继续执行（跳过加载）。如果程序卡住或报错，请确保配置文件中的路径正确，或者检查是否因权限问题导致无法访问目录。通常无需手动生成这些文件，它们会在训练过程中自动保存。","https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment\u002Fissues\u002F63",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},21700,"初始化 Ray 服务器时出现 'UnicodeError' 或 'redis_address' 相关错误怎么办？","如果在调用 `ray.init(redis_address=args.redis)` 时遇到编码错误或连接问题，可以尝试移除 redis 地址参数，改为直接指定本地资源。例如，将代码修改为：`ray.init(num_cpus=8, num_gpus=2)`（根据实际机器配置调整 CPU 和 GPU 数量）。这通常能解决本地单机运行时的初始化问题。","https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment\u002Fissues\u002F53",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},21701,"在 CIFAR-10 上复现结果时误差率远高于论文报告值（如 7% vs 3.7%），原因是什么？","这个问题通常是由 PyTorch 版本差异引起的。具体来说，PyTorch 1.1.0 版本中的 `CosineAnnealingLR` 学习率调度器行为与后续版本不同，导致学习率下降过快。解决方案是将 PyTorch 升级到 1.3.0 或更高版本。升级后，使用 WRN40x2 模型在 CIFAR-10 上可复现约 3.5% 的误差率。","https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment\u002Fissues\u002F23",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},21702,"安装依赖包 'theconf' 时出现 'ascii' codec 解码错误怎么办？","这是由于 setup.py 文件中包含非 ASCII 字符导致的编码问题。该问题已在 'theconf' 仓库的 Pull Request #11 中被修复。请尝试重新安装最新版本的包：`pip install git+https:\u002F\u002Fgithub.com\u002Fwbaek\u002Ftheconf.git`。如果仍然报错，请确保您的 pip 是最新版本，或者手动克隆该仓库应用修复补丁后再安装。","https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment\u002Fissues\u002F7",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},21703,"运行搜索脚本时，配置文件中的 'aug: fa_reduced_cifar10' 参数需要删除吗？","不需要删除。`fa_reduced_cifar10` 是作者预定义的一种增强策略配置名称。在 `wresnet40x2_cifar10_b512.yaml` 中保留 `aug: fa_reduced_cifar10` 是为了指定使用哪种增强策略进行训练或搜索。如果您想使用搜索到的新策略，通常在搜索完成后，会将生成的策略应用到该字段，或者在训练阶段指定新的策略文件，但在初始搜索设置中保持默认配置即可。","https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment\u002Fissues\u002F35",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},21704,"项目的搜索代码（search code）是否已经开源？","是的，搜索代码已经发布。维护者已测试了所有训练代码并发布了训练好的模型检查点。需要注意的是，由于 GPU 资源限制，维护者没有重新运行完整的搜索阶段来验证所有结果，但代码本身是可用的。用户可以直接下载并使用这些代码来搜索适合自己数据集的策略。","https:\u002F\u002Fgithub.com\u002Fkakaobrain\u002Ffast-autoaugment\u002Fissues\u002F11",[]]