[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-markdtw--awesome-architecture-search":3,"tool-markdtw--awesome-architecture-search":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":78,"languages":75,"stars":79,"forks":80,"last_commit_at":81,"license":75,"difficulty_score":82,"env_os":83,"env_gpu":84,"env_ram":84,"env_deps":85,"category_tags":88,"github_topics":89,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":92,"updated_at":93,"faqs":94,"releases":95},9857,"markdtw\u002Fawesome-architecture-search","awesome-architecture-search","A curated list of awesome architecture search resources","awesome-architecture-search 是一个精心整理的开源资源清单，专注于神经网络架构搜索（NAS）与超参数优化领域。在深度学习模型设计中，手动调整网络结构和参数不仅耗时费力，还极度依赖专家经验，而该列表旨在解决这一痛点，为自动化寻找最优模型结构提供权威指引。\n\n它汇集了该领域最具影响力的学术论文、代码实现及技术教程，内容涵盖基于强化学习、进化算法等多种主流技术路线的经典方案，如 ENAS、NASNet 及 Genetic CNN 等。通过分类梳理，用户能快速定位到所需的研究成果或复现代码，极大地降低了探索前沿算法的门槛。\n\n这份资源特别适合人工智能研究人员、算法工程师及深度学习开发者使用。无论是希望跟进最新学术动态的研究者，还是需要在实际项目中应用自动机器学习（AutoML）技术的开发者，都能从中获得高价值的参考。awesome-architecture-search 不仅是入门学习的导航图，更是深入钻研高效模型设计不可或缺的案头工具，帮助用户在纷繁复杂的技术文献中高效获取核心知识。","# Awesome Architecture Search [![Awesome](https:\u002F\u002Fawesome.re\u002Fbadge.svg)](https:\u002F\u002Fawesome.re)\n\u003Cp align=\"center\">\n  \u003Cimg width=\"250\" src=\"https:\u002F\u002Fcamo.githubusercontent.com\u002F1131548cf666e1150ebd2a52f44776d539f06324\u002F68747470733a2f2f63646e2e7261776769742e636f6d2f73696e647265736f726875732f617765736f6d652f6d61737465722f6d656469612f6c6f676f2e737667\" \"Awesome!\">\n\u003C\u002Fp>\n\nA curated list of awesome architecture search and hyper-parameter optimization resources. Inspired by [awesome-deep-vision](https:\u002F\u002Fgithub.com\u002Fkjw0612\u002Fawesome-deep-vision), [awesome-adversarial-machine-learning](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fawesome-adversarial-machine-learning) and [awesome-deep-learning-papers](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers).\n\nHyper-parameter optimization has always been a popular field in the Machine Learning community, architecture search just emerges as a rising star in recent years. These are some of the awesome resources!\n\n## Table of Contents\n\n- [Architecture Search](#architecture-search)\n  - [Reinforcement Learning](#reinforcement-learning)\n  - [Evolutionary Algorithm](#evolutionary-algorithm)\n  - [Others](#others)\n- [Hyper-Parameter Search](#hyper-parameter-search)\n- [Contributing](#contributing)\n- [License](#license)\n\n## Architecture Search\n\n### Reinforcement Learning\n- Neural Architecture Search with Reinforcement Learning [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.01578)\n  - Barret Zoph and Quoc V. Le. *ICLR'17*\n- Designing Neural Network Architectures Using Reinforcement Learning [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.02167) [[code]](https:\u002F\u002Fgithub.com\u002Fbowenbaker\u002Fmetaqnn)\n  - Bowen Baker, Otkrist Gupta, Nikhil Naik, Ramesh Raskar. *ICLR'17*\n- Efficient Architecture Search by Network Transformation [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.04873) [[code]](https:\u002F\u002Fgithub.com\u002Fhan-cai\u002FEAS)\n  - Han Cai, Tianyao Chen, Weinan Zhang, Yong Yu, Jun Wang. *AAAI'18*\n- Learning Transferable Architectures for Scalable Image Recognition [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.07012) [[nasnet]](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fslim\u002Fnets\u002Fnasnet)\n  - Barret Zoph, Vijay Vasudevan, Jonathan Shlens, Quoc V. Le. *Arxiv 1707*\n- Practical Block-wise Neural Network Architecture Generation [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.05552)\n  - Zhao Zhong, Junjie Yan, Wei Wu, Jing Shao, Cheng-Lin Liu. *CVPR'18*\n- A Flexible Approach to Automated RNN Architecture Generation [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.07316)\n  - Martin Schrimpf, Stephen Merity, James Bradbury, Richard Socher. *ICLR'18*\n- Efficient Neural Architecture Search via Parameter Sharing [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.03268) [[code (not official)]](https:\u002F\u002Fgithub.com\u002Fcarpedm20\u002FENAS-pytorch) [[code (official)]](https:\u002F\u002Fgithub.com\u002Fmelodyguan\u002Fenas)\n  - Hieu Pham, Melody Y. Guan, Barret Zoph, Quoc V. Le, Jeff Dean. *Arxiv 1802*\n- Path-Level Network Transformation for Efficient Architecture Search [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.02639) [[code]](https:\u002F\u002Fgithub.com\u002Fhan-cai\u002FPathLevel-EAS)\n  - Han Cai, Jiacheng Yang, Weinan Zhang, Song Han, Yong Yu. *ICML'18*\n\n### Evolutionary Algorithm\n- Large-Scale Evolution of Image Classifiers [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.01041)\n  - Esteban Real, Sherry Moore, Andrew Selle, Saurabh Saxena, Yutaka Leon Suematsu, Jie Tan, Quoc Le, Alex Kurakin. *ICML'17*\n- Genetic CNN [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.01513) [[code]](https:\u002F\u002Fgithub.com\u002Faqibsaeed\u002FGenetic-CNN)\n  - Lingxi Xie and Alan Yuille. *ICCV'17*\n- Hierarchical Representations for Efficient Architecture Search [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.00436)\n  - Hanxiao Liu, Karen Simonyan, Oriol Vinyals, Chrisantha Fernando, Koray Kavukcuoglu. *ICLR'18*\n- Regularized Evolution for Image Classifier Architecture Search [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.01548)\n  - Esteban Real, Alok Aggarwal, Yanping Huang, Quoc V Le. *Arxiv 1802*\n- Weight Agnostic Neural Networks [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.04358)\n  - Adam Gaier, David Ha. *NeurIPS'19*\n\n### Others\n- Neural Architecture Optimization [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1808.07233) [[code]](https:\u002F\u002Fgithub.com\u002Frenqianluo\u002FNAO)\n  - Renqian Luo, Fei Tian, Tao Qin, Enhong Chen, Tie-Yan Liu. *Arxiv 1808*\n- DeepArchitect: Automatically Designing and Training Deep Architectures [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.08792) [[code]](https:\u002F\u002Fgithub.com\u002Fnegrinho\u002Fdeep_architect)\n  - Renato Negrinho and Geoff Gordon. *Arxiv 1704*\n- SMASH: One-Shot Model Architecture Search through HyperNetworks [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.05344) [[code]](https:\u002F\u002Fgithub.com\u002Fajbrock\u002FSMASH)\n  - Andrew Brock, Theodore Lim, J.M. Ritchie, Nick Weston. *ICLR'18*\n- Simple and efficient architecture search for Convolutional Neural Networks [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.04528)\n  - Thomas Elsken, Jan-Hendrik Metzen, Frank Hutter. *ICLR'18 Workshop*\n- Progressive Neural Architecture Search [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.00559)\n  - Chenxi Liu, Barret Zoph, Jonathon Shlens, Wei Hua, Li-Jia Li, Li Fei-Fei, Alan Yuille, Jonathan Huang, Kevin Murphy. *Arxiv 1712*\n- DPP-Net: Device-aware Progressive Search for Pareto-optimal Neural Architectures [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.08198)\n  - [Jin-Dong Dong](https:\u002F\u002Fmarkdtw.github.io), An-Chieh Cheng, Da-Cheng Juan, Wei Wei, Min Sun. *ECCV'18*\n- Neural Architecture Search with Bayesian Optimisation and Optimal Transport [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.07191)\n  - Kirthevasan Kandasamy, Willie Neiswanger, Jeff Schneider, Barnabas Poczos, Eric Xing. *Arxiv 1802*\n- Effective Building Block Design for Deep Convolutional Neural Networks using Search [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.08577)\n  - Jayanta K Dutta, Jiayi Liu, Unmesh Kurup, Mohak Shah. *Arxiv 1801*\n- DARTS: Differentiable Architecture Search [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.09055) [[code]](https:\u002F\u002Fgithub.com\u002Fquark0\u002Fdarts)\n  - Hanxiao Liu, Karen Simonyan, Yiming Yang. *Arxiv 1806*\n- Efficient Neural Architecture Search with Network Morphism [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.10282) [[code]](https:\u002F\u002Fgithub.com\u002Fjhfjhfj1\u002Fautokeras)\n  - Haifeng Jin, Qingquan Song, Xia Hu. *Arxiv 1806*\n- Searching for Efficient Multi-Scale Architectures for Dense Image Prediction [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.04184) \n  - Liang-Chieh Chen, Maxwell D. Collins, Yukun Zhu, George Papandreou, Barret Zoph, Florian Schroff, Hartwig Adam, Jonathon Shlens. *Arxiv 1809*\n- AMC: AutoML for Model Compression and Acceleration on Mobile Devices [[pdf]](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ECCV_2018\u002Fpapers\u002FYihui_He_AMC_Automated_Model_ECCV_2018_paper.pdf) [[code (not official)]](https:\u002F\u002Fgithub.com\u002FTencent\u002FPocketFlow)\n  - Yihui He, Ji Lin, Zhijian Liu, Hanrui Wang, Li-Jia Li, Song Han. *ECCV'18*\n- MorphNet: Fast & Simple Resource-Constrained Structure Learning of Deep Networks [[pdf]](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FGordon_MorphNet_Fast__CVPR_2018_paper.pdf)\n  - Ariel Gordon, Elad Eban, Bo Chen, Ofir Nachum, Tien-Ju Yang, Edward Choi. *CVPR'18*\n- Weight Agnostic Neural Networks [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.04358)\n  - Adam Gaier, David Ha. *NeurIPS'19*\n- Towards Modular and Programmable Architecture Search [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.13404) [[code]](https:\u002F\u002Fgithub.com\u002Fnegrinho\u002Fdeep_architect)\n  - Renato Negrinho, Darshan Patil, Nghia Le, Daniel Ferreira, Matthew Gormley, Geoffrey Gordon. *NeurIPS'19*\n\n## Hyper-Parameter Search\n- Speeding up Automatic Hyperparameter Optimization of Deep Neural Networksby Extrapolation of Learning Curves [[pdf]](http:\u002F\u002Fml.informatik.uni-freiburg.de\u002Fpapers\u002F15-IJCAI-Extrapolation_of_Learning_Curves.pdf) [[code]](https:\u002F\u002Fgithub.com\u002Fautoml\u002Fpylearningcurvepredictor)\n  - Tobias Domhan, Jost Tobias Springenberg, Frank Hutter. *IJCAI'15*\n- Hyperband: A Novel Bandit-Based Approach to Hyperparameter Optimization [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.06560)\n  - Lisha Li, Kevin Jamieson, Giulia DeSalvo, Afshin Rostamizadeh, Ameet Talwalkar. *ICLR'17*\n- Learning Curve Prediction with Bayesian Neural Networks [[pdf]](http:\u002F\u002Fml.informatik.uni-freiburg.de\u002Fpapers\u002F17-ICLR-LCNet.pdf)\n  - Aaron Klein, Stefan Falkner, Jost Tobias Springenberg, Frank Hutter. *ICLR'17*\n- Accelerating Neural Architecture Search using Performance Prediction [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.10823)\n  - Bowen Baker, Otkrist Gupta, Ramesh Raskar, Nikhil Naik. *ICLR'18 Workshop*\n- Hyperparameter Optimization: A Spectral Approach [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.00764) [[code]](https:\u002F\u002Fgithub.com\u002Fcallowbird\u002FHarmonica)\n  - Elad Hazan, Adam Klivans, Yang Yuan. *NIPS DLTP Workshop 2017*\n- Population Based Training of Neural Networks [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.09846)\n  - Max Jaderberg, Valentin Dalibard, Simon Osindero, Wojciech M. Czarnecki, Jeff Donahue, Ali Razavi, Oriol Vinyals, Tim Green, Iain Dunning, Karen Simonyan, Chrisantha Fernando, Koray Kavukcuoglu. *Arxiv 1711*\n\n\n## Contributing\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmarkdtw_awesome-architecture-search_readme_7a9f4b7eebd0.jpg\" alt=\"We Need You!\">\n\u003C\u002Fp>\n\nPlease help contribute this list by contacting [me](https:\u002F\u002Fmarkdtw.github.io\u002F) or add [pull request](https:\u002F\u002Fgithub.com\u002Fmarkdtw\u002Fawesome-architecture-search\u002Fpulls)\n\nMarkdown format:\n```markdown\n- Paper Name [[pdf]](link) [[code]](link)\n  - Author 1, Author 2, Author 3. *Conference'Year*\n```\n\n\n## License\n\n[![PDM](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmarkdtw_awesome-architecture-search_readme_3cc22062c893.png)](https:\u002F\u002Fcreativecommons.org\u002Fpublicdomain\u002Fzero\u002F1.0\u002F)\n\nTo the extent possible under law, [Mark Dong](https:\u002F\u002Fmarkdtw.github.io\u002F) has waived all copyright and related or neighboring rights to this work.\n","# 令人惊叹的架构搜索 [![Awesome](https:\u002F\u002Fawesome.re\u002Fbadge.svg)](https:\u002F\u002Fawesome.re)\n\u003Cp align=\"center\">\n  \u003Cimg width=\"250\" src=\"https:\u002F\u002Fcamo.githubusercontent.com\u002F1131548cf666e1150ebd2a52f44776d539f06324\u002F68747470733a2f2f63646e2e7261776769742e636f6d2f73696e647265736f726875732f617765736f6d652f6d61737465722f6d656469612f6c6f676f2e737667\" \"Awesome!\">\n\u003C\u002Fp>\n\n一份精心整理的关于架构搜索和超参数优化的优质资源列表。灵感来源于 [awesome-deep-vision](https:\u002F\u002Fgithub.com\u002Fkjw0612\u002Fawesome-deep-vision)、[awesome-adversarial-machine-learning](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fawesome-adversarial-machine-learning) 和 [awesome-deep-learning-papers](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers)。\n\n超参数优化一直是机器学习社区中的热门领域，而架构搜索则是在近几年才崭露头角的新星。以下是一些非常棒的资源！\n\n## 目录\n\n- [架构搜索](#architecture-search)\n  - [强化学习](#reinforcement-learning)\n  - [进化算法](#evolutionary-algorithm)\n  - [其他](#others)\n- [超参数搜索](#hyper-parameter-search)\n- [贡献](#contributing)\n- [许可证](#license)\n\n## 架构搜索\n\n### 强化学习\n- 使用强化学习进行神经网络架构搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.01578)\n  - Barret Zoph 和 Quoc V. Le. *ICLR'17*\n- 利用强化学习设计神经网络架构 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.02167) [[代码]](https:\u002F\u002Fgithub.com\u002Fbowenbaker\u002Fmetaqnn)\n  - Bowen Baker、Otkrist Gupta、Nikhil Naik、Ramesh Raskar. *ICLR'17*\n- 通过网络变换实现高效的架构搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.04873) [[代码]](https:\u002F\u002Fgithub.com\u002Fhan-cai\u002FEAS)\n  - Han Cai、Tianyao Chen、Weinan Zhang、Yong Yu、Jun Wang. *AAAI'18*\n- 学习可迁移的架构以实现可扩展的图像识别 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.07012) [[nasnet]](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fslim\u002Fnets\u002Fnasnet)\n  - Barret Zoph、Vijay Vasudevan、Jonathan Shlens、Quoc V. Le. *Arxiv 1707*\n- 实用的分块式神经网络架构生成 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.05552)\n  - Zhao Zhong、Junjie Yan、Wei Wu、Jing Shao、Cheng-Lin Liu. *CVPR'18*\n- 自动化 RNN 架构生成的灵活方法 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.07316)\n  - Martin Schrimpf、Stephen Merity、James Bradbury、Richard Socher. *ICLR'18*\n- 通过参数共享实现高效的神经网络架构搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.03268) [[代码（非官方）]](https:\u002F\u002Fgithub.com\u002Fcarpedm20\u002FENAS-pytorch) [[代码（官方）]](https:\u002F\u002Fgithub.com\u002Fmelodyguan\u002Fenas)\n  - Hieu Pham、Melody Y. Guan、Barret Zoph、Quoc V. Le、Jeff Dean. *Arxiv 1802*\n- 基于路径级别的网络变换实现高效架构搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.02639) [[代码]](https:\u002F\u002Fgithub.com\u002Fhan-cai\u002FPathLevel-EAS)\n  - Han Cai、Jiacheng Yang、Weinan Zhang、Song Han、Yong Yu. *ICML'18*\n\n### 进化算法\n- 大规模进化图像分类器 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.01041)\n  - Esteban Real、Sherry Moore、Andrew Selle、Saurabh Saxena、Yutaka Leon Suematsu、Jie Tan、Quoc Le、Alex Kurakin. *ICML'17*\n- 遗传 CNN [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.01513) [[代码]](https:\u002F\u002Fgithub.com\u002Faqibsaeed\u002FGenetic-CNN)\n  - Lingxi Xie 和 Alan Yuille. *ICCV'17*\n- 用于高效架构搜索的层次化表示 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.00436)\n  - Hanxiao Liu、Karen Simonyan、Oriol Vinyals、Chrisantha Fernando、Koray Kavukcuoglu. *ICLR'18*\n- 正则化进化用于图像分类器架构搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.01548)\n  - Esteban Real、Alok Aggarwal、Yanping Huang、Quoc V Le. *Arxiv 1802*\n- 不依赖权重的神经网络 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.04358)\n  - Adam Gaier、David Ha. *NeurIPS'19*\n\n### 其他\n- 神经架构优化 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1808.07233) [[code]](https:\u002F\u002Fgithub.com\u002Frenqianluo\u002FNAO)\n  - Renqian Luo, Fei Tian, Tao Qin, Enhong Chen, Tie-Yan Liu. *Arxiv 1808*\n- DeepArchitect：自动设计和训练深度架构 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.08792) [[code]](https:\u002F\u002Fgithub.com\u002Fnegrinho\u002Fdeep_architect)\n  - Renato Negrinho 和 Geoff Gordon. *Arxiv 1704*\n- SMASH：通过超网络进行一次性模型架构搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.05344) [[code]](https:\u002F\u002Fgithub.com\u002Fajbrock\u002FSMASH)\n  - Andrew Brock、Theodore Lim、J.M. Ritchie、Nick Weston。*ICLR'18*\n- 卷积神经网络的简单高效架构搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.04528)\n  - Thomas Elsken、Jan-Hendrik Metzen、Frank Hutter。*ICLR'18 工作坊*\n- 渐进式神经架构搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.00559)\n  - Chenxi Liu、Barret Zoph、Jonathon Shlens、Wei Hua、Li-Jia Li、Li Fei-Fei、Alan Yuille、Jonathan Huang、Kevin Murphy。*Arxiv 1712*\n- DPP-Net：面向设备的帕累托最优神经架构渐进式搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.08198)\n  - [Jin-Dong Dong](https:\u002F\u002Fmarkdtw.github.io)、An-Chieh Cheng、Da-Cheng Juan、Wei Wei、Min Sun。*ECCV'18*\n- 基于贝叶斯优化与最优传输的神经架构搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.07191)\n  - Kirthevasan Kandasamy、Willie Neiswanger、Jeff Schneider、Barnabas Poczos、Eric Xing。*Arxiv 1802*\n- 使用搜索法为深度卷积神经网络设计有效的构建模块 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.08577)\n  - Jayanta K Dutta、Jiayi Liu、Unmesh Kurup、Mohak Shah。*Arxiv 1801*\n- DARTS：可微分架构搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.09055) [[code]](https:\u002F\u002Fgithub.com\u002Fquark0\u002Fdarts)\n  - Hanxiao Liu、Karen Simonyan、Yiming Yang。*Arxiv 1806*\n- 借助网络形态学实现高效的神经架构搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.10282) [[code]](https:\u002F\u002Fgithub.com\u002Fjhfjhfj1\u002Fautokeras)\n  - Haifeng Jin、Qingquan Song、Xia Hu。*Arxiv 1806*\n- 寻找用于密集图像预测的高效多尺度架构 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.04184)\n  - Liang-Chieh Chen、Maxwell D. Collins、Yukun Zhu、George Papandreou、Barret Zoph、Florian Schroff、Hartwig Adam、Jonathon Shlens。*Arxiv 1809*\n- AMC：移动端模型压缩与加速的 AutoML [[pdf]](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ECCV_2018\u002Fpapers\u002FYihui_He_AMC_Automated_Model_ECCV_2018_paper.pdf) [[code（非官方）]](https:\u002F\u002Fgithub.com\u002FTencent\u002FPocketFlow)\n  - Yihui He、Ji Lin、Zhijian Liu、Hanrui Wang、Li-Jia Li、Song Han。*ECCV'18*\n- MorphNet：快速简单的资源受限深度网络结构学习 [[pdf]](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FGordon_MorphNet_Fast__CVPR_2018_paper.pdf)\n  - Ariel Gordon、Elad Eban、Bo Chen、Ofir Nachum、Tien-Ju Yang、Edward Choi。*CVPR'18*\n- 权重无关神经网络 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.04358)\n  - Adam Gaier、David Ha。*NeurIPS'19*\n- 向模块化和可编程架构搜索迈进 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.13404) [[code]](https:\u002F\u002Fgithub.com\u002Fnegrinho\u002Fdeep_architect)\n  - Renato Negrinho、Darshan Patil、Nghia Le、Daniel Ferreira、Matthew Gormley、Geoffrey Gordon。*NeurIPS'19*\n\n## 超参数搜索\n- 通过学习曲线外推加速深度神经网络的自动超参数优化 [[pdf]](http:\u002F\u002Fml.informatik.uni-freiburg.de\u002Fpapers\u002F15-IJCAI-Extrapolation_of_Learning_Curves.pdf) [[code]](https:\u002F\u002Fgithub.com\u002Fautoml\u002Fpylearningcurvepredictor)\n  - Tobias Domhan、Jost Tobias Springenberg、Frank Hutter。*IJCAI'15*\n- Hyperband：一种基于赌博理论的新型超参数优化方法 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.06560)\n  - Lisha Li、Kevin Jamieson、Giulia DeSalvo、Afshin Rostamizadeh、Ameet Talwalkar。*ICLR'17*\n- 基于贝叶斯神经网络的学习曲线预测 [[pdf]](http:\u002F\u002Fml.informatik.uni-freiburg.de\u002Fpapers\u002F17-ICLR-LCNet.pdf)\n  - Aaron Klein、Stefan Falkner、Jost Tobias Springenberg、Frank Hutter。*ICLR'17*\n- 利用性能预测加速神经架构搜索 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.10823)\n  - Bowen Baker、Otkrist Gupta、Ramesh Raskar、Nikhil Naik。*ICLR'18 工作坊*\n- 超参数优化：一种谱方法 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.00764) [[code]](https:\u002F\u002Fgithub.com\u002Fcallowbird\u002FHarmonica)\n  - Elad Hazan、Adam Klivans、Yang Yuan。*NIPS DLTP 工作坊 2017*\n- 基于群体的神经网络训练 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.09846)\n  - Max Jaderberg、Valentin Dalibard、Simon Osindero、Wojciech M. Czarnecki、Jeff Donahue、Ali Razavi、Oriol Vinyals、Tim Green、Iain Dunning、Karen Simonyan、Chrisantha Fernando、Koray Kavukcuoglu。*Arxiv 1711*\n\n\n## 贡献\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmarkdtw_awesome-architecture-search_readme_7a9f4b7eebd0.jpg\" alt=\"我们需要你！\">\n\u003C\u002Fp>\n\n请通过联系[我](https:\u002F\u002Fmarkdtw.github.io\u002F)或提交[拉取请求](https:\u002F\u002Fgithub.com\u002Fmarkdtw\u002Fawesome-architecture-search\u002Fpulls)来帮助完善此列表。\n\nMarkdown 格式：\n```markdown\n- 论文名称 [[pdf]](链接) [[code]](链接)\n  - 作者1、作者2、作者3。*会议年份*\n```\n\n\n## 许可证\n\n[![PDM](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmarkdtw_awesome-architecture-search_readme_3cc22062c893.png)](https:\u002F\u002Fcreativecommons.org\u002Fpublicdomain\u002Fzero\u002F1.0\u002F)\n\n在法律允许的最大范围内，[Mark Dong](https:\u002F\u002Fmarkdtw.github.io\u002F) 已放弃本作品的所有版权及相关权利或邻接权利。","# Awesome Architecture Search 快速上手指南\n\n`awesome-architecture-search` 并非一个可直接安装的单一软件库，而是一个**精选资源列表**，汇集了神经架构搜索（NAS）和超参数优化领域的顶级论文、代码库及算法实现。本指南将帮助你利用该列表快速找到适合的工具并运行示例。\n\n## 环境准备\n\n由于列表中包含多种不同算法（如基于强化学习、进化算法或可微分搜索），具体依赖取决于你选择的特定项目。以下是通用的基础环境要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+) 或 macOS\n*   **Python**: 3.6 或更高版本\n*   **深度学习框架**: 根据目标项目选择 **PyTorch** 或 **TensorFlow**\n*   **硬件**: 推荐使用 NVIDIA GPU (需安装对应的 CUDA 和 cuDNN)\n\n**前置依赖安装建议：**\n在克隆具体项目前，建议先安装基础的 Python 包管理工具：\n```bash\npip install --upgrade pip setuptools wheel\n```\n\n## 安装步骤\n\n由于这是一个资源索引，你需要从列表中选择具体的项目进行安装。以下以列表中热门的 **DARTS** (Differentiable Architecture Search) 为例演示安装流程：\n\n1.  **克隆目标仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fquark0\u002Fdarts.git\n    cd darts\n    ```\n\n2.  **安装项目依赖**\n    大多数 NAS 项目会提供 `requirements.txt`。\n    ```bash\n    pip install -r requirements.txt\n    ```\n    *注：若下载速度慢，可使用国内镜像源加速：*\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n3.  **验证安装**\n    确保能够导入相关库且无报错。\n    ```bash\n    python -c \"import torch; print(torch.__version__)\"\n    ```\n\n## 基本使用\n\n以下展示如何运行一个典型的架构搜索任务（以 DARTS 在 CIFAR-10 数据集上的搜索为例）：\n\n1.  **准备数据**\n    确保当前目录下有 `data` 文件夹，部分项目会自动下载，若需手动下载请参照项目 README。\n\n2.  **执行搜索命令**\n    在项目根目录运行搜索脚本。通常需要指定 GPU ID、数据集类型和保存路径。\n    ```bash\n    python search.py --gpu 0 --dataset cifar10 --save logs\u002Fsearch\n    ```\n\n3.  **训练最终架构**\n    搜索完成后，使用找到的最佳架构进行重新训练以评估性能：\n    ```bash\n    python train.py --gpu 0 --dataset cifar10 --arch [ARCH_ID] --save logs\u002Feval\n    ```\n\n**提示**：\n*   对于列表中的其他项目（如 `ENAS`, `NAO`, `AutoKeras` 等），请参考其对应 GitHub 仓库的 `README` 获取特定的运行命令。\n*   如果是纯论文资源（无代码链接），建议直接在 ArXiv 阅读 PDF 以了解算法原理。","某自动驾驶初创公司的算法团队正致力于优化车载摄像头的小目标检测模型，需要在有限的算力资源下找到精度与速度平衡的最佳网络结构。\n\n### 没有 awesome-architecture-search 时\n- **文献调研如大海捞针**：团队成员需手动在 arXiv 和 Google Scholar 上筛选海量论文，极易遗漏如 ENAS（参数共享）或 Regularized Evolution 等关键高效算法。\n- **复现成本高昂且易错**：从零复现顶级会议（如 ICLR、CVPR）的架构搜索代码耗时数周，常因缺少官方实现链接或依赖环境配置错误而半途而废。\n- **技术选型盲目试错**：缺乏对强化学习、进化算法等不同搜索策略的系统对比，导致团队误选了计算开销过大且不适合边缘设备的方案。\n- **超参优化知识割裂**：架构搜索与超参数优化资源分散，难以形成联合优化的完整视角，限制了模型最终性能的上限。\n\n### 使用 awesome-architecture-search 后\n- **核心资源一站获取**：直接通过分类目录锁定“进化算法”下的 Large-Scale Evolution 等前沿成果，半天内即可完成从文献阅读到技术选型的闭环。\n- **代码落地极速启动**：利用列表中提供的官方及高质量非官方代码链接（如 GitHub 仓库），将原本数周的复现周期缩短至 2-3 天，快速验证基线。\n- **策略匹配精准高效**：参考列表中按方法学（RL、Evolutionary 等）整理的经典案例，迅速选定适合车载芯片的轻量级搜索路径，避免无效算力浪费。\n- **知识体系系统构建**：借助其 curated 特性，团队同时掌握了架构搜索与超参优化的协同技巧，显著提升了模型在嵌入式端的推理速度。\n\nawesome-architecture-search 将原本分散杂乱的科研资源转化为结构化的工程利器，帮助团队在激烈的算法竞赛中大幅缩短了从理论到落地的研发周期。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmarkdtw_awesome-architecture-search_40345ca2.png","markdtw","Mark","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmarkdtw_0ce09573.png",null,"Carnegie Mellon University","San Francisco, CA","https:\u002F\u002Fgithub.com\u002Fmarkdtw",1192,198,"2026-04-09T07:58:56",1,"","未说明",{"notes":86,"python":84,"dependencies":87},"该仓库是一个资源列表（Awesome List），汇集了关于神经架构搜索（NAS）和超参数优化的论文、代码链接等资源，本身不是一个可直接运行的单一软件工具。因此没有统一的运行环境需求。具体的环境要求需参考列表中各个独立项目（如 DARTS, ENAS, AutoKeras 等）的源代码仓库。",[],[14],[90,91],"deep-learning","neural-architecture-search","2026-03-27T02:49:30.150509","2026-04-20T07:18:27.911200",[],[]]