[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mit-han-lab--proxylessnas":3,"tool-mit-han-lab--proxylessnas":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":119,"forks":120,"last_commit_at":121,"license":122,"difficulty_score":32,"env_os":123,"env_gpu":124,"env_ram":123,"env_deps":125,"category_tags":130,"github_topics":131,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":138,"updated_at":139,"faqs":140,"releases":141},6413,"mit-han-lab\u002Fproxylessnas","proxylessnas","[ICLR 2019] ProxylessNAS: Direct Neural Architecture Search on Target Task and Hardware","ProxylessNAS 是一款专为深度学习模型设计优化的开源工具，核心功能是在目标任务和特定硬件上直接搜索最优神经网络架构。传统方法通常依赖“代理”指标（如在小型数据集或通用设备上测试）来预估模型表现，但这往往导致最终部署效果不佳。ProxylessNAS 彻底摒弃了这种间接方式，能够直接在真实硬件（如手机 CPU、GPU 等）和具体任务上进行高效搜索，确保找到的模型既精准又快速。\n\n该工具特别适合 AI 研究人员、算法工程师及需要定制高性能模型的开发者使用。无论是希望在移动端实现低延迟推理，还是在服务器端追求极致算力利用率，ProxylessNAS 都能针对不同平台生成专属的定制化架构，避免了“一个模型通吃所有设备”带来的效率损失。其技术亮点在于独特的直接搜索机制，不仅支持 PyTorch 和 TensorFlow 双框架，还集成了预训练模型，用户仅需两行代码即可加载针对 CPU、GPU 或移动设备优化过的模型。作为 ICLR 2019 的获奖成果，它已在多个权威视觉挑战赛中斩获佳绩，是平衡模型精度与运行速度的理想选择。","  \n# ProxylessNAS: Direct Neural Architecture Search on Target Task and Hardware [[arXiv]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.00332) [[Poster]](assets\u002FProxylessNAS_iclr_poster_final.pdf)\n```bash\n@inproceedings{\n  cai2018proxylessnas,\n  title={Proxyless{NAS}: Direct Neural Architecture Search on Target Task and Hardware},\n  author={Han Cai and Ligeng Zhu and Song Han},\n  booktitle={International Conference on Learning Representations},\n  year={2019},\n  url={https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.00332.pdf},\n}\n```\n\n## News\n- ProxylessNAS is integrated into [PytorchHub](https:\u002F\u002Fpytorch.org\u002Fhub\u002Fpytorch_vision_proxylessnas\u002F).\n- ProxylessNAS is integrated into Microsoft [NNI](https:\u002F\u002Fnni.readthedocs.io\u002Fen\u002Fv1.6\u002FNAS\u002FProxylessnas.html).\n- ProxylessNAS is integrated into Amazon [AutoGluon](https:\u002F\u002Fauto.gluon.ai\u002F0.3.0\u002Ftutorials\u002Fnas\u002Fenas_proxylessnas.html).\n- First place in the Visual Wake Words Challenge, TF-lite track, @CVPR 2019\n- Third place in the Low Power Image Recognition Challenge (LPIRC), classification track, @CVPR 2019\n\n## Performance\nWithout any proxy, directly and efficiently search neural network architectures on your target **task** and **hardware**! \n\nNow, proxylessnas is on [PyTorch Hub](https:\u002F\u002Fpytorch.org\u002Fhub\u002Fpytorch_vision_proxylessnas\u002F). You can load it with only two lines!\n\n```python\ntarget_platform = \"proxyless_cpu\" # proxyless_gpu, proxyless_mobile, proxyless_mobile14 are also avaliable.\nmodel = torch.hub.load('mit-han-lab\u002FProxylessNAS', target_platform, pretrained=True)\n```\n\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_1e52395688a1.png)\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_24f08e5502ad.png\" width=\"80%\" \u002F>\n\u003C\u002Fp>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_030053dbd7f1.png)\n\n\u003Ctable>\n\u003Ctr>\n    \u003Cth> Mobile settings \u003C\u002Fth>\u003Cth> GPU settings \u003C\u002Fth>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_a73843271aa8.png\" width=\"100%\" \u002F>\n    \u003C\u002Ftd>\n\u003Ctd>\n\n| Model                | Top-1    | Top-5    | Latency | \n|----------------------|----------|----------|---------| \n| MobilenetV2          | 72.0     | 91.0     | 6.1ms   |\n| ShufflenetV2(1.5)    | 72.6     | -        | 7.3ms   |\n| ResNet-34            | 73.3     | 91.4     | 8.0ms   |\n| MNasNet(our impl)    | 74.0     | 91.8     | 6.1ms   | \n| ProxylessNAS (GPU)   | 75.1     | 92.5     | 5.1ms   |\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Cth> ProxylessNAS(Mobile) consistently outperforms MobileNetV2 under various latency settings.  \u003C\u002Fth>\n    \u003Cth> ProxylessNAS(GPU) is 3.1% better than MobilenetV2 with 20% faster. \u003C\u002Fth>\n\u003C\u002Ftr> \n\n\u003C\u002Ftd>\u003C\u002Ftr> \u003C\u002Ftable>\n\n## Specialization\n\nPeople used to deploy one model to all platforms, but this is not good. To fully exploit the efficiency, we should specialize architectures for each platform.\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_efee63ddfa9e.jpg)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_328ffc442be5.png)\n\nWe provide a [visualization](assets\u002Fvisualization.mp4) of search process. Please refer to our [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.00332) for more results.\n \n# How to use \u002F evaluate \n* Use\n    ```python\n    # pytorch \n    from proxyless_nas import proxyless_cpu, proxyless_gpu, proxyless_mobile, proxyless_mobile_14, proxyless_cifar\n    net = proxyless_cpu(pretrained=True) # Yes, we provide pre-trained models!\n    ```\n    ```python\n    # tensorflow\n    from proxyless_nas_tensorflow import proxyless_cpu, proxyless_gpu, proxyless_mobile, proxyless_mobile_14\n    tf_net = proxyless_cpu(pretrained=True)\n    ```\n\n    If the above scripts failed to download, you download it manually from [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1qIaDsT95dKgrgaJk-KOMu6v9NLROv2tz?usp=sharing) and put them under  `$HOME\u002F.torch\u002Fproxyless_nas\u002F`.\n\n* Evaluate\n\n    `python eval.py --path 'Your path to imagent' --arch proxyless_cpu  # pytorch ImageNet`\n    \n    `python eval.py -d cifar10 # pytorch cifar10 `\n    \n    `python eval_tf.py --path 'Your path to imagent' --arch proxyless_cpu  # tensorflow`\n\n\n## File structure\n\n* [search](.\u002Fsearch): code for neural architecture search.\n* [training](.\u002Ftraining): code for training searched models.\n* [proxyless_nas_tensorflow](.\u002Fproxyless_nas_tensorflow): pretrained models for tensorflow.\n* [proxyless_nas](.\u002Fproxyless_nas): pretrained models for PyTorch.\n\n## Projects with ProxylessNAS:\n* [ProxylessGaze](.\u002Fproxyless_gaze\u002F): Real-time Gaze Estimation with ProxylessNAS\n\u003Cdiv align=center>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_cbfffaf06145.gif\" style=\"width:100%\">\u003C\u002Fimg>\n\u003C\u002Fdiv>\n\n## Related work on automated model compression and acceleration:\n\n[Once for All: Train One Network and Specialize it for Efficient Deployment](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.09791) (ICLR'20, [code](https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Fonce-for-all))\n\n[ProxylessNAS: Direct Neural Architecture Search on Target Task and Hardware](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.00332.pdf) (ICLR’19)\n\n[AMC: AutoML for Model Compression and Acceleration on Mobile Devices](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1802.03494.pdf) (ECCV’18)\n\n[HAQ: Hardware-Aware Automated Quantization](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.08886.pdf)  (CVPR’19, oral)\n\t\n[Defenstive Quantization: When Efficiency Meets Robustness](https:\u002F\u002Fopenreview.net\u002Fpdf?id=ryetZ20ctX) (ICLR'19)\n","# ProxylessNAS：在目标任务和硬件上直接进行神经架构搜索 [[arXiv]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.00332) [[海报]](assets\u002FProxylessNAS_iclr_poster_final.pdf)\n```bash\n@inproceedings{\n  cai2018proxylessnas,\n  title={Proxyless{NAS}: Direct Neural Architecture Search on Target Task and Hardware},\n  author={Han Cai and Ligeng Zhu and Song Han},\n  booktitle={International Conference on Learning Representations},\n  year={2019},\n  url={https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.00332.pdf},\n}\n```\n\n## 新闻\n- ProxylessNAS 已集成到 [PytorchHub](https:\u002F\u002Fpytorch.org\u002Fhub\u002Fpytorch_vision_proxylessnas\u002F)。\n- ProxylessNAS 已集成到微软的 [NNI](https:\u002F\u002Fnni.readthedocs.io\u002Fen\u002Fv1.6\u002FNAS\u002FProxylessnas.html)。\n- ProxylessNAS 已集成到亚马逊的 [AutoGluon](https:\u002F\u002Fauto.gluon.ai\u002F0.3.0\u002Ftutorials\u002Fnas\u002Fenas_proxylessnas.html)。\n- 在 CVPR 2019 的 TF-lite 轨道中，视觉唤醒词挑战赛获得第一名。\n- 在 CVPR 2019 的低功耗图像识别挑战赛（LPIRC）分类赛道中，获得第三名。\n\n## 性能\n无需任何代理，即可在您的目标 **任务** 和 **硬件** 上直接且高效地搜索神经网络架构！\n\n现在，ProxylessNAS 已上线 [PyTorch Hub](https:\u002F\u002Fpytorch.org\u002Fhub\u002Fpytorch_vision_proxylessnas\u002F)。您只需两行代码即可加载它！\n\n```python\ntarget_platform = \"proxyless_cpu\" # proxyless_gpu、proxyless_mobile、proxyless_mobile14 也可用。\nmodel = torch.hub.load('mit-han-lab\u002FProxylessNAS', target_platform, pretrained=True)\n```\n\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_1e52395688a1.png)\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_24f08e5502ad.png\" width=\"80%\" \u002F>\n\u003C\u002Fp>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_030053dbd7f1.png)\n\n\u003Ctable>\n\u003Ctr>\n    \u003Cth> 移动端设置 \u003C\u002Fth>\u003Cth> GPU 设置 \u003C\u002Fth>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_a73843271aa8.png\" width=\"100%\" \u002F>\n    \u003C\u002Ftd>\n\u003Ctd>\n\n| 模型                | Top-1    | Top-5    | 延迟 | \n|----------------------|----------|----------|---------| \n| MobilenetV2          | 72.0     | 91.0     | 6.1ms   |\n| ShufflenetV2(1.5)    | 72.6     | -        | 7.3ms   |\n| ResNet-34            | 73.3     | 91.4     | 8.0ms   |\n| MNasNet（我们的实现） | 74.0     | 91.8     | 6.1ms   | \n| ProxylessNAS（GPU）   | 75.1     | 92.5     | 5.1ms   |\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Cth> ProxylessNAS（移动端）在各种延迟条件下均优于 MobileNetV2。  \u003C\u002Fth>\n    \u003Cth> ProxylessNAS（GPU）比 MobileNetV2 准确率高 3.1%，速度却快了 20%。 \u003C\u002Fth>\n\u003C\u002Ftr> \n\n\u003C\u002Ftd>\u003C\u002Ftr> \u003C\u002Ftable>\n\n## 专业化\n\n过去人们习惯于将一个模型部署到所有平台上，但这并不理想。为了充分发挥效率，我们应该为每个平台专门设计架构。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_efee63ddfa9e.jpg)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_328ffc442be5.png)\n\n我们提供了一个搜索过程的 [可视化视频](assets\u002Fvisualization.mp4)。更多结果请参阅我们的 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.00332)。\n\n# 使用与评估方法\n* 使用\n    ```python\n    # pytorch \n    from proxyless_nas import proxyless_cpu、proxyless_gpu、proxyless_mobile、proxyless_mobile_14、proxyless_cifar\n    net = proxyless_cpu(pretrained=True) # 是的，我们提供了预训练模型！\n    ```\n    ```python\n    # tensorflow\n    from proxyless_nas_tensorflow import proxyless_cpu、proxyless_gpu、proxyless_mobile、proxyless_mobile_14\n    tf_net = proxyless_cpu(pretrained=True)\n    ```\n\n    如果上述脚本无法下载，请从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1qIaDsT95dKgrgaJk-KOMu6v9NLROv2tz?usp=sharing) 手动下载，并将其放置在 `$HOME\u002F.torch\u002Fproxyless_nas\u002F` 目录下。\n\n* 评估\n\n    `python eval.py --path 'Your path to imagent' --arch proxyless_cpu  # pytorch ImageNet`\n    \n    `python eval.py -d cifar10 # pytorch cifar10 `\n    \n    `python eval_tf.py --path 'Your path to imagent' --arch proxyless_cpu  # tensorflow`\n\n\n## 文件结构\n\n* [search](.\u002Fsearch): 神经架构搜索的代码。\n* [training](.\u002Ftraining): 搜索到的模型的训练代码。\n* [proxyless_nas_tensorflow](.\u002Fproxyless_nas_tensorflow): 针对 TensorFlow 的预训练模型。\n* [proxyless_nas](.\u002Fproxyless_nas): 针对 PyTorch 的预训练模型。\n\n## 使用 ProxylessNAS 的项目：\n* [ProxylessGaze](.\u002Fproxyless_gaze\u002F): 基于 ProxylessNAS 的实时视线估计\n\u003Cdiv align=center>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_readme_cbfffaf06145.gif\" style=\"width:100%\">\u003C\u002Fimg>\n\u003C\u002Fdiv>\n\n## 自动化模型压缩与加速的相关工作：\n\n[Once for All：训练一个网络并针对高效部署进行专业化](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.09791)（ICLR'20，[代码](https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Fonce-for-all)）\n\n[ProxylessNAS：在目标任务和硬件上直接进行神经架构搜索](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.00332.pdf)（ICLR’19）\n\n[AMC：用于移动设备上模型压缩与加速的 AutoML](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1802.03494.pdf)（ECCV’18）\n\n[HAQ：面向硬件的自动化量化](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.08886.pdf)（CVPR’19，口头报告）\n\t\n[防御性量化：当效率遇上鲁棒性](https:\u002F\u002Fopenreview.net\u002Fpdf?id=ryetZ20ctX)（ICLR'19）","# ProxylessNAS 快速上手指南\n\nProxylessNAS 是一种直接在目标任务和硬件上进行神经网络架构搜索（NAS）的技术，无需使用代理模型。它支持 PyTorch 和 TensorFlow，并提供针对 CPU、GPU 及移动端优化的预训练模型。\n\n## 环境准备\n\n*   **系统要求**：Linux 或 macOS（Windows 需通过 WSL 或 Docker 运行）。\n*   **前置依赖**：\n    *   Python 3.6+\n    *   PyTorch 1.0+ 或 TensorFlow 1.x\u002F2.x\n    *   Git\n\n建议先安装基础深度学习框架：\n```bash\npip install torch torchvision\n# 或者\npip install tensorflow\n```\n\n## 安装步骤\n\n### 方式一：通过 PyTorch Hub 直接使用（推荐）\n无需克隆仓库，直接加载预训练模型，最适合快速推理和验证。\n\n### 方式二：源码安装（用于评估或二次开发）\n如果需要运行评估脚本或使用 TensorFlow 版本，请克隆仓库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002FProxylessNAS.git\ncd ProxylessNAS\npip install -r requirements.txt\n```\n\n> **注意**：如果自动下载预训练模型失败，可手动从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1qIaDsT95dKgrgaJk-KOMu6v9NLROv2tz?usp=sharing) 下载模型文件，并放置于 `$HOME\u002F.torch\u002Fproxyless_nas\u002F` 目录下。\n\n## 基本使用\n\n### 1. PyTorch 用户\n\n#### 极简加载（推荐）\n只需两行代码即可加载针对不同平台优化的预训练模型：\n\n```python\nimport torch\n\n# 可选平台：proxyless_cpu, proxyless_gpu, proxyless_mobile, proxyless_mobile14\ntarget_platform = \"proxyless_cpu\" \nmodel = torch.hub.load('mit-han-lab\u002FProxylessNAS', target_platform, pretrained=True)\n\nmodel.eval()\n# 接下来即可进行推理\n```\n\n#### 源码导入方式\n如果你已克隆仓库：\n\n```python\nfrom proxyless_nas import proxyless_cpu, proxyless_gpu, proxyless_mobile, proxyless_mobile_14\n\n# 加载 CPU 优化模型\nnet = proxyless_cpu(pretrained=True)\n```\n\n### 2. TensorFlow 用户\n\n```python\nfrom proxyless_nas_tensorflow import proxyless_cpu, proxyless_gpu, proxyless_mobile, proxyless_mobile_14\n\n# 加载 CPU 优化模型\ntf_net = proxyless_cpu(pretrained=True)\n```\n\n### 3. 模型评估\n\n克隆仓库后，可使用提供的脚本在 ImageNet 或 CIFAR-10 上评估模型性能。\n\n**PyTorch 评估 ImageNet：**\n```bash\npython eval.py --path 'Your path to imagent' --arch proxyless_cpu\n```\n\n**PyTorch 评估 CIFAR-10：**\n```bash\npython eval.py -d cifar10\n```\n\n**TensorFlow 评估 ImageNet：**\n```bash\npython eval_tf.py --path 'Your path to imagent' --arch proxyless_cpu\n```\n\n### 可用预训练模型列表\n*   `proxyless_cpu`: 针对通用 CPU 优化\n*   `proxyless_gpu`: 针对 GPU 优化（延迟更低，精度更高）\n*   `proxyless_mobile`: 针对移动端优化\n*   `proxyless_mobile_14`: 针对移动端进一步压缩的版本\n*   `proxyless_cifar`: 针对 CIFAR 数据集训练的模型","某边缘计算团队正在为新款智能安防摄像头开发实时人脸识别模块，需在有限的移动端算力下平衡识别准确率与响应速度。\n\n### 没有 proxylessnas 时\n- **架构适配困难**：工程师只能手动调整 MobileNet 等通用模型结构，难以针对特定摄像头芯片（如 ARM CPU）进行深度优化。\n- **性能妥协严重**：为满足延迟要求被迫大幅裁剪模型，导致人脸漏检率上升，或在保证精度时帧率过低无法实时预警。\n- **验证周期漫长**：每次修改结构都需完整训练并部署到真机测试 latency，一次迭代往往耗时数天，试错成本极高。\n- **“一刀切”部署低效**：试图用同一个模型适配不同型号的摄像头，结果在高端机上浪费算力，在低端机上又跑不动。\n\n### 使用 proxylessnas 后\n- **硬件感知自动搜索**：直接指定目标平台（如 `proxyless_mobile`），proxylessnas 自动搜索出专为该芯片定制的最优网络架构，无需人工经验干预。\n- **精度与速度双升**：生成的模型在同等延迟下比 MobileNetV2 准确率提升显著，或在同等精度下推理速度快 20%，实现真正的实时高清识别。\n- **直连目标高效迭代**：省去代理模型环节，直接在目标任务和硬件上评估架构，将原本数天的验证周期缩短至小时级，加速产品上市。\n- **专属架构极致效能**：为每款摄像头型号生成独立的专用模型，充分挖掘各平台硬件潜力，彻底告别“一模型通吃”的低效模式。\n\nproxylessnas 通过直接在目标硬件上搜索专属架构，打破了通用模型的性能瓶颈，让边缘 AI 应用真正实现精度与速度的最佳平衡。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_proxylessnas_24f08e55.png","mit-han-lab","MIT HAN Lab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmit-han-lab_65e6a38d.png","Efficient AI Computing. PI: Song Han",null,"songhan_mit","https:\u002F\u002Fhanlab.mit.edu","https:\u002F\u002Fgithub.com\u002Fmit-han-lab",[81,85,89,93,97,101,105,109,113,116],{"name":82,"color":83,"percentage":84},"C++","#f34b7d",40,{"name":86,"color":87,"percentage":88},"Jupyter Notebook","#DA5B0B",24.6,{"name":90,"color":91,"percentage":92},"Java","#b07219",22.7,{"name":94,"color":95,"percentage":96},"Python","#3572A5",8.2,{"name":98,"color":99,"percentage":100},"C","#555555",2.5,{"name":102,"color":103,"percentage":104},"CMake","#DA3434",1.8,{"name":106,"color":107,"percentage":108},"Objective-C","#438eff",0.1,{"name":110,"color":111,"percentage":112},"HTML","#e34c26",0,{"name":114,"color":115,"percentage":112},"Makefile","#427819",{"name":117,"color":118,"percentage":112},"Kotlin","#A97BFF",1448,284,"2026-04-09T16:46:46","MIT","未说明","非必需。支持 CPU (proxyless_cpu) 和 GPU (proxyless_gpu) 模式；若使用 GPU 搜索或训练，需 NVIDIA GPU 及对应 CUDA 环境（具体版本未说明）",{"notes":126,"python":123,"dependencies":127},"该工具同时支持 PyTorch 和 TensorFlow 框架。提供预训练模型，若自动下载失败需手动从 Google Drive 下载并放置于指定目录 ($HOME\u002F.torch\u002Fproxyless_nas\u002F)。支持针对特定硬件（CPU、GPU、移动端）直接搜索神经网络架构。",[128,129],"torch","tensorflow",[15,14],[132,133,134,135,136,137],"automl","specialization","hardware-aware","acceleration","on-device-ai","efficient-model","2026-03-27T02:49:30.150509","2026-04-11T08:04:13.984534",[],[]]