[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-huawei-noah--Efficient-AI-Backbones":3,"tool-huawei-noah--Efficient-AI-Backbones":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":89,"forks":90,"last_commit_at":91,"license":77,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":99,"github_topics":100,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":154},4902,"huawei-noah\u002FEfficient-AI-Backbones","Efficient-AI-Backbones","Efficient AI Backbones including GhostNet, TNT and MLP, developed by Huawei Noah's Ark Lab.","Efficient-AI-Backbones 是由华为诺亚方舟实验室开源的一系列高效人工智能骨干网络集合，旨在为计算机视觉任务提供轻量且高性能的模型基础。它主要解决了在移动端、嵌入式设备等资源受限场景下，深度学习模型往往面临计算量大、推理速度慢与精度难以兼顾的痛点。\n\n该项目非常适合 AI 研究人员、算法工程师以及需要在边缘设备部署模型的开发者使用。通过集成 GhostNet、TNT（Transformer in Transformer）、ViG 和 WaveMLP 等前沿架构，Efficient-AI-Backbones 提供了独特的技术亮点：例如 GhostNet 系列通过“廉价操作”生成更多特征，大幅降低计算成本；TNT 则创新性地提出了\"Transformer 中包含 Transformer\"的嵌套结构，显著提升了视觉表征能力。此外，项目还涵盖了针对异构设备优化的 G-GhostNet 以及结合卷积与 Transformer 优势的 CMT 等模型。\n\n所有模型均提供了 PyTorch 和 MindSpore 双框架的代码实现，并附带详细的论文链接与预训练权重。无论是希望复现顶","Efficient-AI-Backbones 是由华为诺亚方舟实验室开源的一系列高效人工智能骨干网络集合，旨在为计算机视觉任务提供轻量且高性能的模型基础。它主要解决了在移动端、嵌入式设备等资源受限场景下，深度学习模型往往面临计算量大、推理速度慢与精度难以兼顾的痛点。\n\n该项目非常适合 AI 研究人员、算法工程师以及需要在边缘设备部署模型的开发者使用。通过集成 GhostNet、TNT（Transformer in Transformer）、ViG 和 WaveMLP 等前沿架构，Efficient-AI-Backbones 提供了独特的技术亮点：例如 GhostNet 系列通过“廉价操作”生成更多特征，大幅降低计算成本；TNT 则创新性地提出了\"Transformer 中包含 Transformer\"的嵌套结构，显著提升了视觉表征能力。此外，项目还涵盖了针对异构设备优化的 G-GhostNet 以及结合卷积与 Transformer 优势的 CMT 等模型。\n\n所有模型均提供了 PyTorch 和 MindSpore 双框架的代码实现，并附带详细的论文链接与预训练权重。无论是希望复现顶级会议成果的研究者，还是寻求高效落地方案的工程团队，都能在此找到适合的工具，轻松构建快速、精准且节省资源的视觉应用。","# Efficient AI Backbones \r\nincluding GhostNet, TNT (Transformer in Transformer), AugViT, WaveMLP and ViG developed by Huawei Noah's Ark Lab.\r\n- [News](#news)\r\n- [Model zoo](#model-zoo)\r\n\r\n## News\r\n\r\n2024\u002F02\u002F27 The paper of ParameterNet is accepted by [CVPR 2024](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14525).\r\n\r\n2022\u002F12\u002F01 The code of NeurIPS 2022 (Spotlight) [GhostNetV2](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12905) is released at [.\u002Fghostnetv2_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fghostnetv2_pytorch).\r\n\r\n2022\u002F11\u002F13 The code of IJCV 2022 [G-Ghost RegNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.03297) is released at [.\u002Fg_ghost_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fg_ghost_pytorch). \r\n\r\n2022\u002F06\u002F17 The code of NeurIPS 2022 [Vision GNN (ViG)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00272) is released at [.\u002Fvig_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fvig_pytorch). \r\n\r\n2022\u002F02\u002F06 Transformer in Transformer (TNT) is selected as the **[Most Influential NeurIPS 2021 Papers](https:\u002F\u002Fwww.paperdigest.org\u002F2022\u002F02\u002Fmost-influential-nips-papers-2022-02\u002F)**.\r\n\r\n2021\u002F09\u002F18 The extended version of [Versatile Filters](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fversatile_filters) is accepted by T-PAMI.\r\n\r\n2021\u002F08\u002F30 GhostNet paper is selected as the **[Most Influential CVPR 2020 Papers](https:\u002F\u002Fwww.paperdigest.org\u002F2021\u002F08\u002Fmost-influential-cvpr-papers-2021-08\u002F)**.\r\n\r\n\r\n## Model zoo\r\n\r\n| Model | Paper | Pytorch code | MindSpore code |\r\n| - | - | - | - |\r\n| GhostNet | GhostNet: More Features from Cheap Operations. [[CVPR 2020]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.11907) | [.\u002Fghostnet_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FCV-backbones\u002Ftree\u002Fmaster\u002Fghostnet_pytorch) | [MindSpore Model Zoo](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Fghostnet) |\r\n| GhostNetV2 | GhostNetV2: Enhance Cheap Operation with Long-Range Attention. [[NeurIPS 2022 Spotlight]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12905) | [.\u002Fghostnetv2_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fghostnetv2_pytorch) | [MindSpore Model Zoo](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Fghostnetv2) |\r\n| G-GhostNet | GhostNets on Heterogeneous Devices via Cheap Operations. [[IJCV 2022]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.03297) | [.\u002Fg_ghost_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fg_ghost_pytorch) | [MindSpore Model Zoo](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Fghostnet_d) |\r\n| TinyNet | Model Rubik’s Cube: Twisting Resolution, Depth and Width for TinyNets. [[NeurIPS 2020]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.14819) | [.\u002Ftinynet_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Ftinynet_pytorch) | [MindSpore Model Zoo](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Ftinynet) |\r\n| TNT | Transformer in Transformer. [[NeurIPS 2021]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.00112) | [.\u002Ftnt_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Ftnt_pytorch) | [MindSpore Model Zoo](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002FTNT) |\r\n| PyramidTNT | PyramidTNT: Improved Transformer-in-Transformer Baselines with Pyramid Architecture. [[CVPR 2022 Workshop]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.00978)| [.\u002Ftnt_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Ftnt_pytorch) | [MindSpore Model Zoo](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002FTNT) |\r\n| CMT | CMT: Convolutional Neural Networks Meet Vision Transformers. [[CVPR 2022]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2107.06263.pdf) | [.\u002Fcmt_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fcmt_pytorch) | [MindSpore Model Zoo](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002FCMT) |\r\n| AugViT | Augmented Shortcuts for Vision Transformers. [[NeurIPS 2021]](https:\u002F\u002Fproceedings.neurips.cc\u002Fpaper\u002F2021\u002Ffile\u002F818f4654ed39a1c147d1e51a00ffb4cb-Paper.pdf) | [.\u002Faugvit_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Faugvit_pytorch) | [MindSpore Model Zoo](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Faugvit) |\r\n| SNN-MLP | Brain-inspired Multilayer Perceptron with Spiking Neurons. [[CVPR 2022]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2203.14679.pdf) | [.\u002Fsnnmlp_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fsnnmlp_pytorch) | [MindSpore Model Zoo](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Fsnn_mlp) |\r\n| WaveMLP | An Image Patch is a Wave: Quantum Inspired Vision MLP. [[CVPR 2022]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2111.12294.pdf) | [.\u002Fwavemlp_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fwavemlp_pytorch) | [MindSpore Model Zoo](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Fwave_mlp) |\r\n| ViG | Vision GNN: An Image is Worth Graph of Nodes. [[NeurIPS 2022]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00272) | [.\u002Fvig_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fvig_pytorch) | - | [MindSpore Model Zoo](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002FViG) |\r\n| LegoNet | LegoNet: Efficient Convolutional Neural Networks with Lego Filters. [[ICML 2019]](http:\u002F\u002Fproceedings.mlr.press\u002Fv97\u002Fyang19c\u002Fyang19c.pdf) | [.\u002Flegonet_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Flegonet_pytorch) | - |\r\n| Versatile Filters | Learning Versatile Filters for Efficient Convolutional Neural Networks. [[NeurIPS 2018]](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F7433-learning-versatile-filters-for-efficient-convolutional-neural-networks) | [.\u002Fversatile_filters](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FCV-backbones\u002Ftree\u002Fmaster\u002Fversatile_filters) | - |\r\n| ParameterNet | ParameterNet: Parameters Are All You Need. [[CVPR 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14525). | [.\u002Fparameternet_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fparameternet_pytorch) | - |\r\n\r\n\r\n\r\n","# 高效AI骨干网络\r\n包括华为诺亚方舟实验室研发的GhostNet、TNT（Transformer in Transformer）、AugViT、WaveMLP和ViG。\r\n- [新闻](#news)\r\n- [模型库](#model-zoo)\r\n\r\n## 新闻\r\n\r\n2024年2月27日，ParameterNet论文被[CVPR 2024](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14525)接收。\r\n\r\n2022年12月1日，NeurIPS 2022（Spotlight）论文[GhostNetV2](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12905)的代码已在[.\u002Fghostnetv2_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fghostnetv2_pytorch)发布。\r\n\r\n2022年11月13日，IJCV 2022论文[G-Ghost RegNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.03297)的代码已在[.\u002Fg_ghost_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fg_ghost_pytorch)发布。\r\n\r\n2022年6月17日，NeurIPS 2022论文[Vision GNN (ViG)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00272)的代码已在[.\u002Fvig_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fvig_pytorch)发布。\r\n\r\n2022年2月6日，Transformer in Transformer（TNT）入选**[2021年NeurIPS最具影响力论文](https:\u002F\u002Fwww.paperdigest.org\u002F2022\u002F02\u002Fmost-influential-nips-papers-2022-02\u002F)**。\r\n\r\n2021年9月18日，[Versatile Filters](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fversatile_filters)的扩展版本被T-PAMI接收。\r\n\r\n2021年8月30日，GhostNet论文入选**[2020年CVPR最具影响力论文](https:\u002F\u002Fwww.paperdigest.org\u002F2021\u002F08\u002Fmost-influential-cvpr-papers-2021-08\u002F)**。\r\n\r\n\r\n## 模型库\r\n\r\n| 模型 | 论文 | Pytorch代码 | MindSpore代码 |\r\n| - | - | - | - |\r\n| GhostNet | GhostNet: More Features from Cheap Operations. [[CVPR 2020]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.11907) | [.\u002Fghostnet_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FCV-backbones\u002Ftree\u002Fmaster\u002Fghostnet_pytorch) | [MindSpore模型库](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Fghostnet) |\r\n| GhostNetV2 | GhostNetV2: Enhance Cheap Operation with Long-Range Attention. [[NeurIPS 2022 Spotlight]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12905) | [.\u002Fghostnetv2_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fghostnetv2_pytorch) | [MindSpore模型库](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Fghostnetv2) |\r\n| G-GhostNet | GhostNets on Heterogeneous Devices via Cheap Operations. [[IJCV 2022]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.03297) | [.\u002Fg_ghost_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fg_ghost_pytorch) | [MindSpore模型库](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Fghostnet_d) |\r\n| TinyNet | Model Rubik’s Cube: Twisting Resolution, Depth and Width for TinyNets. [[NeurIPS 2020]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.14819) | [.\u002Ftinynet_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Ftinynet_pytorch) | [MindSpore模型库](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Ftinynet) |\r\n| TNT | Transformer in Transformer. [[NeurIPS 2021]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.00112) | [.\u002Ftnt_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Ftnt_pytorch) | [MindSpore模型库](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002FTNT) |\r\n| PyramidTNT | PyramidTNT: Improved Transformer-in-Transformer Baselines with Pyramid Architecture. [[CVPR 2022 Workshop]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.00978)| [.\u002Ftnt_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Ftnt_pytorch) | [MindSpore模型库](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002FTNT) |\r\n| CMT | CMT: Convolutional Neural Networks Meet Vision Transformers. [[CVPR 2022]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2107.06263.pdf) | [.\u002Fcmt_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fcmt_pytorch) | [MindSpore模型库](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002FCMT) |\r\n| AugViT | Augmented Shortcuts for Vision Transformers. [[NeurIPS 2021]](https:\u002F\u002Fproceedings.neurips.cc\u002Fpaper\u002F2021\u002Ffile\u002F818f4654ed39a1c147d1e51a00ffb4cb-Paper.pdf) | [.\u002Faugvit_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Faugvit_pytorch) | [MindSpore模型库](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Faugvit) |\r\n| SNN-MLP | Brain-inspired Multilayer Perceptron with Spiking Neurons. [[CVPR 2022]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2203.14679.pdf) | [.\u002Fsnnmlp_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fsnnmlp_pytorch) | [MindSpore模型库](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Fsnn_mlp) |\r\n| WaveMLP | An Image Patch is a Wave: Quantum Inspired Vision MLP. [[CVPR 2022]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2111.12294.pdf) | [.\u002Fwavemlp_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fwavemlp_pytorch) | [MindSpore模型库](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002Fwave_mlp) |\r\n| ViG | Vision GNN: An Image is Worth Graph of Nodes. [[NeurIPS 2022]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00272) | [.\u002Fvig_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fvig_pytorch) | - | [MindSpore模型库](https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcv\u002FViG) |\r\n| LegoNet | LegoNet: Efficient Convolutional Neural Networks with Lego Filters. [[ICML 2019]](http:\u002F\u002Fproceedings.mlr.press\u002Fv97\u002Fyang19c\u002Fyang19c.pdf) | [.\u002Flegonet_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Flegonet_pytorch) | - |\r\n| Versatile Filters | Learning Versatile Filters for Efficient Convolutional Neural Networks. [[NeurIPS 2018]](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F7433-learning-versatile-filters-for-efficient-convolutional-neural-networks) | [.\u002Fversatile_filters](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FCV-backbones\u002Ftree\u002Fmaster\u002Fversatile_filters) | - |\r\n| ParameterNet | ParameterNet: Parameters Are All You Need. [[CVPR 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14525). | [.\u002Fparameternet_pytorch](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Ftree\u002Fmaster\u002Fparameternet_pytorch) | - |","# Efficient-AI-Backbones 快速上手指南\n\nEfficient-AI-Backbones 是由华为诺亚方舟实验室开源的一系列高效 AI 骨干网络集合，包含 GhostNet、TNT、ViG、WaveMLP 等前沿模型。本指南帮助开发者快速在 PyTorch 环境中部署和使用这些模型。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+) 或 Windows\n*   **Python**: 3.7 或更高版本\n*   **深度学习框架**: PyTorch 1.8+ (推荐 2.0+)\n*   **硬件**: 支持 CUDA 的 NVIDIA GPU (可选，用于加速训练\u002F推理)\n\n**前置依赖安装：**\n\n建议先更新 `pip` 并使用国内镜像源加速安装基础依赖：\n\n```bash\npython -m pip install --upgrade pip -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\npip install torch torchvision torchaudio -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\npip install timm einops opencv-python -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n> **注意**：不同子模型（如 ViG 或 SNN-MLP）可能有特定的额外依赖，请参考对应子目录下的 `requirements.txt`。\n\n## 安装步骤\n\n该仓库包含多个独立的模型项目，您可以根据需求选择克隆整个仓库或单独下载特定模型代码。\n\n**1. 克隆仓库**\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones.git\ncd Efficient-AI-Backbones\n```\n\n*(国内用户若访问 GitHub 较慢，可尝试使用 Gitee 镜像或配置 Git 代理)*\n\n**2. 进入特定模型目录**\n\n以 **GhostNetV2** 为例，进入对应的 PyTorch 代码目录：\n\n```bash\ncd ghostnetv2_pytorch\n```\n\n如果您需要使用其他模型（如 `tnt_pytorch`, `vig_pytorch`, `wavemlp_pytorch` 等），请替换为相应的文件夹名称。\n\n**3. 安装模型特定依赖**\n\n部分模型目录内包含独立的 `requirements.txt`，建议执行：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n以下以加载 **GhostNetV2** 模型进行简单推理为例。大多数该仓库下的模型都遵循类似的调用逻辑。\n\n**1. 导入模型并实例化**\n\n在 Python 脚本或交互式环境中运行：\n\n```python\nimport torch\nfrom ghostnetv2_pytorch import ghostnetv2_100  # 以 GhostNetV2 1.0x 版本为例\n\n# 创建模型实例\nmodel = ghostnetv2_100(pretrained=True)\nmodel.eval()\n\n# 将模型移至 GPU (如果可用)\nif torch.cuda.is_available():\n    model = model.cuda()\n```\n\n> **提示**：对于其他模型，请将导入路径和构造函数替换为对应目录下的名称，例如 `from tnt_pytorch import tnt_tiny_patch16_224`。\n\n**2. 准备输入数据并进行推理**\n\n```python\n# 模拟一张输入图像 (Batch size=1, Channels=3, Height=224, Width=224)\n# 实际使用时请使用 torchvision.transforms 处理真实图片\ninput_tensor = torch.randn(1, 3, 224, 224)\n\nif torch.cuda.is_available():\n    input_tensor = input_tensor.cuda()\n\n# 前向传播\nwith torch.no_grad():\n    output = model(input_tensor)\n\n# 输出结果形状通常为 [batch_size, num_classes]\nprint(output.shape)\nprint(\"Top-1 prediction class:\", output.argmax(dim=1).item())\n```\n\n**3. 加载预训练权重（如需手动加载）**\n\n如果构造函数未自动下载权重，您可以手动加载本地权重文件：\n\n```python\n# 假设已下载权重文件到本地\ncheckpoint = torch.load('path\u002Fto\u002Fghostnetv2_100.pth', map_location='cpu')\nmodel.load_state_dict(checkpoint['state_dict']) # 具体 key 视模型实现而定\n```\n\n现在您已经成功运行了 Efficient-AI-Backbones 中的模型。更多高级用法（如训练、微调、导出 ONNX）请参阅各子目录下的详细文档。","某边缘计算团队正在为一款新型智能安防摄像头开发实时人脸识别功能，需要在算力有限的嵌入式芯片上实现高精度与低延迟的平衡。\n\n### 没有 Efficient-AI-Backbones 时\n- **模型体积过大**：直接部署标准的 ResNet 或 ViT 模型导致显存占用超标，无法在低端芯片上运行，被迫裁剪模型后准确率大幅下跌。\n- **推理速度缓慢**：传统卷积网络在提取深层特征时计算冗余严重，视频流处理帧率不足 15 FPS，无法满足实时报警需求。\n- **能耗过高**：高负荷运算导致设备发热严重且电池续航骤减，难以支持户外长时间独立工作。\n- **适配成本高**：团队需花费数周时间手动设计轻量化结构并反复调参，研发周期被严重拉长。\n\n### 使用 Efficient-AI-Backbones 后\n- **极致轻量化**：引入 GhostNetV2 骨干网络，通过“廉价操作”生成更多特征，在模型参数量减少 40% 的情况下，人脸识别准确率反而提升了 2%。\n- **推理性能飞跃**：利用 TNT（Transformer in Transformer）架构优化局部与全局信息交互，将处理帧率提升至 35 FPS，实现了流畅的实时检测。\n- **低功耗运行**：高效的计算路径显著降低了芯片负载，设备连续工作时间从 4 小时延长至 9 小时，解决了散热难题。\n- **快速落地部署**：直接复用华为诺亚方舟实验室提供的成熟 PyTorch 代码和预训练权重，将算法验证到部署的周期从数周缩短至 3 天。\n\nEfficient-AI-Backbones 通过提供工业级验证的高效骨干网络，帮助开发者在资源受限的边缘设备上轻松实现了性能与效率的双重突破。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuawei-noah_Efficient-AI-Backbones_ccc3cdfd.png","huawei-noah","HUAWEI Noah's Ark Lab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhuawei-noah_2ebfeb12.png","Working with and contributing to the open source community in data mining, artificial intelligence, and related fields.",null,"http:\u002F\u002Fwww.noahlab.com.hk\u002F","https:\u002F\u002Fgithub.com\u002Fhuawei-noah",[81,85],{"name":82,"color":83,"percentage":84},"Python","#3572A5",99.8,{"name":86,"color":87,"percentage":88},"Shell","#89e051",0.2,4400,735,"2026-04-06T16:44:21","","未说明",{"notes":95,"python":93,"dependencies":96},"该仓库是华为诺亚方舟实验室开发的多种高效 AI 骨干网络（如 GhostNet, TNT, ViG 等）的代码集合。代码主要提供 PyTorch 和 MindSpore 两个版本的实现，具体运行环境需求（如 Python 版本、CUDA 版本、显存大小等）在 README 中未明确列出，需参考各子模块（如 ghostnet_pytorch, tnt_pytorch 等）内部的独立文档或 requirements 文件。",[97,98],"PyTorch","MindSpore",[15,35,14],[101,102,103,104,105,106,107,108,109,110],"convolutional-neural-networks","efficient-inference","imagenet","model-compression","tensorflow","pytorch","ghostnet","transformer","pretrained-models","vision-transformer","2026-03-27T02:49:30.150509","2026-04-07T14:37:25.242458",[114,119,124,129,134,139,144,149],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},22260,"运行训练脚本时出现 'TypeError: __init__() got an unexpected keyword argument 'bn_tf'' 错误，如何解决？","该错误通常是因为环境配置或数据准备不符合官方 PyTorch ImageNet 示例的要求。请参照官方示例（https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fexamples\u002Ftree\u002Fmain\u002Fimagenet），将训练集和验证集图像移动并提取到带有标签的子文件夹中。可以使用官方提供的 shell 脚本（https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fexamples\u002Fblob\u002Fmain\u002Fimagenet\u002Fextract_ILSVRC.sh）来自动处理数据目录结构。确保数据集目录结构正确（例如：dir\u002Ftrain\u002Fn01440764\u002F... 和 dir\u002Fval\u002Fn01440764\u002F...）。","https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Fissues\u002F134",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},22261,"使用多 GPU 运行 ViG 训练命令时报错 'error: unrecognized arguments: --local-rank=0'，原因是什么？","这是因为较新版本的 `torch.distributed.launch` 不再支持 `--local-rank` 参数，或者参数传递方式发生了变化。建议检查 PyTorch 版本兼容性。如果是新版 PyTorch，可以尝试移除命令中的 `--nproc_per_node` 和相关启动参数，改用 `torchrun` 命令，或者确保使用的 `train.py` 代码已适配最新的分布式启动参数解析逻辑。维护者指出这通常与分布式启动参数的解析有关。","https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Fissues\u002F210",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},22262,"ViG 模型训练 Loss 正常但测试精度（Test Acc\u002FLoss）很差，可能是什么原因？","如果训练 Loss 正常下降但测试效果差，通常是测试集（Validation\u002FTest Set）的数据预处理或目录结构有问题。请检查 ImageNet 测试集是否已正确按类别分文件夹存放（例如 val 目录下应有 n01440764 等子文件夹）。如果测试集图片未分类存放，会导致标签读取错误，从而使得测试结果异常。请确保测试集结构与训练集一致，均包含标签子文件夹。","https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Fissues\u002F195",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},22263,"如何在 MMDetection 中使用 Pyramid ViG 作为骨干网络进行目标检测（如 RetinaNet）？","在 MMDetection 中使用 ViG 作为骨干网络，主要是替换配置文件中的 backbone 部分。对于 Pyramid ViG，应将其每个阶段（stage）的输出特征作为 FPN（特征金字塔网络）的输入。如果在训练中出现 NaN Loss，请检查是否在 backbone 配置中正确添加了 `out_indices` 参数以适配 FPN 的需求。具体配置可参考将 DeepGCN 注册到 BACKBONES 中的方法，并确保输出索引与 FPN 层级匹配。","https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Fissues\u002F104",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},22264,"Pyramid ViG 中的图节点（Patches）数量 N 是如何确定的？使用超像素（Superpixels）作为节点效果如何？","在 Pyramid ViG 中，Patch 的数量 N 通常由输入图像分辨率和下采样率决定（例如 224x224 输入经过特定 stride 后得到的网格数）。关于使用超像素作为节点，当前官方方法并未专门处理异构 Patch（即同一个 Patch 中包含不同物体的情况），默认是将图像划分为固定大小的网格 Patch。目前论文和代码主要基于固定 Patch 划分，使用超像素的效果在现有代码中未做特别优化或对比实验。","https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Fissues\u002F293",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},22265,"当图中每个节点的邻居数量不固定时，如何使用 MRConv2d 或其他图卷积方法？","MRConv2d 及大多数图卷积操作为了效率通常假设每个节点有固定的邻居数（K 个），以便进行批量化处理（张量形状为 [B, N, K, C]）。如果每个节点的邻居数不同，难以直接进行高效的批量矩阵运算，会导致速度显著变慢。如果必须处理变长邻居，可能需要通过填充（Padding）将邻接矩阵统一为固定大小，或者使用动态图构建方法，但这会增加计算开销。官方建议尽量保持邻居数固定以获得最佳性能。","https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Fissues\u002F178",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},22266,"论文中 ReLU 和 HardSwish 的 FLOPs 计数为何相同？HardSwish 的具体计算公式是什么？","在 FLOPs 计数中，ReLU 和 HardSwish（以及 HardSigmoid）通常被视为非线性激活函数，其计算成本相对于卷积或全连接层非常低，有时在估算中被简化处理或视为同等量级。具体来说，HardSwish 的定义是 `x * HardSigmoid(x)`，其中 `HardSigmoid(x) = clip(x + 3, 0, 6) \u002F 6`。虽然 HardSwish 涉及乘法和裁剪操作，但在某些统计标准下，其额外开销可能被忽略或与 ReLU 归为一类。如果需要精确计数，需单独实现其操作计数器。","https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Fissues\u002F62",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},22267,"测试报告中发现错误，应该如何解决？","如果测试报告出现错误，请确认是否使用了正确的类别数量进行验证和测试。对于 ImageNet 数据集，必须使用对应的 1000 类（或实验中指定的 100 类）进行分类评估。确保验证集（val）和测试集（test）的数据标签与模型输出的类别维度一致。此外，检查数据加载器是否正确读取了标签文件。","https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FEfficient-AI-Backbones\u002Fissues\u002F145",[155,159,163,168,172,176,180,185,190,195,199,204],{"id":156,"version":157,"summary_zh":77,"released_at":158},135984,"GhostNetV3","2024-04-25T13:30:08",{"id":160,"version":161,"summary_zh":77,"released_at":162},135985,"tnt","2023-05-28T10:59:09",{"id":164,"version":165,"summary_zh":166,"released_at":167},135986,"GhostNetV2","把 GhostNetV2 的检查点放在这里。","2022-12-01T10:30:55",{"id":169,"version":170,"summary_zh":77,"released_at":171},135987,"g_ghost_regnet","2022-11-13T08:53:19",{"id":173,"version":174,"summary_zh":77,"released_at":175},135988,"vig","2022-11-13T08:15:43",{"id":177,"version":178,"summary_zh":77,"released_at":179},135989,"snnmlp","2022-09-15T16:47:36",{"id":181,"version":182,"summary_zh":183,"released_at":184},135990,"pyramid-vig","视觉图神经网络","2022-08-23T14:02:45",{"id":186,"version":187,"summary_zh":188,"released_at":189},135991,"wavemlp","WaveMLP 的检查点和训练日志。","2022-03-10T15:35:59",{"id":191,"version":192,"summary_zh":193,"released_at":194},135992,"v1.2.0","将 TinyNet 的检查点放在这里。","2021-08-31T14:39:10",{"id":196,"version":197,"summary_zh":77,"released_at":198},135993,"ghostnet_pth","2021-04-11T12:19:58",{"id":200,"version":201,"summary_zh":202,"released_at":203},135994,"v1.1.0","此版本包含 GhostNet 和 TinyNet 的代码。","2021-04-02T01:58:56",{"id":205,"version":206,"summary_zh":207,"released_at":208},135995,"v1.0.0","本版本包含在ImageNet数据集上预训练的GhostNet-1.0x模型，同时提供了PyTorch和TensorFlow两种框架的实现。更多详细信息，请参阅论文《GhostNet：从廉价操作中获取更多特征》，该论文发表于CVPR 2020，可访问[arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.11907)查看。","2020-09-17T07:38:15"]