[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-open-mmlab--mmfewshot":3,"tool-open-mmlab--mmfewshot":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":23,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":23,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,60,43,61,15,62,26,13,63],"数据工具","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":76,"owner_website":80,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":99,"env_os":100,"env_gpu":101,"env_ram":100,"env_deps":102,"category_tags":108,"github_topics":109,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":113,"updated_at":114,"faqs":115,"releases":151},4187,"open-mmlab\u002Fmmfewshot","mmfewshot","OpenMMLab FewShot Learning Toolbox and Benchmark","mmfewshot 是 OpenMMLab 推出的基于 PyTorch 的开源小样本学习工具箱与基准测试平台。它主要致力于解决人工智能在数据稀缺场景下的应用难题，让模型能够像人类一样，仅凭极少量的标注样本就学会识别新物体或检测新目标。\n\n这款工具特别适合从事计算机视觉研究的科研人员、算法工程师以及希望深入探索小样本学习技术的开发者使用。无论是学术实验还是工业界原型验证，mmfewshot 都能提供强有力的支持。其核心亮点在于统一了小样本分类与检测两大任务的实现框架，打破了以往不同任务间代码割裂的局面。得益于模块化的设计理念，用户可以像搭积木一样灵活组合不同组件，轻松构建自定义模型或复现前沿算法。此外，mmfewshot 内置了多种强基线模型和当前最先进的（SOTA）算法，并提供了详尽的配置教程与数据集准备指南，帮助用户快速上手，将精力更多集中在算法创新而非重复造轮子上。","\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmfewshot_readme_4d405c4d6d6d.png\" width=\"500\"\u002F>\n  \u003Cdiv>&nbsp;\u003C\u002Fdiv>\n  \u003Cdiv align=\"center\">\n    \u003Cb>\u003Cfont size=\"5\">OpenMMLab website\u003C\u002Ffont>\u003C\u002Fb>\n    \u003Csup>\n      \u003Ca href=\"https:\u002F\u002Fopenmmlab.com\">\n        \u003Ci>\u003Cfont size=\"4\">HOT\u003C\u002Ffont>\u003C\u002Fi>\n      \u003C\u002Fa>\n    \u003C\u002Fsup>\n    &nbsp;&nbsp;&nbsp;&nbsp;\n    \u003Cb>\u003Cfont size=\"5\">OpenMMLab platform\u003C\u002Ffont>\u003C\u002Fb>\n    \u003Csup>\n      \u003Ca href=\"https:\u002F\u002Fplatform.openmmlab.com\">\n        \u003Ci>\u003Cfont size=\"4\">TRY IT OUT\u003C\u002Ffont>\u003C\u002Fi>\n      \u003C\u002Fa>\n    \u003C\u002Fsup>\n  \u003C\u002Fdiv>\n  \u003Cdiv>&nbsp;\u003C\u002Fdiv>\n\n[![PyPI - Python Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fmmfewshot)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmmfewshot\u002F)\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmmfewshot)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmmfewshot)\n[![docs](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-latest-blue)](https:\u002F\u002Fmmfewshot.readthedocs.io\u002Fen\u002Flatest\u002F)\n[![badge](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fworkflows\u002Fbuild\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Factions)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-mmlab\u002Fmmfewshot\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-mmlab\u002Fmmfewshot)\n[![license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fopen-mmlab\u002Fmmfewshot.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fblob\u002Fmaster\u002FLICENSE)\n\n[📘Documentation](https:\u002F\u002Fmmfewshot.readthedocs.io\u002F) |\n[🛠️Installation](https:\u002F\u002Fmmfewshot.readthedocs.io\u002Fen\u002Flatest\u002Finstall.html) |\n[👀Model Zoo](https:\u002F\u002Fmmfewshot.readthedocs.io\u002Fen\u002Flatest\u002Fmodel_zoo.html) |\n[🆕Update News](https:\u002F\u002Fmmfewshot.readthedocs.io\u002Fen\u002Flatest\u002Fchangelog.html) |\n[🤔Reporting Issues](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fissues\u002Fnew\u002Fchoose)\n\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\nEnglish | [简体中文](README_zh-CN.md)\n\n\u003C\u002Fdiv>\n\n## Introduction\n\nmmfewshot is an open source few shot learning toolbox based on PyTorch. It is a part of the [OpenMMLab](https:\u002F\u002Fopen-mmlab.github.io\u002F) project.\n\nThe master branch works with **PyTorch 1.5+**.\nThe compatibility to earlier versions of PyTorch is not fully tested.\n\n\u003Cdiv align=\"left\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmfewshot_readme_d63f271bd830.png\"\u002F>\n\u003C\u002Fdiv>\n\n### Major features\n\n- **Support multiple tasks in Few Shot Learning**\n\n  MMFewShot provides unified implementation and evaluation of few shot classification and detection.\n\n- **Modular Design**\n\n  We decompose the few shot learning framework into different components,\n  which makes it much easy and flexible to build a new model by combining different modules.\n\n- **Strong baseline and State of the art**\n\n  The toolbox provides strong baselines and state-of-the-art methods in few shot classification and detection.\n\n## What's New\n\nv0.1.0 was released in 24\u002F11\u002F2021.\nPlease refer to [changelog.md](docs\u002Fen\u002Fchangelog.md) for details and release history.\n\n## Installation & Dataset Preparation\n\nMMFewShot depends on [PyTorch](https:\u002F\u002Fpytorch.org\u002F) and [MMCV](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv).\nPlease refer to [install.md](\u002Fdocs\u002Fen\u002Finstall.md) for installation of MMFewShot and [data preparation](tools\u002Fdata\u002FREADME.md) for dataset preparation.\n\n## Getting Started\n\nIf you are new of few shot learning, you can start with [learn the basics](docs\u002Fen\u002Fintro.md).\nIf you are familiar with it, check out [getting_started.md](docs\u002Fen\u002Fget_started.md) for the basic usage of mmfewshot.\n\nRefer to the below tutorials to dive deeper:\n\n- Few Shot Classification\n\n  - [Overview](docs\u002Fen\u002Fclassification\u002Foverview.md)\n  - [Config](docs\u002Fen\u002Fclassification\u002Fcustomize_config.md)\n  - [Customize Dataset](docs\u002Fen\u002Fclassification\u002Fcustomize_dataset.md)\n  - [Customize Model](docs\u002Fen\u002Fclassification\u002Fcustomize_models.md)\n  - [Customize Runtime](docs\u002Fen\u002Fclassification\u002Fcustomize_runtime.md)\n\n- Few Shot Detection\n\n  - [Overview](docs\u002Fen\u002Fdetection\u002Foverview.md)\n  - [Config](docs\u002Fen\u002Fdetection\u002Fcustomize_config.md)\n  - [Customize Dataset](docs\u002Fen\u002Fdetection\u002Fcustomize_dataset.md)\n  - [Customize Model](docs\u002Fen\u002Fdetection\u002Fcustomize_models.md)\n  - [Customize Runtime](docs\u002Fen\u002Fdetection\u002Fcustomize_runtime.md)\n\n## Benchmark and model zoo\n\nResults and models are available in the [model zoo](docs\u002Fen\u002Fmodel_zoo.md).\nSupported algorithms:\n\n\u003Cdetails open>\n\u003Csummary>Classification\u003C\u002Fsummary>\n\n- [x] [Baseline](configs\u002Fclassification\u002Fbaseline\u002FREADME.md) (ICLR'2019)\n- [x] [Baseline++](configs\u002Fclassification\u002Fbaseline_plus\u002FREADME.md) (ICLR'2019)\n- [x] [NegMargin](configs\u002Fclassification\u002Fneg_margin\u002FREADME.md) (ECCV'2020)\n- [x] [MatchingNet](configs\u002Fclassification\u002Fmatching_net\u002FREADME.md) (NeurIPS'2016)\n- [x] [ProtoNet](configs\u002Fclassification\u002Fproto_net\u002FREADME.md) (NeurIPS'2017)\n- [x] [RelationNet](configs\u002Fclassification\u002Frelation_net\u002FREADME.md) (CVPR'2018)\n- [x] [MetaBaseline](configs\u002Fclassification\u002Fmeta_baseline\u002FREADME.md) (ICCV'2021)\n- [x] [MAML](configs\u002Fclassification\u002Fmaml\u002FREADME.md) (ICML'2017)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary>Detection\u003C\u002Fsummary>\n\n- [x] [TFA](configs\u002Fdetection\u002Ftfa\u002FREADME.md) (ICML'2020)\n- [x] [FSCE](configs\u002Fdetection\u002Ffsce\u002FREADME.md) (CVPR'2021)\n- [x] [AttentionRPN](configs\u002Fdetection\u002Fattention_rpn\u002FREADME.md) (CVPR'2020)\n- [x] [MetaRCNN](configs\u002Fdetection\u002Fmeta_rcnn\u002FREADME.md) (ICCV'2019)\n- [x] [FSDetView](configs\u002Fdetection\u002Ffsdetview\u002FREADME.md) (ECCV'2020)\n- [x] [MPSR](configs\u002Fdetection\u002Fmpsr\u002FREADME.md) (ECCV'2020)\n\n\u003C\u002Fdetails>\n\n## Contributing\n\nWe appreciate all contributions to improve mmfewshot. Please refer to [CONTRIBUTING.md](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fblob\u002Fmain\u002F.github\u002FCONTRIBUTING.md) in MMFewShot for the contributing guideline.\n\n## Acknowledgement\n\nmmfewshot is an open source project that is contributed by researchers and engineers from various colleges and companies. We appreciate all the contributors who implement their methods or add new features, as well as users who give valuable feedbacks. We wish that the toolbox and benchmark could serve the growing research community by providing a flexible toolkit to reimplement existing methods and develop their own new methods.\n\n## Citation\n\nIf you find this project useful in your research, please consider cite:\n\n```bibtex\n@misc{mmfewshot2021,\n    title={OpenMMLab Few Shot Learning Toolbox and Benchmark},\n    author={mmfewshot Contributors},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot}},\n    year={2021}\n}\n```\n\n## License\n\nThis project is released under the [Apache 2.0 license](LICENSE).\n\n## Projects in OpenMMLab\n\n- [MMCV](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv): OpenMMLab foundational library for computer vision.\n- [MIM](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmim): MIM installs OpenMMLab packages.\n- [MMClassification](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification): OpenMMLab image classification toolbox and benchmark.\n- [MMDetection](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection): OpenMMLab detection toolbox and benchmark.\n- [MMDetection3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d): OpenMMLab's next-generation platform for general 3D object detection.\n- [MMRotate](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmrotate): OpenMMLab rotated object detection toolbox and benchmark.\n- [MMSegmentation](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation): OpenMMLab semantic segmentation toolbox and benchmark.\n- [MMOCR](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmocr): OpenMMLab text detection, recognition and understanding toolbox.\n- [MMPose](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpose): OpenMMLab pose estimation toolbox and benchmark.\n- [MMHuman3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmhuman3d): OpenMMLab 3D human parametric model toolbox and benchmark.\n- [MMSelfSup](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmselfsup): OpenMMLab self-supervised learning Toolbox and Benchmark.\n- [MMRazor](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmrazor): OpenMMLab Model Compression Toolbox and Benchmark.\n- [MMFewShot](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot): OpenMMLab FewShot Learning Toolbox and Benchmark.\n- [MMAction2](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2): OpenMMLab's next-generation action understanding toolbox and benchmark.\n- [MMTracking](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmtracking): OpenMMLab video perception toolbox and benchmark.\n- [MMFlow](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmflow): OpenMMLab optical flow toolbox and benchmark.\n- [MMEditing](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmediting): OpenMMLab image and video editing toolbox.\n- [MMGeneration](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmgeneration):  OpenMMLab Generative Model toolbox and benchmark.\n- [MMDeploy](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdeploy): OpenMMlab deep learning model deployment toolset.\n","\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmfewshot_readme_4d405c4d6d6d.png\" width=\"500\"\u002F>\n  \u003Cdiv>&nbsp;\u003C\u002Fdiv>\n  \u003Cdiv align=\"center\">\n    \u003Cb>\u003Cfont size=\"5\">OpenMMLab 官网\u003C\u002Ffont>\u003C\u002Fb>\n    \u003Csup>\n      \u003Ca href=\"https:\u002F\u002Fopenmmlab.com\">\n        \u003Ci>\u003Cfont size=\"4\">热门\u003C\u002Ffont>\u003C\u002Fi>\n      \u003C\u002Fa>\n    \u003C\u002Fsup>\n    &nbsp;&nbsp;&nbsp;&nbsp;\n    \u003Cb>\u003Cfont size=\"5\">OpenMMLab 平台\u003C\u002Ffont>\u003C\u002Fb>\n    \u003Csup>\n      \u003Ca href=\"https:\u002F\u002Fplatform.openmmlab.com\">\n        \u003Ci>\u003Cfont size=\"4\">立即体验\u003C\u002Ffont>\u003C\u002Fi>\n      \u003C\u002Fa>\n    \u003C\u002Fsup>\n  \u003C\u002Fdiv>\n  \u003Cdiv>&nbsp;\u003C\u002Fdiv>\n\n[![PyPI - Python 版本](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fmmfewshot)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmmfewshot\u002F)\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmmfewshot)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmmfewshot)\n[![文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-latest-blue)](https:\u002F\u002Fmmfewshot.readthedocs.io\u002Fen\u002Flatest\u002F)\n[![流水线](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fworkflows\u002Fbuild\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Factions)\n[![代码覆盖率](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-mmlab\u002Fmmfewshot\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-mmlab\u002Fmmfewshot)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fopen-mmlab\u002Fmmfewshot.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fblob\u002Fmaster\u002FLICENSE)\n\n[📘文档](https:\u002F\u002Fmmfewshot.readthedocs.io\u002F) |\n[🛠️安装](https:\u002F\u002Fmmfewshot.readthedocs.io\u002Fen\u002Flatest\u002Finstall.html) |\n[👀模型库](https:\u002F\u002Fmmfewshot.readthedocs.io\u002Fen\u002Flatest\u002Fmodel_zoo.html) |\n[🆕更新日志](https:\u002F\u002Fmmfewshot.readthedocs.io\u002Fen\u002Flatest\u002Fchangelog.html) |\n[🤔提交问题](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fissues\u002Fnew\u002Fchoose)\n\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\nEnglish | [简体中文](README_zh-CN.md)\n\n\u003C\u002Fdiv>\n\n## 简介\n\nmmfewshot 是一个基于 PyTorch 的开源小样本学习工具箱，隶属于 [OpenMMLab](https:\u002F\u002Fopen-mmlab.github.io\u002F) 项目。\n\n主分支支持 **PyTorch 1.5 及以上版本**。对于更早版本的 PyTorch，兼容性尚未完全测试。\n\n\u003Cdiv align=\"left\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmfewshot_readme_d63f271bd830.png\"\u002F>\n\u003C\u002Fdiv>\n\n### 主要特性\n\n- **支持小样本学习中的多种任务**\n\n  MMFewShot 提供了小样本分类和检测的统一实现与评估框架。\n\n- **模块化设计**\n\n  我们将小样本学习框架拆分为多个组件，使得通过组合不同模块来构建新模型变得更加简单灵活。\n\n- **强大的基线与最先进方法**\n\n  该工具箱提供了小样本分类和检测领域的强大基线以及当前最先进的方法。\n\n## 最新动态\n\nv0.1.0 于 2021年11月24日发布。详细信息及发布历史请参阅 [changelog.md](docs\u002Fen\u002Fchangelog.md)。\n\n## 安装与数据准备\n\nMMFewShot 依赖于 [PyTorch](https:\u002F\u002Fpytorch.org\u002F) 和 [MMCV](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv)。请参考 [install.md](\u002Fdocs\u002Fen\u002Finstall.md) 进行 MMFewShot 的安装，并参考 [数据准备](tools\u002Fdata\u002FREADME.md) 进行数据集的准备工作。\n\n## 快速入门\n\n如果您是小样本学习的新手，可以从 [基础知识](docs\u002Fen\u002Fintro.md) 开始学习。如果您已经熟悉相关概念，请查看 [getting_started.md](docs\u002Fen\u002Fget_started.md)，了解 mmfewshot 的基本用法。\n\n欲深入了解，可参考以下教程：\n\n- 小样本分类\n\n  - [概述](docs\u002Fen\u002Fclassification\u002Foverview.md)\n  - [配置](docs\u002Fen\u002Fclassification\u002Fcustomize_config.md)\n  - [自定义数据集](docs\u002Fen\u002Fclassification\u002Fcustomize_dataset.md)\n  - [自定义模型](docs\u002Fen\u002Fclassification\u002Fcustomize_models.md)\n  - [自定义运行时](docs\u002Fen\u002Fclassification\u002Fcustomize_runtime.md)\n\n- 小样本检测\n\n  - [概述](docs\u002Fen\u002Fdetection\u002Foverview.md)\n  - [配置](docs\u002Fen\u002Fdetection\u002Fcustomize_config.md)\n  - [自定义数据集](docs\u002Fen\u002Fdetection\u002Fcustomize_dataset.md)\n  - [自定义模型](docs\u002Fen\u002Fdetection\u002Fcustomize_models.md)\n  - [自定义运行时](docs\u002Fen\u002Fdetection\u002Fcustomize_runtime.md)\n\n## 基准与模型库\n\n结果和模型可在 [模型库](docs\u002Fen\u002Fmodel_zoo.md) 中找到。支持的算法如下：\n\n\u003Cdetails open>\n\u003Csummary>分类\u003C\u002Fsummary>\n\n- [x] [Baseline](configs\u002Fclassification\u002Fbaseline\u002FREADME.md) (ICLR'2019)\n- [x] [Baseline++](configs\u002Fclassification\u002Fbaseline_plus\u002FREADME.md) (ICLR'2019)\n- [x] [NegMargin](configs\u002Fclassification\u002Fneg_margin\u002FREADME.md) (ECCV'2020)\n- [x] [MatchingNet](configs\u002Fclassification\u002Fmatching_net\u002FREADME.md) (NeurIPS'2016)\n- [x] [ProtoNet](configs\u002Fclassification\u002Fproto_net\u002FREADME.md) (NeurIPS'2017)\n- [x] [RelationNet](configs\u002Fclassification\u002Frelation_net\u002FREADME.md) (CVPR'2018)\n- [x] [MetaBaseline](configs\u002Fclassification\u002Fmeta_baseline\u002FREADME.md) (ICCV'2021)\n- [x] [MAML](configs\u002Fclassification\u002Fmaml\u002FREADME.md) (ICML'2017)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary>检测\u003C\u002Fsummary>\n\n- [x] [TFA](configs\u002Fdetection\u002Ftfa\u002FREADME.md) (ICML'2020)\n- [x] [FSCE](configs\u002Fdetection\u002Ffsce\u002FREADME.md) (CVPR'2021)\n- [x] [AttentionRPN](configs\u002Fdetection\u002Fattention_rpn\u002FREADME.md) (CVPR'2020)\n- [x] [MetaRCNN](configs\u002Fdetection\u002Fmeta_rcnn\u002FREADME.md) (ICCV'2019)\n- [x] [FSDetView](configs\u002Fdetection\u002Ffsdetview\u002FREADME.md) (ECCV'2020)\n- [x] [MPSR](configs\u002Fdetection\u002Fmpsr\u002FREADME.md) (ECCV'2020)\n\n\u003C\u002Fdetails>\n\n## 贡献\n\n我们非常欢迎所有有助于改进 mmfewshot 的贡献。请参阅 MMFewShot 中的 [CONTRIBUTING.md](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fblob\u002Fmain\u002F.github\u002FCONTRIBUTING.md)，了解贡献指南。\n\n## 致谢\n\nmmfewshot 是一个由来自不同院校和企业的研究人员与工程师共同贡献的开源项目。我们感谢所有实现其方法或添加新功能的贡献者，也感谢提供宝贵反馈的用户。我们希望这个工具箱和基准能够为不断壮大的研究社区服务，提供一个灵活的工具平台，用于复现现有方法并开发新的方法。\n\n## 引用\n\n如果您在研究中使用了本项目，请考虑引用：\n\n```bibtex\n@misc{mmfewshot2021,\n    title={OpenMMLab 小样本学习工具箱与基准},\n    author={mmfewshot Contributors},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot}},\n    year={2021}\n}\n```\n\n## 许可证\n\n本项目采用 [Apache 2.0 许可证](LICENSE) 发布。\n\n## OpenMMLab 项目\n\n- [MMCV](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv)：OpenMMLab 计算机视觉基础库。\n- [MIM](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmim)：MIM 用于安装 OpenMMLab 相关软件包。\n- [MMClassification](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification)：OpenMMLab 图像分类工具箱及基准测试。\n- [MMDetection](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection)：OpenMMLab 目标检测工具箱及基准测试。\n- [MMDetection3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d)：OpenMMLab 下一代通用 3D 物体检测平台。\n- [MMRotate](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmrotate)：OpenMMLab 旋转目标检测工具箱及基准测试。\n- [MMSegmentation](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation)：OpenMMLab 语义分割工具箱及基准测试。\n- [MMOCR](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmocr)：OpenMMLab 文本检测、识别与理解工具箱。\n- [MMPose](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpose)：OpenMMLab 人体姿态估计工具箱及基准测试。\n- [MMHuman3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmhuman3d)：OpenMMLab 3D 人体参数化模型工具箱及基准测试。\n- [MMSelfSup](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmselfsup)：OpenMMLab 自监督学习工具箱及基准测试。\n- [MMRazor](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmrazor)：OpenMMLab 模型压缩工具箱及基准测试。\n- [MMFewShot](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot)：OpenMMLab 少样本学习工具箱及基准测试。\n- [MMAction2](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2)：OpenMMLab 下一代动作理解工具箱及基准测试。\n- [MMTracking](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmtracking)：OpenMMLab 视频感知工具箱及基准测试。\n- [MMFlow](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmflow)：OpenMMLab 光流估计工具箱及基准测试。\n- [MMEditing](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmediting)：OpenMMLab 图像与视频编辑工具箱。\n- [MMGeneration](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmgeneration)：OpenMMLab 生成模型工具箱及基准测试。\n- [MMDeploy](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdeploy)：OpenMMLab 深度学习模型部署工具集。","# MMFewShot 快速上手指南\n\nMMFewShot 是基于 PyTorch 的开源小样本学习（Few Shot Learning）工具箱，由 OpenMMLab 团队开发。它统一实现了小样本分类和小样本检测任务，提供模块化设计、强基线模型及最先进（SOTA）算法支持。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐), Windows, macOS\n*   **Python**: 3.7+\n*   **PyTorch**: 1.5+ (主分支已测试版本)\n*   **CUDA**: 根据 PyTorch 版本匹配对应的 CUDA  toolkit\n\n**前置依赖：**\nMMFewShot 强依赖于 [MMCV](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv)。建议先安装好 PyTorch 和 MMCV。\n\n> **国内加速建议**：推荐使用清华源或阿里源加速 Python 包和 PyTorch 的安装。\n\n## 2. 安装步骤\n\n### 步骤一：安装 PyTorch\n请访问 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002F) 获取适合您环境的安装命令。例如使用 pip 安装 CUDA 11.1 版本：\n\n```bash\npip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 torchaudio==0.9.0 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n```\n\n### 步骤二：安装 MMCV\nMMFewShot 需要特定版本的 MMCV。推荐使用 `mim` 工具进行安装（自动处理依赖）：\n\n```bash\npip install -U openmim\nmim install mmcv-full\n```\n\n或者直接通过 pip 安装（需指定版本，具体版本兼容性请参考官方文档）：\n\n```bash\npip install mmcv-full -f https:\u002F\u002Fdownload.openmmlab.com\u002Fmmcv\u002Fdist\u002Fcu111\u002Ftorch1.9.0\u002Findex.html\n```\n\n### 步骤三：安装 MMFewShot\n\n**方式 A：从 PyPI 安装（推荐用于推理或简单使用）**\n\n```bash\npip install mmfewshot\n```\n\n**方式 B：从源码安装（推荐用于开发或修改代码）**\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot.git\ncd mmfewshot\npip install -e .\n```\n\n## 3. 基本使用\n\nMMFewShot 的核心使用流程包括：准备数据 -> 配置模型 -> 训练\u002F测试。以下以**小样本分类**为例展示最简使用流程。\n\n### 3.1 数据准备\n您需要将数据集整理为 MMFewShot 支持的格式。通常需要将数据划分为 `base` (基类) 和 `novel` (新类) 阶段。详细的数据转换脚本位于 `tools\u002Fdata\u002F` 目录下。\n\n假设您已准备好 MiniImageNet 数据集，目录结构如下：\n```text\ndata\u002F\n└── mini_imagenet\u002F\n    ├── base\u002F\n    ├── val\u002F\n    └── novel\u002F\n```\n\n### 3.2 模型训练\n使用提供的配置文件启动训练。以下示例使用 `Baseline` 算法在 MiniImageNet 上进行 5-way 5-shot 训练：\n\n```bash\npython tools\u002Ftrain.py configs\u002Fclassification\u002Fbaseline\u002Fmini_imagenet_resnet12_5way_5shot.py --work-dir work_dirs\u002Fbaseline_mini\n```\n\n*   `configs\u002Fclassification\u002Fbaseline\u002F...`: 配置文件路径。\n*   `--work-dir`: 指定模型权重和日志的输出目录。\n\n### 3.3 模型测试\n训练完成后，使用测试脚本评估模型性能：\n\n```bash\npython tools\u002Ftest.py configs\u002Fclassification\u002Fbaseline\u002Fmini_imagenet_resnet12_5way_5shot.py work_dirs\u002Fbaseline_mini\u002Fepoch_100.pth --eval accuracy\n```\n\n### 3.4 小样本检测示例\n对于检测任务，流程类似。以下是使用 `TFA` 算法进行训练的示例：\n\n```bash\npython tools\u002Ftrain.py configs\u002Fdetection\u002Ftfa\u002Ffaster_rcnn_r50_fpn_1x_coco.py --work-dir work_dirs\u002Ftfa_demo\n```\n\n## 进阶资源\n*   **完整文档**: [https:\u002F\u002Fmmfewshot.readthedocs.io\u002F](https:\u002F\u002Fmmfewshot.readthedocs.io\u002F)\n*   **模型库 (Model Zoo)**: 查看支持的算法列表及预训练模型下载链接。\n*   **教程**: 参考 `docs\u002F` 目录下的分类与检测定制化教程，学习如何修改数据集、模型架构及运行时配置。","某医疗影像初创团队急需开发一套能识别罕见皮肤病变的 AI 系统，但手头每种病症的标注样本不足 20 张。\n\n### 没有 mmfewshot 时\n- **重复造轮子成本高**：团队需从零复现复杂的少样本学习论文算法，代码调试耗时数周，且难以保证复现精度。\n- **任务切换困难**：分类（判断病症类型）与检测（定位病灶位置）需要维护两套完全独立的代码库，架构割裂严重。\n- **模型迭代僵化**：想要尝试新的骨干网络或注意力机制，必须深入修改底层源码，极易引入 Bug 且无法灵活组合模块。\n- **缺乏权威基准**：难以评估自研模型是否达到行业最先进水平（SOTA），缺乏统一的评测标准对比性能差距。\n\n### 使用 mmfewshot 后\n- **开箱即用高效开发**：直接调用内置的强基线模型和 SOTA 算法，几天内即可完成从数据加载到模型训练的全流程。\n- **统一框架无缝切换**：基于模块化设计，在同一套架构下即可轻松配置并运行少样本分类与检测任务，大幅降低维护成本。\n- **灵活定制像搭积木**：通过配置文件即可自由组合不同的主干网络、损失函数和支持集策略，无需改动核心代码即可验证新想法。\n- **精准对标行业顶尖**：利用自带的 Model Zoo 和 Benchmark，实时对比自家模型与主流算法的性能指标，快速定位优化方向。\n\nmmfewshot 将原本需要数月攻坚的少样本算法研发周期缩短至数天，让团队能在极小样本条件下快速构建出具备临床参考价值的原型系统。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmfewshot_4d405c4d.png","open-mmlab","OpenMMLab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fopen-mmlab_7c171dd7.png","",null,"https:\u002F\u002Fopenmmlab.com","https:\u002F\u002Fgithub.com\u002Fopen-mmlab",[83,87,91],{"name":84,"color":85,"percentage":86},"Python","#3572A5",99.6,{"name":88,"color":89,"percentage":90},"Shell","#89e051",0.3,{"name":92,"color":93,"percentage":94},"Dockerfile","#384d54",0.1,752,125,"2026-03-23T08:54:13","Apache-2.0",4,"未说明","未说明（基于 PyTorch，通常建议配备 NVIDIA GPU 以加速训练）",{"notes":103,"python":104,"dependencies":105},"该工具是 OpenMMLab 项目的一部分，专注于少样本学习（分类和检测）。主分支兼容 PyTorch 1.5 及以上版本，早期版本的兼容性未经过充分测试。详细的安装步骤和数据集准备指南需参考官方文档链接。","未明确指定具体小版本，但需适配 PyTorch 1.5+",[106,107],"PyTorch>=1.5","MMCV",[13],[110,111,112],"pytorch","openmmlab","few-shot-learning","2026-03-27T02:49:30.150509","2026-04-06T14:03:59.850791",[116,121,126,131,136,141,146],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},19082,"遇到 FileNotFoundError 提示找不到 few_shot_ann 下的 JSON 文件（如 full_box_10shot_OD_trainval.json）怎么办？","数据集划分可以通过配置 `ann_shot_filter` 在线生成。如果您希望手动生成特定的 shot 数据（例如 10-shot），可以参考官方提供的脚本：https:\u002F\u002Fgithub.com\u002Fucbdrive\u002Ffew-shot-object-detection\u002Fblob\u002Fmaster\u002Fdatasets\u002Fprepare_coco_few_shot.py。通常不需要手动分割所有数据集，模型训练步骤中可自动处理。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fissues\u002F31",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},19083,"为什么复现 Meta-RCNN 的结果比论文或 TFA 的结果要高很多？","论文中报告的结果仅使用了单张 GPU 且采用了不同的微调策略，这可能导致结果较低。实际上，Meta-RCNN 在某些低 shot 场景下的泛化能力确实优于 TFA。如果您选择更大的迭代次数（iterations），通常会得到更好的结果。具体实现细节可参考 Meta-RCNN 的 README.md。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fissues\u002F25",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},19084,"COCO 数据集预训练时报错找不到 'train.json'，这个文件从哪里来？","预训练所需的 `train.json` 和 `val.json` 并非直接来自 COCO 原始标注文件夹，而是需要通过数据处理脚本生成。请参考数据准备文档：https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fdetection\u002Fcoco\u002FREADME.md。按照文档指引运行相应脚本即可生成所需的训练和验证标注文件。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fissues\u002F92",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},19085,"MMFewShot 支持 Windows 平台吗？","是的，MMFewShot 现在支持 Windows 平台。由于该代码库 heavily 基于 mmcv、mmdet 和 mmcls，只要这些上游库支持 Windows（它们已官方支持），MMFewShot 通常也能正常运行。此外，使用 WSL (Windows Subsystem for Linux) 也是一个可行的选择。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fissues\u002F32",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},19086,"运行 initialize_bbox_head.py 时出现 RuntimeError: The expanded size of the tensor 不匹配错误怎么办？","该错误通常是因为类别数量不匹配导致的。请检查 `TAR_SIZE` 参数，它代表输出模型中的类别数量。确保您在初始化 bbox head 时指定的目标类别数与预训练权重中的类别数逻辑一致。如果问题依旧，请确认步骤 2 生成的 checkpoint 文件路径是否正确且文件完整。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fissues\u002F29",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},19087,"在 meta_dataloader 配置中，为什么 VOC 基础训练的 samples_per_gpu 设置为 16 而不是 15？","这是因为数据加载逻辑中，对于每张图像仅选择一个实例（instance）。即使某些图像包含多个类别的实例，代码也会随机选择一个类别实例进行处理，忽略其他实例以获取通道级乘积特征。因此，batch size 的设置是基于图像数量而非实例总数，设置为 16 是合理的。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fissues\u002F9",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},19088,"训练时出现 TypeError: __init__() got an unexpected keyword argument 'persistent_workers' 错误如何解决？","该错误通常是由于 PyTorch 版本过低导致的。`persistent_workers` 参数是在 PyTorch 1.7+ 版本中引入的 DataLoader 特性。请升级您的 PyTorch 版本到 1.7 或更高版本，或者在配置文件的数据加载部分移除 `persistent_workers` 参数以兼容旧版本。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot\u002Fissues\u002F82",[152],{"id":153,"version":154,"summary_zh":155,"released_at":156},117131,"v0.1.0","**主要特性**\n\n- 支持少样本分类和少样本目标检测。\n- 在少样本分类任务中，支持基于微调的方法（`Baseline`、`Baseline++`、`NegMargin`）；基于度量的方法（`MatchingNet`、`ProtoNet`、`RelationNet`、`MetaBaseline`）；以及基于元学习的方法（`MAML`）。\n- 在少样本目标检测任务中，支持基于微调的方法（`TFA`、`FSCE`、`MPSR`）；以及基于元学习的方法（`MetaRCNN`、`FsDetView`、`AttentionRPN`）。\n- 为上述所有方法提供检查点和日志文件。","2021-11-24T03:06:00"]