learn2learn
learn2learn 是一个基于 PyTorch 构建的开源库,专为元学习(Meta-learning)研究设计。它旨在解决该领域研究中两大核心痛点:一是帮助研究者快速验证新想法,实现高效的原型开发;二是确保实验过程的可复现性,让不同算法能在公平、标准化的基准下进行评估。
这款工具非常适合从事人工智能算法研究的科研人员、研究生以及希望深入探索小样本学习或元强化学习的开发者使用。learn2learn 不仅提供了统一的接口来构建新的算法和数据域,还内置了多种经典元学习算法(如 MAML、ProtoNets 等)的高质量实现和标准数据集。其独特的技术亮点在于强大的模块化设计:通过 learn2learn.data 可轻松将任意 PyTorch 数据集转换为少样本任务;利用 learn2learn.algorithms 中的高级封装,仅需几行代码即可调用复杂算法;同时支持可微分优化与超梯度下降,为自定义优化器研究提供了便利。此外,它能无缝兼容 torchvision 等主流 PyTorch 生态库,让用户在熟悉的环境中流畅开展前沿研究。
使用场景
某初创医疗 AI 团队正致力于开发一种能快速适应罕见病影像诊断的模型,需要在仅有少量样本的情况下实现高精度识别。
没有 learn2learn 时
- 代码重复造轮子:研究人员需手动编写 MAML、ProtoNets 等复杂算法的底层梯度更新逻辑,耗费数周时间且极易出错。
- 任务构建繁琐:从零构建符合“小样本学习”标准的任务数据加载器(Task DataLoader)极其困难,难以保证每次实验的任务分布一致性。
- 复现性差:由于缺乏统一的基准接口,团队成员间代码风格迥异,导致实验结果难以公平对比,甚至无法复现论文效果。
- 调试周期漫长:在尝试新想法时,大部分精力被消耗在处理 PyTorch 自动求导的边缘情况上,而非优化算法本身。
使用 learn2learn 后
- 算法即插即用:通过
l2l.algorithms.MAML等高级封装,几行代码即可调用成熟算法,将原型开发时间从数周缩短至几小时。 - 标准化任务生成:利用
learn2learn.data模块,能轻松将任意 PyTorch 数据集转换为标准的小样本任务集,确保实验数据规范统一。 - 公平可复现:内置的高质量基准实现和统一接口,让团队能直接在相同起跑线上评估新策略,显著提升了科研产出的可信度。
- 专注核心创新:自动处理复杂的元梯度计算与模型克隆(clone),让研究者能全身心投入于针对医疗场景的算法改进。
learn2learn 通过提供标准化的元学习基础设施,将研究人员从繁琐的工程实现中解放出来,真正实现了“快速原型验证”与“正确实验复现”的双重加速。
运行环境要求
- 未说明
未说明
未说明

快速开始

learn2learn 是一个用于元学习研究的软件库。
learn2learn 基于 PyTorch 构建,旨在加速元学习研究周期中的两个关键方面:
- 快速原型设计,这对于研究人员迅速尝试新想法至关重要;
- 正确的可重复性,确保这些想法能够被公正地评估。
learn2learn 提供了低层工具和统一的接口,以创建新的算法和领域,同时还包含了现有算法的高质量实现以及标准化的基准测试。它与 torchvision、torchaudio、torchtext、cherry 以及其他任何基于 PyTorch 的库都保持兼容。
欲了解更多信息,请参阅我们的白皮书:arXiv:2008.12284
概述
learn2learn.data:Taskset和转换工具,可从任何 PyTorch 数据集创建少样本任务。learn2learn.vision:用于计算机视觉和少样本学习的模型、数据集和基准测试。learn2learn.gym:用于元强化学习的环境和实用工具。learn2learn.algorithms:现有元学习算法的高层封装。learn2learn.optim:用于可微优化和元下降的工具及算法。
资源
- 官网:http://learn2learn.net/
- 文档:http://learn2learn.net/docs/learn2learn
- 教程:http://learn2learn.net/tutorials/getting_started/
- 示例:https://github.com/learnables/learn2learn/tree/master/examples
- GitHub:https://github.com/learnables/learn2learn/
- Slack:http://slack.learn2learn.net/
安装
pip install learn2learn
片段与示例
以下片段将带您一窥 learn2learn 的功能。
高层封装
使用 MAML 进行少样本学习
如需更多算法(ProtoNets、ANIL、Meta-SGD、Reptile、Meta-Curvature、KFO),请参考 examples 文件夹。大多数算法都可以通过 GBML 封装来实现。(文档)
maml = l2l.algorithms.MAML(model, lr=0.1)
opt = torch.optim.SGD(maml.parameters(), lr=0.001)
for iteration in range(10):
opt.zero_grad()
task_model = maml.clone() # 对 nn.Module 使用 torch.clone()
adaptation_loss = compute_loss(task_model)
task_model.adapt(adaptation_loss) # 计算梯度,并就地更新 task_model
evaluation_loss = compute_loss(task_model)
evaluation_loss.backward() # 关于 maml.parameters() 的梯度
opt.step()
使用超梯度进行元下降
利用 LearnableOptimizer 学习任意类型的优化算法。(示例 和 文档)
linear = nn.Linear(784, 10)
transform = l2l.optim.ModuleTransform(l2l.nn.Scale)
metaopt = l2l.optim.LearnableOptimizer(linear, transform, lr=0.01) # metaopt 有 .step()
opt = torch.optim.SGD(metaopt.parameters(), lr=0.001) # metaopt 也有 .parameters()
metaopt.zero_grad()
opt.zero_grad()
error = loss(linear(X), y)
error.backward()
opt.step() # 更新 metaopt
metaopt.step() # 更新 linear
学习领域
自定义少样本数据集
许多标准化数据集(Omniglot、mini-/tiered-ImageNet、FC100、CIFAR-FS)在 learn2learn.vision.datasets 中可以直接使用。(文档)
dataset = l2l.data.MetaDataset(MyDataset()) # 任何 PyTorch 数据集
transforms = [ # 轻松定义自己的转换
l2l.data.transforms.NWays(dataset, n=5),
l2l.data.transforms.KShots(dataset, k=1),
l2l.data.transforms.LoadData(dataset),
]
taskset = Taskset(dataset, transforms, num_tasks=20000)
for task in taskset:
X, y = task
# 在该任务上进行元训练
元强化学习的环境与工具
使用 AsyncVectorEnv 并行化您自己的元环境,或直接使用标准化环境。(文档)
def make_env():
env = l2l.gym.HalfCheetahForwardBackwardEnv()
env = cherry.envs.ActionSpaceScaler(env)
return env
env = l2l.gym.AsyncVectorEnv([make_env for _ in range(16)]) # 使用 16 个线程
for task_config in env.sample_tasks(20):
env.set_task(task) # 所有线程接收相同的任务
state = env.reset() # 使用标准 Gym API
action = my_policy(env)
env.step(action)
低层工具
可微优化
学习并通过对 PyTorch 模块的更新进行反向传播。(文档)
model = MyModel()
transform = l2l.optim.KroneckerTransform(l2l.nn.KroneckerLinear)
learned_update = l2l.optim.ParameterUpdate( # 可学习的更新函数
model.parameters(), transform)
clone = l2l.clone_module(model) # 对 nn.Module 使用 torch.clone()
error = loss(clone(X), y)
updates = learned_update( # 类似于 torch.autograd.grad 的 API
error,
clone.parameters(),
create_graph=True,
)
l2l.update_module(clone, updates=updates)
loss(clone(X), y).backward() # 关于 model.parameters() 和 learned_update.parameters() 的梯度
更改日志
人类可读的更改日志可在 CHANGELOG.md 文件中找到。
引用
若要在您的学术出版物中引用 learn2learn 仓库,请使用以下参考文献。
Arnold, Sebastien M. R., Praateek Mahajan, Debajyoti Datta, Ian Bunner, and Konstantinos Saitas Zarkias. 2020. “learn2learn: 用于元学习研究的库。” arXiv [cs.LG]. http://arxiv.org/abs/2008.12284.
您也可以使用以下 BibTeX 条目。
@article{Arnold2020-ss,
title = {learn2learn:用于{元学习}研究的库},
author = {Arnold, Sébastien M R 和 Mahajan, Praateek 和 Datta, Debajyoti 和 Bunner, Ian 和 Zarkias, Konstantinos Saitas},
month = 八月,
year = 2020,
url = {http://arxiv.org/abs/2008.12284},
archivePrefix = {arXiv},
primaryClass = {cs.LG},
eprint = {2008.12284}
}
### 致谢与伙伴
1. [TorchMeta](https://github.com/tristandeleu/pytorch-meta) 是一个类似的库,专注于监督式元学习的数据集。
2. [higher](https://github.com/facebookresearch/higher) 是一个 PyTorch 库,支持对优化内部循环进行梯度传播。尽管它通过猴子补丁使 `nn.Module` 变为无状态,但 learn2learn 仍保留了 PyTorch 的有状态设计风格。更多信息请参阅他们的 ArXiv 论文 [2019 年 10 月 17 日发表的论文](https://arxiv.org/abs/1910.01727)。
3. 我们感谢以下开源实现,它们在 learn2learn 的设计过程中提供了重要指导:
* Tristan Deleu 的 [pytorch-maml-rl](https://github.com/tristandeleu/pytorch-maml-rl)
* Jonas Rothfuss 的 [ProMP](https://github.com/jonasrothfuss/ProMP/)
* Kwonjoon Lee 的 [MetaOptNet](https://github.com/kjunelee/MetaOptNet)
* Han-Jia Ye 和 Hexiang Hu 的 [FEAT](https://github.com/Sha-Lab/FEAT)
版本历史
v0.2.12023/06/27v0.2.02023/06/03v0.1.72022/02/10v0.1.62021/09/07v0.1.52020/12/05v0.1.42020/11/24v0.1.32020/08/30v0.1.22020/07/08v0.1.12020/04/24v0.1.0.12020/03/02v0.1.02020/03/01常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器