deeponet

GitHub
792 198 较难 1 次阅读 昨天NOASSERTION其他
AI 解读 由 AI 自动生成,仅供参考

DeepONet 是一款基于深度学习的前沿开源框架,专为学习非线性算子而设计。它核心解决了传统神经网络难以直接映射“函数到函数”复杂关系的难题,能够高效处理如微分方程求解、随机过程模拟及分数阶导数计算等科学计算任务。

该工具的独特之处在于其架构严格遵循“算子通用逼近定理”,通过将输入函数与输出位置解耦为分支网(Branch net)和主干网(Trunk net),实现了对无限维空间算子的精确近似。这种设计使其在少样本情况下也能保持极高的泛化能力,显著优于传统的序列模型或卷积网络。

DeepONet 主要面向科研人员、计算数学学者及 AI 开发者。如果你正在从事物理信息神经网络(PINNs)、流体力学模拟或复杂系统建模研究,DeepONet 提供了经过《自然 - 机器智能》论文验证的可靠代码实现。项目基于 Python 和 DeepXDE 构建,部分模块支持 MATLAB,虽需一定的编程基础进行环境配置,但其清晰的案例演示(如反导数、随机微分方程等)能帮助用户快速上手,是探索科学机器学习领域的有力工具。

使用场景

某航空航天研究院的工程师团队正在开发高超音速飞行器的热防护系统,需要快速预测不同气流条件下机身表面的非线性温度分布。

没有 deeponet 时

  • 计算成本极高:每次改变气流输入参数,都必须重新运行耗时的传统数值模拟(如有限元分析),单次仿真需数小时,无法支持实时决策。
  • 泛化能力受限:针对特定工况训练的普通神经网络无法直接迁移到新类型的边界条件或几何形状,遇到新场景必须重新采集数据并从头训练。
  • 算子映射困难:难以直接建立从“连续函数空间”(如变化的热流密度分布)到“解函数空间”(温度场)的直接映射,只能依赖离散点拟合,丢失了物理场的连续性特征。
  • 迭代效率低下:在设计优化循环中,成千上万次的参数调整导致总计算周期长达数周,严重拖慢研发进度。

使用 deeponet 后

  • 推理速度飞跃:deeponet 学习的是非线性算子本身,一旦训练完成,对新输入函数的预测仅需毫秒级时间,实现了近乎实时的物理场推演。
  • 零样本泛化强:基于算子通用逼近定理,模型能直接处理训练集中未出现过的全新输入函数(如从未测试过的气流波形),无需重新训练即可输出高精度结果。
  • 保留物理连续性:直接建模函数到函数的映射,完美保留了温度场在空间上的连续性和平滑性,避免了传统离散方法带来的截断误差。
  • 研发周期缩短:将原本数周的仿真优化流程压缩至几小时内完成,工程师可快速验证数千种设计方案,显著加速了热防护系统的迭代定型。

deeponet 通过将昂贵的物理仿真转化为毫秒级的神经算子推理,彻底解决了复杂非线性系统实时预测与泛化应用的难题。

运行环境要求

GPU

未说明(部分案例可选安装 TensorFlow 1 或 PyTorch,暗示可能需要 GPU 加速,但无具体型号或显存要求)

内存

未说明

依赖
notes核心依赖为 DeepXDE v0.11.2,若使用更高版本需修改代码类名。部分功能(如 CNN 和分数阶导数案例)需要 Matlab R2019a。不同案例运行时间从几分钟到几小时不等,取决于数据集大小和训练迭代次数。
pythonPython 3
DeepXDE==0.11.2
TensorFlow 1 (可选,用于 CNN)
PyTorch (可选,用于 Seq2Seq)
Matlab R2019a (部分代码)
deeponet hero image

快速开始

DeepONet:学习非线性算子

DOI

本文的源代码来自论文 L. Lu, P. Jin, G. Pang, Z. Zhang, & G. E. Karniadakis. 通过基于算子通用逼近定理的DeepONet学习非线性算子。《自然·机器智能》,3, 218-229, 2021

系统要求

大部分代码使用 Python 3 编写,并依赖深度学习库 DeepXDE。部分代码使用 Matlab(版本 R2019a)编写。

安装指南

  1. 安装 Python 3
  2. 安装 DeepXDE v0.11.2(https://github.com/lululxvi/deepxde)。如果您使用的是 DeepXDE > 0.11.2 版本,需要将 OpNN 重命名为 DeepONetOpDataSet 重命名为 Triple,并进行其他相应修改。对于使用较新版本 DeepXDE 的 DeepONet 代码,请参阅 https://github.com/lu-group/deeponet-fno。
  3. 可选:对于 CNN 模型,需安装 Matlab 和 TensorFlow 1;对于 Seq2Seq 模型,需安装 PyTorch。

安装过程可能需要 10 分钟到 1 小时不等。

示例演示

案例 反导数

  1. 打开 deeponet_pde.py,根据注释在函数 main()ode_system() 中选择合适的参数和设置;
  2. 运行 deeponet_pde.py,程序将首先生成训练集和测试集,然后训练一个 DeepONet 模型。训练和测试的 MSE 误差将显示在屏幕上。

标准输出如下:

构建算子神经网络...
'build' 耗时 0.104784 秒

生成算子数据...
'gen_operator_data' 耗时 20.495655 秒

生成算子数据...
'gen_operator_data' 耗时 168.944620 秒

编译模型...
'compile' 耗时 0.265885 秒

初始化变量...
开始训练模型...

步数      训练损失    测试损失     测试指标
0         [1.09e+00]    [1.11e+00]    [1.06e+00]
1000      [2.57e-04]    [2.87e-04]    [2.76e-04]
2000      [8.37e-05]    [9.99e-05]    [9.62e-05]
...
50000     [9.98e-07]    [1.39e-06]    [1.09e-06]

最佳模型出现在第 46000 步:
  训练损失:6.30e-07
  测试损失:9.79e-07
  测试指标:[7.01e-07]

'train' 耗时 324.343075 秒

保存损失历史到 loss.dat ...
保存训练数据到 train.dat ...
保存测试数据到 test.dat ...
从 model/model.ckpt-46000 中恢复模型 ...

预测...
'predict' 耗时 0.056257 秒

预测...
'predict' 耗时 0.012670 秒

测试 MSE:9.269857471315847e-07
剔除异常值后的测试 MSE:6.972881784590493e-07

您可以在输出的末尾获取训练和测试误差。

运行时间会因您选择的参数而异,例如数据集大小和训练迭代次数,通常在几分钟到几小时之间。

案例 随机常微分方程/偏微分方程

  1. 打开 sde.py,在函数 main() 中选择合适的参数和设置;
  2. 运行 sde.py,程序将生成训练集和测试集;
  3. 打开 deeponet_dataset.py,在函数 main() 中选择合适的参数和设置;
  4. 运行 deeponet_dataset.py 来训练一个 DeepONet 模型。训练和测试的 MSE 误差将显示在屏幕上。

案例 一维 Caputo 分数阶导数

  1. 进入 fractional 文件夹;
  2. 运行 Caputo1D.m 生成训练集和测试集。您可以在 Orthogonal_polynomials.m 中指定正交多项式为勒让德多项式或分数阶多项式。预计运行时间为 20 分钟。
  3. 运行 datasets.py 对生成的数据集进行打包和压缩。预期输出为压缩后的 .npz 文件。预计运行时间为 5 分钟。
  4. 运行 DeepONet_float32_batch.py 来训练和测试 DeepONets。预期输出为训练和测试损失曲线图。预计运行时间为 1 小时。

案例 二维分数阶拉普拉斯算子

使用 DeepONets 学习二维分数阶拉普拉斯算子

  1. 运行 Fractional_Lap_2D.m 生成训练集和测试集。预期输出为存储训练和测试数据的文本文件。预计运行时间为 40 分钟。
  2. 运行 datasets.py 对生成的数据集进行打包和压缩。预期输出为压缩后的 .npz 文件。预计运行时间为 15 分钟。
  3. 运行 DeepONet_float32_batch.py 来训练和测试 DeepONets。预计运行时间为 3 小时。

使用 CNN 学习二维分数阶拉普拉斯算子

  1. 假设上一步已经生成了包含所有训练和测试数据的文本文件。
  2. 运行 CNN_operator_alpha.py 来训练和测试 CNN 模型。预期输出为训练和测试损失曲线图。预计运行时间为 30 分钟。

Seq2Seq

  1. 打开 seq2seq_main.py,在 main() 函数中选择具体问题,必要时修改对应函数中的参数和设置(如 antiderivative()pendulum());
  2. 运行 seq2seq_main.py,程序将首先生成数据集,然后基于该数据集训练 Seq2Seq 模型。训练和测试的 MSE 误差将显示在屏幕上。此外,损失历史、生成的数据以及训练得到的最佳模型都将保存到指定目录(./outputs/)。

标准输出如下:

训练...
0             训练损失:0.21926558017730713         测试损失:0.22550159692764282
1000       训练损失:0.0022761737927794456     测试损失:0.0024939212016761303
2000       训练损失:0.0004760705924127251     测试损失:0.0005566366016864777
...
49000     训练损失:1.2885914202342974e-06    测试损失:1.999963387788739e-06
50000     训练损失:1.1382834372852813e-06    测试损失:1.8525416862757993e-06
完成!
'run' 耗时 747.5421471595764 秒
最佳模型出现在第 50000 次迭代:
训练损失:1.1382834372852813e-06 测试损失:1.8525416862757993e-06

您可以在输出的末尾获取训练和测试误差。

运行时间会因您选择的参数而异,例如数据集大小和训练迭代次数,通常在几分钟到几小时之间。

使用说明

各案例的运行说明如下:

  • 勒让德变换:与示例中的“反导数”相同。您需要修改 deeponet_pde.py 中的 main() 函数。
  • 反导数:见示例。
  • 分数阶(一维):见示例。
  • 分数阶(二维):见示例。
  • 非线性常微分方程:与示例中的“反导数”相同。您需要修改 deeponet_pde.py 中的 main()ode_system() 函数。
  • 重力摆:与示例中的“反导数”相同。您需要修改 deeponet_pde.py 中的 main()ode_system() 函数。
  • 扩散-反应:与示例中的“反导数”相同。您需要修改 deeponet_pde.py 中的 main() 函数。
  • 对流:与示例中的“反导数”相同。您需要修改 deeponet_pde.py 中的 main() 函数、run() 函数、system.py 中的 CVCSystem() 函数以及 CVC_solver.py 中的 solve_CVC() 函数,以运行每个案例。
  • 对流-扩散:与示例中的“反导数”相同。您需要修改 deeponet_pde.py 中的 main() 函数。
  • 随机常微分方程/偏微分方程:见示例。

引用本工作

如果您将此代码用于学术研究,建议引用以下论文:

@article{lu2021learning,
  title   = {Learning nonlinear operators via {DeepONet} based on the universal approximation theorem of operators},
  author  = {Lu, Lu and Jin, Pengzhan and Pang, Guofei and Zhang, Zhongqiang and Karniadakis, George Em},
  journal = {Nature Machine Intelligence},
  volume  = {3},
  number  = {3},
  pages   = {218--229},
  year    = {2021}
}

问题

如需获取有关如何使用数据或代码的帮助,请在 GitHub 的“Issues”版块中提交一个问题。

许可证

知识共享许可协议
本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议授权。

版本历史

v1.0.02020/12/13

常见问题

相似工具推荐

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85.3k|★★☆☆☆|今天
图像数据工具视频

funNLP

funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。

79.9k|★☆☆☆☆|1周前
语言模型数据工具其他

cs-video-courses

cs-video-courses 是一个精心整理的计算机科学视频课程清单,旨在为自学者提供系统化的学习路径。它汇集了全球知名高校(如加州大学伯克利分校、新南威尔士大学等)的完整课程录像,涵盖从编程基础、数据结构与算法,到操作系统、分布式系统、数据库等核心领域,并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。 面对网络上零散且质量参差不齐的教学资源,cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容,仅收录真正的大学层级课程,排除了碎片化的简短教程或商业广告,确保用户能接触到严谨的学术内容。 这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员,以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽,不仅包含传统的软件工程与网络安全,还细分了生成式 AI、大语言模型、计算生物学等新兴学科,并直接链接至官方视频播放列表,让用户能一站式获取高质量的教育资源,免费享受世界顶尖大学的课堂体验。

79.8k|★☆☆☆☆|1周前
其他图像数据工具

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2周前
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

75.9k|★★★☆☆|今天
语言模型图像开发框架

awesome-machine-learning

awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。

72.1k|★☆☆☆☆|2周前
开发框架其他