N-BEATS
N-BEATS 是一款基于深度神经网络的时间序列预测模型,专为单变量数据设计。它由 ServiceNow 研究院(前身为 Element AI)开发,旨在解决传统统计方法在处理复杂非线性时间序列时精度不足的问题,能够高效预测未来趋势。
该工具的核心亮点在于其独特的架构设计,通过堆叠基础块并分离“趋势”与“季节性”分量,不仅实现了业界领先的预测精度(SOTA),还提供了两种模式:追求极致性能的“通用模式”和具备可解释性的“透明模式”,让用户能清晰理解模型背后的决策逻辑。项目基于 PyTorch 构建,提供了完整的代码实现、数据集加载器及实验配置,支持用户复现论文中的经典结果。
N-BEATS 非常适合数据科学家、AI 研究人员以及需要处理销量预测、能源负载分析等任务的开发者使用。虽然它主要面向具备一定编程基础的技术人员,但其清晰的仓库结构和 Docker 支持大大降低了复现门槛。无论是希望探索前沿算法的研究者,还是寻求高精度预测解决方案的工程团队,N-BEATS 都是一个值得尝试的强大工具。
使用场景
某大型连锁零售企业的供应链团队正利用历史销售数据,预测未来三个月各门店的单品类商品销量,以优化库存周转并避免缺货。
没有 N-BEATS 时
- 预测精度瓶颈:依赖传统的统计学模型(如 ARIMA)或简单的机器学习算法,难以捕捉销售数据中复杂的非线性趋势和突发季节性波动,导致预测误差较高。
- 可解释性缺失:使用黑盒深度学习模型时,业务方无法理解预测结果背后的逻辑(如为何下个月销量会激增),导致信任度低,决策层不敢完全采纳。
- 调参成本高昂:针对不同品类需人工反复调整模型参数和结构,缺乏统一的架构适配单变量时间序列,开发和维护效率极低。
- 复现困难:缺乏标准化的实验框架,团队成员难以复现基准测试结果,导致模型迭代过程混乱,无法确认改进是否真实有效。
使用 N-BEATS 后
- 精度显著提升:N-BEATS 凭借专为单变量时间序列设计的神经网络架构,自动提取趋势与季节性特征,在 M4 等基准测试中达到 SOTA 水平,大幅降低库存偏差。
- 兼具可解释性:通过配置“可解释模式”,N-BEATS 能将预测结果分解为明确的趋势项和季节项,让业务人员直观看到增长动力来源,增强决策信心。
- 架构统一高效:无需针对不同商品手动设计网络结构,N-BEATS 提供通用的 PyTorch 实现,配合 Docker 环境一键部署,极大减少了重复造轮子的时间。
- 实验标准化:内置完整的实验复现脚本和配置文件,团队可轻松并行运行多次实验验证结果稳定性,确保模型上线前的评估严谨可靠。
N-BEATS 通过结合顶尖的预测精度与独特的可解释性,将原本晦涩的时间序列预测转化为业务可信赖的智能决策依据。
运行环境要求
- Linux
- 非必需,但推荐使用 NVIDIA GPU
- 未指定具体型号、显存大小或 CUDA 版本
未说明

快速开始
ServiceNow已于2021年1月8日完成对Element AI的收购。本项目相关材料中所有提及Element AI的内容,均应理解为指ServiceNow。
N-BEATS
此仓库提供了论文 https://arxiv.org/abs/1905.10437 中提出的N-BEATS算法的实现,并支持复现该论文中的实验结果。
N-BEATS是一种基于神经网络的单变量时间序列预测模型。

仓库结构
模型
N-BEATS的PyTorch实现位于 models/nbeats.py。
数据集
论文中使用的各数据集加载器位于 datasets/*.py。
实验
用于复现论文结果的实验代码位于 experiments/* 目录下,每个实验包包含一个 main.py 文件,其中实现了训练和预测逻辑,以及针对通用模型和可解释模型的两个配置文件。
结果
notebooks 目录下为每个实验提供了一个包含最终评分的笔记本。我们还包含了使用规模缩小至十分之一的集成模型的结果,可以看出差异并不显著。注意:这是原始N-BEATS的一个“轻量级”版本,其表现略有不同,有时更好,有时更差,但总体上仍处于当前最优水平。
如何复现结果
请确保已安装Docker。建议使用NVIDIA GPU,但并非必需。根据您的环境,可能需要调整Makefile中的Docker镜像名称,并编写额外的逻辑以并行训练模型。
默认配置为重复10次,这将为每个实验生成多达180个模型。如 notebooks 所示,大集合与小集合之间的差异并不显著。若要切换到小集合,请在您希望运行的实验对应的 *.gin 文件中设置 build.repeats = 1(这些文件位于 experiments/*/*.gin)。
构建Docker镜像
make init下载数据集
make dataset此命令会将数据集下载到
./storage/datasets目录下。(可选)测试指标。为确保所有数据集正确且指标计算正常工作,您可以运行测试。
make test构建实验
make build config=experiments/m4/interpretable.gin这将生成包含配置和每个多重模型指令的目录,存放于
./storage/experiments/m4_interpretable。请注意,config参数应为实际配置文件的相对路径。运行实验。 在以下命令中替换不同的
repeat和lookback值,即可运行其他模型配置。CPU:
make run command=storage/experiments/m4_interpretable/repeat=0,lookback=2,loss=MAPE/commandGPU:
make run command=storage/experiments/m4_interpretable/repeat=0,lookback=2,loss=MAPE/command gpu=<gpu-id>如果同一台机器上有多个GPU,则可以为每个GPU ID并行运行此命令。
日志、损失值、快照及最终预测结果将存储在
storage/experiments/m4_interpretable/repeat=0,lookback=2,loss=MAPE目录下。当然,您也可以通过以下脚本自动化地运行所有实验(假设使用BASH):
for instance in `/bin/ls -d storage/experiments/m4_interpretable/*`; do echo $instance make run command=${instance}/command done如果您拥有可在云端扩展资源的环境,则可以考虑在Makefile中添加一个新的目标。以下是一个伪代码示例:
run-all: rsync ${ROOT} ${network-share} for instance in $$(ls ${ROOT}/${experiment}); do \ cloud submit \ --image=${IMAGE} \ -v ${network-share}:/experiment \ -w /experiment \ -e PYTHONPATH=/experiment \ -e STORAGE=/experiment/storage \ -- \ bash -c "`cat ${ROOT}/${experiment}/$${instance}/command`"; \ done获取实验统计信息。
注意:如果实验是在云端运行的,请确保将结果下载到
storage/experiments目录下。启动JupyterLab:
make notebook port=<port>在
notebooks目录下运行相应实验的笔记本,即可获取该实验的性能统计信息。
引用
如果您在任何场景下使用N-BEATS,请引用以下论文:
@inproceedings{
Oreshkin2020:N-BEATS,
title={{N-BEATS}: Neural basis expansion analysis for interpretable time series forecasting},
author={Boris N. Oreshkin and Dmitri Carpov and Nicolas Chapados and Yoshua Bengio},
booktitle={International Conference on Learning Representations},
year={2020},
url={https://openreview.net/forum?id=r1ecqn4YwB}
}
本项目是Element AI与Mila的合作成果。如果您使用了该模型或代码,请务必引用上述论文。
常见问题
相似工具推荐
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
funNLP
funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。
cs-video-courses
cs-video-courses 是一个精心整理的计算机科学视频课程清单,旨在为自学者提供系统化的学习路径。它汇集了全球知名高校(如加州大学伯克利分校、新南威尔士大学等)的完整课程录像,涵盖从编程基础、数据结构与算法,到操作系统、分布式系统、数据库等核心领域,并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。 面对网络上零散且质量参差不齐的教学资源,cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容,仅收录真正的大学层级课程,排除了碎片化的简短教程或商业广告,确保用户能接触到严谨的学术内容。 这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员,以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽,不仅包含传统的软件工程与网络安全,还细分了生成式 AI、大语言模型、计算生物学等新兴学科,并直接链接至官方视频播放列表,让用户能一站式获取高质量的教育资源,免费享受世界顶尖大学的课堂体验。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
awesome-machine-learning
awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。