PyPOTS
PyPOTS 是一个专为处理“部分观测时间序列”而设计的 Python 开源工具箱。在工业监控、医疗记录等现实场景中,传感器故障或数据录入遗漏常导致时间序列数据出现缺失值(NaN)或不规则采样,传统机器学习模型往往难以直接应对此类不完整数据。PyPOTS 正是为了解决这一痛点而生,它提供了一套完整的解决方案,支持对含缺失值的多元时间序列进行填补、分类、聚类、预测、异常检测及数据清洗等核心任务。
该工具特别适合数据科学家、算法研究人员以及从事工业数据分析的开发者使用。PyPOTS 的最大亮点在于其集成了多种针对不完整数据优化的最先进(SOTA)深度学习模型,并基于 PyTorch 构建,确保了高效性与灵活性。它不仅屏蔽了处理缺失数据的复杂底层逻辑,让使用者能专注于业务分析,还保持了高度的代码规范性和可维护性,拥有完善的文档与活跃的社区支持。无论是学术研究中的算法验证,还是实际生产环境中的数据挖掘,PyPOTS 都能帮助用户轻松从不完整的数据中提取有价值的洞察。
使用场景
某工业物联网团队正在处理风力发电机传感器回传的多变量时间序列数据,旨在预测设备故障,但数据因网络波动存在大量不规则缺失值(NaN)。
没有 PyPOTS 时
- 工程师需手动编写复杂的插值代码(如线性插值或均值填充),不仅耗时且难以处理不规则采样数据,导致关键故障特征被平滑丢失。
- 面对分类、聚类和异常检测等多种任务,必须分别寻找并适配不同的开源模型,重复造轮子导致开发周期长达数周。
- 缺乏针对“部分观测”数据的专用深度学习架构,直接丢弃含缺失值的样本造成数据浪费,或强行填充引入巨大噪声,最终模型预测准确率低下。
- 实验过程难以复现,不同成员使用的数据清洗逻辑不一致,导致团队协作混乱,无法科学评估算法优劣。
使用 PyPOTS 后
- 直接调用 PyPOTS 内置的 SOTA 神经网络模型(如 SAITS 或 BRITS),自动高效地完成不规则时间序列的高精度缺失值填补,完整保留故障前兆特征。
- 利用统一的 API 接口,在同一框架下无缝切换进行故障分类、运行状态聚类及异常点检测,将原本数周的开发工作压缩至几天内完成。
- 原生支持含 NaN 的不完整多变量数据输入,无需预先粗暴清洗,显著提升了数据利用率,使故障预警模型的准确率大幅提升。
- 依托标准化的实验流程和完善的文档,团队成员可快速复现彼此结果,专注于策略优化而非底层数据预处理细节。
PyPOTS 通过提供一站式、面向真实残缺数据的深度学习解决方案,将工业时间序列分析从繁琐的数据清洗泥潭中解放出来,实现了从“勉强可用”到“精准智能”的跨越。
运行环境要求
- 未说明
未说明
未说明

快速开始
简体中文 | English
欢迎来到 PyPOTS
用于部分观测时间序列机器学习的 Python 工具箱
⦿ 动机: 由于采集传感器故障、通信错误以及意外故障等各种原因,真实世界环境中的时间序列中经常出现缺失值。这使得部分观测时间序列(POTS)成为开放世界建模中普遍存在的问题,并阻碍了高级数据分析的进行。尽管这一问题非常重要,但针对 POTS 的机器学习领域仍然缺乏专门的工具包。PyPOTS 的诞生正是为了填补这一空白。
⦿ 使命: PyPOTS(发音为“派·波特”)旨在成为一个便捷的工具箱,让 POTS 上的机器学习变得简单而非繁琐,帮助工程师和研究人员将更多精力集中在手头的核心问题上,而不是如何处理数据中的缺失部分。PyPOTS 将持续整合经典及最新的先进机器学习算法,用于部分观测的多变量时间序列。当然,除了各种算法之外,PyPOTS 还将提供统一的 API,以及详细的文档和跨算法的交互式示例教程。
🤗 请为本仓库点赞,如果您认为 PyPOTS 是一个有用的工具箱,请让更多人注意到它。 请在您的出版物中友好地引用 PyPOTS,如果它对您的研究有所帮助。 这对我们的开源研究意义重大。非常感谢!
本自述文件的其余部分按以下顺序组织: ❖ 可用算法, ❖ PyPOTS 生态系统, ❖ 安装, ❖ 使用, ❖ 引用 PyPOTS, ❖ 贡献, ❖ 社区.
❖ 可用算法
PyPOTS 支持对含有缺失值的多变量部分观测时间序列进行插补、分类、聚类、预测和异常检测等任务。下表展示了 PyPOTS 中各算法(按年份排序)在不同任务中的可用性。符号 ✅ 表示该算法可用于相应任务(请注意,未来模型将持续更新以支持当前不支持的任务。敬请期待❗️)。
🌟 自 v0.2 起,PyPOTS 中的所有神经网络模型均已支持超参数优化。此功能通过 Microsoft NNI 框架实现。您可参考我们的时间序列插补综述与基准库 Awesome_Imputation,了解如何配置和调优超参数。
🔥 请注意,表格中名称带有 🧑🔧 的所有模型(例如 Transformer、iTransformer、Informer 等)在其原论文中并非专门针对 POTS 数据提出的方法,且这些模型无法直接接受含有缺失值的时间序列作为输入,更不用说进行插补了。为了使它们能够应用于 POTS 数据,我们特别采用了与 SAITS 论文[^1] 中相同的嵌入策略和训练方法(ORT+MIT)。
任务类型缩写如下:
IMPU:插补;
FORE:预测;
CLAS:分类;
CLUS:聚类;
ANOD:异常检测。
除了这 5 项任务外,PyPOTS 还提供了 TS2Vec[^48],用于时间序列的表示学习和向量化。本文的参考文献及链接均列于本文件底部。
| 类型 | 算法 | IMPU | FORE | CLAS | CLUS | ANOD | 年份 - 地点 |
|---|---|---|---|---|---|---|---|
| LLM&TSFM | Time-Series.AI [^36] |
✅ | ✅ | ✅ | ✅ | ✅ | 加入等待名单 |
| 神经网络 | MixLinear🧑🔧[^52] | ✅ | 2026 - ICLR |
||||
| 神经网络 | SegRNN🧑🔧[^43] | ✅ | ✅ | ✅ | 2026 - IoT-J |
||
| 神经网络 | TEFN🧑🔧[^39] | ✅ | ✅ | ✅ | ✅ | 2025 - TPAMI |
|
| 神经网络 | TimeMixer++[^49] | ✅ | ✅ | ✅ | 2025 - ICLR |
||
| LLM | Time-LLM🧑🔧[^45] | ✅ | ✅ | 2024 - ICLR |
|||
| TSFM | MOMENT[^47] | ✅ | ✅ | 2024 - ICML |
|||
| 神经网络 | TSLANet[^51] | ✅ | 2024 - ICML |
||||
| 神经网络 | FITS🧑🔧[^41] | ✅ | ✅ | 2024 - ICLR |
|||
| 神经网络 | TimeMixer[^37] | ✅ | ✅ | ✅ | 2024 - ICLR |
||
| 神经网络 | iTransformer🧑🔧[^24] | ✅ | ✅ | ✅ | 2024 - ICLR |
||
| 神经网络 | ModernTCN[^38] | ✅ | ✅ | 2024 - ICLR |
|||
| 神经网络 | ImputeFormer🧑🔧[^34] | ✅ | ✅ | 2024 - KDD |
|||
| 神经网络 | TOTEM[^50] | ✅ | 2024 - TMLR |
||||
| 神经网络 | TKAN[^54] | ✅ | 2024 - arXiv |
||||
| 神经网络 | SAITS[^1] | ✅ | ✅ | ✅ | 2023 - ESWA |
||
| LLM | GPT4TS[^46] | ✅ | ✅ | 2023 - NeurIPS |
|||
| 神经网络 | FreTS🧑🔧[^23] | ✅ | 2023 - NeurIPS |
||||
| 神经网络 | Koopa🧑🔧[^29] | ✅ | 2023 - NeurIPS |
||||
| 神经网络 | Crossformer🧑🔧[^16] | ✅ | ✅ | 2023 - ICLR |
|||
| 神经网络 | TimesNet[^14] | ✅ | ✅ | ✅ | ✅ | 2023 - ICLR |
|
| 神经网络 | PatchTST🧑🔧[^18] | ✅ | ✅ | ✅ | 2023 - ICLR |
||
| 神经网络 | ETSformer🧑🔧[^19] | ✅ | ✅ | 2023 - ICLR |
|||
| 神经网络 | MICN🧑🔧[^27] | ✅ | ✅ | 2023 - ICLR |
|||
| 神经网络 | DLinear🧑🔧[^17] | ✅ | ✅ | ✅ | 2023 - AAAI |
||
| 神经网络 | TiDE🧑🔧[^28] | ✅ | 2023 - TMLR |
||||
| 神经网络 | CSAI[^42] | ✅ | ✅ | 2023 - arXiv |
|||
| 神经网络 | TS2Vec[^48] | ✅ | 2022 - AAAI |
||||
| 神经网络 | SCINet🧑🔧[^30] | ✅ | ✅ | 2022 - NeurIPS |
|||
| 神经网络 | Nonstationary Tr.🧑🔧[^25] | ✅ | ✅ | 2022 - NeurIPS |
|||
| 神经网络 | FiLM🧑🔧[^22] | ✅ | ✅ | ✅ | 2022 - NeurIPS |
||
| 神经网络 | RevIN_SCINet🧑🔧[^31] | ✅ | 2022 - ICLR |
||||
| 神经网络 | Pyraformer🧑🔧[^26] | ✅ | ✅ | 2022 - ICLR |
|||
| 神经网络 | Raindrop[^5] | ✅ | 2022 - ICLR |
||||
| 神经网络 | FEDformer🧑🔧[^20] | ✅ | ✅ | 2022 - ICML |
|||
| 神经网络 | Autoformer🧑🔧[^15] | ✅ | ✅ | ✅ | 2021 - NeurIPS |
||
| 神经网络 | CSDI[^12] | ✅ | ✅ | 2021 - NeurIPS |
|||
| 神经网络 | Informer🧑🔧[^21] | ✅ | ✅ | 2021 - AAAI |
|||
| 神经网络 | US-GAN[^10] | ✅ | 2021 - AAAI |
||||
| 神经网络 | CRLI[^6] | ✅ | 2021 - AAAI |
||||
| 概率模型 | BTTF[^8] | ✅ | 2021 - TPAMI |
||||
| 神经网络 | StemGNN🧑🔧[^33] | ✅ | 2020 - NeurIPS |
||||
| 神经网络 | SeFT[^53] | ✅ | 2020 - ICML |
||||
| 神经网络 | Reformer🧑🔧[^32] | ✅ | ✅ | 2020 - ICLR |
|||
| 神经网络 | GP-VAE[^11] | ✅ | 2020 - AISTATS |
||||
| 神经网络 | VaDER[^7] | ✅ | 2019 - GigaSci. |
||||
| 神经网络 | M-RNN[^9] | ✅ | 2019 - TBME |
||||
| 神经网络 | BRITS[^3] | ✅ | ✅ | 2018 - NeurIPS |
|||
| 神经网络 | GRU-D[^4] | ✅ | ✅ | 2018 - Sci. Rep. |
|||
| 神经网络 | TCN🧑🔧[^35] | ✅ | 2018 - arXiv |
||||
| 神经网络 | Transformer🧑🔧[^2] | ✅ | ✅ | ✅ | 2017 - NeurIPS |
||
| MF | TRMF[^44] | ✅ | 2016 - NeurIPS |
||||
| 简单方法 | Lerp[^40] | ✅ | |||||
| 简单方法 | LOCF/NOCB | ✅ | |||||
| 简单方法 | 均值 | ✅ | |||||
| 简单方法 | 中位数 | ✅ |
🙋 上表中 LLM(大型语言模型) 与 TSFM(时间序列基础模型) 的区别:
LLM 指的是在大规模文本数据上预训练,并可针对特定任务进行微调的模型。
TSFM 则是指受计算机视觉和自然语言处理领域基础模型最新成果启发,在大规模时间序列数据上预训练的模型。
💯 立即贡献你的模型,提升你的研究影响力!PyPOTS 的下载量正迅速增长 (截至目前,PyPI 总下载量已超过 100 万次,日均下载量超过 2000 次), 你的工作将被社区广泛使用并引用。请参阅 贡献指南, 了解如何将你的模型纳入 PyPOTS 中。
❖ PyPOTS 生态系统
在 PyPOTS,一切都与我们熟悉的咖啡息息相关。没错,这里就是一个咖啡宇宙! 正如你所见,PyPOTS 的 logo 中就有一个咖啡壶。那还有什么呢?请继续阅读 ;-)
👈 在 PyPOTS 中,时间序列数据集被视为咖啡豆,而 POTS 数据集则是带有缺失部分的不完整咖啡豆, 这些缺失本身也具有独特的意义。为了使各种公开的时间序列数据集更易于用户获取, 时间序列数据豆(TSDB) 应运而生,让加载时间序列数据集变得无比简单! 立即访问 TSDB 了解更多关于这个便捷工具的信息 🛠,它目前已支持总计 172 个开源数据集!
👉 为了模拟现实世界中存在缺失的数据,生态系统库 PyGrinder 被创建出来,它是一个帮助将你的咖啡豆研磨成不完整状态的工具包。 根据 Robin 的理论[^13],缺失模式可分为三类:MCAR(完全随机缺失)、MAR(随机缺失)和 MNAR(非随机缺失)。 PyGrinder 支持所有这三种类型,同时还提供与缺失相关的其他功能。 借助 PyGrinder,你只需一行代码就能为你的数据集引入合成缺失值。
👈 为了公平评估 PyPOTS 算法的性能,基准测试套件 BenchPOTS 被创建,它提供了标准且统一的数据预处理流程, 用于准备数据集,以便在不同任务上衡量各类 POTS 算法的性能。
👉 现在,咖啡豆、研磨机和咖啡壶都已准备就绪,请坐到长椅上,让我们一起思考如何为我们冲泡一杯咖啡吧。 教程是必不可少的!考虑到未来的工作量,PyPOTS 教程被整合在一个仓库中发布, 你可以在 BrewPOTS 中找到它们。 现在就来看看吧,学习如何“冲泡”你的 POTS 数据集!
☕️ 欢迎来到 PyPOTS 的宇宙。尽情享受,玩得开心吧!
❖ 安装
你可以参考 PyPOTS 文档中的 安装说明, 以获取更详细的指导。
PyPOTS 同时在 PyPI 和 Anaconda 上提供。 你可以像安装 TSDB、PyGrinder、 BenchPOTS 和 AI4TS 一样安装 PyPOTS:
# 使用 pip
pip install pypots # 首次安装
pip install pypots --upgrade # 更新至最新版本
# 从最新源代码安装,包含尚未正式发布的最新功能
pip install https://github.com/WenjieDu/PyPOTS/archive/main.zip
# 使用 conda
conda install conda-forge::pypots # 首次安装
conda update conda-forge::pypots # 更新至最新版本
# 使用 docker
docker run -it --name pypots wenjiedu/pypots # docker 会自动拉取我们构建好的镜像并为你运行一个实例
# 当一切就绪后,你可以在容器内运行 Python,进入已配置好环境的 PyPOTS 运行环境
# 如果你想退出容器,按下 ctrl-P + ctrl-Q 即可
# 再次输入 `docker attach pypots` 即可重新进入容器。
❖ 使用方法
除了 BrewPOTS 之外,您还可以在 Google Colab 上找到一个简单快捷的入门教程笔记本:
。如果您有更多疑问,请参阅 PyPOTS 文档 docs.pypots.com。您也可以 提交问题 或在我们的社区中提问。
下面我们将展示一个使用 PyPOTS 对时间序列进行缺失值插补的示例,您可以点击查看。
点击此处查看在 PhysioNet2012 数据集上应用 SAITS 进行插补的示例:
import numpy as np
from sklearn.preprocessing import StandardScaler
from pygrinder import mcar, calc_missing_rate
from benchpots.datasets import preprocess_physionet2012
data = preprocess_physionet2012(subset='set-a',rate=0.1) # 我们的生态库会自动下载并解压数据
train_X, val_X, test_X = data["train_X"], data["val_X"], data["test_X"]
print(train_X.shape) # (n_samples, n_steps, n_features)
print(val_X.shape) # 训练集和验证集中的样本数不同,但它们具有相同的序列长度 (n_steps) 和特征维度 (n_features)
print(f"训练集中有 {calc_missing_rate(train_X):.1%} 的值缺失")
train_set = {"X": train_X} # 在训练集中,只需将不完整的时间序列放入其中
val_set = {
"X": val_X,
"X_ori": data["val_X_ori"], # 在验证集中,我们需要真实标签来进行评估并选择最佳模型检查点
}
test_set = {"X": test_X} # 在测试集中,只需提供待插补的不完整时间序列
test_X_ori = data["test_X_ori"] # test_X_ori 包含用于评估的真实标签
indicating_mask = np.isnan(test_X) ^ np.isnan(test_X_ori) # 掩码指示那些在 X 中缺失但在 X_ori 中存在的值,即真实标签所在的位置
from pypots.imputation import SAITS # 导入您想要使用的模型
from pypots.nn.functional import calc_mae
saits = SAITS(n_steps=train_X.shape[1], n_features=train_X.shape[2], n_layers=2, d_model=256, n_heads=4, d_k=64, d_v=64, d_ffn=128, dropout=0.1, epochs=5)
saits.fit(train_set, val_set) # 在数据集上训练模型
imputation = saits.impute(test_set) # 插补原始缺失值和人为制造的缺失值
mae = calc_mae(imputation, np.nan_to_num(test_X_ori), indicating_mask) # 计算在真实标签上的平均绝对误差(针对人为制造的缺失值)
saits.save("save_it_here/saits_physionet2012.pypots") # 保存模型以备将来使用
saits.load("save_it_here/saits_physionet2012.pypots") # 加载序列化的模型文件,以便后续插补或训练
❖ 引用 PyPOTS
[!TIP] [2024年6月更新] 😎 第一篇全面的时间序列插补基准论文 TSI-Bench: Benchmarking Time Series Imputation 现已公开发布。 代码已在仓库 Awesome_Imputation 中开源。 通过近35,000次实验,我们对28种插补方法、3种缺失模式(点、序列、块)、 不同的缺失率以及8个真实世界数据集进行了全面的基准研究。
[2024年2月更新] 🎉 我们的综述论文 Deep Learning for Multivariate Time Series Imputation: A Survey 已在 arXiv 上发表。 我们全面回顾了当前最先进的深度学习时间序列插补方法文献, 为这些方法提供了分类体系,并讨论了该领域的挑战与未来发展方向。
介绍 PyPOTS 的论文已在 arXiv 上发布, 其简短版本已被第九届 SIGKDD 国际时间序列挖掘与学习研讨会 (MiLeTS'23) 接受。 此外,PyPOTS 已被纳入 PyTorch 生态系统 项目。 我们正努力将其发表在诸如 JMLR(机器学习开源软件 专题)等知名学术期刊上。如果您在工作中使用了 PyPOTS,请按照以下方式引用,并🌟星标本仓库,让更多人注意到这个库。🤗
目前已有科学研究项目使用了 PyPOTS,并在其论文中进行了引用。 以下是 一份不完全列表。
@article{du2023pypots,
title = {{PyPOTS: 用于部分观测时间序列的数据挖掘 Python 工具包}},
author = {Wenjie Du},
journal = {KDD 2023 MiLeTS},
year = {2023},
}
@article{du2025pypots,
title = {{PyPOTS v1: 用于部分观测时间序列的机器学习 Python 工具包}},
author = {Wenjie Du, Yiyuan Yang, Linglong Qian, Jun Wang, and Qingsong Wen},
year = {2025},
}
❖ 贡献
非常欢迎您为这个令人兴奋的项目做出贡献!
通过提交您的代码,您将:
- 将您成熟的模型直接集成到 PyPOTS 中,供用户开箱即用,
并帮助您的工作获得更多的曝光和影响力。请参阅我们的 入选标准。
您可以利用每个任务包中的
template文件夹(例如 pypots/imputation/template) 快速上手; - 成为 PyPOTS 贡献者之一, 并在 PyPOTS 官网上列为志愿者开发者;
- 在 PyPOTS 的 发布说明 中被提及;
您也可以通过简单地🌟星标本仓库来为 PyPOTS 做出贡献,这有助于让更多人注意到它。 您的星标是对 PyPOTS 的认可,意义重大!
👀 请访问 PyPOTS 官网 查看我们用户的完整名单!
❖ 社区
我们非常重视用户的反馈,因此正在构建 PyPOTS 社区。
如果你有任何建议、想贡献创意或分享时序相关论文,欢迎加入我们并告诉我们! PyPOTS社区开放、透明且友好。让我们携手共建、共同完善PyPOTS吧!
[^1]: Du, W., Cote, D., & Liu, Y. (2023).
SAITS:基于自注意力机制的时间序列插补。
Expert systems with applications。
[^2]: Vaswani, A., Shazeer, N.M., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, L., & Polosukhin, I. (
2017).
Attention is All you Need。
NeurIPS 2017。
[^3]: Cao, W., Wang, D., Li, J., Zhou, H., Li, L., & Li, Y. (2018).
BRITS:用于时间序列的双向循环插补。
NeurIPS 2018。
[^4]: Che, Z., Purushotham, S., Cho, K., Sontag, D.A., & Liu, Y. (2018).
用于含有缺失值的多变量时间序列的循环神经网络。
Scientific Reports。
[^5]: Zhang, X., Zeman, M., Tsiligkaridis, T., & Zitnik, M. (2022).
用于不规则采样多变量时间序列的图引导网络。
ICLR 2022。
[^6]: Ma, Q., Chen, C., Li, S., & Cottrell, G. W. (2021).
用于不完整时间序列聚类的表示学习。
AAAI 2021。
[^7]: Jong, J.D., Emon, M.A., Wu, P., Karki, R., Sood, M., Godard, P., Ahmad, A., Vrooman, H.A., Hofmann-Apitius, M., &
Fröhlich, H. (2019).
深度学习在含缺失值的多变量临床患者轨迹聚类中的应用。
GigaScience。
[^8]: Chen, X., & Sun, L. (2021).
用于多维时间序列预测的贝叶斯时序分解。
IEEE Transactions on Pattern Analysis and Machine Intelligence。
[^9]: Yoon, J., Zame, W. R., & van der Schaar, M. (2019).
利用多方向循环神经网络估计时间数据流中的缺失数据。
IEEE Transactions on Biomedical Engineering。
[^10]: Miao, X., Wu, Y., Wang, J., Gao, Y., Mao, X., & Yin, J. (2021).
用于多变量时间序列插补的生成式半监督学习。
AAAI 2021。
[^11]: Fortuin, V., Baranchuk, D., Raetsch, G. & Mandt, S. (2020).
GP-VAE:深度概率时间序列插补。
AISTATS 2020。
[^12]: Tashiro, Y., Song, J., Song, Y., & Ermon, S. (2021).
CSDI:用于概率性时间序列插补的条件得分扩散模型。
NeurIPS 2021。
[^13]: Rubin, D. B. (1976).
推断与缺失数据。
Biometrika。
[^14]: Wu, H., Hu, T., Liu, Y., Zhou, H., Wang, J., & Long, M. (2023).
TimesNet:用于通用时间序列分析的时序二维变体建模。
ICLR 2023。
[^15]: Wu, H., Xu, J., Wang, J., & Long, M. (2021).
Autoformer:具有自相关性的分解变压器,用于长期序列预测。
NeurIPS 2021。
[^16]: Zhang, Y., & Yan, J. (2023).
Crossformer:利用跨维度依赖关系进行多变量时间序列预测的Transformer。
ICLR 2023。
[^17]: Zeng, A., Chen, M., Zhang, L., & Xu, Q. (2023).
Transformer是否适用于时间序列预测?。
AAAI 2023。
[^18]: Nie, Y., Nguyen, N. H., Sinthong, P., & Kalagnanam, J. (2023).
一个时间序列相当于64个词:使用Transformer进行长期预测。
ICLR 2023。
[^19]: Woo, G., Liu, C., Sahoo, D., Kumar, A., & Hoi, S. (2023).
ETSformer:用于时间序列预测的指数平滑Transformer。
ICLR 2023。
[^20]: Zhou, T., Ma, Z., Wen, Q., Wang, X., Sun, L., & Jin, R. (2022).
FEDformer:用于长期序列预测的频率增强型分解Transformer。
ICML 2022。
[^21]: Zhou, H., Zhang, S., Peng, J., Zhang, S., Li, J., Xiong, H., & Zhang, W. (2021).
Informer:超越高效Transformer的长序列时间序列预测。
AAAI 2021。
[^22]: Zhou, T., Ma, Z., Wen, Q., Sun, L., Yao, T., Yin, W., & Jin, R. (2022).
FiLM:用于长期时间序列预测的频率改进型勒让德记忆模型。
NeurIPS 2022。
[^23]: Yi, K., Zhang, Q., Fan, W., Wang, S., Wang, P., He, H., An, N., Lian, D., Cao, L., & Niu, Z. (2023).
频域MLP在时间序列预测中是更有效的学习者。
NeurIPS 2023。
[^24]: Liu, Y., Hu, T., Zhang, H., Wu, H., Wang, S., Ma, L., & Long, M. (2024).
iTransformer:反转Transformer在时间序列预测中的有效性。
ICLR 2024。
[^25]: Liu, Y., Wu, H., Wang, J., & Long, M. (2022).
非平稳Transformer:探索时间序列预测中的平稳性。
NeurIPS 2022。
[^26]: Liu, S., Yu, H., Liao, C., Li, J., Lin, W., Liu, A. X., & Dustdar, S. (2022).
Pyraformer:用于长距离时间序列建模和预测的低复杂度金字塔注意力。
ICLR 2022。
[^27]: Wang, H., Peng, J., Huang, F., Wang, J., Chen, J., & Xiao, Y. (2023).
MICN:用于长期序列预测的多尺度局部与全局上下文建模。
ICLR 2023。
[^28]: Das, A., Kong, W., Leach, A., Mathur, S., Sen, R., & Yu, R. (2023).
使用TiDE:时间序列密集编码器进行长期预测。
TMLR 2023。
[^29]: Liu, Y., Li, C., Wang, J., & Long, M. (2023).
Koopa:利用库普曼预测器学习非平稳时间序列动态。
NeurIPS 2023。
[^30]: Liu, M., Zeng, A., Chen, M., Xu, Z., Lai, Q., Ma, L., & Xu, Q. (2022).
SCINet:利用样本卷积与交互进行时间序列建模和预测。
NeurIPS 2022。
[^31]: Kim, T., Kim, J., Tae, Y., Park, C., Choi, J. H., & Choo, J. (2022).
可逆实例归一化用于应对分布漂移的精确时间序列预测。
ICLR 2022。
[^32]: Kitaev, N., Kaiser Ł., & Levskaya A. (2020).
Reformer:高效的Transformer。
ICLR 2020。
[^33]: Cao, D., Wang, Y., Duan, J., Zhang, C., Zhu, X., Huang, C., Tong, Y., Xu, B., Bai, J., Tong, J., & Zhang, Q. (
2020).
用于多变量时间序列预测的谱时序图神经网络。
NeurIPS 2020。
[^34]: Nie, T., Qin, G., Mei, Y., & Sun, J. (2024).
ImputeFormer:由低秩性诱导的Transformer,用于可泛化的时空插补。
KDD 2024。
[^35]: Bai, S., Kolter, J. Z., & Koltun, V. (2018).
对通用卷积和循环网络用于序列建模的实证评估。
arXiv 2018。
[^36]: 项目“冈尼尔”,全球首个用于时间序列多任务建模的大语言模型,即将与您见面。🚀 您的数据集中存在缺失值和不同长度的序列吗?难以用您的时间序列进行多任务学习吗?这些问题将不再困扰您。立即加入我们的等待名单,获取最新消息,并在发布时第一时间试用!
Time-Series.AI
[^37]: Wang, S., Wu, H., Shi, X., Hu, T., Luo, H., Ma, L., ... & ZHOU, J. (2024).
TimeMixer:用于时间序列预测的可分解多尺度混合。
ICLR 2024。
[^38]: Luo, D., & Wang X. (2024).
ModernTCN:一种用于通用时间序列分析的现代纯卷积结构。
ICLR 2024。
[^39]: Zhan, T., He, Y., Deng, Y., Li, Z., Du, W., & Wen, Q. (2025).
时间证据融合网络:长期时间序列预测中的多源视角。
TPAMI 2025。
[^40]: 维基百科:线性插值
[^41]: Xu, Z., Zeng, A., & Xu, Q. (2024).
FITS:用1万个参数建模时间序列。
ICLR 2024。
[^42]: Qian, L., Ibrahim, Z., Ellis, H. L., Zhang, A., Zhang, Y., Wang, T., & Dobson, R. (2023).
知识增强型医疗时间序列条件插补。
arXiv 2023。
[^43]: Lin, S., Lin, W., Wu, W., Zhao, F., Mo, R., & Zhang, H. (2026).
SegRNN:用于长期时间序列预测的分段循环神经网络。
IEEE IoT-J 2026。
[^44]: Yu, H. F., Rao, N., & Dhillon, I. S. (2016).
用于高维时间序列预测的时序正则化矩阵分解。
NeurIPS 2016。
[^45]: Jin, M., Wang, S., Ma, L., Chu, Z., Zhang, J. Y., Shi, X., ... & Wen, Q. (2024).
Time-LLM:通过重编程大型语言模型进行时间序列预测。
ICLR 2024。
[^46]: Zhou, T., Niu, P., Sun, L., & Jin, R. (2023).
One Fits All:通过预训练的语言模型实现强大的通用时间序列分析。
NeurIPS 2023。
[^47]: Goswami, M., Szafer, K., Choudhry, A., Cai, Y., Li, S., & Dubrawski, A. (2024).
MOMENT:一系列开放的时间序列基础模型。
ICML 2024。
[^48]: Yue, Z., Wang, Y., Duan, J., Yang, T., Huang, C., Tong, Y., & Xu, B. (2022).
TS2Vec:迈向时间序列的通用表示。
AAAI 2022。
[^49]: Wang, S., Li, J., Shi, X., Ye, Z., Mo, B., Lin, W., Ju, S., Chu, Z. & Jin, M. (2025).
TimeMixer++:一种用于通用预测分析的通用时间序列模式机器。
ICLR 2025。
[^50]: Talukder, S., Yue, Y., & Gkioxari G. (2024).
TOTEM:用于通用时间序列分析的标记化时间序列嵌入。
TMLR 2024。
[^51]: Eldele, E., Ragab, M., Chen, Z., Wu, M., & Li, X. (2024).
TSLANet:重新思考Transformer在时间序列表征学习中的作用。
ICML 2024。
[^52]: Ma, A., Luo, D., & Sha, M. (2026).
MixLinear:用0.1千个参数进行极端低资源的多变量时间序列预测。
ICLR 2026。
[^53]: Horn, M., Moor, M., Bock, C., Rieck, B., & Borgwardt, K. (2020).
用于时间序列的集合函数。
ICML 2020。
[^54]: Genet, R., & Inzirillo, H. (2024).
TKAN:时间科尔莫戈罗夫-阿诺德网络。
arXiv 2024。
版本历史
v1.32026/03/26v1.22026/03/05v1.12026/01/18v1.02025/07/08v0.192025/05/29v0.182025/05/07v0.172025/04/18v0.162025/04/10v0.152025/04/02v0.142025/03/26v0.132025/03/21v0.122025/03/13v0.112025/03/07v0.102025/02/28v0.92025/02/08v0.8.12024/09/26v0.82024/09/13v0.7.12024/07/27v0.72024/07/21v0.62024/06/18常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备