flow-forecast

GitHub
2.3k 304 简单 1 次阅读 昨天GPL-3.0开发框架语言模型
AI 解读 由 AI 自动生成,仅供参考

flow-forecast 是一个基于 PyTorch 构建的开源深度学习框架,专注于时间序列数据的预测、分类及异常检测。它最初为洪水预警场景设计,如今已演变为通用的时序分析利器,旨在解决传统方法在处理复杂非线性数据时精度不足、难以捕捉长距离依赖等痛点。

该框架非常适合 AI 开发者、数据科学家及研究人员使用,尤其是那些希望快速复现前沿算法或构建端到端时序模型的用户。flow-forecast 的最大亮点在于其丰富的模型库,不仅包含基础的 LSTM,更率先集成并支持了 Transformer、Informer、Transformer XL 以及 DeepAR 等当前最先进的架构。此外,它还提供了直观的模型可解释性指标、便捷的云服务集成能力以及成熟的模型部署方案。无论是进行学术研究还是工业级应用,flow-forecast 都能让用户轻松调用尖端技术,高效完成从实验到落地的全流程。

使用场景

某城市水利管理局正利用历史降雨量与河道水位数据,构建一套智能洪水预警系统以应对汛期风险。

没有 flow-forecast 时

  • 模型选型困难:团队需手动从零复现 Transformer、LSTM 或 DeepAR 等复杂算法,代码调试耗时数周且容易出错。
  • 多任务支持割裂:预测水位、分类洪水等级和检测异常数据需要分别搭建三套独立的代码框架,维护成本极高。
  • 缺乏可解释性:深度学习模型如同“黑盒”,无法向决策层直观展示是哪些降雨因子导致了预警,难以获得信任。
  • 部署流程繁琐:从本地训练到云端服务上线缺乏标准接口,每次更新模型都需要重新编写大量的工程化代码。

使用 flow-forecast 后

  • 开箱即用先进模型:直接调用库中集成的 Informer、Transformer XL 等 SOTA 模型,将算法验证周期从数周缩短至几天。
  • 统一框架高效复用:在同一套配置下即可灵活切换进行时间序列预测、分类及异常检测,大幅降低了代码冗余。
  • 内置可解释性指标:利用自带的注意力机制可视化工具,清晰量化各气象因子的贡献度,让预警依据透明可信。
  • 端到云无缝衔接:借助原生的云服务集成与模型服务能力,一键完成从训练到生产环境部署的全流程。

flow-forecast 通过提供端到端的深度学习解决方案,让水利专家能专注于业务逻辑而非底层代码,显著提升了洪水预警的响应速度与准确性。

运行环境要求

GPU

未说明

内存

未说明

依赖
notesREADME 中未明确列出具体的操作系统、GPU、内存及 Python 版本要求。安装命令为 `pip install flood-forecast`(注意包名为 flood-forecast 而非 flow-forecast)。该框架支持多种深度学习模型(如 Transformer, LSTM, GRU, Informer 等),通常此类深度学习框架需要 PyTorch 环境,但具体版本依赖需参考官方文档或 Wiki。
python未说明
flood-forecast
flow-forecast hero image

快速开始

用于时间序列预测、分类和异常检测的深度学习

示例图片 Flow Forecast (FF) 是一个开源的时间序列预测深度学习框架。它提供了所有最新的最先进模型(Transformer、注意力机制模型、GRU、常微分方程等)以及前沿概念,并配有易于理解的可解释性指标、云服务提供商集成和模型部署能力。Flow Forecast 是首个支持基于 Transformer 模型的时间序列框架,至今仍是唯一真正的端到端时间序列深度学习框架。目前,该仓库主要由 CoronaWhy 的 Task-TS 维护。欢迎提交 Pull 请求。历史上,该仓库曾提供用于山洪和河流流量预测的开源基准测试和代码。

如需更多教程和示例,请参阅我们的 教程仓库

分支 状态 $$
master CircleCI
Build PY 上传 Python 包
文档 文档状态
CodeCov codecov
CodeFactor CodeFactor

快速入门

使用该库

  1. 运行 pip install flood-forecast
  2. 关于训练模型的详细信息可在 Wiki 中找到。
  3. 请查看我们的 Confluence 文档

当前支持的模型

  1. 原生 LSTM (LSTM):一种基础 LSTM,适用于多变量时间序列预测和迁移学习。
  2. 完整 Transformer (model_dict 中的 SimpleTransformer):包含全部 8 个编码器和解码器层的原始完整 Transformer。推理时需要输入目标值。
  3. 简单多头注意力机制 (MultiHeadSimple):一个简单的多头注意力模块和线性嵌入层。适合迁移学习。
  4. 带线性解码器的 Transformer (model_dict 中的 CustomTransformerDecoder):具有 n 个编码器层(可调)和线性解码器的 Transformer。适用于预测、分类或异常检测。
  5. DA-RNN:(DARNN)一种综合性能良好的模型,结合了 LSTM 和注意力机制。
  6. 增强时间序列预测中 Transformer 的局部性和突破内存瓶颈(在 model_dict 中称为 DecoderTransformer):
  7. Transformer XL:将 Transformer XL 移植应用于时间序列。
  8. Informer:超越高效 Transformer 的长序列时间序列预测(Informer)
  9. DeepAR
  10. DSANet:来自 DSANet 论文的模型,带有额外的可选参数。
  11. 简单线性模型 (SimpleLinearModel):本质上是一个增加了几层的线性回归模型。非常适合快速原型化功能和可解释性分析。
  12. 原生 GRU,可选概率输出层。适用于多变量时间序列预测和分类。
  13. 来自 AAAI 论文 Transformer 是否适用于时间序列预测 的 DLinear 和 NLinear。
  14. Crossformer 来自 ICLR 2023
  15. 异常检测 Transformer
  16. TSMixer
  17. 倒置 Transformer + 各种注意力机制

即将发布的模型

我们计划在近期发布多个新模型。请查看我们的项目看板以获取更多信息

集成

Google Cloud Platform

Weights and Biases

贡献

有关贡献的说明,请参阅我们的 贡献页面项目看板

历史河流流量数据

任务 1 流量预测

本任务专注于根据当前流量、温度和降水等因素,预测河流未来的流量或水位(分别以 cfs 或英尺为单位)。未来我们计划添加更多有助于河流流量预测的变量,例如积雪数据和周围土壤湿度指数。

任务 2 洪水严重程度预测

任务二则侧重于根据洪水预报、人口信息和地形特征来预测洪水的严重程度。洪水严重程度由伤亡人数、财产损失和农作物损害等多个因素决定。

如果您使用本仓库中的数据或代码,请引用以下文献。此外,请同时引用各模型的原始作者。

@misc{godfried2020flowdb,
      title={FlowDB 大规模降水、河流和山洪数据集},
      author={Isaac Godfried、Kriti Mahajan、Maggie Wang、Kevin Li 和 Pranjalya Tiwari},
      year={2020},
      eprint={2012.11154},
      archivePrefix={arXiv},
      primaryClass={cs.AI}
}

版本历史

forecast_1.0_beta2024/01/11
FF_FIXES_BRANCH_VER2022/06/09
flow_bug2022/06/08
infer_ff2022/05/24
forecast_0.9992022/05/10
forecast2022/04/28
forecast_0.992022/04/27
flow.9912021/12/14
flow_al_1.02021/09/20
0.981_flow2021/05/14
0.982021/05/14
forecast_0.972021/05/14
0.9562021/04/30
forecast_0.932021/04/12
0.952021/02/09
flow_.932021/01/12
flow_0.922020/12/27
forecast_0.922020/11/13
flow_.092020/09/23
flow_forecast.882020/09/06

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|3天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|4天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

147.9k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.1k|★★☆☆☆|昨天
开发框架图像Agent

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|3天前
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|3天前
语言模型图像Agent