[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-AIStream-Peelout--flow-forecast":3,"tool-AIStream-Peelout--flow-forecast":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",147882,2,"2026-04-09T11:32:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":32,"env_os":92,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":98,"github_topics":99,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":114,"updated_at":115,"faqs":116,"releases":147},5940,"AIStream-Peelout\u002Fflow-forecast","flow-forecast","Deep learning PyTorch library for time series forecasting, classification, and anomaly detection (originally for flood forecasting).","flow-forecast 是一个基于 PyTorch 构建的开源深度学习框架，专注于时间序列数据的预测、分类及异常检测。它最初为洪水预警场景设计，如今已演变为通用的时序分析利器，旨在解决传统方法在处理复杂非线性数据时精度不足、难以捕捉长距离依赖等痛点。\n\n该框架非常适合 AI 开发者、数据科学家及研究人员使用，尤其是那些希望快速复现前沿算法或构建端到端时序模型的用户。flow-forecast 的最大亮点在于其丰富的模型库，不仅包含基础的 LSTM，更率先集成并支持了 Transformer、Informer、Transformer XL 以及 DeepAR 等当前最先进的架构。此外，它还提供了直观的模型可解释性指标、便捷的云服务集成能力以及成熟的模型部署方案。无论是进行学术研究还是工业级应用，flow-forecast 都能让用户轻松调用尖端技术，高效完成从实验到落地的全流程。","# Deep learning for time series forecasting, classification, and anomaly detection\n![Example image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAIStream-Peelout_flow-forecast_readme_7780970ddb60.png)\nFlow Forecast (FF) is an open-source deep learning for time series forecasting framework. It provides all the latest state of the art models (transformers, attention models, GRUs, ODEs) and cutting edge concepts with easy to understand interpretability metrics, cloud provider integration, and model serving capabilities. Flow Forecast was the first time series framework to feature support for transformer based models and remains the only true end-to-end deep learning for time series framework. Currently, [Task-TS from CoronaWhy](https:\u002F\u002Fgithub.com\u002FCoronaWhy\u002Ftask-ts\u002Fwiki) primarily maintains this repository. Pull requests are welcome. Historically, this repository provided open source benchmark and codes for flash flood and river flow forecasting.\n\nFor additional tutorials and examples please see our [tutorials repository](https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow_tutorials).\n\n| branch  | status                                                                                                                    $$                                                                                        |\n| ---     | ---                                                                                                                                                                                                               |\n| master  | [![CircleCI](https:\u002F\u002Fdl.circleci.com\u002Fstatus-badge\u002Fimg\u002Fgh\u002FAIStream-Peelout\u002Fflow-forecast\u002Ftree\u002Fmaster.svg?style=svg)](https:\u002F\u002Fdl.circleci.com\u002Fstatus-badge\u002Fredirect\u002Fgh\u002FAIStream-Peelout\u002Fflow-forecast\u002Ftree\u002Fmaster)                |              |\n| Build PY| ![Upload Python Package](https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow-forecast\u002Fworkflows\u002FUpload%20Python%20Package\u002Fbadge.svg)|\n| Documentation | [![Documentation Status](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAIStream-Peelout_flow-forecast_readme_13d664e1afd7.png)](https:\u002F\u002Fflow-forecast.readthedocs.io\u002Fen\u002Flatest\u002F)|\n| CodeCov| [![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002FAIStream-Peelout\u002Fflow-forecast\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002FAIStream-Peelout\u002Fflow-forecast)|\n| CodeFactor| [![CodeFactor](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAIStream-Peelout_flow-forecast_readme_9ee0cb95ac54.png)](https:\u002F\u002Fwww.codefactor.io\u002Frepository\u002Fgithub\u002Faistream-peelout\u002Fflow-forecast)|\n## Getting Started\n\nUsing the library\n1. Run `pip install flood-forecast`\n2. Detailed info on training models can be found on the [Wiki](https:\u002F\u002Fflow-forecast.atlassian.net\u002Fwiki\u002Fspaces\u002FFF\u002Fpages\u002F364019713\u002FTraining+Models).\n3. Check out our [Confluence Documentation](https:\u002F\u002Fflow-forecast.atlassian.net\u002Fwiki\u002Fspaces\u002FFF\u002Foverview)\n\n**Models currently supported**\n\n1. Vanilla LSTM (LSTM): A basic LSTM that is suitable for multivariate time series forecasting and transfer learning.\n2. Full transformer (SimpleTransformer in model_dict): The full original transformer with all 8 encoder and decoder blocks. Requires passing the target in at inference.\n3. Simple Multi-Head Attention (MultiHeadSimple): A simple multi-head attention block and linear embedding layers. Suitable for transfer learning.\n4. Transformer with a linear decoder (CustomTransformerDecoder in model_dict): A transformer with n-encoder blocks (this is tunable) and a linear decoder. Suitable for forecasting, classification or anomaly detection.\n5. [DA-RNN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.02971): (DARNN) A well rounded model with which utilizes a LSTM + attention.\n6. [Enhancing the Locality and Breaking the Memory Bottleneck of Transformer on Time Series Forecasting](https:\u002F\u002Farxiv.org\u002Fabs\u002F1907.00235) (called DecoderTransformer in model_dict):\n7. [Transformer XL](https:\u002F\u002Farxiv.org\u002Fabs\u002F1901.02860): Porting Transformer XL for time series.\n8. [Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.07436) (Informer)\n9. [DeepAR](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.04110)\n10. [DSANet](https:\u002F\u002Fkyonhuang.top\u002Ffiles\u002FDSANet\u002FHuang-DSANet.pdf): Model from the DSANet paper with additional optional parameters.\n11. Simple Linear Model (SimpleLinearModel): Essentially a linear regression model with a few more layers. Great for rapid prototyping of features and interpretability.\n12.  Vanilla GRU with optional probablistic output layer. Good for multivariate time series forecasting and classification.\n13. DLinear and NLinear from the AAAI paper [Are Transformers Effective for Time Series Forecasting](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.13504)\n14. [Crossformer](https:\u002F\u002Fopenreview.net\u002Fforum?id=vSVLM2j9eie) from ICLR 2023\n15. [Anomaly Transformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.02642)\n16. [TSMixer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06053)\n17. [Inverted Transformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06625) + Various Attention Mechanisms\n\n**Forthcoming Models**\n\nWe have a number of models we are planning on releasing soon. [Please check our project board for more info](https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow-forecast\u002Fprojects\u002F5)\n\n\n**Integrations**\n\n[Google Cloud Platform](https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow-forecast\u002Fwiki\u002FCloud-Provider-Integration)\n\n[Weights and Biases](https:\u002F\u002Fwww.wandb.com\u002F)\n\n## Contributing\n\nFor instructions on contributing please see our [contributions page](https:\u002F\u002Fflow-forecast.atlassian.net\u002Fwiki\u002Fspaces\u002FFF\u002Fpages\u002F11403276\u002FContributing) and our [project board](https:\u002F\u002Fgithub.com\u002FAIStream-Peeloutt\u002Fflow-forecast\u002Fprojects\u002F5).\n\n\n## Historical River Flow Data\n\n### Task 1 Stream Flow Forecasting\nThis task focuses on forecasting a stream's future flow\u002Fheight (in either cfs or feet respectively) given factors such as current flow, temperature, and precipitation. In the future we plan on adding more variables that help with the stream flow prediction such as snow pack data and the surrounding soil moisture index.\n\n### Task 2 Flood severity forecasting\nTask two focuses on predicting the severity of the flood based on the flood forecast, population information, and topography. Flood severity is defined based on several factors including the number of injuires, property damage, and crop damage.\n\nIf you use either the data or code from this repository please use the citation below. Additionally please cite the original authors of the models.\n```\n@misc{godfried2020flowdb,\n      title={FlowDB a large scale precipitation, river, and flash flood dataset},\n      author={Isaac Godfried and Kriti Mahajan and Maggie Wang and Kevin Li and Pranjalya Tiwari},\n      year={2020},\n      eprint={2012.11154},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI}\n}\n```\n","# 用于时间序列预测、分类和异常检测的深度学习\n![示例图片](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAIStream-Peelout_flow-forecast_readme_7780970ddb60.png)\nFlow Forecast (FF) 是一个开源的时间序列预测深度学习框架。它提供了所有最新的最先进模型（Transformer、注意力机制模型、GRU、常微分方程等）以及前沿概念，并配有易于理解的可解释性指标、云服务提供商集成和模型部署能力。Flow Forecast 是首个支持基于 Transformer 模型的时间序列框架，至今仍是唯一真正的端到端时间序列深度学习框架。目前，该仓库主要由 CoronaWhy 的 [Task-TS](https:\u002F\u002Fgithub.com\u002FCoronaWhy\u002Ftask-ts\u002Fwiki) 维护。欢迎提交 Pull 请求。历史上，该仓库曾提供用于山洪和河流流量预测的开源基准测试和代码。\n\n如需更多教程和示例，请参阅我们的 [教程仓库](https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow_tutorials)。\n\n| 分支  | 状态                                                                                                                    $$                                                                                        |\n| ---     | ---                                                                                                                                                                                                               |\n| master  | [![CircleCI](https:\u002F\u002Fdl.circleci.com\u002Fstatus-badge\u002Fimg\u002Fgh\u002FAIStream-Peelout\u002Fflow-forecast\u002Ftree\u002Fmaster.svg?style=svg)](https:\u002F\u002Fdl.circleci.com\u002Fstatus-badge\u002Fredirect\u002Fgh\u002FAIStream-Peelout\u002Fflow-forecast\u002Ftree\u002Fmaster)                |              |\n| Build PY| ![上传 Python 包](https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow-forecast\u002Fworkflows\u002FUpload%20Python%20Package\u002Fbadge.svg)|\n| 文档 | [![文档状态](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAIStream-Peelout_flow-forecast_readme_13d664e1afd7.png)](https:\u002F\u002Fflow-forecast.readthedocs.io\u002Fen\u002Flatest\u002F)|\n| CodeCov| [![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002FAIStream-Peelout\u002Fflow-forecast\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002FAIStream-Peelout\u002Fflow-forecast)|\n| CodeFactor| [![CodeFactor](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAIStream-Peelout_flow-forecast_readme_9ee0cb95ac54.png)](https:\u002F\u002Fwww.codefactor.io\u002Frepository\u002Fgithub\u002Faistream-peelout\u002Fflow-forecast)|\n## 快速入门\n\n使用该库\n1. 运行 `pip install flood-forecast`\n2. 关于训练模型的详细信息可在 [Wiki](https:\u002F\u002Fflow-forecast.atlassian.net\u002Fwiki\u002Fspaces\u002FFF\u002Fpages\u002F364019713\u002FTraining+Models) 中找到。\n3. 请查看我们的 [Confluence 文档](https:\u002F\u002Fflow-forecast.atlassian.net\u002Fwiki\u002Fspaces\u002FFF\u002Foverview)\n\n**当前支持的模型**\n\n1. 原生 LSTM (LSTM)：一种基础 LSTM，适用于多变量时间序列预测和迁移学习。\n2. 完整 Transformer (model_dict 中的 SimpleTransformer)：包含全部 8 个编码器和解码器层的原始完整 Transformer。推理时需要输入目标值。\n3. 简单多头注意力机制 (MultiHeadSimple)：一个简单的多头注意力模块和线性嵌入层。适合迁移学习。\n4. 带线性解码器的 Transformer (model_dict 中的 CustomTransformerDecoder)：具有 n 个编码器层（可调）和线性解码器的 Transformer。适用于预测、分类或异常检测。\n5. [DA-RNN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.02971)：（DARNN）一种综合性能良好的模型，结合了 LSTM 和注意力机制。\n6. [增强时间序列预测中 Transformer 的局部性和突破内存瓶颈](https:\u002F\u002Farxiv.org\u002Fabs\u002F1907.00235)（在 model_dict 中称为 DecoderTransformer）：\n7. [Transformer XL](https:\u002F\u002Farxiv.org\u002Fabs\u002F1901.02860)：将 Transformer XL 移植应用于时间序列。\n8. [Informer：超越高效 Transformer 的长序列时间序列预测](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.07436)（Informer）\n9. [DeepAR](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.04110)\n10. [DSANet](https:\u002F\u002Fkyonhuang.top\u002Ffiles\u002FDSANet\u002FHuang-DSANet.pdf)：来自 DSANet 论文的模型，带有额外的可选参数。\n11. 简单线性模型 (SimpleLinearModel)：本质上是一个增加了几层的线性回归模型。非常适合快速原型化功能和可解释性分析。\n12. 原生 GRU，可选概率输出层。适用于多变量时间序列预测和分类。\n13. 来自 AAAI 论文 [Transformer 是否适用于时间序列预测](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.13504) 的 DLinear 和 NLinear。\n14. [Crossformer](https:\u002F\u002Fopenreview.net\u002Fforum?id=vSVLM2j9eie) 来自 ICLR 2023\n15. [异常检测 Transformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.02642)\n16. [TSMixer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06053)\n17. [倒置 Transformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06625) + 各种注意力机制\n\n**即将发布的模型**\n\n我们计划在近期发布多个新模型。[请查看我们的项目看板以获取更多信息](https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow-forecast\u002Fprojects\u002F5)\n\n\n**集成**\n\n[Google Cloud Platform](https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow-forecast\u002Fwiki\u002FCloud-Provider-Integration)\n\n[Weights and Biases](https:\u002F\u002Fwww.wandb.com\u002F)\n\n## 贡献\n\n有关贡献的说明，请参阅我们的 [贡献页面](https:\u002F\u002Fflow-forecast.atlassian.net\u002Fwiki\u002Fspaces\u002FFF\u002Fpages\u002F11403276\u002FContributing) 和 [项目看板](https:\u002F\u002Fgithub.com\u002FAIStream-Peeloutt\u002Fflow-forecast\u002Fprojects\u002F5)。\n\n\n## 历史河流流量数据\n\n### 任务 1 流量预测\n本任务专注于根据当前流量、温度和降水等因素，预测河流未来的流量或水位（分别以 cfs 或英尺为单位）。未来我们计划添加更多有助于河流流量预测的变量，例如积雪数据和周围土壤湿度指数。\n\n### 任务 2 洪水严重程度预测\n任务二则侧重于根据洪水预报、人口信息和地形特征来预测洪水的严重程度。洪水严重程度由伤亡人数、财产损失和农作物损害等多个因素决定。\n\n如果您使用本仓库中的数据或代码，请引用以下文献。此外，请同时引用各模型的原始作者。\n```\n@misc{godfried2020flowdb,\n      title={FlowDB 大规模降水、河流和山洪数据集},\n      author={Isaac Godfried、Kriti Mahajan、Maggie Wang、Kevin Li 和 Pranjalya Tiwari},\n      year={2020},\n      eprint={2012.11154},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI}\n}\n```","# Flow-Forecast 快速上手指南\n\nFlow-Forecast 是一个专注于时间序列预测、分类和异常检测的开源深度学习框架。它集成了 Transformer、LSTM、GRU、ODE 等前沿模型，并提供可解释性指标及云端部署支持。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：推荐 Python 3.7 及以上版本\n*   **前置依赖**：\n    *   `pip` (Python 包管理工具)\n    *   `git` (用于克隆代码库，如需查看源码)\n    *   建议创建独立的虚拟环境 (如 `venv` 或 `conda`) 以避免依赖冲突。\n\n## 安装步骤\n\n您可以直接通过 PyPI 安装稳定版。国内开发者建议使用清华或阿里镜像源以加速下载。\n\n**使用默认源安装：**\n```bash\npip install flood-forecast\n```\n\n**使用国内镜像源加速安装（推荐）：**\n```bash\npip install flood-forecast -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n> **注意**：包名为 `flood-forecast`，尽管项目仓库名为 `flow-forecast`。\n\n## 基本使用\n\n安装完成后，您可以立即在 Python 项目中导入并使用该库。Flow-Forecast 的核心功能包括模型训练、推理以及利用内置的多种 SOTA 模型（如 Transformer, LSTM, Informer 等）。\n\n### 1. 导入库与验证安装\n在最简单的场景中，首先验证库是否可用：\n\n```python\nimport flood_forecast as ff\n\nprint(f\"Flow-Forecast version: {ff.__version__}\")\n```\n\n### 2. 配置与训练模型\nFlow-Forecast 采用配置文件（通常为 JSON 或 YAML）来定义模型架构、数据路径和超参数。以下是一个基于 Python 代码启动训练流程的最小化示例逻辑：\n\n```python\nfrom flood_forecast.trainer import train_function\n\n# 定义配置文件路径 (需预先准备好包含数据路径、模型类型等信息的 config 文件)\nconfig_path = \"path\u002Fto\u002Fyour\u002Fconfig.json\"\n\n# 启动训练\n# 支持的模型包括：LSTM, SimpleTransformer, MultiHeadSimple, Informer, DeepAR 等\ntrain_function(config_path)\n```\n\n### 3. 选择模型\n在配置文件中，您可以通过 `model_name` 参数指定要使用的模型。目前支持的热门模型包括：\n\n*   `LSTM`: 基础 LSTM，适用于多变量预测。\n*   `SimpleTransformer`: 完整的 Transformer 架构。\n*   `Informer`: 适用于长序列时间序列预测的高效 Transformer。\n*   `DeepAR`: 概率预测模型。\n*   `DLinear` \u002F `NLinear`: 高效的线性模型基线。\n*   `AnomalyTransformer`: 专用于异常检测。\n\n**下一步建议**：\n详细的模型参数配置、数据预处理格式以及特定任务的教程，请参考官方 [Wiki 文档](https:\u002F\u002Fflow-forecast.atlassian.net\u002Fwiki\u002Fspaces\u002FFF\u002Foverview) 或 [Tutorials 仓库](https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow_tutorials)。","某城市水利管理局正利用历史降雨量与河道水位数据，构建一套智能洪水预警系统以应对汛期风险。\n\n### 没有 flow-forecast 时\n- **模型选型困难**：团队需手动从零复现 Transformer、LSTM 或 DeepAR 等复杂算法，代码调试耗时数周且容易出错。\n- **多任务支持割裂**：预测水位、分类洪水等级和检测异常数据需要分别搭建三套独立的代码框架，维护成本极高。\n- **缺乏可解释性**：深度学习模型如同“黑盒”，无法向决策层直观展示是哪些降雨因子导致了预警，难以获得信任。\n- **部署流程繁琐**：从本地训练到云端服务上线缺乏标准接口，每次更新模型都需要重新编写大量的工程化代码。\n\n### 使用 flow-forecast 后\n- **开箱即用先进模型**：直接调用库中集成的 Informer、Transformer XL 等 SOTA 模型，将算法验证周期从数周缩短至几天。\n- **统一框架高效复用**：在同一套配置下即可灵活切换进行时间序列预测、分类及异常检测，大幅降低了代码冗余。\n- **内置可解释性指标**：利用自带的注意力机制可视化工具，清晰量化各气象因子的贡献度，让预警依据透明可信。\n- **端到云无缝衔接**：借助原生的云服务集成与模型服务能力，一键完成从训练到生产环境部署的全流程。\n\nflow-forecast 通过提供端到端的深度学习解决方案，让水利专家能专注于业务逻辑而非底层代码，显著提升了洪水预警的响应速度与准确性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAIStream-Peelout_flow-forecast_7780970d.png","AIStream-Peelout","AIStream","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAIStream-Peelout_e1385fa8.png","AIStream develops open source deep learning solutions for real world problems",null,"aistream.ai","https:\u002F\u002Fgithub.com\u002FAIStream-Peelout",[80,84],{"name":81,"color":82,"percentage":83},"Python","#3572A5",95.8,{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",4.2,2277,304,"2026-04-08T18:34:28","GPL-3.0","","未说明",{"notes":95,"python":93,"dependencies":96},"README 中未明确列出具体的操作系统、GPU、内存及 Python 版本要求。安装命令为 `pip install flood-forecast`（注意包名为 flood-forecast 而非 flow-forecast）。该框架支持多种深度学习模型（如 Transformer, LSTM, GRU, Informer 等），通常此类深度学习框架需要 PyTorch 环境，但具体版本依赖需参考官方文档或 Wiki。",[97],"flood-forecast",[14,35],[100,101,102,103,104,105,106,107,108,109,110,111,112,113],"deep-learning","pytorch","time-series-forecasting","time-series","transfer-learning","deep-neural-networks","transformer","forecasting","lstm","time-series-regression","state-of-the-art-models","anomaly-detection","time-series-analysis","hacktoberfest","2026-03-27T02:49:30.150509","2026-04-10T02:43:27.957166",[117,122,127,132,137,142],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},26953,"inference_params 配置中的 'datetime_start' 参数是指预测的开始日期吗？","是的，`datetime_start` 指定了预测开始的日期。但在预测未来数据时，你的输入 CSV 文件中仍然需要包含未来的时间戳索引，只是对应的数据值（目标列）留空即可。模型会根据这些未来的时间戳和已有的特征进行预测。","https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow-forecast\u002Fissues\u002F462",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},26950,"在进行模型推理（Inference）时，输入的 CSV 文件应该是什么格式？是否需要包含目标列的值？","CSV 文件格式应与当前训练数据格式一致，但目标列（target columns）的值应为空。你需要保留日期列和特征列，仅将需要预测的目标列留空。例如：\n\ndate            targ_col \n----------- -----------\n12\u002F2\u002F2020 |  20\n----------- -----------\n12\u002F3\u002F2020 |  21\n----------- -----------  \u003C- 从这里开始推理\n12\u002F4\u002F2020 | \n----------- -----------\n12\u002F5\u002F2020 |\n\n此外，你应该调用 `infer_now` 函数来执行此操作。","https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow-forecast\u002Fissues\u002F318",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},26951,"为什么在使用 InferenceMode 时会报错找不到 'datetime' 列？","目前的评估器（evaluator\u002Finfer）会查找字面意义上名为 `datetime` 的列。如果你的 DataFrame 中没有这个确切名称的列，程序就会失败。\n\n解决方法是确保你的数据中包含一个名为 `datetime` 的列。你可以通过以下代码创建它：\n\n```python\nimport pandas as pd\nimport datetime as datetime\ndf = pd.read_csv(\"train.csv\")\n# 假设你的时间列名为 '5 Minutes'\ndf[\"datetime\"] = df['5 Minutes']\n```\n\n即使你的原始时间列叫其他名字，也必须复制一份并重命名为 `datetime` 才能通过推理检查。","https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow-forecast\u002Fissues\u002F83",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},26952,"如何下载 FlowDB 数据集？gsutil 命令如何使用？","由于文件体积过大，数据集无法放在 Google Drive 上。推荐使用 `gsutil` 工具下载整个数据集。即使在 Google Colab 环境中，也可以直接运行以下命令来下载：\n\n```bash\ngsutil cp -r gs:\u002F\u002Faistream-datasets\u002Fday_addition .\n```\n\n这将把数据集下载到当前目录。","https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow-forecast\u002Fissues\u002F240",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},26954,"Informer 模型目前是否支持 SHAP 可解释性方法？如果不支持有什么解决方案？","目前 Informer 模型与 SHAP 可解释性方法存在兼容性问题，因为 SHAP 需要特定的输入格式。SHAP 确实支持多输入（multi-input），但要求元素必须在列表中。\n\n解决思路是重构代码以适配 SHAP 的要求，特别是需要设计一个辅助函数来处理输入张量，确保它们以列表形式传递给 SHAP 的 Deep Explainer（参考 shap\u002Fexplainers\u002F_deep\u002Fdeep_pytorch.py）。维护者已计划创建 PR 来解决此问题以支持 SHAP 类型的模型。","https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow-forecast\u002Fissues\u002F319",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},26955,"项目的文档字符串（docstrings）需要遵循什么格式才能正确生成 ReadTheDocs 文档？","为了兼容 ReadTheDocs，所有 docstrings 必须遵循特定格式：在函数描述标题和参数列表之间必须有一个额外的空行。格式示例如下：\n\n```python\ndef some_function(a_number: int, a_string: str) -> str:\n    \"\"\"\n    一个将字符串连接到数字的函数\n\n    :param a_number:  一个数字...\n     :type a_number: int\n     :param a_string: 一个执行某些操作的字符串\n     :type  a_string: str \n      :return: 连接后的字符串\n      :rtype: str\n    \"\"\"\n   return str(a_number) + a_string \n```\n\n如果没有这个空行，文档将无法正确渲染。","https:\u002F\u002Fgithub.com\u002FAIStream-Peelout\u002Fflow-forecast\u002Fissues\u002F803",[148,152,156,160,164,168,172,176,181,186,191,195,199,204,209,214,218,222,227,231],{"id":149,"version":150,"summary_zh":76,"released_at":151},180053,"forecast_1.0_beta","2024-01-11T06:35:47",{"id":153,"version":154,"summary_zh":76,"released_at":155},180054,"FF_FIXES_BRANCH_VER","2022-06-09T14:19:24",{"id":157,"version":158,"summary_zh":76,"released_at":159},180055,"flow_bug","2022-06-08T22:06:33",{"id":161,"version":162,"summary_zh":76,"released_at":163},180056,"infer_ff","2022-05-24T19:28:07",{"id":165,"version":166,"summary_zh":76,"released_at":167},180057,"forecast_0.999","2022-05-10T17:11:26",{"id":169,"version":170,"summary_zh":76,"released_at":171},180058,"forecast","2022-04-28T20:43:36",{"id":173,"version":174,"summary_zh":76,"released_at":175},180059,"forecast_0.99","2022-04-27T18:30:28",{"id":177,"version":178,"summary_zh":179,"released_at":180},180060,"flow.991","本次发布新增以下功能：\n\n- [X] 针对类别不平衡分类和异常检测的焦点损失函数。\n- [X] 支持使用多个损失函数进行训练（实验性支持）。\n- [X] 修复了与训练 Infor­mer 模型相关的 bug。\n\n我们计划在新年之际发布 Flow Forecast 1.0。","2021-12-14T07:45:34",{"id":182,"version":183,"summary_zh":184,"released_at":185},180061,"flow_al_1.0","此（预）发布版本完成了以下工作：\n\n- 修复了 Informer 解码过程中的 bug\n- 增加了对时间序列分类的支持\n- 编写了文档字符串，并补充了 ReadTheDocs 文档\n\n我们距离 1.0 版本的正式发布已非常接近，预计将在十月之前发布。","2021-09-20T18:29:02",{"id":187,"version":188,"summary_zh":189,"released_at":190},180062,"0.981_flow","更新日志\n- 支持在 CPU 模式下将 SHAP 与 Informer 配合使用\n- 修复了多个与 Informer 信息处理相关的 bug\n- 提升了特定模型的 GPU 利用率\n- 修复了一个与 PyPI 版本管理相关的错误\n- 修复了与 Wandb 和 SHAP 相关的一个 bug。\n\n0.99 版本即将发布\n- Informer 结合 SHAP 的 GPU 支持\n- 高斯损失函数的 bug 修复\n- 为核心数据加载器添加了 `series_id` 字段。","2021-05-14T18:17:15",{"id":192,"version":193,"summary_zh":76,"released_at":194},180063,"0.98","2021-05-14T17:45:03",{"id":196,"version":197,"summary_zh":76,"released_at":198},180064,"forecast_0.97","2021-05-14T16:32:40",{"id":200,"version":201,"summary_zh":202,"released_at":203},180065,"0.956","修复了与依赖项相关的问题，并支持使用单个配置文件。同时取消了在配置中强制指定 batch_size 的要求，不再需要冗长的 dataset_params 配置。\n\n- SHAP 的 Informer 支持将在下一个版本中推出。","2021-04-30T05:37:12",{"id":205,"version":206,"summary_zh":207,"released_at":208},180066,"forecast_0.93","此版本新增对 Informer 模型的支持。","2021-04-12T19:33:42",{"id":210,"version":211,"summary_zh":212,"released_at":213},180067,"0.95","在本次发布中，我们添加了多项重要的错误修复和新功能。","2021-02-09T02:06:35",{"id":215,"version":216,"summary_zh":76,"released_at":217},180068,"flow_.93","2021-01-12T07:53:58",{"id":219,"version":220,"summary_zh":76,"released_at":221},180069,"flow_0.92","2020-12-27T02:28:53",{"id":223,"version":224,"summary_zh":225,"released_at":226},180070,"forecast_0.92","本次发布包括对依赖项的常规更新以及对部分推理模式的支持。","2020-11-13T19:16:54",{"id":228,"version":229,"summary_zh":76,"released_at":230},180071,"flow_.09","2020-09-23T05:43:57",{"id":232,"version":233,"summary_zh":76,"released_at":234},180072,"flow_forecast.88","2020-09-06T04:20:41"]