[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-microsoft--StemGNN":3,"tool-microsoft--StemGNN":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":80,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":102,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":103,"updated_at":104,"faqs":105,"releases":111},3259,"microsoft\u002FStemGNN","StemGNN","Spectral Temporal Graph Neural Network (StemGNN in short) for Multivariate Time-series Forecasting","StemGNN 是一款专为多变量时间序列预测设计的开源深度学习模型。它主要解决在交通流量、电力负荷、太阳能发电及疫情传播等复杂场景中，如何精准捕捉多个相关变量之间动态依赖关系并进行未来趋势预测的难题。传统方法往往难以同时处理数据的时间演变规律与变量间的空间关联，而 StemGNN 通过独特的“谱时空图神经网络”架构，巧妙地将图信号处理中的谱分析技术与时间序列建模相结合，能够自动学习变量间隐含的图结构及其随时间变化的特征，从而显著提升预测精度。\n\n这款工具特别适合人工智能研究人员、数据科学家以及从事智慧城市、能源管理或金融分析领域的开发者使用。如果你需要处理具有强相关性的高维时序数据，并希望复现前沿学术成果或构建高性能预测系统，StemGNN 提供了完整的训练与评估代码，支持包括 PEMS 交通数据集、ECG 心电图数据及全球疫情数据在内的多种标准基准测试。其核心亮点在于无需预先定义固定的图结构，即可自适应地挖掘数据内在的空间拓扑关系，为多变量时序预测任务提供了一种高效且通用的解决方案。","# Spectral Temporal Graph Neural Network for Multivariate Time-series Forecasting\n\nThis repository is the official implementation of Spectral Temporal Graph Neural Network for\nMultivariate Time-series Forecasting.\n\n## Requirements\n\nRecommended version of OS & Python:\n\n* **OS**: Ubuntu 18.04.2 LTS\n* **Python**: python3.7 ([instructions to install python3.7](https:\u002F\u002Flinuxize.com\u002Fpost\u002Fhow-to-install-python-3-7-on-ubuntu-18-04\u002F)).\n\nTo install python dependencies, virtualenv is recommended, `sudo apt install python3.7-venv` to install virtualenv for python3.7. All the python dependencies are verified for `pip==20.1.1` and `setuptools==41.2.0`. Run the following commands to create a venv and install python dependencies:\n\n```setup\npython3.7 -m venv venv\nsource venv\u002Fbin\u002Factivate\npip install --upgrade pip\npip install -r requirements.txt\n```\n\n## Datasets\n\n[PEMS03](http:\u002F\u002Fpems.dot.ca.gov\u002F?dnode=Clearinghouse&type=station_5min&district_id=3&submit=Submit),\n[PEMS04](http:\u002F\u002Fpems.dot.ca.gov\u002F?dnode=Clearinghouse&type=station_5min&district_id=4&submit=Submit),\n[PEMS07](http:\u002F\u002Fpems.dot.ca.gov\u002F?dnode=Clearinghouse&type=station_5min&district_id=7&submit=Submit),\n[PEMS08](http:\u002F\u002Fpems.dot.ca.gov\u002F?dnode=Clearinghouse&type=station_5min&district_id=8&submit=Submit),\n[METR-LA](https:\u002F\u002Fgithub.com\u002Fliyaguang\u002FDCRNN),\n[PEMS-BAY](https:\u002F\u002Fgithub.com\u002Fliyaguang\u002FDCRNN),\n[Solar](https:\u002F\u002Fwww.nrel.gov\u002Fgrid\u002Fsolar-power-data.html),\n[Electricity](https:\u002F\u002Farchive.ics.uci.edu\u002Fml\u002Fdatasets\u002FElectricityLoadDiagrams20112014),\n[ECG5000](http:\u002F\u002Fwww.timeseriesclassification.com\u002Fdescription.php?Dataset=ECG5000),\n[COVID-19](https:\u002F\u002Fgithub.com\u002FCSSEGISandData\u002FCOVID-19\u002Ftree\u002Fmaster)\n\nWe can get the raw data through the links above. We evaluate the performance of traffic flow forecasting on PEMS03, PEMS07, PEMS08 and traffic speed forecasting on PEMS04, PEMS-BAY and METR-LA. So we use the traffic flow table of PEMS03, PEMS07, PEMS08 and the traffic speed table of PEMS04, PEMS-BAY and METR-LA as our datasets. We download the solar power data of Alabama (Eastern States) and merge the 5-minute csv files (totally 137 time series) as our Solar dataset. We delete the header and index of Electricity file downloaded from the link above as our Electricity dataset. For COVID-19 dataset, the raw data is under the folder `csse_covid_19_data\u002Fcsse_covid_19_time_series\u002F` of the above github link. We use `time_series_covid19_confirmed_global.csv` to calculate the daily number of newly confirmed infected people from 1\u002F22\u002F2020 to 5\u002F10\u002F2020. The 25 countries we take into consideration are 'US','Canada','Mexico','Russia','UK','Italy','Germany','France','Belarus ','Brazil','Peru','Ecuador','Chile','India','Turkey','Saudi Arabia','Pakistan','Iran','Singapore','Qatar','Bangladesh','Arab','China','Japan','Korea'.\n\nThe input csv file should contain **no header** and its **shape should be `T*N`**, where `T` denotes total number of timestamps, `N` denotes number of nodes.\n\nSince complex data cleansing is needed on the above datasets provided in the urls before fed into the StemGNN model, we provide a cleaned version of ECG5000 ([.\u002Fdataset\u002FECG_data.csv](.\u002Fdataset\u002FECG_data.csv)) for reproduction convenience. The ECG_data.csv is in shape of `5000*140`, where `5000` denotes number of timestamps and `140` denotes total number of nodes. Run command `python main.py` to trigger training and evaluation on ECG_data.csv.\n\n## Training and Evaluation\n\nThe training procedure and evaluation procedure are all included in the `main.py`. To train and evaluate on some dataset, run the following command:\n\n```train & evaluate\npython main.py --train True --evaluate True --dataset \u003Cname of csv file> --output_dir \u003Cpath to output directory> --n_route \u003Cnumber of nodes> --window_size \u003Clength of sliding window> --horizon \u003Cpredict horizon> --norm_method z_score --train_length 7 --validate_length 2 --test_length 1\n```\n\nThe detailed descriptions about the parameters are as following:\n\n| Parameter name | Description of parameter |\n| --- | --- |\n| train | whether to enable training, default True |\n| evaluate | whether to enable evaluation, default True |\n| dataset | file name of input csv |\n| window_size | length of sliding window, default 12 |\n| horizon | predict horizon, default 3 |\n| train_length | length of training data, default 7 |\n| validate_length | length of validation data, default 2 |\n| test_length | length of testing data, default 1 |\n| epoch | epoch size during training |\n| lr | learning rate |\n| multi_layer | hyper parameter of STemGNN which controls the parameter number of hidden layers, default 5 |\n| device | device that the code works on, 'cpu' or 'cuda:x' | \n| validate_freq | frequency of validation |\n| batch_size | batch size |\n| norm_method | method for normalization, 'z_score' or 'min_max' |\n| early_stop | whether to enable early stop, default False |\n\n\n**Table 1** Configurations for all datasets\n| Dataset | train | evaluate | node_cnt | window_size | horizon | norm_method |\n| -----   | ---- | ---- |---- |---- |---- | --- |\n| METR-LA | True | True | 207 | 12 | 3 | z_score |\n| PEMS-BAY | True | True |  325 | 12 | 3 | z_score |\n| PEMS03 | True | True |  358 | 12 | 3 | z_score |\n| PEMS04 | True | True |  307 | 12 | 3 | z_score |\n| PEMS07 | True | True | 228 | 12 | 3 | z_score |\n| PEMS08 | True | True |  170 | 12 | 3 | z_score |\n| COVID-19| True | True | 25 | 28 | 28 | z_score |\n\n## Results\n\nOur model achieves the following performance on the 10 datasets:\n\n**Table 2** (predict horizon: 3 steps)\n\n| Dataset | MAE  | RMSE | MAPE(%) |\n| -----   | ---- | ---- | ---- |\n| METR-LA | 2.56 | 5.06 | 6.46 |\n| PEMS-BAY | 1.23 | 2.48 | 2.63 |\n| PEMS03 | 14.32 | 21.64 | 16.24 |\n| PEMS04 | 20.24 | 32.15 | 10.03 |\n| PEMS07 | 2.14 | 4.01 | 5.01 |\n| PEMS08 | 15.83 | 24.93 | 9.26 |\n\n**Table 3** (predict horizon: 28 steps)\n\n| Dataset | MAE  | RMSE | MAPE |\n| -----   | ---- | ---- | ---- |\n| COVID-19 | 662.24 | 1023.19| 19.3|\n\n","# 用于多变量时间序列预测的谱时序图神经网络\n\n本仓库是用于多变量时间序列预测的谱时序图神经网络的官方实现。\n\n## 需求\n\n推荐的操作系统和 Python 版本：\n\n* **操作系统**: Ubuntu 18.04.2 LTS\n* **Python**: python3.7（[安装 python3.7 的说明](https:\u002F\u002Flinuxize.com\u002Fpost\u002Fhow-to-install-python-3-7-on-ubuntu-18-04\u002F)）。\n\n建议使用 virtualenv 来安装 Python 依赖项，可通过 `sudo apt install python3.7-venv` 安装 python3.7 的 virtualenv。所有 Python 依赖项均已验证适用于 `pip==20.1.1` 和 `setuptools==41.2.0`。请运行以下命令创建虚拟环境并安装 Python 依赖项：\n\n```setup\npython3.7 -m venv venv\nsource venv\u002Fbin\u002Factivate\npip install --upgrade pip\npip install -r requirements.txt\n```\n\n## 数据集\n\n[PEMS03](http:\u002F\u002Fpems.dot.ca.gov\u002F?dnode=Clearinghouse&type=station_5min&district_id=3&submit=Submit),\n[PEMS04](http:\u002F\u002Fpems.dot.ca.gov\u002F?dnode=Clearinghouse&type=station_5min&district_id=4&submit=Submit),\n[PEMS07](http:\u002F\u002Fpems.dot.ca.gov\u002F?dnode=Clearinghouse&type=station_5min&district_id=7&submit=Submit),\n[PEMS08](http:\u002F\u002Fpems.dot.ca.gov\u002F?dnode=Clearinghouse&type=station_5min&district_id=8&submit=Submit),\n[METR-LA](https:\u002F\u002Fgithub.com\u002Fliyaguang\u002FDCRNN),\n[PEMS-BAY](https:\u002F\u002Fgithub.com\u002Fliyaguang\u002FDCRNN),\n[Solar](https:\u002F\u002Fwww.nrel.gov\u002Fgrid\u002Fsolar-power-data.html),\n[Electricity](https:\u002F\u002Farchive.ics.uci.edu\u002Fml\u002Fdatasets\u002FElectricityLoadDiagrams20112014),\n[ECG5000](http:\u002F\u002Fwww.timeseriesclassification.com\u002Fdescription.php?Dataset=ECG5000),\n[COVID-19](https:\u002F\u002Fgithub.com\u002FCSSEGISandData\u002FCOVID-19\u002Ftree\u002Fmaster)\n\n我们可以通过上述链接获取原始数据。我们在 PEMS03、PEMS07、PEMS08 上评估交通流量预测性能，在 PEMS04、PEMS-BAY 和 METR-LA 上评估交通速度预测性能。因此，我们使用 PEMS03、PEMS07、PEMS08 的交通流量表以及 PEMS04、PEMS-BAY 和 METR-LA 的交通速度表作为我们的数据集。我们下载了阿拉巴马州（东部各州）的太阳能发电数据，并将 5 分钟间隔的 CSV 文件合并成一个包含 137 个时间序列的数据集，作为我们的 Solar 数据集。对于 Electricity 数据集，我们删除了从上述链接下载的文件中的表头和索引。对于 COVID-19 数据集，原始数据位于上述 GitHub 链接中的 `csse_covid_19_data\u002Fcsse_covid_19_time_series\u002F` 文件夹下。我们使用 `time_series_covid19_confirmed_global.csv` 计算从 2020 年 1 月 22 日到 2020 年 5 月 10 日每天新增确诊病例数。我们考虑的 25 个国家包括：美国、加拿大、墨西哥、俄罗斯、英国、意大利、德国、法国、白俄罗斯、巴西、秘鲁、厄瓜多尔、智利、印度、土耳其、沙特阿拉伯、巴基斯坦、伊朗、新加坡、卡塔尔、孟加拉国、阿拉伯联合酋长国、中国、日本、韩国。\n\n输入的 CSV 文件应**不含表头**，其**形状应为 `T*N`**，其中 `T` 表示总时间步数，`N` 表示节点数。\n\n由于上述 URL 提供的数据集在输入 StemGNN 模型之前需要进行复杂的清洗工作，为了便于复现，我们提供了一个清洗后的 ECG5000 数据集版本（[.\u002Fdataset\u002FECG_data.csv](.\u002Fdataset\u002FECG_data.csv)）。ECG_data.csv 的形状为 `5000*140`，其中 `5000` 表示时间步数，`140` 表示节点总数。运行命令 `python main.py` 即可触发对 ECG_data.csv 的训练和评估。\n\n## 训练与评估\n\n训练和评估过程均包含在 `main.py` 中。要对某个数据集进行训练和评估，请运行以下命令：\n\n```train & evaluate\npython main.py --train True --evaluate True --dataset \u003Ccsv文件名> --output_dir \u003C输出目录路径 > --n_route \u003C 节点数 > --window_size \u003C 滑动窗口长度 > --horizon \u003C 预测 horizon > --norm_method z_score --train_length 7 --validate_length 2 --test_length 1\n```\n\n参数的详细说明如下：\n\n| 参数名称 | 参数描述 |\n| --- | --- |\n| train | 是否启用训练，默认为 True |\n| evaluate | 是否启用评估，默认为 True |\n| dataset | 输入 CSV 文件的文件名 |\n| window_size | 滑动窗口长度，默认为 12 |\n| horizon | 预测 horizon，默认为 3 |\n| train_length | 训练数据长度，默认为 7 |\n| validate_length | 验证数据长度，默认为 2 |\n| test_length | 测试数据长度，默认为 1 |\n| epoch | 训练过程中的 epoch 大小 |\n| lr | 学习率 |\n| multi_layer | STemGNN 的超参数，控制隐藏层的数量，默认为 5 |\n| device | 代码运行的设备，'cpu' 或 'cuda:x' |\n| validate_freq | 验证频率 |\n| batch_size | 批量大小 |\n| norm_method | 归一化方法，'z_score' 或 'min_max' |\n| early_stop | 是否启用早停，默认为 False |\n\n\n**表 1** 各数据集的配置\n| 数据集 | 训练 | 评估 | 节点数 | 窗口大小 | 预测 horizon | 归一化方法 |\n| -----   | ---- | ---- |---- |---- |---- | --- |\n| METR-LA | True | True | 207 | 12 | 3 | z_score |\n| PEMS-BAY | True | True |  325 | 12 | 3 | z_score |\n| PEMS03 | True | True |  358 | 12 | 3 | z_score |\n| PEMS04 | True | True |  307 | 12 | 3 | z_score |\n| PEMS07 | True | True | 228 | 12 | 3 | z_score |\n| PEMS08 | True | True |  170 | 12 | 3 | z_score |\n| COVID-19| True | True | 25 | 28 | 28 | z_score |\n\n## 结果\n\n我们的模型在 10 个数据集上取得了以下性能：\n\n**表 2**（预测 horizon：3 步）\n\n| 数据集 | MAE  | RMSE | MAPE(%) |\n| -----   | ---- | ---- | ---- |\n| METR-LA | 2.56 | 5.06 | 6.46 |\n| PEMS-BAY | 1.23 | 2.48 | 2.63 |\n| PEMS03 | 14.32 | 21.64 | 16.24 |\n| PEMS04 | 20.24 | 32.15 | 10.03 |\n| PEMS07 | 2.14 | 4.01 | 5.01 |\n| PEMS08 | 15.83 | 24.93 | 9.26 |\n\n**表 3**（预测 horizon：28 步）\n\n| 数据集 | MAE  | RMSE | MAPE |\n| -----   | ---- | ---- | ---- |\n| COVID-19 | 662.24 | 1023.19| 19.3|","# StemGNN 快速上手指南\n\nStemGNN（Spectral Temporal Graph Neural Network）是一个用于多元时间序列预测的谱时空图神经网络模型。本指南将帮助中国开发者快速完成环境配置并运行模型。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：推荐 Ubuntu 18.04.2 LTS（Linux 环境）。\n*   **Python 版本**：必须使用 **Python 3.7**。\n*   **依赖管理**：推荐使用 `virtualenv` 隔离环境。\n\n> **注意**：虽然模型支持 CPU 运行，但为了获得最佳训练性能，建议配备 NVIDIA GPU 并安装对应的 CUDA 驱动及 `torch` GPU 版本。\n\n## 2. 安装步骤\n\n### 2.1 安装 Python 3.7 及虚拟环境工具\n如果您尚未安装 Python 3.7，请参考官方或社区教程进行安装。随后安装 `venv` 模块：\n\n```bash\nsudo apt install python3.7-venv\n```\n\n### 2.2 创建虚拟环境并安装依赖\n执行以下命令创建隔离环境、激活环境并安装项目所需的 Python 包。\n*(注：国内用户若遇到 pip 下载慢的问题，可在 install 命令后添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 使用清华镜像源)*\n\n```bash\npython3.7 -m venv venv\nsource venv\u002Fbin\u002Factivate\npip install --upgrade pip\npip install -r requirements.txt\n```\n\n## 3. 基本使用\n\n### 3.1 数据准备\n模型接受的输入文件为 **CSV 格式**，需满足以下条件：\n*   **无表头**（No header）。\n*   **形状为 `T*N`**：其中 `T` 为时间步总数，`N` 为节点数量。\n*   **示例数据**：项目已提供清洗好的 `ECG5000` 数据集 (`.\u002Fdataset\u002FECG_data.csv`)，可直接用于测试。\n\n### 3.2 运行训练与评估\n所有训练和评估逻辑均包含在 `main.py` 中。以下是最简单的运行示例，使用默认的 ECG 数据集进行训练和评估：\n\n```bash\npython main.py\n```\n\n### 3.3 自定义数据集运行\n若要使用其他数据集（如交通流量或疫情数据），请通过参数指定配置文件。以下是一个通用的命令模板：\n\n```bash\npython main.py --train True --evaluate True --dataset \u003Cname of csv file> --output_dir \u003Cpath to output directory> --n_route \u003Cnumber of nodes> --window_size \u003Clength of sliding window> --horizon \u003Cpredict horizon> --norm_method z_score --train_length 7 --validate_length 2 --test_length 1\n```\n\n**关键参数说明：**\n*   `--dataset`: 输入 CSV 文件名。\n*   `--n_route`: 节点数量（对应数据的列数 N）。\n*   `--window_size`: 滑动窗口长度（默认 12）。\n*   `--horizon`: 预测步长（默认 3）。\n*   `--device`: 运行设备，设置为 `'cuda:0'` 可启用 GPU 加速（默认为 cpu）。\n\n**常用数据集配置参考：**\n\n| 数据集 | 节点数 (`n_route`) | 窗口大小 (`window_size`) | 预测步长 (`horizon`) |\n| :--- | :--- | :--- | :--- |\n| METR-LA | 207 | 12 | 3 |\n| PEMS-BAY | 325 | 12 | 3 |\n| COVID-19 | 25 | 28 | 28 |\n| ECG5000 | 140 | 12 | 3 |\n\n例如，运行 **METR-LA** 数据集的命令如下：\n```bash\npython main.py --dataset metr-la.csv --n_route 207 --window_size 12 --horizon 3 --output_dir .\u002Fresults\u002Fmetr-la\n```","某省级电网调度中心正利用历史负荷数据预测未来 24 小时各区域变电站的用电需求，以优化电力分配策略。\n\n### 没有 StemGNN 时\n- **忽略空间关联**：传统时间序列模型（如 ARIMA 或 LSTM）仅单独分析每个变电站的历史数据，无法捕捉相邻站点间因电网拓扑结构产生的相互影响。\n- **突发波动响应慢**：面对极端天气或大型活动导致的负荷骤变，模型缺乏对多变量频谱特征的提取能力，预测偏差大幅上升。\n- **人工特征工程繁重**：数据科学家需手动构建复杂的滞后特征和交叉变量来模拟节点关系，耗时数周且难以覆盖所有潜在模式。\n- **长周期预测失真**：随着预测步长增加，误差迅速累积，导致次日高峰时段的预估电量与实际值偏离超过 15%，影响调度决策。\n\n### 使用 StemGNN 后\n- **自动挖掘拓扑依赖**：StemGNN 通过谱图卷积自动学习电网节点间的隐式连接，将邻近站点的负荷变化纳入计算，显著提升了多变量协同预测精度。\n- **频域特征精准捕捉**：利用频谱分析技术，StemGNN 能有效识别负荷数据中的周期性规律与突发噪声，在极端场景下仍将平均绝对百分比误差（MAPE）控制在 5% 以内。\n- **端到端自动化建模**：无需手动设计复杂特征，只需输入清洗后的 `T*N` 格式 CSV 数据，StemGNN 即可自动完成从时空特征提取到趋势预测的全流程。\n- **长视野预测稳定**：得益于其独特的时空架构，即使在预测未来 24 小时的长序列时，误差增长依然平缓，为削峰填谷提供了可靠的数据支撑。\n\nStemGNN 通过将图神经网络与频谱分析深度融合，解决了多变量时间序列中空间依赖难建模的核心痛点，让复杂系统的趋势预测变得精准而高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_StemGNN_4bab20b3.png","microsoft","Microsoft","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmicrosoft_4900709c.png","Open source projects and samples from Microsoft",null,"opensource@microsoft.com","OpenAtMicrosoft","https:\u002F\u002Fopensource.microsoft.com","https:\u002F\u002Fgithub.com\u002Fmicrosoft",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,603,123,"2026-04-01T17:13:43","Linux (Ubuntu 18.04.2 LTS)","未说明（支持通过参数指定 'cpu' 或 'cuda:x'，暗示可选 GPU 加速，但无具体型号或显存要求）","未说明",{"notes":97,"python":98,"dependencies":99},"推荐使用 virtualenv 管理环境。输入数据文件需为无表头的 CSV 格式，形状为 T*N（时间步长*节点数）。部分数据集（如 ECG5000）提供了清洗后的版本以便复现，其他数据集需自行下载并按文档描述进行复杂的清洗和预处理。","3.7",[100,101],"pip==20.1.1","setuptools==41.2.0",[18],"2026-03-27T02:49:30.150509","2026-04-06T09:43:31.778332",[106],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},14987,"模型中的 `units` 参数是什么意思？","`units` 等于特征数量（feature_nums），对应 Excel 表格中的列数。同时也等于节点数量（node_cnt），即数据形状的第一个维度（data.shape[1]）。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FStemGNN\u002Fissues\u002F15",[]]