[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-jiwidi--time-series-forecasting-with-python":3,"similar-jiwidi--time-series-forecasting-with-python":83},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":16,"owner_avatar_url":17,"owner_bio":18,"owner_company":18,"owner_location":19,"owner_email":20,"owner_twitter":18,"owner_website":21,"owner_url":22,"languages":23,"stars":36,"forks":37,"last_commit_at":38,"license":18,"difficulty_score":39,"env_os":40,"env_gpu":41,"env_ram":40,"env_deps":42,"category_tags":53,"github_topics":55,"view_count":39,"oss_zip_url":18,"oss_zip_packed_at":18,"status":63,"created_at":64,"updated_at":65,"faqs":66,"releases":82},4895,"jiwidi\u002Ftime-series-forecasting-with-python","time-series-forecasting-with-python","A use-case focused tutorial for time series forecasting with python","time-series-forecasting-with-python 是一个专注于实战的时间序列预测教程项目。它摒弃了教科书中常见的理想化数据，转而使用真实的北京空气质量数据集（2014-2019 年），演示如何从零开始构建预测模型，解决现实场景中数据噪声大、非平稳等棘手问题。\n\n该项目不仅涵盖了时间序列分解、平稳性检验及差分变换等基础分析步骤，还系统对比了从传统统计学模型（如 ARIMA、SARIMA）到机器学习算法（如 XGBoost、LightGBM、SVM），再到深度学习框架（如 LSTM、DeepAR、Prophet）等十余种主流方法。其独特亮点在于提供了包含额外特征（如气温、气压）与无额外特征两种场景下的详细评估报告，通过 MAE、RMSE 等指标直观展示不同模型的表现差异，并给出了集成学习的最佳实践结果。\n\n这份资源非常适合希望提升实战能力的开发者、数据科学家及相关领域的研究人员。无论你是想系统学习时间序列处理流程，还是需要在具体项目中寻找合适的基线模型进行参考，time-series-forecasting-with-python 都能提供清晰、可复现的代码指南和深入","time-series-forecasting-with-python 是一个专注于实战的时间序列预测教程项目。它摒弃了教科书中常见的理想化数据，转而使用真实的北京空气质量数据集（2014-2019 年），演示如何从零开始构建预测模型，解决现实场景中数据噪声大、非平稳等棘手问题。\n\n该项目不仅涵盖了时间序列分解、平稳性检验及差分变换等基础分析步骤，还系统对比了从传统统计学模型（如 ARIMA、SARIMA）到机器学习算法（如 XGBoost、LightGBM、SVM），再到深度学习框架（如 LSTM、DeepAR、Prophet）等十余种主流方法。其独特亮点在于提供了包含额外特征（如气温、气压）与无额外特征两种场景下的详细评估报告，通过 MAE、RMSE 等指标直观展示不同模型的表现差异，并给出了集成学习的最佳实践结果。\n\n这份资源非常适合希望提升实战能力的开发者、数据科学家及相关领域的研究人员。无论你是想系统学习时间序列处理流程，还是需要在具体项目中寻找合适的基线模型进行参考，time-series-forecasting-with-python 都能提供清晰、可复现的代码指南和深入的分析视角。","# :hourglass_flowing_sand: time-series-forecasting-wiki\nThis repository contains a series of analysis, transforms and forecasting models frequently used when dealing with time series. The aim of this repository is to showcase how to model time series from the scratch, for this we are using a real usecase dataset ([Beijing air polution dataset](https:\u002F\u002Farchive.ics.uci.edu\u002Fml\u002Fdatasets\u002FBeijing+PM2.5+Data) to avoid perfect use cases far from reality that are often present in this types of tutorials. If you want to rerun the notebooks make sure you install al neccesary dependencies, [Guide](docs\u002Fsetup.md)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjiwidi_time-series-forecasting-with-python_readme_19ae15ddee0a.jpg\">\n\n\nYou can find the more detailed toc on the main [notebook](time-series-forecasting-tutorial.ipynb) \n\n\n\n# :open_file_folder: Dataset\n\nThe dataset used is the [Beijing air quality](https:\u002F\u002Farchive.ics.uci.edu\u002Fml\u002Fdatasets\u002FBeijing+PM2.5+Data) public dataset. This dataset contains polution data from 2014 to 2019 sampled every 10 minutes along with extra weather features such as preassure, temperature etc. We decided to resample the dataset with daily frequency for both easier data handling and proximity to a real use case scenario (no one would build a model to predict polution 10 minutes ahead, 1 day ahead looks more realistic). In this case the series is already stationary with some small seasonalities which change every year #MORE ONTHIS\n\nIn order to obtain a exact copy of the dataset used in this tutorial please run the [script](https:\u002F\u002Fgithub.com\u002Fjiwidi\u002Ftime-series-forecasting-wiki\u002Fblob\u002Fmaster\u002Fdatasets\u002Fdownload_datasets.py) under `datasets\u002Fdownload_datasets.py` which will automatically download the dataset and preprocess it for you.\n\n#  📚 Analysis and transforms\n\n* Time series decomposition\n  * Level\n  * Trend\n  * Seasonality \n  * Noise\n  \n* Stationarity\n  * AC and PAC plots\n  * Rolling mean and std\n  * Dickey-Fuller test\n  \n* Making our time series stationary\n  * Difference transform\n  * Log scale\n  * Smoothing\n  * Moving average\n\n# :triangular_ruler: Models tested\n\n* Autoregression ([AR](https:\u002F\u002Fwww.statsmodels.org\u002Fstable\u002Fgenerated\u002Fstatsmodels.tsa.ar_model.AR.html))\n* Moving Average (MA)\n* Autoregressive Moving Average (ARMA)\n* Autoregressive integraded moving average (ARIMA)\n* Seasonal autoregressive integrated moving average (SARIMA)\n* Bayesian regression [Link](https:\u002F\u002Fscikit-learn.org\u002Fstable\u002Fauto_examples\u002Flinear_model\u002Fplot_bayesian_ridge.html)\n* Lasso [Link](https:\u002F\u002Fscikit-learn.org\u002Fstable\u002Fmodules\u002Fgenerated\u002Fsklearn.linear_model.Lasso.html)\n* SVM [Link](https:\u002F\u002Fscikit-learn.org\u002Fstable\u002Fmodules\u002Fclasses.html?highlight=svm#module-sklearn.svm)\n* Randomforest [Link](https:\u002F\u002Fscikit-learn.org\u002Fstable\u002Fmodules\u002Fgenerated\u002Fsklearn.ensemble.RandomForestRegressor.html?highlight=randomforest#sklearn.ensemble.RandomForestRegressor)\n* Nearest neighbors [Link](https:\u002F\u002Fscikit-learn.org\u002Fstable\u002Fmodules\u002Fneighbors.html)\n* XGBoost [Link](https:\u002F\u002Fxgboost.readthedocs.io\u002Fen\u002Flatest\u002F)\n* Lightgbm [Link](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FLightGBM)\n* Prophet [Link](https:\u002F\u002Ffacebook.github.io\u002Fprophet\u002Fdocs\u002Fquick_start.html)\n* Long short-term memory with tensorflow (LSTM)[Link](https:\u002F\u002Fwww.tensorflow.org\u002F)\n\n* DeepAR\n\n\n# :mag: Forecasting results\nWe will devide our results wether the extra features columns such as temperature or preassure were used by the model as this is a huge step in metrics and represents two different scenarios. Metrics used were:\n\n## Evaluation Metrics\n* Mean Absolute Error (MAE) \n* Mean Absolute Percentage Error (MAPE)\n* Root Mean Squared Error (RMSE)\n* Coefficient of determination (R2)\n\n\u003Ctable class=\"table table-bordered table-hover table-condensed\">\n\u003Cthead>\u003Ctr>\u003Cth title=\"Field #1\">Model\u003C\u002Fth>\n\u003Cth title=\"Field #2\">mae\u003C\u002Fth>\n\u003Cth title=\"Field #3\">rmse\u003C\u002Fth>\n\u003Cth title=\"Field #4\">mape\u003C\u002Fth>\n\u003Cth title=\"Field #5\">r2\u003C\u002Fth>\n\u003C\u002Ftr>\u003C\u002Fthead>\n\u003Ctbody>\u003Ctr>\n\u003Ctd>EnsembleXG+TF\u003C\u002Ftd>\n\u003Ctd align=\"right\">27.64\u003C\u002Ftd>\n\u003Ctd align=\"right\">40.23\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.42\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.76\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>EnsembleLIGHT+TF\u003C\u002Ftd>\n\u003Ctd align=\"right\">27.34\u003C\u002Ftd>\n\u003Ctd align=\"right\">39.27\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.42\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.77\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>EnsembleXG+LIGHT+TF\u003C\u002Ftd>\n\u003Ctd align=\"right\">27.63\u003C\u002Ftd>\n\u003Ctd align=\"right\">39.69\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.44\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.76\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>EnsembleXG+LIGHT\u003C\u002Ftd>\n\u003Ctd align=\"right\">29.95\u003C\u002Ftd>\n\u003Ctd align=\"right\">42.7\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.52\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.73\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Randomforest tunned\u003C\u002Ftd>\n\u003Ctd align=\"right\">40.79\u003C\u002Ftd>\n\u003Ctd align=\"right\">53.2\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.9\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.57\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>SVM RBF GRID SEARCH\u003C\u002Ftd>\n\u003Ctd align=\"right\">38.57\u003C\u002Ftd>\n\u003Ctd align=\"right\">50.34\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.78\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.62\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>DeepAR\u003C\u002Ftd>\n\u003Ctd align=\"right\">71.37\u003C\u002Ftd>\n\u003Ctd align=\"right\">103.97\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.96\u003C\u002Ftd>\n\u003Ctd align=\"right\">-0.63\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Tensorflow simple LSTM\u003C\u002Ftd>\n\u003Ctd align=\"right\">30.13\u003C\u002Ftd>\n\u003Ctd align=\"right\">43.08\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.42\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.72\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Prophet multivariate\u003C\u002Ftd>\n\u003Ctd align=\"right\">38.25\u003C\u002Ftd>\n\u003Ctd align=\"right\">50.45\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.74\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.62\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Kneighbors\u003C\u002Ftd>\n\u003Ctd align=\"right\">57.05\u003C\u002Ftd>\n\u003Ctd align=\"right\">80.39\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.08\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.03\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>SVM RBF\u003C\u002Ftd>\n\u003Ctd align=\"right\">40.81\u003C\u002Ftd>\n\u003Ctd align=\"right\">56.03\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.79\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.53\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Lightgbm\u003C\u002Ftd>\n\u003Ctd align=\"right\">30.21\u003C\u002Ftd>\n\u003Ctd align=\"right\">42.76\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.52\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.72\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>XGBoost\u003C\u002Ftd>\n\u003Ctd align=\"right\">32.13\u003C\u002Ftd>\n\u003Ctd align=\"right\">45.59\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.56\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.69\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Randomforest\u003C\u002Ftd>\n\u003Ctd align=\"right\">45.84\u003C\u002Ftd>\n\u003Ctd align=\"right\">59.45\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.03\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.47\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Lasso\u003C\u002Ftd>\n\u003Ctd align=\"right\">39.24\u003C\u002Ftd>\n\u003Ctd align=\"right\">54.58\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.71\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.55\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>BayesianRidge\u003C\u002Ftd>\n\u003Ctd align=\"right\">39.24\u003C\u002Ftd>\n\u003Ctd align=\"right\">54.63\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.71\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.55\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Prophet univariate\u003C\u002Ftd>\n\u003Ctd align=\"right\">61.33\u003C\u002Ftd>\n\u003Ctd align=\"right\">83.64\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.26\u003C\u002Ftd>\n\u003Ctd align=\"right\">-0.05\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>AutoSARIMAX (1, 0, 1),(0, 0, 0, 6)\u003C\u002Ftd>\n\u003Ctd align=\"right\">51.29\u003C\u002Ftd>\n\u003Ctd align=\"right\">71.49\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.91\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.23\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>SARIMAX\u003C\u002Ftd>\n\u003Ctd align=\"right\">51.25\u003C\u002Ftd>\n\u003Ctd align=\"right\">71.33\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.91\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.23\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>AutoARIMA (0, 0, 3)\u003C\u002Ftd>\n\u003Ctd align=\"right\">47.01\u003C\u002Ftd>\n\u003Ctd align=\"right\">64.71\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.0\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.37\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>ARIMA\u003C\u002Ftd>\n\u003Ctd align=\"right\">48.25\u003C\u002Ftd>\n\u003Ctd align=\"right\">66.39\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.06\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.34\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>ARMA\u003C\u002Ftd>\n\u003Ctd align=\"right\">47.1\u003C\u002Ftd>\n\u003Ctd align=\"right\">64.86\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.01\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.37\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>MA\u003C\u002Ftd>\n\u003Ctd align=\"right\">49.04\u003C\u002Ftd>\n\u003Ctd align=\"right\">66.2\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.05\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.34\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>AR\u003C\u002Ftd>\n\u003Ctd align=\"right\">47.24\u003C\u002Ftd>\n\u003Ctd align=\"right\">65.32\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.02\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.36\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>HWES\u003C\u002Ftd>\n\u003Ctd align=\"right\">52.96\u003C\u002Ftd>\n\u003Ctd align=\"right\">74.67\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.11\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.16\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>SES\u003C\u002Ftd>\n\u003Ctd align=\"right\">52.96\u003C\u002Ftd>\n\u003Ctd align=\"right\">74.67\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.11\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.16\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Yesterdays value\u003C\u002Ftd>\n\u003Ctd align=\"right\">52.67\u003C\u002Ftd>\n\u003Ctd align=\"right\">74.52\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.04\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.16\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Naive mean\u003C\u002Ftd>\n\u003Ctd align=\"right\">59.38\u003C\u002Ftd>\n\u003Ctd align=\"right\">81.44\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.32\u003C\u002Ftd>\n\u003Ctd align=\"right\">-0.0\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftbody>\u003C\u002Ftable>\n\n \n\n# :shipit: Additional resources and literature\n\n## Models not tested but that are gaining popularity \nThere are several models we have not tried in this tutorials as they come from the academic world and their implementation is not 100% reliable, but is worth mentioning them:\n\n* Neural basis expansion analysis for interpretable time series forecasting (N-BEATS) | [link](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.10437) [Code](https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fn-beats)\n* ESRRN [link](https:\u002F\u002Feng.uber.com\u002Fm4-forecasting-competition\u002F)  [Code](https:\u002F\u002Fgithub.com\u002Fdamitkwr\u002FESRNN-GPU)\n\n\n#\n| | |\n| - | - |\n| Adhikari, R., & Agrawal, R. K. (2013). An introductory study on time series modeling and forecasting | [[1]](https:\u002F\u002Farxiv.org\u002Fftp\u002Farxiv\u002Fpapers\u002F1302\u002F1302.6613.pdf)|\n| Introduction to Time Series Forecasting With Python | [[2]](https:\u002F\u002Fmachinelearningmastery.com\u002Fintroduction-to-time-series-forecasting-with-python\u002F)|\n| Deep Learning for Time Series Forecasting | [[3]](https:\u002F\u002Fmachinelearningmastery.com\u002Fdeep-learning-for-time-series-forecasting\u002F )\n| The Complete Guide to Time Series Analysis and Forecasting| [[4]](https:\u002F\u002Ftowardsdatascience.com\u002Fthe-complete-guide-to-time-series-analysis-and-forecasting-70d476bfe775)| \n| How to Decompose Time Series Data into Trend and Seasonality| [[5]](https:\u002F\u002Fmachinelearningmastery.com\u002Fdecompose-time-series-data-trend-seasonality\u002F)\n\n\n# Contributing\nWant to see another model tested? Do you have anything to add or fix? I'll be happy to talk about it! Open an issue\u002FPR :) \n\n","# :hourglass_flowing_sand: 时间序列预测维基\n该仓库包含处理时间序列时经常使用的一系列分析、变换和预测模型。本仓库的目标是从零开始展示如何建模时间序列，为此我们使用了一个真实的用例数据集（[北京空气质量数据集](https:\u002F\u002Farchive.ics.uci.edu\u002Fml\u002Fdatasets\u002FBeijing+PM2.5+Data)），以避免此类教程中常见的与现实相去甚远的理想化案例。如果您想重新运行这些笔记本，请确保安装所有必要的依赖项，[指南](docs\u002Fsetup.md)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjiwidi_time-series-forecasting-with-python_readme_19ae15ddee0a.jpg\">\n\n\n您可以在主[笔记本](time-series-forecasting-tutorial.ipynb)中找到更详细的目录\n\n\n\n# :open_file_folder: 数据集\n\n所使用的数据集是[北京空气质量](https:\u002F\u002Farchive.ics.uci.edu\u002Fml\u002Fdatasets\u002FBeijing+PM2.5+Data)公开数据集。该数据集包含了2014年至2019年每10分钟采样的污染数据，以及气压、温度等额外的气象特征。我们决定将数据集重采样为每日频率，以便于数据处理，并更贴近实际应用场景（没有人会构建一个预测未来10分钟污染水平的模型，而预测未来1天则更为现实）。在这种情况下，该时间序列已经趋于平稳，仅存在一些每年都会变化的小幅季节性波动 #更多相关信息\n\n为了获得本教程中使用的数据集的精确副本，请运行位于`datasets\u002Fdownload_datasets.py`下的[脚本](https:\u002F\u002Fgithub.com\u002Fjiwidi\u002Ftime-series-forecasting-wiki\u002Fblob\u002Fmaster\u002Fdatasets\u002Fdownload_datasets.py)，它将自动下载并预处理数据集。\n\n#  📚 分析与变换\n\n* 时间序列分解\n  * 水平成分\n  * 趋势成分\n  * 季节性成分\n  * 噪声成分\n  \n* 平稳性\n  * 自相关图与偏自相关图\n  * 移动平均与移动标准差\n  * 增量检验\n  \n* 使时间序列平稳\n  * 差分变换\n  * 对数变换\n  * 平滑处理\n  * 移动平均\n\n# :triangular_ruler: 测试过的模型\n\n* 自回归模型（[AR](https:\u002F\u002Fwww.statsmodels.org\u002Fstable\u002Fgenerated\u002Fstatsmodels.tsa.ar_model.AR.html)）\n* 移动平均模型（MA）\n* 自回归移动平均模型（ARMA）\n* 自回归积分移动平均模型（ARIMA）\n* 季节性自回归积分移动平均模型（SARIMA）\n* 贝叶斯回归 [链接](https:\u002F\u002Fscikit-learn.org\u002Fstable\u002Fauto_examples\u002Flinear_model\u002Fplot_bayesian_ridge.html)\n* Lasso回归 [链接](https:\u002F\u002Fscikit-learn.org\u002Fstable\u002Fmodules\u002Fgenerated\u002Fsklearn.linear_model.Lasso.html)\n* 支持向量机 [链接](https:\u002F\u002Fscikit-learn.org\u002Fstable\u002Fmodules\u002Fclasses.html?highlight=svm#module-sklearn.svm)\n* 随机森林 [链接](https:\u002F\u002Fscikit-learn.org\u002Fstable\u002Fmodules\u002Fgenerated\u002Fsklearn.ensemble.RandomForestRegressor.html?highlight=randomforest#sklearn.ensemble.RandomForestRegressor)\n* K近邻算法 [链接](https:\u002F\u002Fscikit-learn.org\u002Fstable\u002Fmodules\u002Fneighbors.html)\n* XGBoost [链接](https:\u002F\u002Fxgboost.readthedocs.io\u002Fen\u002Flatest\u002F)\n* LightGBM [链接](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FLightGBM)\n* Prophet [链接](https:\u002F\u002Ffacebook.github.io\u002Fprophet\u002Fdocs\u002Fquick_start.html)\n* 使用TensorFlow的长短期记忆网络（LSTM）[链接](https:\u002F\u002Fwww.tensorflow.org\u002F)\n\n* DeepAR\n\n\n# :mag: 预测结果\n我们将根据模型是否使用了温度、气压等额外特征列来划分结果，因为这会对指标产生巨大影响，也代表了两种不同的场景。所使用的指标包括：\n\n## 评估指标\n* 平均绝对误差（MAE）\n* 平均绝对百分比误差（MAPE）\n* 均方根误差（RMSE）\n* 决定系数（R²）\n\n\u003Ctable class=\"table table-bordered table-hover table-condensed\">\n\u003Cthead>\u003Ctr>\u003Cth title=\"字段 #1\">模型\u003C\u002Fth>\n\u003Cth title=\"字段 #2\">mae\u003C\u002Fth>\n\u003Cth title=\"字段 #3\">rmse\u003C\u002Fth>\n\u003Cth title=\"字段 #4\">mape\u003C\u002Fth>\n\u003Cth title=\"字段 #5\">r2\u003C\u002Fth>\n\u003C\u002Ftr>\u003C\u002Fthead>\n\u003Ctbody>\u003Ctr>\n\u003Ctd>EnsembleXG+TF\u003C\u002Ftd>\n\u003Ctd align=\"right\">27.64\u003C\u002Ftd>\n\u003Ctd align=\"right\">40.23\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.42\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.76\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>EnsembleLIGHT+TF\u003C\u002Ftd>\n\u003Ctd align=\"right\">27.34\u003C\u002Ftd>\n\u003Ctd align=\"right\">39.27\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.42\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.77\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>EnsembleXG+LIGHT+TF\u003C\u002Ftd>\n\u003Ctd align=\"right\">27.63\u003C\u002Ftd>\n\u003Ctd align=\"right\">39.69\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.44\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.76\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>EnsembleXG+LIGHT\u003C\u002Ftd>\n\u003Ctd align=\"right\">29.95\u003C\u002Ftd>\n\u003Ctd align=\"right\">42.7\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.52\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.73\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>调优后的随机森林\u003C\u002Ftd>\n\u003Ctd align=\"right\">40.79\u003C\u002Ftd>\n\u003Ctd align=\"right\">53.2\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.9\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.57\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>SVM RBF 网格搜索\u003C\u002Ftd>\n\u003Ctd align=\"right\">38.57\u003C\u002Ftd>\n\u003Ctd align=\"right\">50.34\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.78\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.62\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>DeepAR\u003C\u002Ftd>\n\u003Ctd align=\"right\">71.37\u003C\u002Ftd>\n\u003Ctd align=\"right\">103.97\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.96\u003C\u002Ftd>\n\u003Ctd align=\"right\">-0.63\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>TensorFlow 简单 LSTM\u003C\u002Ftd>\n\u003Ctd align=\"right\">30.13\u003C\u002Ftd>\n\u003Ctd align=\"right\">43.08\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.42\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.72\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Prophet 多变量\u003C\u002Ftd>\n\u003Ctd align=\"right\">38.25\u003C\u002Ftd>\n\u003Ctd align=\"right\">50.45\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.74\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.62\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>K近邻\u003C\u002Ftd>\n\u003Ctd align=\"right\">57.05\u003C\u002Ftd>\n\u003Ctd align=\"right\">80.39\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.08\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.03\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>SVM RBF\u003C\u002Ftd>\n\u003Ctd align=\"right\">40.81\u003C\u002Ftd>\n\u003Ctd align=\"right\">56.03\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.79\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.53\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Lightgbm\u003C\u002Ftd>\n\u003Ctd align=\"right\">30.21\u003C\u002Ftd>\n\u003Ctd align=\"right\">42.76\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.52\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.72\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>XGBoost\u003C\u002Ftd>\n\u003Ctd align=\"right\">32.13\u003C\u002Ftd>\n\u003Ctd align=\"right\">45.59\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.56\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.69\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>随机森林\u003C\u002Ftd>\n\u003Ctd align=\"right\">45.84\u003C\u002Ftd>\n\u003Ctd align=\"right\">59.45\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.03\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.47\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Lasso\u003C\u002Ftd>\n\u003Ctd align=\"right\">39.24\u003C\u002Ftd>\n\u003Ctd align=\"right\">54.58\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.71\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.55\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>贝叶斯岭回归\u003C\u002Ftd>\n\u003Ctd align=\"right\">39.24\u003C\u002Ftd>\n\u003Ctd align=\"right\">54.63\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.71\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.55\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>Prophet 单变量\u003C\u002Ftd>\n\u003Ctd align=\"right\">61.33\u003C\u002Ftd>\n\u003Ctd align=\"right\">83.64\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.26\u003C\u002Ftd>\n\u003Ctd align=\"right\">-0.05\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>AutoSARIMAX (1, 0, 1),(0, 0, 0, 6)\u003C\u002Ftd>\n\u003Ctd align=\"right\">51.29\u003C\u002Ftd>\n\u003Ctd align=\"right\">71.49\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.91\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.23\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>SARIMAX\u003C\u002Ftd>\n\u003Ctd align=\"right\">51.25\u003C\u002Ftd>\n\u003Ctd align=\"right\">71.33\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.91\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.23\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>AutoARIMA (0, 0, 3)\u003C\u002Ftd>\n\u003Ctd align=\"right\">47.01\u003C\u002Ftd>\n\u003Ctd align=\"right\">64.71\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.0\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.37\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>ARIMA\u003C\u002Ftd>\n\u003Ctd align=\"right\">48.25\u003C\u002Ftd>\n\u003Ctd align=\"right\">66.39\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.06\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.34\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>ARMA\u003C\u002Ftd>\n\u003Ctd align=\"right\">47.1\u003C\u002Ftd>\n\u003Ctd align=\"right\">64.86\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.01\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.37\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>MA\u003C\u002Ftd>\n\u003Ctd align=\"right\">49.04\u003C\u002Ftd>\n\u003Ctd align=\"right\">66.2\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.05\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.34\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>AR\u003C\u002Ftd>\n\u003Ctd align=\"right\">47.24\u003C\u002Ftd>\n\u003Ctd align=\"right\">65.32\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.02\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.36\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>HWES\u003C\u002Ftd>\n\u003Ctd align=\"right\">52.96\u003C\u002Ftd>\n\u003Ctd align=\"right\">74.67\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.11\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.16\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>SES\u003C\u002Ftd>\n\u003Ctd align=\"right\">52.96\u003C\u002Ftd>\n\u003Ctd align=\"right\">74.67\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.11\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.16\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>昨日值\u003C\u002Ftd>\n\u003Ctd align=\"right\">52.67\u003C\u002Ftd>\n\u003Ctd align=\"right\">74.52\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.04\u003C\u002Ftd>\n\u003Ctd align=\"right\">0.16\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>朴素平均法\u003C\u002Ftd>\n\u003Ctd align=\"right\">59.38\u003C\u002Ftd>\n\u003Ctd align=\"right\">81.44\u003C\u002Ftd>\n\u003Ctd align=\"right\">1.32\u003C\u002Ftd>\n\u003Ctd align=\"right\">-0.0\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftbody>\u003C\u002Ftable>\n\n \n\n# :shipit: 额外资源与文献\n\n## 未测试但日益流行的模型\n本教程中我们尚未尝试一些来自学术界的模型，因为它们的实现并不完全可靠，不过仍值得提及：\n\n* 可解释时间序列预测的神经基扩展分析（N-BEATS） | [链接](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.10437) [代码](https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fn-beats)\n* ESRRN [链接](https:\u002F\u002Feng.uber.com\u002Fm4-forecasting-competition\u002F)  [代码](https:\u002F\u002Fgithub.com\u002Fdamitkwr\u002FESRNN-GPU)\n\n\n#\n| | |\n| - | - |\n| Adhikari, R., & Agrawal, R. K. (2013). 时间序列建模与预测入门研究 | [[1]](https:\u002F\u002Farxiv.org\u002Fftp\u002Farxiv\u002Fpapers\u002F1302\u002F1302.6613.pdf)|\n| 使用 Python 进行时间序列预测简介 | [[2]](https:\u002F\u002Fmachinelearningmastery.com\u002Fintroduction-to-time-series-forecasting-with-python\u002F)|\n| 深度学习在时间序列预测中的应用 | [[3]](https:\u002F\u002Fmachinelearningmastery.com\u002Fdeep-learning-for-time-series-forecasting\u002F )\n| 时间序列分析与预测完全指南| [[4]](https:\u002F\u002Ftowardsdatascience.com\u002Fthe-complete-guide-to-time-series-analysis-and-forecasting-70d476bfe775)| \n| 如何将时间序列数据分解为趋势和季节性成分| [[5]](https:\u002F\u002Fmachinelearningmastery.com\u002Fdecompose-time-series-data-trend-seasonality\u002F)\n\n\n# 贡献\n想看到更多模型被测试吗？或者你有补充或修正的内容吗？欢迎随时交流！请开一个 issue 或 PR :)","# time-series-forecasting-with-python 快速上手指南\n\n本指南基于 `time-series-forecasting-wiki` 项目，旨在帮助开发者从零开始构建时间序列预测模型。本项目使用真实的**北京空气质量数据集**（2014-2019），涵盖从数据分解、平稳性检验到多种机器学习与深度学习模型（如 ARIMA, XGBoost, LSTM, Prophet 等）的完整流程。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows\n*   **Python 版本**: 推荐 Python 3.7+\n*   **核心依赖库**:\n    *   数据处理与分析: `pandas`, `numpy`, `scipy`\n    *   可视化: `matplotlib`, `seaborn`\n    *   统计模型: `statsmodels`\n    *   机器学习: `scikit-learn`, `xgboost`, `lightgbm`\n    *   深度学习: `tensorflow` (用于 LSTM\u002FDeepAR)\n    *   专用工具: `prophet`, `pmdarima`\n\n> **提示**: 由于部分库（如 `prophet` 和 `tensorflow`）编译较复杂，建议使用 `conda` 环境或直接使用项目提供的依赖列表进行安装。国内用户建议在安装时配置清华或阿里镜像源以加速下载。\n\n## 安装步骤\n\n### 1. 克隆仓库\n首先将项目代码克隆到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjiwidi\u002Ftime-series-forecasting-wiki.git\ncd time-series-forecasting-wiki\n```\n\n### 2. 安装依赖\n根据项目文档指引，安装所有必要的 Python 包。如果项目根目录有 `requirements.txt`，可直接运行：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n若无 `requirements.txt`，请参考 `docs\u002Fsetup.md` 手动安装核心库，或使用以下通用命令安装主要依赖：\n\n```bash\npip install pandas numpy matplotlib seaborn statsmodels scikit-learn xgboost lightgbm tensorflow prophet pmdarima -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 3. 下载并预处理数据\n本项目使用北京 PM2.5 数据集。为了获得与教程完全一致的数据（已重采样为日频率并包含气象特征），请运行官方提供的下载脚本：\n\n```bash\npython datasets\u002Fdownload_datasets.py\n```\n*该脚本会自动从 UCI 仓库下载原始数据并进行预处理，生成后续分析所需的文件。*\n\n## 基本使用\n\n项目的核心内容位于主 Notebook 文件中。您可以直接启动 Jupyter Lab 或 Jupyter Notebook 来交互式运行所有分析步骤。\n\n### 启动教程 Notebook\n\n```bash\njupyter notebook time-series-forecasting-tutorial.ipynb\n```\n\n### 核心流程概览\n\n进入 Notebook 后，您将按顺序执行以下模块：\n\n1.  **数据分析与变换 (Analysis and transforms)**\n    *   **时间序列分解**: 提取趋势 (Trend)、季节性 (Seasonality) 和噪声 (Noise)。\n    *   **平稳性检验**: 通过 ACF\u002FPACF 图、滚动均值\u002F标准差以及 Dickey-Fuller 测试判断序列是否平稳。\n    *   **数据平稳化处理**: 应用差分变换 (Difference transform)、对数缩放 (Log scale) 或移动平均 (Moving average)。\n\n2.  **模型训练与对比 (Models tested)**\n    教程对比了多种模型，您可以根据需求选择运行：\n    *   **传统统计模型**: AR, MA, ARMA, ARIMA, SARIMA, HWES (Holt-Winters).\n    *   **机器学习模型**: Bayesian Ridge, Lasso, SVM, Random Forest, KNN, XGBoost, LightGBM.\n    *   **时间序列专用模型**: Facebook Prophet.\n    *   **深度学习模型**: TensorFlow LSTM, DeepAR.\n\n3.  **结果评估 (Forecasting results)**\n    模型将自动使用以下指标进行评估，并在 Notebook 中生成对比表格：\n    *   MAE (平均绝对误差)\n    *   RMSE (均方根误差)\n    *   MAPE (平均绝对百分比误差)\n    *   R² (决定系数)\n\n### 简单代码示例\n\n如果您想在 Python 脚本中快速调用其中的一个模型（例如 XGBoost），可以参考如下逻辑（基于项目结构）：\n\n```python\nimport pandas as pd\nfrom sklearn.model_selection import train_test_split\nfrom xgboost import XGBRegressor\nfrom sklearn.metrics import mean_absolute_error, r2_score\n\n# 加载预处理后的数据 (假设脚本已生成)\ndf = pd.read_csv('datasets\u002Fbeijing_daily.csv') \n\n# 简单的特征工程示例\ndf['date'] = pd.to_datetime(df['date'])\ndf.set_index('date', inplace=True)\n\n# 定义特征和目标 (具体列名请参考实际生成的数据集)\n# 假设 'pm2.5' 为目标，其他气象数据为特征\nfeatures = ['temp', 'pressure', 'dew_point', 'wind_speed'] \ntarget = 'pm2.5'\n\nX = df[features].fillna(method='ffill')\ny = df[target]\n\n# 划分训练集和测试集\nX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, shuffle=False)\n\n# 初始化并训练模型\nmodel = XGBRegressor(n_estimators=100, learning_rate=0.1)\nmodel.fit(X_train, y_train)\n\n# 预测与评估\npredictions = model.predict(X_test)\nmae = mean_absolute_error(y_test, predictions)\nr2 = r2_score(y_test, predictions)\n\nprint(f\"MAE: {mae:.2f}\")\nprint(f\"R2 Score: {r2:.2f}\")\n```\n\n> **注意**: 详细的特征工程和超参数调优过程请参阅 `time-series-forecasting-tutorial.ipynb` 中的完整代码。","某市环保局数据团队正利用历史监测记录，构建未来一周的 PM2.5 浓度预测系统，以提前发布重污染天气预警。\n\n### 没有 time-series-forecasting-with-python 时\n- 团队需手动编写大量代码处理非平稳数据，难以快速验证差分、对数变换等去噪手段的有效性。\n- 面对 ARIMA、Prophet、LSTM 等十几种模型，缺乏统一的对比框架，只能凭经验盲目尝试，耗时且易选错模型。\n- 忽略了温度、气压等气象辅助特征与污染数据的关联，导致单变量预测精度低，无法捕捉复杂的环境变化规律。\n- 缺乏标准化的评估流程，不同成员使用的误差指标（如 MAE、RMSE）不统一，难以客观汇报模型真实性能。\n\n### 使用 time-series-forecasting-with-python 后\n- 直接复用库中成熟的分解与平稳性检验模块，快速完成数据预处理，将原本数天的清洗工作缩短至几小时。\n- 基于真实的北京空气质量数据集案例，一键运行从传统统计模型到深度学习（如 DeepAR）的全量测试，迅速锁定\"XGBoost+TensorFlow\"集成方案为最优解。\n- 轻松引入多变量特征进行联合建模，显著提升了模型对突发气象变化下污染趋势的捕捉能力，R2 系数提升至 0.76。\n- 内置统一的评估看板，自动生成 MAPE、RMSE 等关键指标对比表，让技术决策有据可依，汇报清晰直观。\n\ntime-series-forecasting-with-python 通过提供从数据清洗到多模型比选的全流程实战范式，帮助团队在真实复杂场景下高效构建高精度的时序预测系统。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjiwidi_time-series-forecasting-with-python_bb012f0f.png","jiwidi","Jaime FH","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjiwidi_98fda9b9.jpg",null,"Stockholm","fhjaime96@gmail.com","jaimefh.com","https:\u002F\u002Fgithub.com\u002Fjiwidi",[24,28,32],{"name":25,"color":26,"percentage":27},"Jupyter Notebook","#DA5B0B",99.8,{"name":29,"color":30,"percentage":31},"Python","#3572A5",0.1,{"name":33,"color":34,"percentage":35},"HTML","#e34c26",0,687,220,"2026-03-26T09:11:41",2,"未说明","未说明 (项目包含 TensorFlow LSTM 和 DeepAR 模型，通常建议使用 GPU 加速，但 README 未明确具体型号或显存要求)",{"notes":43,"python":40,"dependencies":44},"README 未直接列出详细环境配置，但指向了 'docs\u002Fsetup.md' 作为安装指南。该项目主要是一个教学仓库，使用了北京空气质量数据集（已预处理为日频率）。运行前需执行 'datasets\u002Fdownload_datasets.py' 脚本下载并预处理数据。涉及的模型涵盖传统统计学方法 (ARIMA, SARIMA)、机器学习 (XGBoost, SVM, Random Forest) 及深度学习 (LSTM, DeepAR)。",[45,46,47,48,49,50,51,52],"statsmodels","scikit-learn","xgboost","lightgbm","prophet","tensorflow","pandas","numpy",[54],"开发框架",[56,57,58,59,60,61,62],"time-series","time-series-analysis","time-series-forecasting","time-series-prediction","python","python-time-series","machine-learning","ready","2026-03-27T02:49:30.150509","2026-04-07T13:28:54.793722",[67,72,77],{"id":68,"question_zh":69,"answer_zh":70,"source_url":71},22236,"运行 `conda env update --file environment.yml` 时遇到依赖解析失败（ResolvePackageNotFound）错误怎么办？","维护者已更新依赖文件以支持 Python 3.7。建议优先参考官方设置文档：https:\u002F\u002Fgithub.com\u002Fjiwidi\u002Ftime-series-forecasting-with-python\u002Fblob\u002Fmaster\u002Fdocs\u002Fsetup.md。\n如果问题仍然存在，可以尝试直接使用 pip 安装依赖，命令如下：\n`python -m pip install -r requirements.txt`\n这将调用当前 conda 环境中的 pip 来安装所有必需的包。","https:\u002F\u002Fgithub.com\u002Fjiwidi\u002Ftime-series-forecasting-with-python\u002Fissues\u002F5",{"id":73,"question_zh":74,"answer_zh":75,"source_url":76},22237,"在预测模型代码中，使用测试数据（test data）的均值进行预测是否正确？","不正确，这是一个错误。在时间序列预测中，不能使用未来的数据（即测试数据）来计算均值用于预测。正确的做法是使用训练数据（training dataframe）的均值。维护者已确认该问题并承诺修复代码。","https:\u002F\u002Fgithub.com\u002Fjiwidi\u002Ftime-series-forecasting-with-python\u002Fissues\u002F8",{"id":78,"question_zh":79,"answer_zh":80,"source_url":81},22238,"项目中是否包含变分模态分解（VMD）结合 LSTM 的模型实现？","目前项目中尚未包含 VMD + LSTM 模型的实现，维护者此前也未深入了解该模型。如果您对该方法感兴趣，建议查阅相关学术论文或技术文档以获取更多信息，项目后续可能会考虑整合此类先进方法。","https:\u002F\u002Fgithub.com\u002Fjiwidi\u002Ftime-series-forecasting-with-python\u002Fissues\u002F7",[],[84,96,104,113,121,130],{"id":85,"name":86,"github_repo":87,"description_zh":88,"stars":89,"difficulty_score":90,"last_commit_at":91,"category_tags":92,"status":63},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[93,54,94,95],"Agent","图像","数据工具",{"id":97,"name":98,"github_repo":99,"description_zh":100,"stars":101,"difficulty_score":90,"last_commit_at":102,"category_tags":103,"status":63},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[54,94,93],{"id":105,"name":106,"github_repo":107,"description_zh":108,"stars":109,"difficulty_score":39,"last_commit_at":110,"category_tags":111,"status":63},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,"2026-04-06T23:34:12",[54,93,112],"语言模型",{"id":114,"name":115,"github_repo":116,"description_zh":117,"stars":118,"difficulty_score":39,"last_commit_at":119,"category_tags":120,"status":63},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[54,94,93],{"id":122,"name":123,"github_repo":124,"description_zh":125,"stars":126,"difficulty_score":39,"last_commit_at":127,"category_tags":128,"status":63},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[129,54],"插件",{"id":131,"name":132,"github_repo":133,"description_zh":134,"stars":135,"difficulty_score":90,"last_commit_at":136,"category_tags":137,"status":63},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[112,94,93,54]]