[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-BenjiKCF--Neural-Net-with-Financial-Time-Series-Data":3,"similar-BenjiKCF--Neural-Net-with-Financial-Time-Series-Data":89},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":16,"owner_avatar_url":17,"owner_bio":18,"owner_company":18,"owner_location":18,"owner_email":18,"owner_twitter":18,"owner_website":18,"owner_url":19,"languages":20,"stars":29,"forks":30,"last_commit_at":31,"license":18,"difficulty_score":32,"env_os":33,"env_gpu":34,"env_ram":35,"env_deps":36,"category_tags":45,"github_topics":18,"view_count":48,"oss_zip_url":18,"oss_zip_packed_at":18,"status":49,"created_at":50,"updated_at":51,"faqs":52,"releases":88},2636,"BenjiKCF\u002FNeural-Net-with-Financial-Time-Series-Data","Neural-Net-with-Financial-Time-Series-Data","This solution presents an accessible, non-trivial example of machine learning (Deep learning) with financial time series using TensorFlow","Neural-Net-with-Financial-Time-Series-Data 是一个基于 TensorFlow 和 Keras 构建的开源深度学习项目，旨在利用金融时间序列数据预测资产的每日对数收益率。它主要解决了传统模型在处理复杂金融市场波动时精度不足的问题，通过引入随机动量指标（如 MACD、随机振荡器）等内生因子，显著提升了预测的准确性。\n\n该项目非常适合具备一定编程基础的开发者、量化金融研究人员以及对 AI 炒股感兴趣的技术爱好者使用。用户可以直接复用其灵活的架构，无需重写代码即可在支持 Nvidia CuDNN 的环境中进行高效训练与部署。\n\n在技术亮点方面，Neural-Net-with-Financial-Time-Series-Data 采用了先进的长短期记忆网络（LSTM），并结合了多项前沿优化策略：包括利用 CuDNN 加速计算、应用带热重启的随机梯度下降（SGDR）与余弦退火算法以优化收敛过程，以及通过贝叶斯搜索自动微调超参数。此外，项目还集成了事件驱动分析、新闻情感测试及多种可视化功能（如 TensorBoard 和相关性热力图），为探索金融数据的深层规","Neural-Net-with-Financial-Time-Series-Data 是一个基于 TensorFlow 和 Keras 构建的开源深度学习项目，旨在利用金融时间序列数据预测资产的每日对数收益率。它主要解决了传统模型在处理复杂金融市场波动时精度不足的问题，通过引入随机动量指标（如 MACD、随机振荡器）等内生因子，显著提升了预测的准确性。\n\n该项目非常适合具备一定编程基础的开发者、量化金融研究人员以及对 AI 炒股感兴趣的技术爱好者使用。用户可以直接复用其灵活的架构，无需重写代码即可在支持 Nvidia CuDNN 的环境中进行高效训练与部署。\n\n在技术亮点方面，Neural-Net-with-Financial-Time-Series-Data 采用了先进的长短期记忆网络（LSTM），并结合了多项前沿优化策略：包括利用 CuDNN 加速计算、应用带热重启的随机梯度下降（SGDR）与余弦退火算法以优化收敛过程，以及通过贝叶斯搜索自动微调超参数。此外，项目还集成了事件驱动分析、新闻情感测试及多种可视化功能（如 TensorBoard 和相关性热力图），为探索金融数据的深层规律提供了强大且易用的工具包。","\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_readme_27b0d99bc87f.png\">\u003Cbr>\u003Cbr>\n\u003C\u002Fdiv>\n\n\n\n**Neural-Net-with-Financial-Time-Series-Data** is an open source software project using endogenous factors to predict daily log return of financial asset. The project includes serveral technical indicators (ie. Stochastics, Moving Average Convergence\u002FDivergence oscillator) to train a LSTM neural network by stochastic gradient descent with warm restart(SGDR) and cosine annealing. This flexible architecture enables you to deploy with Nvidia CuDNN computation without rewriting code by yourself. Hyperparameters are fine-tuned by Bayesian search. \n\n\n## Latest Result:\n\nThe current LSTM model result for predicting daily log return.\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_readme_b3243f6c5211.png)\n\n\n## Old model Result\n\nThis old model uses LSTM to predict stock price.\n\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_readme_1be192a5461e.png)\n\n\n## LSTM cell \n\nThis is the LSTM cell we used in the model.\n\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_readme_cb4b6a9fbbfb.png)\n\nIt is **faster** than normal LSTM cell because of the implementation of CuDNN LSTM and batch normalization in the model.\n\n\n## Update:\n26\u002F03\u002F2017 First update\n1. Recurrent neural network with LSTM is added to the code. \n2. Keras with tensorflow is also implemented. \n3. Tensorboard for neural network visualization is also added to the code.\n\n14\u002F04\u002F2017 Second update\n1. Normalized adjusted close price. \n2. A new data downloader has been implemented for simplicity\n3. Added more variable to predict the adjusted close price\n4. More accurate result, significantly less mean square error\n5. Extra visualization for close price\n6. Denormalization will be fixed soon\n7. Twitter sentiment analysis is currently on testing stage\n\n16\u002F04\u002F2017 Third update\n1. Updated denormalization \n2. More test results available\n\n18\u002F04\u002F2017 Fourth update\n1. Updated fundamental data from Kaggle for NYSE \n\n19\u002F04\u002F2017 Fifth update\n1. Supporting Python 3.5 on Windows 10\n2. Significant improvement in accuracy\n\n29\u002F04\u002F2017 Sixth update\n1. ^GSPC Data since 1970 has been added, more training data, higher accuracy\n2. 7 years of test data \n3. Object oriented programming\n4. Hyperparameters for dropout has been tested\n\n08\u002F05\u002F2017 Seventh update\n1. All Hyperparameters have been tested and results have been uploaded.\n2. Fixed comment for the data loader\n3. More technical analysis like volume, moving average and other indexes will be added\n\n28\u002F05\u002F2017 Eighth update\n1. Using Quandl instead of Pandas datareader\n2. Correlation heatmap has been addded\n3. Using Adjusted OHLCV for the network\n4. All functions can be loaded from lstmstock.py\n5. A Quandl api key is provided temporarily for those who do not own a quandl account\n6. Moving averages have been added\n\n02\u002F10\u002F2017 Nineth update\n\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_readme_df0bde4dc517.png)\n\n1. Event driven analysis\n2. Switched to Tensorflow LSTM model\n\n25\u002F06\u002F2018 Tenth update \n1. Complete rewrite of News downloader, removed Newsapi in order to get full access to NYTImes data for free\n2. Moving Average Convergence\u002FDivergence oscillator (MACD), Stochastic Oscillator, Average True Range are added to train the model.\n3. log return is now used as target variable. \n4. Keras on top of Tensorflow is used.\n5. Randomized Search from SKLearn is used for optimization.\n\n11\u002F10\u002F2018 Eleventh update\nServeral state of the art techniques are applied\n1. CuDNN LSTM is used to accelerate training\n2. Stochastic gradient descent with warm restart\n3. Cosine annealing \n4. Use Bayesian search to optmize hyperparameters.\n5. New splitting method\n6. Dataset is provided \n7. HDF files are used to accelerate reading time\n\n## How to use Quandl\nIf you want to train your neural network on more data, feel free to load the data directly from Quandl.\nYou should be able to get the historic price data of a particular stock after login. \nUse Export > Python > api key and insert the api key to your model.\nhttps:\u002F\u002Fwww.quandl.com\u002Fdatabases\u002FWIKIP\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_readme_88839d89e294.png)\n\n## References:\nBernal, A., Fok, S., & Pidaparthi, R. (2012). Financial Market Time Series Prediction with Recurrent Neural Networks.\n\nBox, G. E., Jenkins, G. M., Reinsel, G. C., & Ljung, G. M. (2015). Time series analysis: forecasting and control. John Wiley & Sons.\n\nGu, J., Wang, Z., Kuen, J., Ma, L., Shahroudy, A., Shuai, B., ... & Cai, J. (2015). Recent advances in convolutional neural networks. arXiv preprint arXiv:1512.07108.\n\nHutto, C.J. & Gilbert, E.E. (2014). VADER: A Parsimonious Rule-based Model for Sentiment Analysis of Social Media Text. Eighth International Conference on Weblogs and Social Media (ICWSM-14). Ann Arbor, MI, June 2014.\n\nJaeger, H. (2001). The “echo state” approach to analysing and training recurrent neural networks-with an erratum note. Bonn, Germany: German National Research Center for Information Technology GMD Technical Report, 148(34), 13.\n\nJaeger, H. (2002). Tutorial on training recurrent neural networks, covering BPPT, RTRL, EKF and the\" echo state network\" approach (Vol. 5). GMD-Forschungszentrum Informationstechnik.\n\nMaass, W., Natschläger, T., & Markram, H. (2002). Real-time computing without stable states: A new framework for neural computation based on perturbations. Neural computation, 14(11), 2531-2560.\n","\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_readme_27b0d99bc87f.png\">\u003Cbr>\u003Cbr>\n\u003C\u002Fdiv>\n\n\n\n**Neural-Net-with-Financial-Time-Series-Data** 是一个开源软件项目，利用内生因素预测金融资产的每日对数收益率。该项目集成了多种技术指标（如随机指标、移动平均收敛\u002F发散振荡器），并通过带有热重启的随机梯度下降法（SGDR）和余弦退火策略来训练 LSTM 神经网络。这种灵活的架构允许您在不需自行重写代码的情况下，使用 Nvidia CuDNN 进行高效计算部署。超参数则通过贝叶斯搜索进行精细调优。\n\n\n## 最新结果：\n\n当前 LSTM 模型用于预测每日对数收益率的结果。\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_readme_b3243f6c5211.png)\n\n\n## 旧模型结果\n\n该旧模型使用 LSTM 预测股票价格。\n\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_readme_1be192a5461e.png)\n\n\n## LSTM 单元 \n\n这是我们模型中使用的 LSTM 单元。\n\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_readme_cb4b6a9fbbfb.png)\n\n由于模型中实现了 CuDNN LSTM 和批量归一化，它比普通 LSTM 单元**更快**。\n\n\n## 更新：\n2017年3月26日 第一次更新\n1. 代码中新增了基于 LSTM 的循环神经网络。\n2. 同时实现了 Keras 与 TensorFlow 的集成。\n3. 代码中还加入了 TensorBoard，用于神经网络的可视化。\n\n2017年4月14日 第二次更新\n1. 调整后的收盘价已进行归一化处理。\n2. 为简化操作，实现了一个新的数据下载工具。\n3. 增加了更多用于预测调整后收盘价的变量。\n4. 结果更加准确，均方误差显著降低。\n5. 新增了收盘价的可视化展示。\n6. 反归一化问题即将修复。\n7. Twitter 情感分析目前正处于测试阶段。\n\n2017年4月16日 第三次更新\n1. 更新了反归一化方法。\n2. 提供了更多测试结果。\n\n2017年4月18日 第四次更新\n1. 更新了来自 Kaggle 的纽约证券交易所基本面数据。\n\n2017年4月19日 第五次更新\n1. 支持 Windows 10 上的 Python 3.5。\n2. 准确性有了显著提升。\n\n2017年4月29日 第六次更新\n1. 添加了自 1970 年以来的 ^GSPC 数据，训练数据量增加，模型准确性更高。\n2. 提供了 7 年的测试数据。\n3. 采用面向对象编程。\n4. 对 Dropout 的超参数进行了测试。\n\n2017年5月8日 第七次更新\n1. 所有超参数均已测试完毕，并上传了相关结果。\n2. 修复了数据加载器的注释。\n3. 接下来将加入更多技术分析指标，如成交量、移动平均线及其他指数。\n\n2017年5月28日 第八次更新\n1. 使用 Quandl 替代 Pandas datareader。\n2. 新增了相关性热力图。\n3. 网络输入采用调整后的 OHLCV 数据。\n4. 所有功能均可从 lstmstock.py 中加载。\n5. 为没有 Quandl 账户的用户临时提供了 Quandl API 密钥。\n6. 新增了移动平均线。\n\n2017年10月2日 第九次更新\n\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_readme_df0bde4dc517.png)\n\n1. 事件驱动分析。\n2. 切换至 TensorFlow LSTM 模型。\n\n2018年6月25日 第十次更新\n1. 完全重写了新闻下载工具，移除了 Newsapi，以便免费获取完整的 NYTimes 数据。\n2. 新增了移动平均收敛\u002F发散振荡器（MACD）、随机振荡器以及平均真实波幅等指标用于模型训练。\n3. 目标变量现改为对数收益率。\n4. 使用 Keras 架构于 TensorFlow 之上。\n5. 采用 SKLearn 的随机搜索进行优化。\n\n2018年10月11日 第十一次更新\n应用了多项前沿技术：\n1. 使用 CuDNN LSTM 加速训练。\n2. 采用带有热重启的随机梯度下降法。\n3. 应用余弦退火策略。\n4. 使用贝叶斯搜索优化超参数。\n5. 引入新的数据划分方法。\n6. 提供了数据集。\n7. 使用 HDF 文件以加快读取速度。\n\n## 如何使用 Quandl\n如果您希望使用更多数据来训练您的神经网络，可以直接从 Quandl 加载数据。\n登录后，您应该能够获取特定股票的历史价格数据。\n请使用“Export > Python > api key”选项，并将 API 密钥插入到您的模型中。\nhttps:\u002F\u002Fwww.quandl.com\u002Fdatabases\u002FWIKIP\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_readme_88839d89e294.png)\n\n## 参考文献：\nBernal, A., Fok, S., & Pidaparthi, R. (2012). 利用循环神经网络预测金融市场时间序列。\n\nBox, G. E., Jenkins, G. M., Reinsel, G. C., & Ljung, G. M. (2015). 时间序列分析：预测与控制。约翰·威利出版社。\n\nGu, J., Wang, Z., Kuen, J., Ma, L., Shahroudy, A., Shuai, B., ... & Cai, J. (2015). 卷积神经网络的最新进展。arXiv 预印本 arXiv:1512.07108。\n\nHutto, C.J. & Gilbert, E.E. (2014). VADER：一种基于规则的简约情感分析模型，适用于社交媒体文本。第八届国际博客与社交媒体会议（ICWSM-14）。密歇根州安娜堡，2014年6月。\n\nJaeger, H. (2001). “回声状态”方法：用于分析和训练循环神经网络——附勘误说明。德国波恩：德国国家信息技术研究中心 GMD 技术报告，第 148(34) 号，第 13 页。\n\nJaeger, H. (2002). 循环神经网络训练教程，涵盖 BPPT、RTRL、EKF 以及“回声状态网络”方法（第 5 卷）。GMD 信息技术研究中心。\n\nMaass, W., Natschläger, T., & Markram, H. (2002). 无需稳定状态的实时计算：一种基于扰动的新神经计算框架。神经计算，第 14 卷，第 11 期，第 2531–2560 页。","# Neural-Net-with-Financial-Time-Series-Data 快速上手指南\n\n本项目是一个开源软件，利用内生因素（如技术指标）预测金融资产的每日对数收益率。模型基于 LSTM 神经网络，采用带有热重启的随机梯度下降（SGDR）和余弦退火策略进行训练，并支持 Nvidia CuDNN 加速。超参数通过贝叶斯搜索进行优化。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Windows 10 (已验证), Linux, macOS\n*   **Python 版本**: Python 3.5 或更高版本（推荐 Python 3.6+）\n*   **硬件加速**: 推荐使用配备 Nvidia GPU 的环境以启用 CuDNN 加速（可选，但能显著提升训练速度）\n*   **前置依赖**:\n    *   TensorFlow\n    *   Keras\n    *   Scikit-Learn (用于随机搜索和优化)\n    *   Pandas, NumPy\n    *   Quandl (数据源，需注册获取 API Key)\n    *   h5py (用于读取 HDF 文件加速)\n\n> **提示**：国内用户建议使用清华源或阿里源安装 Python 依赖包，以提升下载速度。\n> 例如：`pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple \u003Cpackage_name>`\n\n## 安装步骤\n\n1.  **克隆项目仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FBenjiKCF\u002FNeural-Network-with-Financial-Time-Series-Data.git\n    cd Neural-Network-with-Financial-Time-Series-Data\n    ```\n\n2.  **安装 Python 依赖**\n    项目中未提供 `requirements.txt`，请手动安装核心依赖库：\n    ```bash\n    pip install tensorflow keras scikit-learn pandas numpy quandl h5py matplotlib\n    ```\n    *(国内加速示例)*:\n    ```bash\n    pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow keras scikit-learn pandas numpy quandl h5py matplotlib\n    ```\n\n3.  **配置数据源 (Quandl)**\n    本项目主要使用 Quandl 获取历史股价数据。\n    *   访问 [Quandl WIKIP 数据库](https:\u002F\u002Fwww.quandl.com\u002Fdatabases\u002FWIKIP) 并注册账号。\n    *   登录后获取您的 API Key。\n    *   将 API Key 配置到代码中（通常在数据加载模块 `lstmstock.py` 或相关配置文件中查找替换位置）。\n\n## 基本使用\n\n本项目采用面向对象编程结构，核心功能封装在 `lstmstock.py` 中。以下是运行模型的基本流程：\n\n1.  **数据准备**\n    确保已配置好 Quandl API Key。项目会自动下载调整后的 OHLCV（开盘、最高、最低、收盘、成交量）数据，并计算技术指标（如 MACD、随机振荡器、平均真实波幅等）。\n\n2.  **运行训练与预测**\n    由于项目重构为模块化结构，您通常需要编写一个简单的入口脚本或直接修改主文件来执行。以下是一个概念性的调用示例（具体类名请参考 `lstmstock.py` 中的定义）：\n\n    ```python\n    from lstmstock import StockModel  # 假设的主类名，请以实际文件为准\n\n    # 初始化模型\n    model = StockModel(\n        ticker='AAPL',          # 股票代码\n        use_cudnn=True,         # 启用 CuDNN 加速\n        hyperparam_opt='bayes'  # 使用贝叶斯搜索优化超参数\n    )\n\n    # 加载数据并预处理 (包含归一化和技术指标计算)\n    model.load_data()\n\n    # 构建 LSTM 网络 (包含批量归一化)\n    model.build_network()\n\n    # 训练模型 (使用 SGDR 和余弦退火)\n    model.train(epochs=50)\n\n    # 预测每日对数收益率并可视化结果\n    model.predict_and_plot()\n    ```\n\n    *注意：由于原 README 未提供具体的命令行入口命令，实际操作中请直接运行项目根目录下的主执行脚本（如有），或在 Python 环境中导入 `lstmstock` 模块并按上述逻辑调用。项目已包含自 1970 年以来的 ^GSPC 数据及测试数据集（HDF 格式），可直接加载使用。*\n\n3.  **查看结果**\n    运行结束后，程序将生成预测值与真实值的对比图（Predicted vs True），并输出均方误差（MSE）等评估指标。您可以利用 TensorBoard 查看神经网络的可视化训练过程。","某量化交易团队的初级分析师试图构建一个基于深度学习的股票日收益率预测模型，以辅助制定短期交易策略。\n\n### 没有 Neural-Net-with-Financial-Time-Series-Data 时\n- **特征工程繁琐且单一**：分析师需手动编写代码抓取并计算移动平均线、随机振荡器等技术指标，往往因遗漏关键内生因子导致模型输入信息不足。\n- **训练效率低下**：使用普通 LSTM 单元在未优化的 TensorFlow 环境下训练，无法利用 Nvidia CuDNN 加速，处理多年历史数据耗时极长，难以快速迭代。\n- **调参依赖经验猜测**：缺乏系统的超参数优化机制，只能依靠人工试错调整学习率和 Dropout 比例，极易陷入局部最优解，预测均方误差居高不下。\n- **架构扩展性差**：若要切换到底层加速库或引入新的数据源（如新闻情绪），往往需要重构大量底层代码，开发维护成本高昂。\n\n### 使用 Neural-Net-with-Financial-Time-Series-Data 后\n- **多维特征自动集成**：直接调用内置模块，自动整合 MACD、随机振荡器及平均真实波幅（ATR）等多种技术指标，显著丰富了模型对市场波动的感知能力。\n- **训练速度大幅提升**：依托集成的 CuDNN LSTM 和批量归一化技术，在相同硬件下训练速度显著加快，支持快速验证不同时间跨度的策略有效性。\n- **智能超参数寻优**：利用贝叶斯搜索算法自动微调网络结构，结合带热重启的随机梯度下降（SGDR）和余弦退火策略，使日对数收益率的预测精度显著提高。\n- **灵活部署无需重写**：基于面向对象架构和 Keras\u002FTensorFlow 封装，分析师可轻松替换数据源或添加新变量，无需修改核心计算逻辑即可实现模型更新。\n\nNeural-Net-with-Financial-Time-Series-Data 通过集成先进的深度学习技巧与自动化调参流程，将复杂的金融时序预测从“手工作坊”升级为高效、精准的工业化生产模式。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBenjiKCF_Neural-Net-with-Financial-Time-Series-Data_1c8ced33.png","BenjiKCF","B","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FBenjiKCF_a6445511.jpg",null,"https:\u002F\u002Fgithub.com\u002FBenjiKCF",[21,25],{"name":22,"color":23,"percentage":24},"Jupyter Notebook","#DA5B0B",99.5,{"name":26,"color":27,"percentage":28},"Python","#3572A5",0.5,762,308,"2026-03-30T13:39:16",3,"Windows","建议使用 NVIDIA GPU 以启用 CuDNN 加速（非绝对必需但推荐），具体型号、显存大小及 CUDA 版本未说明","未说明",{"notes":37,"python":38,"dependencies":39},"该项目利用 CuDNN LSTM 进行加速训练，需配置支持 CuDNN 的 TensorFlow 环境。数据源主要依赖 Quandl（需提供 API Key）或本地 HDF 文件。项目包含技术指标（如 MACD、随机振荡器）计算及贝叶斯超参数搜索功能。注意：README 最后更新时间为 2018 年，部分依赖库版本可能较旧，需在现代环境中进行兼容性调整。","3.5+",[40,41,42,43,44],"TensorFlow","Keras","Scikit-learn","Quandl","HDF5",[46,47],"开发框架","其他",2,"ready","2026-03-27T02:49:30.150509","2026-04-06T07:12:45.026199",[53,58,63,68,73,78,83],{"id":54,"question_zh":55,"answer_zh":56,"source_url":57},12218,"在金融时间序列建模中，应该使用价格（Price）还是收益率（Return）作为预测目标？","应该使用收益率（Return）或对数相对收益率（Log Relative Return），而不是绝对价格。因为价格包含昨日的库存信息（占大部分），直接预测价格容易掩盖对增量变化的预测误差。在真实的金融交易中，获胜的关键在于准确预测增量变化，而非依赖昨日价格这一“安全”的基准。收益率是归一化的量级，更适合模型训练。","https:\u002F\u002Fgithub.com\u002FBenjiKCF\u002FNeural-Net-with-Financial-Time-Series-Data\u002Fissues\u002F8",{"id":59,"question_zh":60,"answer_zh":61,"source_url":62},12219,"项目中的 Notebook 文件应该按照什么顺序运行？","请严格按照以下顺序运行文件以复现结果：\n1. NY_Times_downloader.ipynb\n2. SP500 data preparation.ipynb\n3. Combining the News and Technical data.ipynb\n4. Data Preprocessing and Sentiment Analysis.ipynb\n5. Recurrent Neural Network.ipynb\n其他文件对于复现本项目不是必须的。","https:\u002F\u002Fgithub.com\u002FBenjiKCF\u002FNeural-Net-with-Financial-Time-Series-Data\u002Fissues\u002F10",{"id":64,"question_zh":65,"answer_zh":66,"source_url":67},12220,"代码中提到的技术指标（如 MACD, Stochastics, ATR）是什么意思？是自定义的吗？","这些不是自定义方法，而是技术分析中常用的标准指标：\n- MACD (Moving Average Convergence Divergence)：用于判断趋势。\n- Stochastics (随机指标)：用于衡量动量（Momentum）。\n- ATR (Average True Range)：通常与成交量（Volume）波动相关。\n如果您认为它们对您的模型无用，可以选择排除这些特征。","https:\u002F\u002Fgithub.com\u002FBenjiKCF\u002FNeural-Net-with-Financial-Time-Series-Data\u002Fissues\u002F15",{"id":69,"question_zh":70,"answer_zh":71,"source_url":72},12221,"在进行多步预测（Multi-step forecast）时，模型输出总是负值或范围受限，如何解决？","这是因为输出层的激活函数限制了数值范围。建议将模型最后一层（Dense 层）的激活函数修改为 `tanh`。`tanh` 函数的输出范围在 -1 到 1 之间，这样可以允许模型输出正负方向的预测值，从而更好地拟合趋势变化。","https:\u002F\u002Fgithub.com\u002FBenjiKCF\u002FNeural-Net-with-Financial-Time-Series-Data\u002Fissues\u002F9",{"id":74,"question_zh":75,"answer_zh":76,"source_url":77},12222,"运行代码时出现 'IndexError: too many indices for array' 错误，特别是在处理 y_train 时，怎么办？","这通常是因为数组维度不匹配导致的（例如先切片成了 1D 数组再次尝试二维索引）。维护者已更新了 Jupyter Notebook 文件以修复此问题。建议您拉取最新的代码版本重试。如果问题依旧，请检查您的数据形状（使用 `train.shape`, `X_train.shape`, `y_train.shape`），确保输入数据的维度与代码预期一致。","https:\u002F\u002Fgithub.com\u002FBenjiKCF\u002FNeural-Net-with-Financial-Time-Series-Data\u002Fissues\u002F5",{"id":79,"question_zh":80,"answer_zh":81,"source_url":82},12223,"运行情感分析笔记本时遇到语法错误（例如访问 DataFrame 列时报错），如何修复？","如果是涉及 Pandas DataFrame 索引或列访问的错误，尝试将代码中的访问方式改为使用 `.loc`。例如，将导致错误的写法修改为：`df.loc[date, 'neg']`。这通常能解决因索引类型或列名解析引起的语法问题。","https:\u002F\u002Fgithub.com\u002FBenjiKCF\u002FNeural-Net-with-Financial-Time-Series-Data\u002Fissues\u002F13",{"id":84,"question_zh":85,"answer_zh":86,"source_url":87},12224,"有哪些推荐的超参数配置可以加速训练并提高测试分数？","社区用户分享了一套优化后的参数配置，可显著提升效率并降低 MSE：\n- seq_len (序列长度): 2\n- dropout Rate: 0.01 (注意原讨论中变量名为 d)\n- neurons (神经元结构): [168, 168, 64, 1]\n- epochs: 20 (多数股票在 18 轮后效果趋于平稳)\n- Batch_Size: 512\n- Validation_Split: 0.01\n此外，绘图时若发现预测滞后，可将测试标签向前滚动一天：`newy_test = np.roll(newy_test, 1, 0)` 以对齐涨跌点。","https:\u002F\u002Fgithub.com\u002FBenjiKCF\u002FNeural-Net-with-Financial-Time-Series-Data\u002Fissues\u002F7",[],[90,100,109,117,125,137],{"id":91,"name":92,"github_repo":93,"description_zh":94,"stars":95,"difficulty_score":32,"last_commit_at":96,"category_tags":97,"status":49},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[46,98,99],"图像","Agent",{"id":101,"name":102,"github_repo":103,"description_zh":104,"stars":105,"difficulty_score":48,"last_commit_at":106,"category_tags":107,"status":49},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,"2026-04-05T11:33:21",[46,99,108],"语言模型",{"id":110,"name":111,"github_repo":112,"description_zh":113,"stars":114,"difficulty_score":48,"last_commit_at":115,"category_tags":116,"status":49},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[46,98,99],{"id":118,"name":119,"github_repo":120,"description_zh":121,"stars":122,"difficulty_score":48,"last_commit_at":123,"category_tags":124,"status":49},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[46,108],{"id":126,"name":127,"github_repo":128,"description_zh":129,"stars":130,"difficulty_score":48,"last_commit_at":131,"category_tags":132,"status":49},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[98,133,134,135,99,47,108,46,136],"数据工具","视频","插件","音频",{"id":138,"name":139,"github_repo":140,"description_zh":141,"stars":142,"difficulty_score":32,"last_commit_at":143,"category_tags":144,"status":49},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[99,98,46,108,47]]