[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-thuml--OpenLTM":3,"tool-thuml--OpenLTM":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":10,"env_os":97,"env_gpu":98,"env_ram":97,"env_deps":99,"category_tags":104,"github_topics":105,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":109,"updated_at":110,"faqs":111,"releases":151},9055,"thuml\u002FOpenLTM","OpenLTM","Implementations, Pre-training Code and Datasets of Large Time-Series Models","OpenLTM 是一个专注于大型时间序列模型（LTM）的开源代码库，旨在为开发者提供从预训练到评估的完整流水线。它主要解决了时间序列领域缺乏统一开发框架和高质量预训练模型的痛点，让研究人员能够更轻松地构建、复现并应用如 Timer、Moirai、GPT4TS 等前沿模型，从而高效处理零样本预测、特征提取等多样化任务。\n\n该项目特别适合人工智能研究人员、数据科学家以及希望深入探索时间序列大模型的开发者使用。无论是想要微调现有模型，还是从头开始预训练新架构，OpenLTM 都提供了丰富的脚本和数据集支持。其核心亮点在于集成了多种基于 Transformer 的可扩展骨干网络，并发布了包括 260B 参数在内的多个大规模预训练权重，显著降低了进入该领域的门槛。此外，项目还持续更新社区贡献的实现方案，促进了学术成果的快速落地与共享，是探索时间序列基础模型不可或缺的工具平台。","# OpenLTM\n\nOpenLTM is an open codebase aiming to provide a pipeline to develop and evaluate large time-series models. \n\n> For deep time series models, we recommend [Time-Series-Library](https:\u002F\u002Fgithub.com\u002Fthuml\u002FTime-Series-Library) and this comprehensive [Survey](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.13278).\n\n> Try out our out-of-the-box time series foundation models in [Large-Time-Series-Model](https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model) or [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fthuml\u002Ftime-series-foundation-models-67c80ace73299239b651d954).\n\n## Updates\n\n\n:triangular_flag_on_post: **News** (2025.05) We release 260B pre-trained [Timer in PyTorch](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F01c35ca13f474176be7b\u002F). This version is equivalent to [Huggingface Model](https:\u002F\u002Fhuggingface.co\u002Fthuml\u002Ftimer-base-84m), but more user-friendly for fine-tuning. This [notebook](.\u002Fload_pth_ckpt.ipynb) shows how to load and use the checkpoint.\n\n:triangular_flag_on_post: **News** (2025.04) Many thanks for the implementation of [TTMs](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2401.03955) and other LLM4TS methods from [frndtls](https:\u002F\u002Fgithub.com\u002Ffrndtls).\n\n:triangular_flag_on_post: **News** (2024.12) Many thanks for the implementation of [GPT4TS](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11939) from [khairulislam](https:\u002F\u002Fgithub.com\u002Fkhairulislam).\n\n:triangular_flag_on_post: **News** (2024.10) We include several large time-series models, release pre-training code, and provide scripts.\n\n## What is LTM?\n\nLTM (**L**arge **T**ime-Series **M**odel, aka Time Series Foundation Model, TSFM) is a deep time series models built on scalable backbones (e.g., Transformers) via large-scale pre-training, which will be applied to a variety of time series data (e.g., zero-shot forecasting) and downstream tasks (e.g., general feature extraction of time series). For more information, here we list some tutorials: [[CN]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F7b88e05d38bb40a1be30\u002F), [[EN]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002Fc5fca76d6fa54f1d891a\u002F).\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_OpenLTM_readme_6a3f132e2dae.png\" alt=\"\" align=center \u002F>\n\u003C\u002Fp>\n\n## Model Checklist\n\n- [x] **Timer-XL** - Timer-XL: Long-Context Transformer for Unified Time Series Forecasting. [[ICLR 2025]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.04803), [[Code]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FTimer-XL)\n- [x] **Moirai** - Unified Training of Universal Time Series Forecasting Transformers. [[ICML 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02592), [[Code]](https:\u002F\u002Fgithub.com\u002FSalesforceAIResearch\u002Funi2ts)\n- [x] **Timer** - Timer: Generative Pre-trained Transformers Are Large Time Series Models. [[ICML 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02368), [[Code]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model)\n- [x] **Moment** - MOMENT: A Family of Open Time-series Foundation Model. [[ICML 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.03885), [[Code]](https:\u002F\u002Fgithub.com\u002Fmoment-timeseries-foundation-model\u002Fmoment)\n- [x] **TTMs** - Tiny Time Mixers (TTMs): Fast Pre-trained Models for Enhanced Zero\u002FFew-Shot Forecasting of Multivariate Time Series. [[Arxiv 2024]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2401.03955), [[Code]](https:\u002F\u002Fhuggingface.co\u002Fibm-research\u002Fttm-research-r2)\n- [x] **GPT4TS** - One Fits All: Power General Time Series Analysis by Pretrained LM. [[NeurIPS 2023]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11939), [[Code]](https:\u002F\u002Fgithub.com\u002FDAMO-DI-ML\u002FNeurIPS2023-One-Fits-All)\n- [x] **Time-LLM**: . Time-LLM: Time Series Forecasting by Reprogramming Large Language Models. [[ICLR 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01728), [[Code]](https:\u002F\u002Fgithub.com\u002FKimMeen\u002FTime-LLM)\n- [x] **AutoTimes**: Autoregressive Time Series Forecasters via Large Language Models. [[NeurIPS 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02370), [[Code]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FAutoTimes)\n- [ ] Sundial: A Family of Highly Capable Time Series Foundation Models. [[ICML 2025]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.00816), [[Code]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FSundial)\n- [ ] LLMTime: Large Language Models Are Zero-Shot Time Series Forecasters. [[NeurIPS 2023]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07820), [[Code]](https:\u002F\u002Fgithub.com\u002Fngruver\u002Fllmtime)\n- [ ] Chronos: Learning the Language of Time Series. [[TMLR 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.07815), [[Code]](https:\u002F\u002Fgithub.com\u002Famazon-science\u002Fchronos-forecasting)\n- [ ] Time-MoE: Billion-Scale Time Series Foundation Models With Mixture Of Experts. [[ICLR 2025]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.16040), [[Code]](https:\u002F\u002Fgithub.com\u002FTime-MoE\u002FTime-MoE)\n- [ ] A Decoder-Only Foundation Model for Time-Series Forecasting. [[ICML 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10688), [[Code]](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Ftimesfm)\n\n\n## Usage\n\n1. Install Python 3.11 For convenience, execute the following command.\n\n```\npip install -r requirements.txt\n```\n\n2. Place downloaded data in the folder ```.\u002Fdataset```. Here is a [dataset summary](.\u002Ffigures\u002Fdatasets.png).\n\n- For univariate pre-training (skip this step if you use a pre-trained checkpoint):\n  * [UTSD](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fthuml\u002FUTSD) contains 1 billion time points for large-scale pre-training (in numpy format): [[Download]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F93868e3a9fb144fe9719\u002F\n).\n  * [ERA5-Family](https:\u002F\u002Fwww.ecmwf.int\u002Fen\u002Fforecasts\u002Fdataset\u002Fecmwf-reanalysis-v5) (40-year span, thousands of variables) for domain-specific model: [[Download]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F7fe0b95032c64d39bc4a\u002F).\n\n- For supervised training or modeling adaptation\n  * Datasets from [TSLib](https:\u002F\u002Fgithub.com\u002Fthuml\u002FTime-Series-Library) : [[Download]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F4d83223ad71047e28aec\u002F).\n\n3. Training from scratch or using our pre-trained checkpoint in the folder ```.\u002Fcheckpoints```\n\n- We provide the [checkpoint](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.04803) pre-trained on 260B time points [[Download]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F01c35ca13f474176be7b\u002F).\n\n4. We provide some supervised training, pre-training, and adaptation scripts under the folder `.\u002Fscripts\u002F`:\n\n```\n# Supervised training\n# (a) one-for-one forecasting\nbash .\u002Fscripts\u002Fsupervised\u002Fforecast\u002Fmoirai_ecl.sh\n# (b) one-for-all (rolling) forecasting\nbash .\u002Fscripts\u002Fsupervised\u002Frolling_forecast\u002Ftimer_xl_ecl.sh\n\n# Large-scale pre-training\n# (a) pre-training on UTSD\nbash .\u002Fscripts\u002Fpretrain\u002Ftimer_xl_utsd.sh\n# (b) pre-training on ERA5\nbash .\u002Fscripts\u002Fpretrain\u002Ftimer_xl_era5.sh\n\n# Model adaptation\n# (a) full-shot fine-tune\nbash .\u002Fscripts\u002Fadaptation\u002Ffull_shot\u002Ftimer_xl_etth1.sh\n# (b) few-shot fine-tune\nbash .\u002Fscripts\u002Fadaptation\u002Ffew_shot\u002Ftimer_xl_etth1.sh\n```\n\n5. Develop your large time-series model.\n\n- Add the model file to the folder `.\u002Fmodels`. You can follow the `.\u002Fmodels\u002Ftimer_xl.py`.\n- Include the newly added model in the `Exp_Basic.model_dict` of  `.\u002Fexp\u002Fexp_basic.py`.\n- Create the corresponding scripts under the folder `.\u002Fscripts`.\n\n## Recommended Resources\n\nHere we list some resources of LTMs, which support out-of-box usage (e.g., zero-shot forecasting):\n\n- Sundial: https:\u002F\u002Fhuggingface.co\u002Fthuml\u002Fsundial-base-128m\n- Timer: https:\u002F\u002Fhuggingface.co\u002Fthuml\u002Ftimer-base-84m\n- Chronos: https:\u002F\u002Fhuggingface.co\u002Famazon\u002Fchronos-t5-base\n- Moirai: https:\u002F\u002Fhuggingface.co\u002FSalesforce\u002Fmoirai-1.0-R-base\n- TimesFM: https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Ftimesfm-1.0-200m\n- Time-MoE: https:\u002F\u002Fhuggingface.co\u002FMaple728\u002FTimeMoE-50M\n- TTMs: https:\u002F\u002Fhuggingface.co\u002Fibm-research\u002Fttm-research-r2\n\n> [!NOTE]\n> LTMs are still small compared to foundation models of other modalities. For example, it is okay to use CPUs for inference, RTX 4090s for adaptation, A100s for pre-training.\n\n## Citation\n\nIf you find this repo helpful, please cite our paper. \n\n```\n@inproceedings{liutimer,\n  title={Timer: Generative Pre-trained Transformers Are Large Time Series Models},\n  author={Liu, Yong and Zhang, Haoran and Li, Chenyu and Huang, Xiangdong and Wang, Jianmin and Long, Mingsheng},\n  booktitle={Forty-first International Conference on Machine Learning}\n}\n\n@article{liu2024timer,\n  title={Timer-XL: Long-Context Transformers for Unified Time Series Forecasting},\n  author={Liu, Yong and Qin, Guo and Huang, Xiangdong and Wang, Jianmin and Long, Mingsheng},\n  journal={arXiv preprint arXiv:2410.04803},\n  year={2024}\n}\n\n@article{liu2025sundial,\n  title={Sundial: A Family of Highly Capable Time Series Foundation Models},\n  author={Liu, Yong and Qin, Guo and Shi, Zhiyuan and Chen, Zhi and Yang, Caiyin and Huang, Xiangdong and Wang, Jianmin and Long, Mingsheng},\n  journal={arXiv preprint arXiv:2502.00816},\n  year={2025}\n}\n```\n\n## Acknowledgment\n\nWe appreciate the following GitHub repos a lot for their valuable code and efforts:\n- Time-Series-Library (https:\u002F\u002Fgithub.com\u002Fthuml\u002FTime-Series-Library)\n- Large-Time-Series-Model (https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model)\n- AutoTimes (https:\u002F\u002Fgithub.com\u002Fthuml\u002FAutoTimes)\n\n## Contributors\n\nIf you have any questions or want to use the code, feel free to contact:\n* Yong Liu (liuyong21@mails.tsinghua.edu.cn)\n* Guo Qin (qinguo24@mails.tsinghua.edu.cn)\n* Haixuan Liu (liuhaixu21@mails.tsinghua.edu.cn)\n","# OpenLTM\n\nOpenLTM 是一个开源代码库，旨在提供一套用于开发和评估大型时间序列模型的流水线。\n\n> 对于深度时间序列模型，我们推荐 [Time-Series-Library](https:\u002F\u002Fgithub.com\u002Fthuml\u002FTime-Series-Library) 以及这篇全面的 [综述](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.13278)。\n\n> 您可以在 [Large-Time-Series-Model](https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model) 或 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fthuml\u002Ftime-series-foundation-models-67c80ace73299239b651d954) 中试用我们开箱即用的时间序列基础模型。\n\n## 更新\n\n:triangular_flag_on_post: **新闻** (2025.05) 我们发布了 260B 参数量的预训练模型 [Timer 的 PyTorch 版本](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F01c35ca13f474176be7b\u002F)。该版本等同于 [HuggingFace 模型](https:\u002F\u002Fhuggingface.co\u002Fthuml\u002Ftimer-base-84m)，但在微调方面更加友好。此 [notebook](.\u002Fload_pth_ckpt.ipynb) 展示了如何加载和使用该检查点。\n\n:triangular_flag_on_post: **新闻** (2025.04) 非常感谢 [frndtls](https:\u002F\u002Fgithub.com\u002Ffrndtls) 实现了 [TTMs](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2401.03955) 及其他 LLM4TS 方法。\n\n:triangular_flag_on_post: **新闻** (2024.12) 非常感谢 [khairulislam](https:\u002F\u002Fgithub.com\u002Fkhairulislam) 实现了 [GPT4TS](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11939)。\n\n:triangular_flag_on_post: **新闻** (2024.10) 我们收录了几款大型时间序列模型，发布了预训练代码，并提供了相关脚本。\n\n## 什么是 LTM？\n\nLTM (**L**arge **T**ime-Series **M**odel，又称时间序列基础模型，TSFM）是一种基于可扩展骨干网络（如 Transformer）并通过大规模预训练构建的深度时间序列模型，可用于处理多种时间序列数据（例如零样本预测）以及下游任务（例如时间序列的通用特征提取）。更多信息请参阅以下教程：[[CN]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F7b88e05d38bb40a1be30\u002F)，[[EN]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002Fc5fca76d6fa54f1d891a\u002F)。\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_OpenLTM_readme_6a3f132e2dae.png\" alt=\"\" align=center \u002F>\n\u003C\u002Fp>\n\n## 模型清单\n\n- [x] **Timer-XL** - Timer-XL：用于统一时间序列预测的长上下文 Transformer。[[ICLR 2025]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.04803)，[[代码]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FTimer-XL)\n- [x] **Moirai** - 通用时间序列预测 Transformer 的统一训练。[[ICML 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02592)，[[代码]](https:\u002F\u002Fgithub.com\u002FSalesforceAIResearch\u002Funi2ts)\n- [x] **Timer** - Timer：生成式预训练 Transformer 即为大型时间序列模型。[[ICML 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02368)，[[代码]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model)\n- [x] **Moment** - MOMENT：一系列开源时间序列基础模型。[[ICML 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.03885)，[[代码]](https:\u002F\u002Fgithub.com\u002Fmoment-timeseries-foundation-model\u002Fmoment)\n- [x] **TTMs** - Tiny Time Mixers (TTMs)：用于增强多变量时间序列零\u002F少样本预测的快速预训练模型。[[Arxiv 2024]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2401.03955)，[[代码]](https:\u002F\u002Fhuggingface.co\u002Fibm-research\u002Fttm-research-r2)\n- [x] **GPT4TS** - 一劳永逸：通过预训练语言模型实现强大的通用时间序列分析。[[NeurIPS 2023]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11939)，[[代码]](https:\u002F\u002Fgithub.com\u002FDAMO-DI-ML\u002FNeurIPS2023-One-Fits-All)\n- [x] **Time-LLM**：通过重编程大型语言模型进行时间序列预测。[[ICLR 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01728)，[[代码]](https:\u002F\u002Fgithub.com\u002FKimMeen\u002FTime-LLM)\n- [x] **AutoTimes**：利用大型语言模型进行自回归时间序列预测。[[NeurIPS 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02370)，[[代码]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FAutoTimes)\n- [ ] Sundial：一系列功能强大的时间序列基础模型。[[ICML 2025]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.00816)，[[代码]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FSundial)\n- [ ] LLMTime：大型语言模型是零样本时间序列预测器。[[NeurIPS 2023]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07820)，[[代码]](https:\u002F\u002Fgithub.com\u002Fngruver\u002Fllmtime)\n- [ ] Chronos：学习时间序列的语言。[[TMLR 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.07815)，[[代码]](https:\u002F\u002Fgithub.com\u002Famazon-science\u002Fchronos-forecasting)\n- [ ] Time-MoE：具有专家混合机制的百亿级规模时间序列基础模型。[[ICLR 2025]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.16040)，[[代码]](https:\u002F\u002Fgithub.com\u002FTime-MoE\u002FTime-MoE)\n- [ ] 仅解码器架构的时间序列预测基础模型。[[ICML 2024]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10688)，[[代码]](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Ftimesfm)\n\n## 使用方法\n\n1. 安装 Python 3.11。为方便起见，请执行以下命令。\n\n```\npip install -r requirements.txt\n```\n\n2. 将下载的数据放入 ```.\u002Fdataset``` 文件夹中。此处提供一份 [数据集概览](.\u002Ffigures\u002Fdatasets.png)。\n\n- 对于单变量预训练（如果您使用的是预训练检查点，则可跳过此步骤）：\n  * [UTSD](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fthuml\u002FUTSD) 包含 10 亿个时间点，用于大规模预训练（numpy 格式）：[[下载]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F93868e3a9fb144fe9719\u002F)。\n  * [ERA5 系列](https:\u002F\u002Fwww.ecmwf.int\u002Fen\u002Fforecasts\u002Fdataset\u002Fecmwf-reanalysis-v5)（40 年跨度，数千种变量）适用于特定领域的模型：[[下载]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F7fe0b95032c64d39bc4a\u002F)。\n\n- 对于监督训练或模型适配\n  * 来自 [TSLib](https:\u002F\u002Fgithub.com\u002Fthuml\u002FTime-Series-Library) 的数据集：[[下载]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F4d83223ad71047e28aec\u002F)。\n\n3. 从头开始训练，或使用我们位于 ```.\u002Fcheckpoints``` 文件夹中的预训练检查点。\n\n- 我们提供在 260B 时间点上预训练的 [检查点](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.04803)：[[下载]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F01c35ca13f474176be7b\u002F)。\n\n4. 我们在 `.\u002Fscripts\u002F` 文件夹下提供了一些监督训练、预训练和适配脚本：\n\n```\n# 监督训练\n# (a) 一对一预测\nbash .\u002Fscripts\u002Fsupervised\u002Fforecast\u002Fmoirai_ecl.sh\n# (b) 一对多（滚动）预测\nbash .\u002Fscripts\u002Fsupervised\u002Frolling_forecast\u002Ftimer_xl_ecl.sh\n\n# 大规模预训练\n# (a) 在 UTSD 上预训练\nbash .\u002Fscripts\u002Fpretrain\u002Ftimer_xl_utsd.sh\n# (b) 在 ERA5 上预训练\nbash .\u002Fscripts\u002Fpretrain\u002Ftimer_xl_era5.sh\n\n# 模型适配\n# (a) 全样本微调\nbash .\u002Fscripts\u002Fadaptation\u002Ffull_shot\u002Ftimer_xl_etth1.sh\n# (b) 少样本微调\nbash .\u002Fscripts\u002Fadaptation\u002Ffew_shot\u002Ftimer_xl_etth1.sh\n```\n\n5. 开发您的大型时间序列模型。\n\n- 将模型文件添加到 `.\u002Fmodels` 文件夹中。您可以参考 `.\u002Fmodels\u002Ftimer_xl.py`。\n- 将新添加的模型纳入 `.\u002Fexp\u002Fexp_basic.py` 中的 `Exp_Basic.model_dict`。\n- 在 `.\u002Fscripts` 文件夹下创建相应的脚本。\n\n## 推荐资源\n\n在此我们列出一些时间序列大模型的资源，它们支持开箱即用（例如零样本预测）：\n\n- Sundial：https:\u002F\u002Fhuggingface.co\u002Fthuml\u002Fsundial-base-128m\n- Timer：https:\u002F\u002Fhuggingface.co\u002Fthuml\u002Ftimer-base-84m\n- Chronos：https:\u002F\u002Fhuggingface.co\u002Famazon\u002Fchronos-t5-base\n- Moirai：https:\u002F\u002Fhuggingface.co\u002FSalesforce\u002Fmoirai-1.0-R-base\n- TimesFM：https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Ftimesfm-1.0-200m\n- Time-MoE：https:\u002F\u002Fhuggingface.co\u002FMaple728\u002FTimeMoE-50M\n- TTMs：https:\u002F\u002Fhuggingface.co\u002Fibm-research\u002Fttm-research-r2\n\n> [!NOTE]\n> 与其它模态的基础模型相比，时间序列大模型目前规模仍然较小。例如，推理时使用 CPU 即可，适配阶段可以使用 RTX 4090 显卡，而预训练则建议使用 A100 显卡。\n\n## 引用\n\n如果您觉得本仓库对您有帮助，请引用我们的论文。\n\n```\n@inproceedings{liutimer,\n  title={Timer: Generative Pre-trained Transformers Are Large Time Series Models},\n  author={Liu, Yong and Zhang, Haoran and Li, Chenyu and Huang, Xiangdong and Wang, Jianmin and Long, Mingsheng},\n  booktitle={Forty-first International Conference on Machine Learning}\n}\n\n@article{liu2024timer,\n  title={Timer-XL: Long-Context Transformers for Unified Time Series Forecasting},\n  author={Liu, Yong and Qin, Guo and Huang, Xiangdong and Wang, Jianmin and Long, Mingsheng},\n  journal={arXiv preprint arXiv:2410.04803},\n  year={2024}\n}\n\n@article{liu2025sundial,\n  title={Sundial: A Family of Highly Capable Time Series Foundation Models},\n  author={Liu, Yong and Qin, Guo and Shi, Zhiyuan and Chen, Zhi and Yang, Caiyin and Huang, Xiangdong and Wang, Jianmin and Long, Mingsheng},\n  journal={arXiv preprint arXiv:2502.00816},\n  year={2025}\n}\n```\n\n## 致谢\n\n我们非常感谢以下 GitHub 仓库提供的宝贵代码和努力：\n- Time-Series-Library（https:\u002F\u002Fgithub.com\u002Fthuml\u002FTime-Series-Library）\n- Large-Time-Series-Model（https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model）\n- AutoTimes（https:\u002F\u002Fgithub.com\u002Fthuml\u002FAutoTimes）\n\n## 贡献者\n\n如果您有任何问题或希望使用这些代码，请随时联系：\n* 刘勇（liuyong21@mails.tsinghua.edu.cn）\n* 秦果（qinguo24@mails.tsinghua.edu.cn）\n* 刘海轩（liuhaixu21@mails.tsinghua.edu.cn）","# OpenLTM 快速上手指南\n\nOpenLTM 是一个开源代码库，旨在提供开发和评估大型时间序列模型（Large Time-Series Models, LTM）的完整流水线。它支持从零开始预训练、监督训练以及模型微调适配。\n\n## 环境准备\n\n*   **系统要求**：Linux \u002F macOS \u002F Windows\n*   **Python 版本**：推荐 **Python 3.11**\n*   **硬件建议**：\n    *   **推理**：CPU 即可运行部分轻量模型。\n    *   **微调\u002F适配**：推荐 NVIDIA RTX 4090 或同等算力显卡。\n    *   **大规模预训练**：推荐 NVIDIA A100 或多卡集群。\n\n## 安装步骤\n\n1.  **克隆仓库**（如未下载）：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM.git\n    cd OpenLTM\n    ```\n\n2.  **安装依赖**：\n    项目依赖可通过 `requirements.txt` 一键安装。国内用户建议使用清华源加速安装：\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n## 基本使用\n\n### 1. 数据准备\n将下载的数据集放入 `.\u002Fdataset` 目录。\n*   **大规模预训练数据**：推荐 [UTSD](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fthuml\u002FUTSD) (10 亿时间点) 或 [ERA5-Family](https:\u002F\u002Fwww.ecmwf.int\u002Fen\u002Fforecasts\u002Fdataset\u002Fecmwf-reanalysis-v5)。\n    *   UTSD 国内下载地址：[清华大学云盘](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F93868e3a9fb144fe9719\u002F)\n*   **监督训练\u002F微调数据**：可使用 [TSLib](https:\u002F\u002Fgithub.com\u002Fthuml\u002FTime-Series-Library) 中的标准数据集。\n    *   下载地址：[清华大学云盘](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F4d83223ad71047e28aec\u002F)\n\n### 2. 加载预训练模型\n您可以直接使用官方提供的预训练权重（例如在 2600 亿时间点上预训练的 Timer-XL），无需从头训练。\n*   **权重下载**：[Timer-XL Checkpoint (PyTorch)](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F01c35ca13f474176be7b\u002F)\n*   将下载的 `.pth` 文件放入 `.\u002Fcheckpoints` 目录。\n*   参考 [`load_pth_ckpt.ipynb`](.\u002Fload_pth_ckpt.ipynb) 笔记本学习如何加载和使用权重。\n\n### 3. 运行示例脚本\n项目提供了现成的脚本用于监督训练、预训练和模型适配。以下是最常用的**监督训练**和**微调**示例：\n\n**场景 A：监督训练 (一对一预测)**\n```bash\nbash .\u002Fscripts\u002Fsupervised\u002Fforecast\u002Fmoirai_ecl.sh\n```\n\n**场景 B：监督训练 (滚动预测\u002F全能模式)**\n```bash\nbash .\u002Fscripts\u002Fsupervised\u002Frolling_forecast\u002Ftimer_xl_ecl.sh\n```\n\n**场景 C：模型微调 (全量数据 Fine-tune)**\n```bash\nbash .\u002Fscripts\u002Fadaptation\u002Ffull_shot\u002Ftimer_xl_etth1.sh\n```\n\n**场景 D：模型微调 (少样本 Few-shot Fine-tune)**\n```bash\nbash .\u002Fscripts\u002Fadaptation\u002Ffew_shot\u002Ftimer_xl_etth1.sh\n```\n\n### 4. 开发自定义模型\n若要集成新的时间序列模型：\n1.  在 `.\u002Fmodels` 目录下添加模型文件（参考 `timer_xl.py`）。\n2.  在 `.\u002Fexp\u002Fexp_basic.py` 的 `Exp_Basic.model_dict` 中注册新模型。\n3.  在 `.\u002Fscripts` 目录下创建对应的运行脚本。\n\n> **提示**：更多开箱即用的基础模型（如 Sundial, Chronos, Moirai 等）可直接在 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fthuml\u002Ftime-series-foundation-models-67c80ace73299239b651d954) 获取并配合本框架使用。","某新能源发电集团的数据科学团队正致力于构建覆盖全国数千个风电场的超短期功率预测系统，以应对电网调度对精度的严苛要求。\n\n### 没有 OpenLTM 时\n- **模型重复造轮子**：团队需从零搭建 Transformer 架构并编写预训练代码，耗时数月才能复现如 Timer 或 Moirai 等前沿算法，研发周期严重滞后。\n- **冷启动数据匮乏**：面对新并网的风电场，因缺乏历史数据无法训练专用模型，传统方法在零样本（Zero-shot）场景下预测误差极高。\n- **基线对比困难**：业界大模型众多（如 GPT4TS、Time-LLM），但代码分散且标准不一，难以在同一框架下公平评估哪种模型最适合当前业务。\n- **微调门槛高昂**：现有开源模型多依赖特定环境或缺乏友好的微调脚本，工程师需花费大量精力处理数据对齐和权重加载问题。\n\n### 使用 OpenLTM 后\n- **开箱即用加速研发**：直接调用 OpenLTM 集成的 Timer-XL 或 Moment 等预训练模型及标准化流水线，将新算法验证周期从数月缩短至数天。\n- **泛化能力解决冷启动**：利用大规模预训练带来的强大泛化性，对新风场实现零样本预测，显著提升了无历史数据场景下的调度可靠性。\n- **统一评估高效选型**：依托统一的开发与评估管道，快速横向对比多种大模型表现，迅速锁定最适合风电波动特性的最优架构。\n- **便捷微调落地业务**：通过提供的 PyTorch 检查点加载脚本和微调指南，轻松将通用大模型适配到私有气象数据上，大幅降低工程部署难度。\n\nOpenLTM 通过提供标准化的大时间序列模型开发流水线与预训练资源，让企业能以最低成本将前沿 AI 技术转化为实际的业务预测力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_OpenLTM_cad5571b.png","thuml","THUML @ Tsinghua University","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fthuml_2b45f3ea.png","Machine Learning Group, School of Software, Tsinghua University",null,"mingsheng@tsinghua.edu.cn","http:\u002F\u002Fise.thss.tsinghua.edu.cn\u002F~mlong","https:\u002F\u002Fgithub.com\u002Fthuml",[81,85,89],{"name":82,"color":83,"percentage":84},"Jupyter Notebook","#DA5B0B",65,{"name":86,"color":87,"percentage":88},"Python","#3572A5",31,{"name":90,"color":91,"percentage":92},"Shell","#89e051",3.9,539,54,"2026-04-18T05:38:08","MIT","未说明","非必需（推理可用 CPU）；微调推荐 RTX 4090；预训练推荐 A100",{"notes":100,"python":101,"dependencies":102},"该工具支持多种运行场景：CPU 可用于推理，RTX 4090 适用于模型适配（微调），A100 适用于大规模预训练。需手动下载数据集（如 UTSD 或 ERA5）并放置于 .\u002Fdataset 目录。提供 260B 时间点数预训练的 Timer-XL 检查点可供下载使用。","3.11",[103],"requirements.txt 中定义的依赖（具体列表未在 README 中展示）",[14],[106,107,108],"deep-learning","large-model","time-series","2026-03-27T02:49:30.150509","2026-04-18T22:33:44.458091",[112,117,122,127,132,137,142,146],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},40620,"如何获取预训练模型参数？需要自己预训练吗？","项目已开源预训练模型权重。您可以直接下载提供的 checkpoint 文件（.pth 格式）。如果是为了微调或监督训练，单张 RTX 4090 通常足够；若需从头预训练（如在 UTSD 数据集上），则建议配置 4 张 A100 40G GPU。最新版本的 checkpoint 已更新以解决部分加载问题，请参考官方仓库发布的链接。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fissues\u002F35",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},40621,".pth 格式的检查点文件与 Hugging Face 版本是否通用？如何进行预测？",".pth 文件和 Hugging Face 版本不互通。OpenLTM 的微调代码主要面向底层的 .pth 格式，提供更高的灵活性；而 Hugging Face 版本包含了一层工程封装。\n若使用 .pth 文件进行预测，请务必确保参数（args）加载正确。官方提供了一个最小化的加载和预测代码示例（notebook），地址为：https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fblob\u002Fmain\u002Fload_pth_ckpt.ipynb。加载时若遇到键名不匹配问题，请检查是否使用了最新更新的 checkpoint。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fissues\u002F44",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},40622,"Timer-XL 支持多变量预训练吗？如何处理多变量预测？","当前的公开 checkpoint 主要是基于单变量预训练的，因为下游任务的变量数量是不确定的。对于多变量预测，目前推荐在推理阶段使用“通道独立”（channel-independence）方法，即对每个变量单独预测。\n如果您希望进行显式的多变量预训练（例如变量数量固定的领域特定大模型），可以使用代码库中的 `MultivariateDatasetBenchmark` 类，并参考脚本 `scripts\u002Fpretrain\u002Ftimer_xl_multivariate.sh` 进行训练。ERA5-MS 数据集上有相关的监督训练示例。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fissues\u002F13",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},40623,"预训练和微调所需的最低 GPU 配置是什么？","计算资源需求取决于任务类型：\n1. **预训练**：在 UTSD 数据集上进行全量预训练（约 1B 时间步，耗时约 1 天）需要在 4 张 NVIDIA A100 40G GPU 上进行。\n2. **微调或监督训练**：单张 NVIDIA RTX 4090 通常已经足够。\n用户可以根据自身的 GPU 配置适当调整 batch size 以适应显存限制。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fissues\u002F5",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},40624,"代码中的 RoPE（旋转位置编码）实现与论文描述不一致，是 Bug 吗？","是的，这是一个已确认的代码实现问题。论文中指出相对位置应基于时间片之间的差异计算，但代码中错误地使用了扁平化的 2D 索引。维护者已确认这会导致顺序揭示错误（即不同时间步但相同变量索引获得了错误的旋转角），并计划尽快修复此 Bug。在使用当前代码时请注意这一潜在的性能影响。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fissues\u002F10",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},40625,"如何将模型适配到分类任务？是否有相关预训练权重？","可以通过修改模型的最终输出层（head layer）来适配分类任务。关于预训练权重，Timer-XL 的检查点已在相关仓库中发布（参考 https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model），请留意官方更新以获取适用于大规模数据集的预训练模型。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fissues\u002F4",{"id":143,"question_zh":144,"answer_zh":145,"source_url":116},40626,"微调后模型在测试集上的性能下降，可能是什么原因？","微调导致性能下降可能与超参数设置有关。建议尝试以下优化策略：\n1. **调整学习率**：尝试更小的学习率以避免破坏预训练特征。\n2. **使用参数高效微调技术**：如 LoRA（Low-Rank Adaptation），避免全量参数训练，从而保留预训练模型的泛化能力。\n3. **检查数据分布**：确保微调数据与预训练数据的分布差异不过大，或增加数据增强。",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},40627,"项目是否会集成其他时间序列大模型（如 CALF, GPT4TS）？","是的，项目计划继续集成更多时间序列大模型（包括 CALF, GPT4TS 等）。维护者欢迎社区贡献，用户可以通过提交 Pull Request (PR) 的方式将这些模型添加到仓库中。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fissues\u002F15",[]]