[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-thuml--Large-Time-Series-Model":3,"tool-thuml--Large-Time-Series-Model":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":23,"last_commit_at":63,"category_tags":64,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[14,26,13,15,46],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":80,"owner_website":82,"owner_url":83,"languages":84,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":10,"env_os":97,"env_gpu":98,"env_ram":97,"env_deps":99,"category_tags":104,"github_topics":105,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":111,"updated_at":112,"faqs":113,"releases":149},6454,"thuml\u002FLarge-Time-Series-Model","Large-Time-Series-Model","Official code, datasets and checkpoints for \"Timer: Generative Pre-trained Transformers Are Large Time Series Models\" (ICML 2024) and subsequent works","Large-Time-Series-Model 是一个专注于时间序列分析的开源项目，核心成果包括 Timer、Sundial 和 Timer-XL 等一系列基于 Transformer 架构的预训练大模型。它旨在解决传统时间序列方法泛化能力弱、针对新任务需重新训练以及难以捕捉复杂概率分布等痛点，实现了“零样本”预测能力，即无需额外训练即可直接对新数据进行高精度 forecasting。\n\n该项目特别适合人工智能研究人员、数据科学家以及需要处理时序数据的开发者使用。无论是希望快速部署预测服务的工程师，还是想要探索基础模型预训练与微调机制的研究者，都能从中获益。其独特技术亮点在于将生成式预训练 Transformer 成功应用于时间序列领域，支持毫秒级的零样本概率预测，能够一次性输出多种可能的未来走势（如均值、分位数及置信区间），从而更准确地量化不确定性。此外，项目还配套发布了大规模预训练数据集 UTSD 及全流程开发框架 OpenLTM，极大地降低了构建和定制专属时间序列大模型的门槛，让通用时序分析变得更加高效便捷。","# Large Time-Series Model\n\nThis repo provides official code, datasets, and checkpoints for [Timer: Generative Pre-trained Transformers Are Large Time Series Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02368). [[Poster]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F91da8a3d06984f209461\u002F) [[Slides]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002Fb766629dbc584a4e8563\u002F) and our subsequent works [[Tutorial (CN)]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F7b88e05d38bb40a1be30\u002F), [[Tutorial (EN)]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002Fc5fca76d6fa54f1d891a\u002F).\n\n# Updates \n\n:triangular_flag_on_post: **News** (2025.5) [Sundial](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.00816), a family of generative time series foundation models has been accepted as **ICML 2025 Oral** (Top 1%). Get your zero-shot probabilistic predictions within milliseconds! [[HuggingFace]](https:\u002F\u002Fhuggingface.co\u002Fthuml\u002Fsundial-base-128m) [[Quickstart]](.\u002Fexamples\u002Fquickstart_zero_shot_generation.ipynb).\n\n:triangular_flag_on_post: **News** (2025.2) We release an open codebase [OpenLTM](https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM), which contains the whole pipeline to pre-train and fine-tune large time-series models.\n\n:triangular_flag_on_post: **News** (2024.12) [Timer-XL](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.04803) for unified forecasting is accepted as **ICLR 2025**. We released a pre-trained model for zero-shot forecasting [[HuggingFace]](https:\u002F\u002Fhuggingface.co\u002Fthuml\u002Ftimer-base-84m) [[Quickstart]](.\u002Fexamples\u002Fquickstart_zero_shot.ipynb) [[Checkpoint]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fblob\u002Fmain\u002Fload_pth_ckpt.ipynb).\n\n:triangular_flag_on_post: **News** (2024.10) We release the pre-training dataset UTSD on [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fthuml\u002FUTSD) or you can use the numpy format [UTSD](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F93868e3a9fb144fe9719\u002F) and this [dataloader](https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fblob\u002Fmain\u002Fdata_provider\u002Fdata_loader.py).\n\n:triangular_flag_on_post: **News** (2024.5) Accepted by **ICML 2024**, a [camera-ready version](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02368) of **31 pages**.\n\n:triangular_flag_on_post: **News** (2024.2) Releasing model checkpoints and code for fine-tuning on different tasks [[README]](.\u002Fscripts\u002FREADME.md).\n\n## Introduction\n\n**Tim**e Series Transfor**mer** (Timer) is a pre-trained Transformer for general time series analysis.\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_Large-Time-Series-Model_readme_a707808a65e5.png\" alt=\"\" align=center \u002F>\n\u003C\u002Fp>\n\n\n## Quick Start\n\nWe provide out-of-the-box models for zero-shot forecasting (no training and no GPU needed).\n\n> Example of Timer (Zero-Shot Forecasting)\n\n```\nimport torch\nfrom transformers import AutoModelForCausalLM\n\n# load pretrain model\nmodel = AutoModelForCausalLM.from_pretrained('thuml\u002Ftimer-base-84m', trust_remote_code=True)\n\n# prepare input\nbatch_size, lookback_length = 1, 2880\nseqs = torch.randn(batch_size, lookback_length)\n\n# generate forecast\nprediction_length = 96\nnormed_output = model.generate(normed_seqs, max_new_tokens=prediction_length)\n\nprint(output.shape)\n```\n\n> Example of Sundial (Generative Forecasting)\n\n```\nimport torch\nfrom transformers import AutoModelForCausalLM\n\n# load pretrain model\n# supports different lookback\u002Fforecast lengths\nmodel = AutoModelForCausalLM.from_pretrained('thuml\u002Fsundial-base-128m', trust_remote_code=True) \n\n# prepare input\nbatch_size, lookback_length = 1, 2880 \nseqs = torch.randn(batch_size, lookback_length)\n\n# Note that Sundial can generate multiple probable predictions\nforecast_length = 96 \nnum_samples = 20\n\noutput = model.generate(seqs, max_new_tokens=forecast_length, num_samples=num_samples)\n\n# use raw predictions for mean\u002Fquantiles\u002Fconfidence-interval estimation\nprint(output.shape)\n```\n\nMore usage examples are provided [here](.\u002Fexamples\u002F). See our [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fthuml\u002Ftime-series-foundation-models-67c80ace73299239b651d954) for more information.\n\n## Model Adaption\n\n* For developers interested in **fine-tuning large time-series models or pre-training on customized datasets**, please use [OpenLTM](https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM), including code scripts and checkpoint of various models.\n\n* For developers interested in **applying large time-series models on other time series analysis tasks** (e.g., imputation and anomaly detection), this repo contains scripts and checkpoints [[README]](.\u002Fscripts\u002FREADME.md).\n\n## Datasets\n\nWe collect Unified Time Series Datasets (UTSD), which encompass well-curated time series to facilitate the research on large time-series models. Our dataset is released in [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fthuml\u002FUTSD).\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_Large-Time-Series-Model_readme_a05a03ab457d.png\" alt=\"\" align=center \u002F>\n\u003C\u002Fp>\n\n###  Usage\n\nYou can access the data from HuggingFace and load the data in the style of [TSLib](https:\u002F\u002Fgithub.com\u002Fthuml\u002FTime-Series-Library):\n\n```bash\n# huggingface-cli login\n# export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com \n\npython .\u002Fscripts\u002FUTSD\u002Fdownload_dataset.py\n\n# dataloader\npython .\u002Fscripts\u002FUTSD\u002Futsdataset.py\n```\n\nWe provide code for evaluating time series datasets, which you can use to evaluate your Huggingface formatted dataset:\n\n```\npython .\u002Fscripts\u002FUTSD\u002Fdataset_evaluation.py --root_path \u003Cdataset root path> --log_path \u003Coutput log path>\n```\n\nIf you meet troubles when accessing the data, you can also download UTSD in numpy from [[Tsinghua Cloud]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F93868e3a9fb144fe9719\u002F) and use ```UTSD_Npy``` dataloader [[here]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fblob\u002Fmain\u002Fdata_provider\u002Fdata_loader.py).\n\n\n## Introduction\n\n### ICML 2024\nWe propose [Timer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02368), a decoder-only  **pre-trained** time series Transformer. We propose **single-series sequence (S3) format**, converting diverse series into unified 1D sequences. The predictive model can also be adapted for forecasting, imputation, and anomaly detection [[README]](.\u002Fscripts\u002FREADME.md).  \n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_Large-Time-Series-Model_readme_f0456beca67d.png\" align=center \u002F>\n\u003C\u002Fp>\n\n### ICLR 2025\n We proposed [Timer-XL](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.04803) for unified time series forecasting.  It can be used for **supervised training** or **large-scale pre-training**, explicitly modeling **multi-dimensional** time series [[GitHub]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FTimer-XL).  \n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_Large-Time-Series-Model_readme_7174cebd3dba.png\" alt=\"300\" align=center \u002F>\n\u003C\u002Fp>\n\n### ICML 2025 Oral\nWe proposed [Sundial](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.00816), a family of **generative** time series foundation models, which is pre-trained on **a trillion** (10^12) time points. The model can be applied for both **point** and **probabilistic** forecasting, making **zero-shot** forecasting within milliseconds [[GitHub]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FSundial).\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_Large-Time-Series-Model_readme_1419c1d82043.png\" alt=\"300\" align=center \u002F>\n\u003C\u002Fp>\n\n## Citation\n\nIf you find this repo helpful, please cite our paper. \n\n```\n@inproceedings{liutimer,\n  title={Timer: Generative Pre-trained Transformers Are Large Time Series Models},\n  author={Liu, Yong and Zhang, Haoran and Li, Chenyu and Huang, Xiangdong and Wang, Jianmin and Long, Mingsheng},\n  booktitle={Forty-first International Conference on Machine Learning}\n}\n\n@article{liu2024timer,\n  title={Timer-XL: Long-Context Transformers for Unified Time Series Forecasting},\n  author={Liu, Yong and Qin, Guo and Huang, Xiangdong and Wang, Jianmin and Long, Mingsheng},\n  journal={arXiv preprint arXiv:2410.04803},\n  year={2024}\n}\n\n@article{liu2025sundial,\n  title={Sundial: A Family of Highly Capable Time Series Foundation Models},\n  author={Liu, Yong and Qin, Guo and Shi, Zhiyuan and Chen, Zhi and Yang, Caiyin and Huang, Xiangdong and Wang, Jianmin and Long, Mingsheng},\n  journal={arXiv preprint arXiv:2502.00816},\n  year={2025}\n}\n```\n\n## Acknowledgment\nWe appreciate the following GitHub repos a lot for their valuable code and datasets:\n\n* Time-Series-Library (https:\u002F\u002Fgithub.com\u002Fthuml\u002FTime-Series-Library)\n* AutoTimes (https:\u002F\u002Fgithub.com\u002Fthuml\u002FAutoTimes)\n* LoTSA Data (https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FSalesforce\u002Flotsa_data)\n* UCR Anomaly Archive (https:\u002F\u002Farxiv.org\u002Fpdf\u002F2009.13807)\n\n\n## Contributors\n\nIf you have any questions or want to use the code, feel free to contact:\n* Yong Liu (liuyong21@mails.tsinghua.edu.cn)\n* Haoran Zhang (zhang-hr24@mails.tsinghua.edu.cn)\n* Chenyu Li (lichenyu20@mails.tsinghua.edu.cn)\n* Guo Qin (qinguo24@mails.tsinghua.edu.cn)\n","# 大型时间序列模型\n\n本仓库提供了 [Timer: 生成式预训练 Transformer 是大型时间序列模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02368) 的官方代码、数据集和检查点。[[海报]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F91da8a3d06984f209461\u002F) [[幻灯片]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002Fb766629dbc584a4e8563\u002F) 以及我们后续的工作 [[教程（中文）]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F7b88e05d38bb40a1be30\u002F)、[[教程（英文）]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002Fc5fca76d6fa54f1d891a\u002F)。\n\n# 更新\n\n:triangular_flag_on_post: **新闻** (2025.5) [Sundial](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.00816)，一个生成式时间序列基础模型家族，已被接受为 **ICML 2025 口头报告**（前1%）。您可以在毫秒内获得零样本概率预测！[[HuggingFace]](https:\u002F\u002Fhuggingface.co\u002Fthuml\u002Fsundial-base-128m) [[快速入门]](.\u002Fexamples\u002Fquickstart_zero_shot_generation.ipynb)。\n\n:triangular_flag_on_post: **新闻** (2025.2) 我们发布了一个开源代码库 [OpenLTM](https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM)，其中包含了预训练和微调大型时间序列模型的完整流程。\n\n:triangular_flag_on_post: **新闻** (2024.12) 用于统一预测的 [Timer-XL](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.04803) 被接受为 **ICLR 2025**。我们发布了用于零样本预测的预训练模型 [[HuggingFace]](https:\u002F\u002Fhuggingface.co\u002Fthuml\u002Ftimer-base-84m) [[快速入门]](.\u002Fexamples\u002Fquickstart_zero_shot.ipynb) [[检查点]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fblob\u002Fmain\u002Fload_pth_ckpt.ipynb)。\n\n:triangular_flag_on_post: **新闻** (2024.10) 我们在 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fthuml\u002FUTSD) 上发布了预训练数据集 UTSD，或者您也可以使用 numpy 格式的 [UTSD](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F93868e3a9fb144fe9719\u002F) 和这个 [数据加载器](https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fblob\u002Fmain\u002Fdata_provider\u002Fdata_loader.py)。\n\n:triangular_flag_on_post: **新闻** (2024.5) 被 **ICML 2024** 接受，提交了 **31页** 的 **定稿版本**。\n\n:triangular_flag_on_post: **新闻** (2024.2) 发布了不同任务上的微调模型检查点和代码 [[README]](.\u002Fscripts\u002FREADME.md)。\n\n## 简介\n\n**Tim**e Series Transfor**mer** (Timer) 是一个用于通用时间序列分析的预训练 Transformer。\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_Large-Time-Series-Model_readme_a707808a65e5.png\" alt=\"\" align=center \u002F>\n\u003C\u002Fp>\n\n\n## 快速入门\n\n我们提供了开箱即用的零样本预测模型（无需训练，也不需要 GPU）。\n\n> Timer 示例（零样本预测）\n\n```\nimport torch\nfrom transformers import AutoModelForCausalLM\n\n# 加载预训练模型\nmodel = AutoModelForCausalLM.from_pretrained('thuml\u002Ftimer-base-84m', trust_remote_code=True)\n\n# 准备输入\nbatch_size, lookback_length = 1, 2880\nseqs = torch.randn(batch_size, lookback_length)\n\n# 生成预测\nprediction_length = 96\nnormed_output = model.generate(normed_seqs, max_new_tokens=prediction_length)\n\nprint(output.shape)\n```\n\n> Sundial 示例（生成式预测）\n\n```\nimport torch\nfrom transformers import AutoModelForCausalLM\n\n# 加载预训练模型\n# 支持不同的回看\u002F预测长度\nmodel = AutoModelForCausalLM.from_pretrained('thuml\u002Fsundial-base-128m', trust_remote_code=True) \n\n# 准备输入\nbatch_size, lookback_length = 1, 2880 \nseqs = torch.randn(batch_size, lookback_length)\n\n# 注意，Sundial 可以生成多个可能的预测\nforecast_length = 96 \nnum_samples = 20\n\noutput = model.generate(seqs, max_new_tokens=forecast_length, num_samples=num_samples)\n\n# 使用原始预测来计算均值\u002F分位数\u002F置信区间\nprint(output.shape)\n```\n\n更多使用示例请参见 [这里](.\u002Fexamples\u002F)。更多信息请访问我们的 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fthuml\u002Ftime-series-foundation-models-67c80ace73299239b651d954)。\n\n## 模型适配\n\n* 对于有兴趣 **微调大型时间序列模型或在自定义数据集上进行预训练** 的开发者，请使用 [OpenLTM](https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM)，其中包含各种模型的代码脚本和检查点。\n\n* 对于有兴趣 **将大型时间序列模型应用于其他时间序列分析任务**（例如插补和异常检测）的开发者，本仓库包含脚本和检查点 [[README]](.\u002Fscripts\u002FREADME.md)。\n\n## 数据集\n\n我们收集了统一时间序列数据集 (UTSD)，其中包含了精心整理的时间序列数据，以促进大型时间序列模型的研究。我们的数据集已在 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fthuml\u002FUTSD) 上发布。\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_Large-Time-Series-Model_readme_a05a03ab457d.png\" alt=\"\" align=center \u002F>\n\u003C\u002Fp>\n\n### 使用方法\n\n您可以从 HuggingFace 获取数据，并按照 [TSLib](https:\u002F\u002Fgithub.com\u002Fthuml\u002FTime-Series-Library) 的方式加载数据：\n\n```bash\n# huggingface-cli login\n# export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com \n\npython .\u002Fscripts\u002FUTSD\u002Fdownload_dataset.py\n\n# 数据加载器\npython .\u002Fscripts\u002FUTSD\u002Futsdataset.py\n```\n\n我们还提供了评估时间序列数据集的代码，您可以用来评估自己格式化的 HuggingFace 数据集：\n\n```\npython .\u002Fscripts\u002FUTSD\u002Fdataset_evaluation.py --root_path \u003C数据集根路径> --log_path \u003C输出日志路径>\n```\n\n如果您在访问数据时遇到困难，也可以从 [[清华大学云]](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Ff\u002F93868e3a9fb144fe9719\u002F) 下载 UTSD 的 numpy 格式，并使用 ```UTSD_Npy``` 数据加载器 [[这里]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM\u002Fblob\u002Fmain\u002Fdata_provider\u002Fdata_loader.py)。\n\n\n## 简介\n\n### ICML 2024\n我们提出了 [Timer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02368)，一种仅解码器的 **预训练** 时间序列 Transformer。我们提出了 **单系列序列 (S3) 格式**，将多种不同的序列转换为统一的 1D 序列。该预测模型还可以用于预测、插补和异常检测 [[README]](.\u002Fscripts\u002FREADME.md)。  \n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_Large-Time-Series-Model_readme_f0456beca67d.png\" align=center \u002F>\n\u003C\u002Fp>\n\n### ICLR 2025\n我们提出了 [Timer-XL](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.04803)，用于统一时间序列预测。它可以用于 **监督训练** 或 **大规模预训练**，明确地对 **多维** 时间序列建模 [[GitHub]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FTimer-XL)。  \n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_Large-Time-Series-Model_readme_7174cebd3dba.png\" alt=\"300\" align=center \u002F>\n\u003C\u002Fp>\n\n### ICML 2025 口头报告\n我们提出了 [Sundial](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.00816)，一个 **生成式** 时间序列基础模型家族，该模型在 **一万亿** (10^12) 个时间点上进行了预训练。该模型既可用于 **点预测**，也可用于 **概率预测**，从而实现毫秒级的 **零样本预测** [[GitHub]](https:\u002F\u002Fgithub.com\u002Fthuml\u002FSundial)。\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_Large-Time-Series-Model_readme_1419c1d82043.png\" alt=\"300\" align=center \u002F>\n\u003C\u002Fp>\n\n## 引用\n\n如果您觉得本仓库对您有帮助，请引用我们的论文。\n\n```\n@inproceedings{liutimer,\n  title={Timer: Generative Pre-trained Transformers Are Large Time Series Models},\n  author={刘勇、张浩然、李晨宇、黄向东、王建民、龙明胜},\n  booktitle={第四十一届国际机器学习大会}\n}\n\n@article{liu2024timer,\n  title={Timer-XL: 面向统一时间序列预测的长上下文Transformer},\n  author={刘勇、秦果、黄向东、王建民、龙明胜},\n  journal={arXiv预印本 arXiv:2410.04803},\n  year={2024}\n}\n\n@article{liu2025sundial,\n  title={Sundial: 一类高性能的时间序列基础模型},\n  author={刘勇、秦果、史志远、陈智、杨彩银、黄向东、王建民、龙明胜},\n  journal={arXiv预印本 arXiv:2502.00816},\n  year={2025}\n}\n```\n\n## 致谢\n我们非常感谢以下GitHub仓库提供的宝贵代码和数据集：\n\n* Time-Series-Library (https:\u002F\u002Fgithub.com\u002Fthuml\u002FTime-Series-Library)\n* AutoTimes (https:\u002F\u002Fgithub.com\u002Fthuml\u002FAutoTimes)\n* LoTSA Data (https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FSalesforce\u002Flotsa_data)\n* UCR异常档案 (https:\u002F\u002Farxiv.org\u002Fpdf\u002F2009.13807)\n\n\n## 贡献者\n\n如果您有任何问题或希望使用这些代码，欢迎随时联系：\n* 刘勇 (liuyong21@mails.tsinghua.edu.cn)\n* 张浩然 (zhang-hr24@mails.tsinghua.edu.cn)\n* 李晨宇 (lichenyu20@mails.tsinghua.edu.cn)\n* 秦果 (qinguo24@mails.tsinghua.edu.cn)","# Large-Time-Series-Model 快速上手指南\n\n本指南基于清华团队开源的 **Large-Time-Series-Model** 系列（包含 Timer, Timer-XL, Sundial），帮助开发者快速体验零样本（Zero-Shot）时间序列预测与生成能力。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux \u002F macOS \u002F Windows\n*   **Python 版本**: >= 3.8\n*   **核心依赖**:\n    *   `torch` (PyTorch)\n    *   `transformers` (Hugging Face Transformers)\n*   **网络环境**: 由于模型托管在 Hugging Face，国内用户建议配置镜像源以加速下载。\n\n### 推荐依赖安装命令\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install transformers\n```\n\n> **提示**: 若访问 Hugging Face 受阻，请在终端设置环境变量使用国内镜像：\n> ```bash\n> export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n> ```\n\n## 安装步骤\n\n本项目无需复杂的源码编译安装，直接通过 `transformers` 库加载预训练模型即可使用。\n\n1.  **安装基础依赖**（如上所示）。\n2.  **验证安装**：确保能正常导入库。\n    ```python\n    import torch\n    from transformers import AutoModelForCausalLM\n    ```\n\n## 基本使用\n\n以下提供两个最核心的零样本（Zero-Shot）使用示例，无需训练且无需 GPU 即可运行（CPU 亦可，但推荐 GPU 加速）。\n\n### 示例 1：Timer \u002F Timer-XL (确定性预测)\n\n适用于标准的零样本点预测任务。\n\n```python\nimport torch\nfrom transformers import AutoModelForCausalLM\n\n# 1. 加载预训练模型 (Timer-XL base 84m)\n# 国内用户若下载慢，请确保已设置 export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\nmodel = AutoModelForCausalLM.from_pretrained('thuml\u002Ftimer-base-84m', trust_remote_code=True)\n\n# 2. 准备输入数据\n# batch_size=1, lookback_length=2880 (例如过去 2880 个时间点的数据)\nbatch_size, lookback_length = 1, 2880\nseqs = torch.randn(batch_size, lookback_length)\n\n# 3. 生成预测\nprediction_length = 96  # 预测未来 96 个点\n# 注意：实际使用时请将 seqs 替换为您的真实归一化数据 (normed_seqs)\nnormed_output = model.generate(seqs, max_new_tokens=prediction_length)\n\nprint(f\"输出形状：{normed_output.shape}\")\n```\n\n### 示例 2：Sundial (概率性生成预测)\n\n适用于需要不确定性估计、生成多种可能未来路径的场景（ICML 2025 Oral 成果）。\n\n```python\nimport torch\nfrom transformers import AutoModelForCausalLM\n\n# 1. 加载 Sundial 预训练模型 (支持不同长度的回溯与预测)\nmodel = AutoModelForCausalLM.from_pretrained('thuml\u002Fsundial-base-128m', trust_remote_code=True) \n\n# 2. 准备输入数据\nbatch_size, lookback_length = 1, 2880 \nseqs = torch.randn(batch_size, lookback_length)\n\n# 3. 生成概率预测\nforecast_length = 96 \nnum_samples = 20  # 生成 20 条可能的未来路径，用于计算均值、分位数或置信区间\n\noutput = model.generate(seqs, max_new_tokens=forecast_length, num_samples=num_samples)\n\n# 输出形状通常为 [batch_size, num_samples, forecast_length]\nprint(f\"输出形状：{output.shape}\")\n```\n\n### 进阶资源\n\n*   **更多示例代码**: 查看项目根目录下的 `.\u002Fexamples\u002F` 文件夹。\n*   **模型集合**: 访问 [HuggingFace Collection](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fthuml\u002Ftime-series-foundation-models-67c80ace73299239b651d954) 获取所有可用模型。\n*   **微调与预训练**: 如需在自定义数据集上进行微调或从头预训练，请使用配套仓库 [OpenLTM](https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM)。","某大型连锁零售企业的算法团队正面临“黑五”大促期间，成千上万个 SKU 销量数据的短期精准预测挑战。\n\n### 没有 Large-Time-Series-Model 时\n- **冷启动困难**：面对新开门店或突发促销的新品，由于缺乏历史训练数据，传统模型无法进行有效预测，只能依赖人工经验估算。\n- **开发成本高昂**：为不同品类（如生鲜、电器）单独训练和维护数百个专用模型，需要耗费大量 GPU 资源和数周的调参时间。\n- **不确定性缺失**：现有模型多输出单一确定值，无法提供概率分布或置信区间，导致库存备货策略过于激进或保守，难以应对市场波动。\n- **泛化能力弱**：一旦遇到类似疫情或极端天气的分布外（OOD）场景，模型表现急剧下降，需重新收集数据并从头训练。\n\n### 使用 Large-Time-Series-Model 后\n- **零样本即时预测**：利用 Timer 或 Sundial 的预训练权重，无需任何微调即可直接对新门店或新品进行毫秒级推理，瞬间解决冷启动问题。\n- **统一架构降本**：一个通用的 Large-Time-Series-Model 即可覆盖全品类预测任务，消除了维护数百个小模型的繁琐流程，显著降低算力与运维成本。\n- **概率生成决策**：Sundial 支持一次生成多个可能的未来轨迹，天然输出概率分布，帮助团队计算分位数和置信区间，制定更稳健的库存水位线。\n- **强泛化适应性**：基于海量数据预训练的通用表征能力，使模型在面对未见过的异常波动时仍能保持鲁棒性，无需针对每个突发事件重新训练。\n\nLarge-Time-Series-Model 将时间序列分析从“定制手工作坊”升级为“通用工业化生产”，让企业能以零样本方式获得高鲁棒性的概率预测能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthuml_Large-Time-Series-Model_c3ff4945.png","thuml","THUML @ Tsinghua University","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fthuml_2b45f3ea.png","Machine Learning Group, School of Software, Tsinghua University",null,"mingsheng@tsinghua.edu.cn","http:\u002F\u002Fise.thss.tsinghua.edu.cn\u002F~mlong","https:\u002F\u002Fgithub.com\u002Fthuml",[85,89],{"name":86,"color":87,"percentage":88},"Python","#3572A5",93.3,{"name":90,"color":91,"percentage":92},"Shell","#89e051",6.7,963,100,"2026-04-07T08:50:13","MIT","未说明","零样本推理（Zero-Shot）无需 GPU；预训练或微调任务需要 GPU（具体型号和显存未说明）",{"notes":100,"python":97,"dependencies":101},"该工具提供开箱即用的零样本预测模型，运行时不需要 GPU 且无需训练。若需进行大规模预训练、微调或使用 OpenLTM 管道，则需参考其独立仓库配置。支持从 HuggingFace 加载预训练模型（如 timer-base-84m, sundial-base-128m）。数据集 UTSD 可通过 HuggingFace 或清华云盘下载。",[102,103],"torch","transformers",[15],[106,107,108,109,110],"large-models","time-series-analysis","transformer","time-series","foundation-models","2026-03-27T02:49:30.150509","2026-04-11T08:11:28.724873",[114,119,124,129,134,139,144],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},29207,"Timer 模型在处理非标准周期（如周期为 7）的数据时，预测结果退化为均值预测，原因是什么？","这可能是因为 Timer 的预训练数据中未包含特定周期（如周期为 7）的样本，导致模型对周期变化敏感且泛化能力不足。相比之下，Chronos 等模型表现出更好的周期泛化能力。目前维护者已确认该问题并表示会深入研究，建议在实际应用中对于特殊周期数据尝试定制建模或使用其他表现更好的模型（如 Prophet）。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model\u002Fissues\u002F41",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},29208,"为什么我无法复现论文中报告的 Zero-shot 性能指标？","复现结果不一致的主要原因包括：(1) 训练时的上下文长度（context length）被延长了；(2) 预训练规模扩大，使用了 Salesforce 的 Lotsa 数据集。官方提供了新的检查点文件 `Timer_forecast_1.0.ckpt` 和评估脚本。请参考官方提供的 Notebook (examples\u002Fquickstart_zero_shot.ipynb) 在测试集上进行评估，并查阅论文附录以获取详细的数据集和配置信息。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model\u002Fissues\u002F32",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},29209,"如何在 Timer 中实现不依赖标签（Label）的自回归预测？","原代码库中的自回归逻辑可能存在混淆。官方已发布新的代码库 OpenLTM (https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM)，其中包含了更详细的预训练和推理流程，并提供了优化后的自回归管道。建议迁移至 OpenLTM 以实现正确的无标签自回归预测。此外，需注意在预测脚本中 `pred_len` 和 `patch_len` 参数通常应设置为相同的值以避免逻辑不一致。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model\u002Fissues\u002F9",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},29210,"Timer-XL 是否支持多变量时间序列预测或协变量感知（covariate-informed）预测？","目前官方提供的示例（如 quickstart_zero_shot.ipynb）主要针对单变量零样本预测。维护者表示当前工作重点在于提升单变量的零样本性能，但承认协变量感知预测是非常实用且有价值的方向。截至目前，尚未提供专门的多变量或协变量感知预测的官方示例代码，建议关注后续更新或使用 OpenLTM 探索相关功能。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model\u002Fissues\u002F40",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},29211,"在哪里可以找到 TimerBackbone 提到的配置文件（config files）或如何重新训练模型？","如果需要调整模型结构或重新训练模型，请尝试使用官方发布的 OpenLTM 代码库 (https:\u002F\u002Fgithub.com\u002Fthuml\u002FOpenLTM)。对于直接使用预训练模型，可以直接通过 `torch.load` 加载提供的 `.pt` 文件，通常不需要额外设置复杂的配置数值。具体的微调或训练参数可参考 OpenLTM 中的相关文档。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model\u002Fissues\u002F53",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},29212,"开启逆归一化（inverse transform）后报错 'Found array with dim 3' 如何解决？","该错误通常是因为传递给 `scaler.inverse_transform` 的数据维度不正确（期望 2 维，实际得到 3 维）。在调用逆归一化前，需要确保数据形状正确。例如，如果输出是三维张量，可能需要先使用 `.squeeze(0)` 去除批次维度，并确保最终传入的是二维数组。如果问题依旧，建议检查 `data_loader_benchmark.py` 中的 `inverse_transform` 实现，确保其能处理预测输出的特定形状。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model\u002Fissues\u002F61",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},29213,"哪里可以下载 Timer 的预训练模型？","Timer 的大型版本模型已发布在 HuggingFace 上，地址为：https:\u002F\u002Fhuggingface.co\u002Fthuml\u002Ftimer-base-84m。同时，官方仓库的 examples 目录下提供了快速开始使用的 Notebook 示例 (quickstart_zero_shot.ipynb)，可供参考如何进行零样本预测。","https:\u002F\u002Fgithub.com\u002Fthuml\u002FLarge-Time-Series-Model\u002Fissues\u002F29",[]]