[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-datawhalechina--torch-rechub":3,"tool-datawhalechina--torch-rechub":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":32,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":105,"github_topics":106,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":121,"updated_at":122,"faqs":123,"releases":152},4422,"datawhalechina\u002Ftorch-rechub","torch-rechub","A Lighting Pytorch Framework for Recommendation Models, Easy-to-use and Easy-to-extend.","Torch-RecHub 是一个基于 PyTorch 构建的轻量级推荐系统框架，旨在帮助开发者用极少的代码（仅需约 10 行）快速搭建生产级的推荐模型。它主要解决了推荐算法领域复现难、工程配置繁琐以及从实验到部署流程割裂的痛点，让使用者能将精力集中在业务逻辑与算法优化上，而非底层工程实现。\n\n该工具非常适合算法工程师、数据科学家及高校研究人员使用。无论是需要快速验证新想法的学术探索，还是追求高效落地的企业开发，Torch-RecHub 都能提供强有力的支持。其核心亮点在于内置了超过 30 种主流推荐算法，涵盖匹配、排序、多任务学习及生成式推荐等场景，并提供了标准化的数据处理、训练与评估流水线。\n\n在技术特性上，Torch-RecHub 不仅支持 NVIDIA GPU 和华为昇腾 NPU 加速，还具备独特的“一键 ONNX 导出”功能，可无缝对接生产环境部署。此外，它集成了 WandB、SwanLab 等可视化追踪工具，并支持基于 PySpark 的大数据处理流程，确保了实验的可复现性与工程扩展性。凭借模块化设计，用户也能轻松自定义新的模型或数据集，是连接算法研究与工业应用的理想桥梁。","﻿\u003Cdiv align=\"center\">\n\n![Torch-RecHub Banner](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdatawhalechina_torch-rechub_readme_2b97e68a5670.png)\n\n# Torch-RecHub: A Lightweight, Efficient, and Easy-to-use PyTorch Recommender Framework\n\n[![torch_rechub](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Ftorch-rechub?style=for-the-badge&color=orange&label=torch_rechub)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftorch-rechub\u002F)\n[![downloads](https:\u002F\u002Fimg.shields.io\u002Fpepy\u002Fdt\u002Ftorch-rechub?style=for-the-badge&color=orange&label=downloads)](https:\u002F\u002Fpepy.tech\u002Fprojects\u002Ftorch-rechub)\n[![license](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-MIT-4c1?style=for-the-badge)](LICENSE)\n\n![stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdatawhalechina\u002Ftorch-rechub?style=for-the-badge&color=orange)\n![forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fdatawhalechina\u002Ftorch-rechub?style=for-the-badge&color=orange)\n![issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fdatawhalechina\u002Ftorch-rechub?style=for-the-badge&color=orange)\n\n[![python](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.9%2B-3776AB?style=for-the-badge)](https:\u002F\u002Fwww.python.org\u002F)\n[![pytorch](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpytorch-1.7%2B-EE4C2C?style=for-the-badge)](https:\u002F\u002Fpytorch.org\u002F)\n[![torchview](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Ftorchview-0.2%2B-6CB33F?style=for-the-badge)](https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview)\n\nEnglish | [简体中文](README_zh.md)\n\n![Project Framework](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdatawhalechina_torch-rechub_readme_b56f600fa4e0.png)\n\n\u003C\u002Fdiv>\n\n**Online Documentation:** https:\u002F\u002Fdatawhalechina.github.io\u002Ftorch-rechub\u002F\n\n**Torch-RecHub** —— **Build production-grade recommender systems in 10 lines of code**. 30+ mainstream models out-of-the-box, one-click ONNX deployment, letting you focus on business instead of engineering.\n\n## ✨ Features\n\n* **Modular Design:** Easy to add new models, datasets, and evaluation metrics.\n* **Based on PyTorch:** Leverages PyTorch's dynamic graph and GPU acceleration capabilities. Supports NVIDIA GPU and Huawei Ascend NPU.\n* **Rich Model Library:** Covers **30+** classic and cutting-edge recommendation algorithms (Matching, Ranking, Multi-task, Generative Recommendation, etc.).\n* **Standardized Pipeline:** Provides unified data loading, training, and evaluation workflows.\n* **Easy Configuration:** Adjust experiment settings via config files or command-line arguments.\n* **Reproducibility:** Designed to ensure reproducible experimental results.\n* **ONNX Export:** Export trained models to ONNX format for seamless production deployment.\n* **Cross-engine Data Processing:** Support for PySpark-based data processing and transformation, facilitating deployment in big data pipelines.\n* **Experiment Visualization & Tracking:** Built-in unified integration for WandB, SwanLab, and TensorBoardX.\n\n## 📖 Table of Contents\n\n- [🔥 Torch-RecHub - A Lightweight, Efficient, and Easy-to-use PyTorch Recommender Framework](#-torch-rechub---a-lightweight-efficient-and-easy-to-use-pytorch-recommender-framework)\n  - [✨ Features](#-features)\n  - [📖 Table of Contents](#-table-of-contents)\n  - [🔧 Installation](#-installation)\n    - [Requirements](#requirements)\n    - [Installation Steps](#installation-steps)\n  - [🚀 Quick Start](#-quick-start)\n  - [📂 Project Structure](#-project-structure)\n  - [💡 Supported Models](#-supported-models)\n  - [📊 Supported Datasets](#-supported-datasets)\n  - [🧪 Examples](#-examples)\n    - [Ranking (CTR Prediction)](#ranking-ctr-prediction)\n    - [Multi-Task Ranking](#multi-task-ranking)\n    - [Matching Models](#matching-models)\n    - [Model Visualization](#model-visualization)\n  - [👨‍💻‍ Contributors](#-contributors)\n  - [🤝 Contributing](#-contributing)\n  - [📜 License](#-license)\n  - [📚 Citation](#-citation)\n  - [📫 Contact](#-contact)\n  - [⭐️ Star History](#️-star-history)\n\n## 🔧 Installation\n\n### Requirements\n\n* Python 3.9+\n* PyTorch 1.7+ (CUDA-enabled version recommended for GPU acceleration)\n* NumPy\n* Pandas\n* SciPy\n* Scikit-learn\n\n### Installation Steps\n\n**Stable Version (Recommended):**\n```bash\n# Install PyTorch matching your device\npip install torch                                                     # CPU\npip install torch --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121  # GPU (CUDA 12.1)\npip install torch torch-npu                                           # NPU (Huawei Ascend, requires torch-npu >= 2.5.1)\n\npip install torch-rechub\n```\n\n**Latest Version:**\n```bash\n# Install uv first (if not already installed)\npip install uv\n\n# Clone and install\ngit clone https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub.git\ncd torch-rechub\n\n# Install PyTorch matching your device\nuv pip install torch                                                     # CPU\nuv pip install torch --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121  # GPU (CUDA 12.1)\nuv pip install torch torch-npu                                           # NPU (Huawei Ascend, requires torch-npu >= 2.5.1)\n\nuv sync\n```\n\n### Optional Dependencies\n\nInstall an extra group with `uv sync --extra \u003Cname>` or `pip install \"torch-rechub[\u003Cname>]\"`.\n\n* `annoy`: Adds Annoy-based approximate nearest neighbor indexing for retrieval serving.\n* `faiss`: Adds FAISS-based vector indexing for high-performance retrieval experiments.\n* `milvus`: Adds Milvus client support for external vector database serving workflows.\n* `bigdata`: Adds PyArrow support for Parquet-based data loading and big-data preprocessing.\n* `onnx`: Adds ONNX export, runtime inference, and model conversion dependencies.\n* `visualization`: Adds model graph visualization support with TorchView and Graphviz.\n* `tracking`: Adds WandB, SwanLab, and TensorBoardX integrations for experiment tracking.\n* `dev`: Adds testing, linting, typing, and local development tooling.\n\n## 🚀 Quick Start\n\nHere's a simple example of training a model (e.g., DSSM) on the MovieLens dataset:\n\n```bash\n# Clone the repository (if using latest version)\ngit clone https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub.git\ncd torch-rechub\nuv sync\n\n# Run matching example (cd into the script directory first, as scripts use relative data paths)\ncd examples\u002Fmatching\npython run_ml_dssm.py\n\n# Or with custom parameters:\npython run_ml_dssm.py --model_name dssm --device 'cuda:0' --learning_rate 0.001 --epoch 50 --batch_size 4096 --weight_decay 0.0001 --save_dir 'saved\u002Fdssm_ml-100k'\n\n# Run ranking example\ncd ..\u002Franking\npython run_criteo.py\n```\n\nAfter training, model files will be saved in the `saved\u002Fdssm_ml-100k` directory (or your configured directory).\n\n## 📂 Project Structure\n\n```\ntorch-rechub\u002F             # Root directory\n├── README.md             # Project documentation\n├── pyproject.toml        # Project configuration and dependencies\n├── torch_rechub\u002F         # Core library\n│   ├── basic\u002F            # Basic components\n│   │   ├── activation.py # Activation functions\n│   │   ├── features.py   # Feature engineering\n│   │   ├── layers.py     # Neural network layers\n│   │   ├── loss_func.py  # Loss functions\n│   │   └── metric.py     # Evaluation metrics\n│   ├── models\u002F           # Recommendation model implementations\n│   │   ├── matching\u002F     # Matching models (DSSM\u002FMIND\u002FGRU4Rec etc.)\n│   │   ├── ranking\u002F      # Ranking models (WideDeep\u002FDeepFM\u002FDIN etc.)\n│   │   └── multi_task\u002F   # Multi-task models (MMoE\u002FESMM etc.)\n│   ├── trainers\u002F         # Training frameworks\n│   │   ├── ctr_trainer.py    # CTR prediction trainer\n│   │   ├── match_trainer.py  # Matching model trainer\n│   │   └── mtl_trainer.py    # Multi-task learning trainer\n│   └── utils\u002F            # Utility functions\n│       ├── data.py       # Data processing utilities\n│       ├── match.py      # Matching utilities\n│       ├── mtl.py        # Multi-task utilities\n│       └── onnx_export.py # ONNX export utilities\n├── examples\u002F             # Example scripts\n│   ├── matching\u002F         # Matching task examples\n│   ├── ranking\u002F          # Ranking task examples\n│   └── generative\u002F       # Generative recommendation examples (HSTU, HLLM, etc.)\n├── docs\u002F                 # Documentation (VitePress, multi-language)\n├── tutorials\u002F            # Jupyter tutorials\n├── tests\u002F                # Unit tests\n├── config\u002F               # Configuration files\n└── scripts\u002F              # Utility scripts\n```\n\n## 💡 Supported Models\n\nThe framework currently supports **30+** mainstream recommendation models:\n\n\u003Cdetails>\n\n### Ranking Models - 13\n\n| Model          | Paper                                             | Description                     |\n| -------------- | ------------------------------------------------- | ------------------------------- |\n| **DeepFM**    | [IJCAI 2017](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.04247)   | FM + Deep joint training        |\n| **Wide&Deep** | [DLRS 2016](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.07792)    | Memorization + Generalization   |\n| **DCN**       | [KDD 2017](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.05123)     | Explicit feature crossing       |\n| **DCN-v2**    | [WWW 2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.13535)     | Enhanced cross network          |\n| **DIN**       | [KDD 2018](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.06978)     | Attention for user interest     |\n| **DIEN**      | [AAAI 2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.03672)    | Interest evolution modeling     |\n| **BST**       | [DLP-KDD 2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.06874) | Transformer for sequences       |\n| **AFM**       | [IJCAI 2017](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.04617)   | Attentional FM                  |\n| **AutoInt**   | [CIKM 2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.11921)    | Auto feature interaction learning |\n| **FiBiNET**   | [RecSys 2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.09433)  | Feature importance + Bilinear   |\n| **DeepFFM**   | [RecSys 2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.00144)  | Field-aware FM                  |\n| **EDCN**      | [KDD 2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.03032)     | Enhanced DCN                    |\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\n### Matching Models - 12\n\n| Model           | Paper                                                                           | Description               |\n| --------------- | ------------------------------------------------------------------------------- | ------------------------- |\n| **DSSM**       | [CIKM 2013](https:\u002F\u002Fposenhuang.github.io\u002Fpapers\u002Fcikm2013_DSSM_fullversion.pdf) | Classic two-tower model   |\n| **YoutubeDNN** | [RecSys 2016](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F2959100.2959190)                  | YouTube deep retrieval    |\n| **YoutubeSBC** | [RecSys 2019](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3298689.3346997)                  | Sampling bias correction  |\n| **MIND**       | [CIKM 2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.08030)                                  | Multi-interest dynamic routing |\n| **SINE**       | [WSDM 2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.06920)                                  | Sparse interest network   |\n| **GRU4Rec**    | [ICLR 2016](https:\u002F\u002Farxiv.org\u002Fabs\u002F1511.06939)                                  | GRU for sequences         |\n| **SASRec**     | [ICDM 2018](https:\u002F\u002Farxiv.org\u002Fabs\u002F1808.09781)                                  | Self-attentive sequential |\n| **NARM**       | [CIKM 2017](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.04725)                                  | Neural attentive session  |\n| **STAMP**      | [KDD 2018](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3219819.3219895)                     | Short-term attention memory priority |\n| **ComiRec**    | [KDD 2020](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.09347)                                   | Controllable multi-interest |\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\n### Multi-Task Models - 5\n\n| Model             | Paper                                                          | Description               |\n| ----------------- | -------------------------------------------------------------- | ------------------------- |\n| **ESMM**         | [SIGIR 2018](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.07931)                | Entire space multi-task   |\n| **MMoE**         | [KDD 2018](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3219819.3220007)    | Multi-gate Mixture-of-Experts |\n| **PLE**          | [RecSys 2020](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3383313.3412236) | Progressive Layered Extraction |\n| **AITM**         | [KDD 2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.08489)                  | Adaptive Information Transfer |\n| **SharedBottom** | -                                                             | Classic shared bottom     |\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\n### Generative Recommendation - 3\n\n| Model      | Paper                                             | Description                                              |\n| ---------- | ------------------------------------------------- | -------------------------------------------------------- |\n| **HSTU**  | [Meta 2024](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.17152)    | Hierarchical Sequential Transduction Units, powering Meta's trillion-parameter RecSys |\n| **HLLM**  | [2024](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.12740)         | Hierarchical LLM for recommendation, combining LLM semantic understanding |\n| **TIGER** | [NeurIPS 2023](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05065) | T5-based generative retrieval for recommendation with semantic ID generation |\n\n\u003C\u002Fdetails>\n\n## 📊 Supported Datasets\n\nThe framework provides built-in support or preprocessing scripts for the following common datasets:\n\n* **MovieLens**\n* **Amazon**\n* **Criteo**\n* **Avazu** \n* **Census-Income**\n* **BookCrossing**\n* **Ali-ccp**\n* **Yidian**\n* ... \n\nThe expected data format is typically an interaction file containing:\n- User ID\n- Item ID \n- Rating (optional)\n- Timestamp (optional)\n\nFor specific format requirements, please refer to the example code in the `tutorials` directory. The `examples\u002F` directory already includes sample datasets in each scenario subdirectory, which you can use directly for quick experimentation and debugging.\n\nYou can easily integrate your own datasets by ensuring they conform to the framework's data format requirements or by writing custom data loaders.\n\n## 🧪 Examples\n\nAll model usage examples can be found in `\u002Fexamples`\n\n### Ranking (CTR Prediction)\n\n```python\nfrom torch_rechub.models.ranking import DeepFM\nfrom torch_rechub.trainers import CTRTrainer\nfrom torch_rechub.utils.data import DataGenerator\n\ndg = DataGenerator(x, y)\ntrain_dataloader, val_dataloader, test_dataloader = dg.generate_dataloader(split_ratio=[0.7, 0.1], batch_size=256)\n\nmodel = DeepFM(deep_features=deep_features, fm_features=fm_features, mlp_params={\"dims\": [256, 128], \"dropout\": 0.2, \"activation\": \"relu\"})\n\nctr_trainer = CTRTrainer(model)\nctr_trainer.fit(train_dataloader, val_dataloader)\nauc = ctr_trainer.evaluate(ctr_trainer.model, test_dataloader)\nctr_trainer.export_onnx(\"deepfm.onnx\")\n```\n\n### Multi-Task Ranking\n\n```python\nfrom torch_rechub.models.multi_task import SharedBottom, ESMM, MMOE, PLE, AITM\nfrom torch_rechub.trainers import MTLTrainer\n\ntask_types = [\"classification\", \"classification\"] \nmodel = MMOE(features, task_types, 8, expert_params={\"dims\": [32,16]}, tower_params_list=[{\"dims\": [32, 16]}, {\"dims\": [32, 16]}])\n\nmtl_trainer = MTLTrainer(model)\nmtl_trainer.fit(train_dataloader, val_dataloader)\nauc = ctr_trainer.evaluate(ctr_trainer.model, test_dataloader)\nmtl_trainer.export_onnx(\"mmoe.onnx\")\n```\n\n### Matching Models\n\n```python\nfrom torch_rechub.models.matching import DSSM\nfrom torch_rechub.trainers import MatchTrainer\nfrom torch_rechub.utils.data import MatchDataGenerator\n\ndg = MatchDataGenerator(x, y)\ntrain_dl, test_dl, item_dl = dg.generate_dataloader(test_user, all_item, batch_size=256)\n\nmodel = DSSM(user_features, item_features, temperature=0.02,\n             user_params={\n                 \"dims\": [256, 128, 64],\n                 \"activation\": 'prelu',  \n             },\n             item_params={\n                 \"dims\": [256, 128, 64],\n                 \"activation\": 'prelu', \n             })\n\nmatch_trainer = MatchTrainer(model)\nmatch_trainer.fit(train_dl)\nmatch_trainer.export_onnx(\"dssm.onnx\")\n# For two-tower models, you can export user and item towers separately:\n# match_trainer.export_onnx(\"user_tower.onnx\", mode=\"user\")\n# match_trainer.export_onnx(\"item_tower.onnx\", mode=\"item\")\n```\n\n### Model Visualization\n\n```python\n# Visualize model architecture (Requires: pip install torch-rechub[visualization])\ngraph = ctr_trainer.visualization(depth=4)  # Generate computation graph\nctr_trainer.visualization(save_path=\"model.pdf\", dpi=300)  # Save as high-resolution PDF\n```\n\n## 👨‍💻‍ Contributors\n\nThanks to all contributors!\n\n![GitHub contributors](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002Fdatawhalechina\u002Ftorch-rechub?color=32A9C3&labelColor=1B3C4A&logo=contributorcovenant)\n\n[![contributors](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdatawhalechina_torch-rechub_readme_0b57facbd828.png)](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fgraphs\u002Fcontributors)\n\n## 🤝 Contributing\n\nWe welcome contributions in all forms! Please refer to [CONTRIBUTING.md](CONTRIBUTING.md) for detailed contribution guidelines.\n\nWe also welcome bug reports and feature suggestions through [Issues](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fissues).\n\n## 📜 License\n\nThis project is licensed under the [MIT License](LICENSE).\n\n## 📚 Citation\n\nIf you use this framework in your research or work, please consider citing:\n\n```bibtex\n@misc{torch_rechub,\n    title = {Torch-RecHub},\n    author = {Datawhale},\n    year = {2022},\n    publisher = {GitHub},\n    journal = {GitHub repository},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub}},\n    note = {A PyTorch-based recommender system framework providing easy-to-use and extensible solutions}\n}\n```\n\n## 📫 Contact\n\n* **Project Lead:** [1985312383](https:\u002F\u002Fgithub.com\u002F1985312383) \n* [**GitHub Discussions**](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fdiscussions)\n\n## ⭐️ Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdatawhalechina_torch-rechub_readme_eb4783bfff8e.png)](https:\u002F\u002Fwww.star-history.com\u002F#datawhalechina\u002Ftorch-rechub&Date)\n\n---\n\n*Last updated: [2026-03-20]*\n","\u003Cdiv align=\"center\">\n\n![Torch-RecHub -banner](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdatawhalechina_torch-rechub_readme_2b97e68a5670.png)\n\n# Torch-RecHub：轻量、高效、易用的 PyTorch 推荐框架\n\n[![torch_rechub](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Ftorch-rechub?style=for-the-badge&color=orange&label=torch_rechub)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftorch-rechub\u002F)\n[![下载量](https:\u002F\u002Fimg.shields.io\u002Fpepy\u002Fdt\u002Ftorch-rechub?style=for-the-badge&color=orange&label=downloads)](https:\u002F\u002Fpepy.tech\u002Fprojects\u002Ftorch-rechub)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-MIT-4c1?style=for-the-badge)](LICENSE)\n\n![星标数](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdatawhalechina\u002Ftorch-rechub?style=for-the-badge&color=orange)\n![叉子数](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fdatawhalechina\u002Ftorch-rechub?style=for-the-badge&color=orange)\n![问题数](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fdatawhalechina\u002Ftorch-rechub?style=for-the-badge&color=orange)\n\n[![Python](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.9%2B-3776AB?style=for-the-badge)](https:\u002F\u002Fwww.python.org\u002F)\n[![PyTorch](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpytorch-1.7%2B-EE4C2C?style=for-the-badge)](https:\u002F\u002Fpytorch.org\u002F)\n[![TorchView](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Ftorchview-0.2%2B-6CB33F?style=for-the-badge)](https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview)\n\nEnglish | [简体中文](README_zh.md)\n\n![项目架构](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdatawhalechina_torch-rechub_readme_b56f600fa4e0.png)\n\n\u003C\u002Fdiv>\n\n**在线文档:** https:\u002F\u002Fdatawhalechina.github.io\u002Ftorch-rechub\u002F\n\n**Torch-RecHub** —— **用10行代码构建生产级推荐系统**。30+主流模型开箱即用，一键导出 ONNX 格式，让您专注于业务而非工程实现。\n\n## ✨ 特性\n\n* **模块化设计:** 轻松添加新模型、数据集和评估指标。\n* **基于 PyTorch:** 充分利用 PyTorch 的动态图和 GPU 加速能力。支持 NVIDIA GPU 和华为 Ascend NPU。\n* **丰富的模型库:** 涵盖 **30+** 经典及前沿推荐算法（匹配、排序、多任务、生成式推荐等）。\n* **标准化流程:** 提供统一的数据加载、训练和评估工作流。\n* **简单配置:** 通过配置文件或命令行参数调整实验设置。\n* **可复现性:** 设计确保实验结果可复现。\n* **ONNX 导出:** 将训练好的模型导出为 ONNX 格式，便于无缝部署到生产环境。\n* **跨引擎数据处理:** 支持基于 PySpark 的数据处理与转换，方便在大数据管道中部署。\n* **实验可视化与跟踪:** 内置对 WandB、SwanLab 和 TensorBoardX 的统一集成。\n\n## 📖 目录\n\n- [🔥 Torch-RecHub - 一款轻量、高效、易用的 PyTorch 推荐框架](#-torch-rechub---a-lightweight-efficient-and-easy-to-use-pytorch-recommender-framework)\n  - [✨ 特性](#-features)\n  - [📖 目录](#-table-of-contents)\n  - [🔧 安装](#-installation)\n    - [要求](#requirements)\n    - [安装步骤](#installation-steps)\n  - [🚀 快速入门](#-quick-start)\n  - [📂 项目结构](#-project-structure)\n  - [💡 支持的模型](#-supported-models)\n  - [📊 支持的数据集](#-supported-datasets)\n  - [🧪 示例](#-examples)\n    - [排序（CTR 预测）](#ranking-ctr-prediction)\n    - [多任务排序](#multi-task-ranking)\n    - [匹配模型](#matching-models)\n    - [模型可视化](#model-visualization)\n  - [👨‍💻‍ 贡献者](#-contributors)\n  - [🤝 贡献](#-contributing)\n  - [📜 许可证](#-license)\n  - [📚 引用](#-citation)\n  - [📫 联系方式](#-contact)\n  - [⭐️ 星标历史](#️-star-history)\n\n## 🔧 安装\n\n### 要求\n\n* Python 3.9+\n* PyTorch 1.7+（建议使用支持 CUDA 的版本以获得 GPU 加速）\n* NumPy\n* Pandas\n* SciPy\n* Scikit-learn\n\n### 安装步骤\n\n**稳定版（推荐）:**\n```bash\n# 根据设备安装对应的 PyTorch\npip install torch                                                     # CPU\npip install torch --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121  # GPU (CUDA 12.1)\npip install torch torch-npu                                           # NPU (华为 Ascend，需 torch-npu >= 2.5.1)\n\npip install torch-rechub\n```\n\n**最新版:**\n```bash\n# 如果尚未安装 uv，先安装\npip install uv\n\n# 克隆并安装\ngit clone https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub.git\ncd torch-rechub\n\n# 根据设备安装对应的 PyTorch\nuv pip install torch                                                     # CPU\nuv pip install torch --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121  # GPU (CUDA 12.1)\nuv pip install torch torch-npu                                           # NPU (华为 Ascend，需 torch-npu >= 2.5.1)\n\nuv sync\n```\n\n### 可选依赖\n\n可通过 `uv sync --extra \u003Cname>` 或 `pip install \"torch-rechub[\u003Cname>]\"` 安装额外的依赖组。\n\n* `annoy`: 添加基于 Annoy 的近似最近邻索引，用于检索服务。\n* `faiss`: 添加基于 FAISS 的向量索引，适用于高性能检索实验。\n* `milvus`: 添加 Milvus 客户端支持，便于对接外部向量数据库服务流程。\n* `bigdata`: 添加 PyArrow 支持，用于 Parquet 格式的数据加载和大数据预处理。\n* `onnx`: 添加 ONNX 导出、推理运行时及模型转换相关依赖。\n* `visualization`: 添加使用 TorchView 和 Graphviz 的模型图可视化支持。\n* `tracking`: 添加对 WandB、SwanLab 和 TensorBoardX 的集成，用于实验跟踪。\n* `dev`: 添加测试、代码风格检查、类型注解及本地开发工具。\n\n## 🚀 快速入门\n\n以下是一个在 MovieLens 数据集上训练 DSSM 模型的简单示例：\n\n```bash\n# 如果使用最新版，先克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub.git\ncd torch-rechub\nuv sync\n\n# 运行匹配示例（需先进入脚本目录，因为脚本使用相对路径加载数据）\ncd examples\u002Fmatching\npython run_ml_dssm.py\n\n# 或者使用自定义参数：\npython run_ml_dssm.py --model_name dssm --device 'cuda:0' --learning_rate 0.001 --epoch 50 --batch_size 4096 --weight_decay 0.0001 --save_dir 'saved\u002Fdssm_ml-100k'\n\n# 运行排序示例\ncd ..\u002Franking\npython run_criteo.py\n```\n\n训练完成后，模型文件将保存在 `saved\u002Fdssm_ml-100k` 目录下（或您配置的目录）。\n\n## 📂 项目结构\n\n```\ntorch-rechub\u002F             # 根目录\n├── README.md             # 项目文档\n├── pyproject.toml        # 项目配置与依赖\n├── torch_rechub\u002F         # 核心库\n│   ├── basic\u002F            # 基础组件\n│   │   ├── activation.py # 激活函数\n│   │   ├── features.py   # 特征工程\n│   │   ├── layers.py     # 神经网络层\n│   │   ├── loss_func.py  # 损失函数\n│   │   └── metric.py     # 评估指标\n│   ├── models\u002F           # 推荐模型实现\n│   │   ├── matching\u002F     # 匹配模型（DSSM\u002FMIND\u002FGRU4Rec等）\n│   │   ├── ranking\u002F      # 排序模型（WideDeep\u002FDeepFM\u002FDIN等）\n│   │   └── multi_task\u002F   # 多任务模型（MMoE\u002FESMM等）\n│   ├── trainers\u002F         # 训练框架\n│   │   ├── ctr_trainer.py    # CTR 预测训练器\n│   │   ├── match_trainer.py  # 匹配模型训练器\n│   │   └── mtl_trainer.py    # 多任务学习训练器\n│   └── utils\u002F            # 工具函数\n│       ├── data.py       # 数据处理工具\n│       ├── match.py      # 匹配相关工具\n│       ├── mtl.py        # 多任务相关工具\n│       └── onnx_export.py # ONNX 导出工具\n├── examples\u002F             # 示例脚本\n│   ├── matching\u002F         # 匹配任务示例\n│   ├── ranking\u002F          # 排序任务示例\n│   └── generative\u002F       # 生成式推荐示例（HSTU、HLLM 等）\n├── docs\u002F                 # 文档（VitePress，多语言）\n├── tutorials\u002F            # Jupyter 教程\n├── tests\u002F                # 单元测试\n├── config\u002F               # 配置文件\n└── scripts\u002F              # 工具脚本\n```\n\n## 💡 支持的模型\n\n该框架目前支持 **30+** 种主流推荐模型：\n\n\u003Cdetails>\n\n### 排序模型 - 13\n\n| 模型          | 论文                                             | 描述                     |\n| -------------- | ------------------------------------------------- | ------------------------------- |\n| **DeepFM**    | [IJCAI 2017](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.04247)   | FM + Deep 联合训练        |\n| **Wide&Deep** | [DLRS 2016](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.07792)    | 记忆 + 泛化               |\n| **DCN**       | [KDD 2017](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.05123)     | 显式特征交叉              |\n| **DCN-v2**    | [WWW 2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.13535)     | 增强型交叉网络            |\n| **DIN**       | [KDD 2018](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.06978)     | 用户兴趣注意力            |\n| **DIEN**      | [AAAI 2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.03672)    | 兴趣演化建模              |\n| **BST**       | [DLP-KDD 2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.06874) | Transformer 用于序列      |\n| **AFM**       | [IJCAI 2017](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.04617)   | 注意力加权 FM             |\n| **AutoInt**   | [CIKM 2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.11921)    | 自动特征交互学习          |\n| **FiBiNET**   | [RecSys 2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.09433)  | 特征重要性 + 双线性       |\n| **DeepFFM**   | [RecSys 2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.00144)  | 字段感知 FM               |\n| **EDCN**      | [KDD 2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.03032)     | 增强版 DCN                |\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\n### 匹配模型 - 12\n\n| 模型           | 论文                                                                           | 描述               |\n| --------------- | ------------------------------------------------------------------------------- | ------------------------- |\n| **DSSM**       | [CIKM 2013](https:\u002F\u002Fposenhuang.github.io\u002Fpapers\u002Fcikm2013_DSSM_fullversion.pdf) | 经典双塔模型   |\n| **YoutubeDNN** | [RecSys 2016](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F2959100.2959190)                  | YouTube 深度检索    |\n| **YoutubeSBC** | [RecSys 2019](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3298689.3346997)                  | 采样偏差校正        |\n| **MIND**       | [CIKM 2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.08030)                                  | 多兴趣动态路由       |\n| **SINE**       | [WSDM 2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.06920)                                  | 稀疏兴趣网络         |\n| **GRU4Rec**    | [ICLR 2016](https:\u002F\u002Farxiv.org\u002Fabs\u002F1511.06939)                                  | GRU 用于序列         |\n| **SASRec**     | [ICDM 2018](https:\u002F\u002Farxiv.org\u002Fabs\u002F1808.09781)                                  | 自注意力序列         |\n| **NARM**       | [CIKM 2017](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.04725)                                  | 神经注意会话         |\n| **STAMP**      | [KDD 2018](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3219819.3219895)                     | 短期注意力记忆优先   |\n| **ComiRec**    | [KDD 2020](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.09347)                                   | 可控多兴趣           |\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\n### 多任务模型 - 5\n\n| 模型             | 论文                                                          | 描述               |\n| ----------------- | -------------------------------------------------------------- | ------------------------- |\n| **ESMM**         | [SIGIR 2018](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.07931)                | 整体空间多任务       |\n| **MMoE**         | [KDD 2018](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3219819.3220007)    | 多门混合专家         |\n| **PLE**          | [RecSys 2020](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3383313.3412236) | 渐进式分层提取       |\n| **AITM**         | [KDD 2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.08489)                  | 自适应信息迁移       |\n| **SharedBottom** | -                                                             | 经典共享底部         |\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\n### 生成式推荐 - 3\n\n| 模型      | 论文                                             | 描述                                              |\n| ---------- | ------------------------------------------------- | -------------------------------------------------------- |\n| **HSTU**  | [Meta 2024](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.17152)    | 层次化序列转换单元，驱动 Meta 的万亿参数推荐系统 |\n| **HLLM**  | [2024](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.12740)         | 层次化 LLM 用于推荐，结合 LLM 语义理解           |\n| **TIGER** | [NeurIPS 2023](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05065) | 基于 T5 的生成式检索用于推荐，并生成语义 ID     |\n\n\u003C\u002Fdetails>\n\n## 📊 支持的数据集\n\n该框架为以下常用数据集提供了内置支持或预处理脚本：\n\n* **MovieLens**\n* **Amazon**\n* **Criteo**\n* **Avazu** \n* **Census-Income**\n* **BookCrossing**\n* **Ali-ccp**\n* **Yidian**\n* ... \n\n预期的数据格式通常是一个包含以下内容的交互文件：\n- 用户ID\n- 项目ID\n- 评分（可选）\n- 时间戳（可选）\n\n有关具体格式要求，请参阅 `tutorials` 目录中的示例代码。`examples\u002F` 目录已在每个场景子目录中包含了示例数据集，您可以直接使用这些数据集进行快速实验和调试。\n\n您可以通过确保您的数据集符合框架的数据格式要求，或者编写自定义数据加载器，轻松集成自己的数据集。\n\n## 🧪 示例\n\n所有模型使用示例均可在 `\u002Fexamples` 中找到。\n\n### 排序（CTR 预测）\n\n```python\nfrom torch_rechub.models.ranking import DeepFM\nfrom torch_rechub.trainers import CTRTrainer\nfrom torch_rechub.utils.data import DataGenerator\n\ndg = DataGenerator(x, y)\ntrain_dataloader, val_dataloader, test_dataloader = dg.generate_dataloader(split_ratio=[0.7, 0.1], batch_size=256)\n\nmodel = DeepFM(deep_features=deep_features, fm_features=fm_features, mlp_params={\"dims\": [256, 128], \"dropout\": 0.2, \"activation\": \"relu\"})\n\nctr_trainer = CTRTrainer(model)\nctr_trainer.fit(train_dataloader, val_dataloader)\nauc = ctr_trainer.evaluate(ctr_trainer.model, test_dataloader)\nctr_trainer.export_onnx(\"deepfm.onnx\")\n```\n\n### 多任务排序\n\n```python\nfrom torch_rechub.models.multi_task import SharedBottom, ESMM, MMOE, PLE, AITM\nfrom torch_rechub.trainers import MTLTrainer\n\ntask_types = [\"classification\", \"classification\"] \nmodel = MMOE(features, task_types, 8, expert_params={\"dims\": [32,16]}, tower_params_list=[{\"dims\": [32, 16]}, {\"dims\": [32, 16]}])\n\nmtl_trainer = MTLTrainer(model)\nmtl_trainer.fit(train_dataloader, val_dataloader)\nauc = ctr_trainer.evaluate(ctr_trainer.model, test_dataloader)\nmtl_trainer.export_onnx(\"mmoe.onnx\")\n```\n\n### 匹配模型\n\n```python\nfrom torch_rechub.models.matching import DSSM\nfrom torch_rechub.trainers import MatchTrainer\nfrom torch_rechub.utils.data import MatchDataGenerator\n\ndg = MatchDataGenerator(x, y)\ntrain_dl, test_dl, item_dl = dg.generate_dataloader(test_user, all_item, batch_size=256)\n\nmodel = DSSM(user_features, item_features, temperature=0.02,\n             user_params={\n                 \"dims\": [256, 128, 64],\n                 \"activation\": 'prelu',  \n             },\n             item_params={\n                 \"dims\": [256, 128, 64],\n                 \"activation\": 'prelu', \n             })\n\nmatch_trainer = MatchTrainer(model)\nmatch_trainer.fit(train_dl)\nmatch_trainer.export_onnx(\"dssm.onnx\")\n# 对于双塔模型，您可以分别导出用户塔和物品塔：\n# match_trainer.export_onnx(\"user_tower.onnx\", mode=\"user\")\n# match_trainer.export_onnx(\"item_tower.onnx\", mode=\"item\")\n```\n\n### 模型可视化\n\n```python\n# 可视化模型架构（需：pip install torch-rechub[visualization]）\ngraph = ctr_trainer.visualization(depth=4)  # 生成计算图\nctr_trainer.visualization(save_path=\"model.pdf\", dpi=300)  # 保存为高分辨率 PDF\n```\n\n## 👨‍💻‍ 贡献者\n\n感谢所有贡献者！\n\n![GitHub 贡献者](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002Fdatawhalechina\u002Ftorch-rechub?color=32A9C3&labelColor=1B3C4A&logo=contributorcovenant)\n\n[![contributors](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdatawhalechina_torch-rechub_readme_0b57facbd828.png)](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fgraphs\u002Fcontributors)\n\n## 🤝 贡献\n\n我们欢迎任何形式的贡献！请参阅 [CONTRIBUTING.md](CONTRIBUTING.md) 以获取详细的贡献指南。\n\n我们也欢迎您通过 [Issues](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fissues) 提交错误报告和功能建议。\n\n## 📜 许可证\n\n本项目采用 [MIT 许可证](LICENSE) 许可。\n\n## 📚 引用\n\n如果您在研究或工作中使用了本框架，请考虑引用：\n\n```bibtex\n@misc{torch_rechub,\n    title = {Torch-RecHub},\n    author = {Datawhale},\n    year = {2022},\n    publisher = {GitHub},\n    journal = {GitHub repository},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub}},\n    note = {一个基于 PyTorch 的推荐系统框架，提供易于使用且可扩展的解决方案}\n}\n```\n\n## 📫 联系方式\n\n* **项目负责人:** [1985312383](https:\u002F\u002Fgithub.com\u002F1985312383) \n* [**GitHub Discussions**](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fdiscussions)\n\n## ⭐️ 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdatawhalechina_torch-rechub_readme_eb4783bfff8e.png)](https:\u002F\u002Fwww.star-history.com\u002F#datawhalechina\u002Ftorch-rechub&Date)\n\n---\n\n*最后更新：2026年3月20日*","# Torch-RecHub 快速上手指南\n\nTorch-RecHub 是一个轻量级、高效且易用的 PyTorch 推荐系统框架。它内置了 30+ 主流推荐模型，支持一键 ONNX 部署，旨在让开发者只需少量代码即可构建生产级推荐系统。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows\n*   **Python**: 3.9 及以上版本\n*   **PyTorch**: 1.7 及以上版本（推荐使用支持 CUDA 的版本以加速训练）\n*   **核心依赖**: NumPy, Pandas, SciPy, Scikit-learn\n*   **硬件支持**: 支持 NVIDIA GPU 及华为昇腾 NPU\n\n## 2. 安装步骤\n\n### 方案 A：安装稳定版（推荐）\n\n直接使用 pip 安装。建议先根据硬件环境安装对应的 PyTorch 版本。\n\n```bash\n# 1. 安装 PyTorch (根据硬件选择其一)\npip install torch                                                     # CPU 版本\npip install torch --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121  # GPU 版本 (CUDA 12.1)\npip install torch torch-npu                                           # NPU 版本 (华为昇腾，需 torch-npu >= 2.5.1)\n\n# 2. 安装 Torch-RecHub\npip install torch-rechub\n```\n\n> **国内加速提示**：如果遇到下载速度慢的问题，可使用清华源或阿里源：\n> `pip install torch-rechub -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 方案 B：安装最新版（开发版）\n\n如果您需要体验最新功能或贡献代码，可以通过源码安装。\n\n```bash\n# 1. 安装 uv 工具 (如未安装)\npip install uv\n\n# 2. 克隆项目\ngit clone https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub.git\ncd torch-rechub\n\n# 3. 安装 PyTorch (根据硬件选择其一)\nuv pip install torch                                                     # CPU\nuv pip install torch --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121  # GPU\nuv pip install torch torch-npu                                           # NPU\n\n# 4. 同步依赖并安装\nuv sync\n```\n\n### 可选依赖\n\n根据具体需求安装额外功能模块（如向量检索、大数据处理、可视化等）：\n\n```bash\n# 示例：安装 FAISS 向量索引和 ONNX 导出功能\npip install \"torch-rechub[faiss,onnx]\"\n# 或使用 uv\nuv sync --extra faiss --extra onnx\n```\n\n支持的功能组包括：`annoy`, `faiss`, `milvus`, `bigdata`, `onnx`, `visualization`, `tracking`, `dev`。\n\n## 3. 基本使用\n\n以下以在 MovieLens 数据集上训练 **DSSM**（双塔模型）为例，展示最简使用流程。\n\n### 步骤 1：获取示例代码\n\n如果您安装的是稳定版，需先克隆仓库以获取示例脚本和数据路径配置：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub.git\ncd torch-rechub\n# 如果之前未安装依赖，在此处执行 uv sync 或 pip install -e .\n```\n\n### 步骤 2：运行匹配模型示例\n\n进入匹配任务示例目录并运行脚本：\n\n```bash\ncd examples\u002Fmatching\npython run_ml_dssm.py\n```\n\n### 步骤 3：自定义参数训练\n\n您也可以通过命令行参数灵活调整超参数（如学习率、批次大小、设备类型等）：\n\n```bash\npython run_ml_dssm.py \\\n    --model_name dssm \\\n    --device 'cuda:0' \\\n    --learning_rate 0.001 \\\n    --epoch 50 \\\n    --batch_size 4096 \\\n    --weight_decay 0.0001 \\\n    --save_dir 'saved\u002Fdssm_ml-100k'\n```\n\n训练完成后，模型文件将自动保存至指定的 `save_dir` 目录中。\n\n### 其他任务示例\n\n*   **排序任务 (CTR 预估)**:\n    ```bash\n    cd ..\u002Franking\n    python run_criteo.py\n    ```\n*   **多任务学习**: 参考 `examples\u002Fmulti_task` 目录。\n*   **生成式推荐**: 参考 `examples\u002Fgenerative` 目录。\n\n更多详细用法、模型列表及 API 文档请访问：[https:\u002F\u002Fdatawhalechina.github.io\u002Ftorch-rechub\u002F](https:\u002F\u002Fdatawhalechina.github.io\u002Ftorch-rechub\u002F)","某电商初创公司的算法团队需要在两周内上线一个全新的商品点击率（CTR）预估系统，以支撑即将到来的大促活动。\n\n### 没有 torch-rechub 时\n- **重复造轮子耗时久**：工程师需从零编写数据加载、模型定义及训练循环代码，仅搭建基础框架就耗费了一周时间。\n- **模型复现门槛高**：尝试引入最新的多任务学习算法时，因缺乏标准实现参考，导致调试困难且效果难以复现。\n- **工程落地割裂**：训练好的 PyTorch 模型无法直接对接线上推理引擎，需额外编写复杂的格式转换脚本，部署风险高。\n- **实验管理混乱**：缺乏统一的可视化追踪工具，多次实验的参数与结果散落在不同日志文件中，难以对比优化。\n\n### 使用 torch-rechub 后\n- **极速构建流程**：利用其标准化流水线，团队仅用 10 行代码便完成了从数据加载到模型训练的全流程，开发效率提升数倍。\n- **丰富模型即插即用**：直接调用内置的 30+ 种主流推荐算法（如 DeepFM、MMoE），快速验证了多任务排序方案并达到预期指标。\n- **一键生产部署**：通过自带的 ONNX 导出功能，将模型无缝转换为生产格式，消除了工程适配障碍，实现了平滑上线。\n- **实验可视可溯**：集成 WandB 与 TensorBoardX，实时监控训练曲线并自动记录超参数，让迭代优化过程清晰透明。\n\ntorch-rechub 让算法团队从繁琐的工程基建中解放出来，真正专注于业务策略与模型效果的极致优化。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdatawhalechina_torch-rechub_2b97e68a.png","datawhalechina","Datawhale","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdatawhalechina_f57a6118.png","for the learner，和学习者一起成长",null,"https:\u002F\u002Fdatawhale.cn","https:\u002F\u002Fgithub.com\u002Fdatawhalechina",[80,84],{"name":81,"color":82,"percentage":83},"Jupyter Notebook","#DA5B0B",95.7,{"name":85,"color":86,"percentage":87},"Python","#3572A5",4.3,973,134,"2026-04-05T17:27:48","MIT","未说明","非必需（支持 CPU），推荐 NVIDIA GPU 或华为昇腾 NPU；若使用 GPU 加速需安装对应 CUDA 版本（示例为 CUDA 12.1）",{"notes":95,"python":96,"dependencies":97},"支持多种硬件后端：CPU、NVIDIA GPU（需手动安装对应 CUDA 版本的 torch）、华为昇腾 NPU（需安装 torch-npu）。提供可选依赖组以支持近似最近邻搜索（Annoy\u002FFAISS\u002FMilvus）、大数据处理（PyArrow\u002FPySpark）、ONNX 导出及实验追踪（WandB\u002FSwanLab\u002FTensorBoardX）等功能。","3.9+",[98,99,100,101,102,103,104],"torch>=1.7","numpy","pandas","scipy","scikit-learn","torch-npu>=2.5.1 (可选，华为昇腾)","torchview>=0.2 (可选)",[35,14],[107,108,109,110,111,112,113,114,115,116,117,118,119,120],"ctr-prediction","pytorch","recommendation-system","recsys","deep-learning","recommendation-algorithms","recommendation-engine","recommender-system","hstu","generative-recommendation","onnx","llm","ascend","npu","2026-03-27T02:49:30.150509","2026-04-06T22:02:51.160065",[124,129,134,139,144,148],{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},20110,"DSSM 模型在设置 list-wise 损失函数（mode=2）时运行报错，如何解决？","目前官方版本可能尚未完全支持该模式。社区贡献者提供了一个修改版仓库，通过增加 `training_mode` 参数（0\u002F1\u002F2）来支持三种样本类型。您可以尝试安装该测试版本：\n1. 克隆仓库：`git clone https:\u002F\u002Fgithub.com\u002F1985312383\u002Ftorch-rechub.git`\n2. 进入目录并安装：`cd torch-rechub` 然后 `pip install -e .`\n3. 注意：需确保 `generate_seq_feature_match` 方法中的 mode 参数与模型设置保持一致。\n注：如果在自定义数据集上遇到维度不匹配问题，可能需要根据输入特征自行调试修改。","https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fissues\u002F104",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},20111,"项目中文 Wiki 页面显示无权限访问怎么办？","这是由于原使用的 Wolai 文档服务会员到期导致公开空间权限失效。目前所有非项目计划类的文档和教程已迁移至新的静态网站，请访问以下地址获取最新中文文档：https:\u002F\u002Fdatawhalechina.github.io\u002Ftorch-rechub\u002Fzh\u002F\n后续的所有文档更新也将在此页面进行。","https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fissues\u002F72",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},20112,"如何处理工业界大规模数据（GB\u002FTB 级），避免使用 Spark 转 Pandas 导致内存溢出（OOM）？","针对大数据场景，项目计划引入基于 Parquet 的流式数据加载方案，以替代全量加载到内存的方式。解决方案是创建一个继承自 `torch.utils.data.IterableDataset` 的 `ParquetIterableDataset` 类。\n核心实现思路如下：\n1. 利用 `pyarrow.parquet` 分块读取（Batch 读取）磁盘或 HDFS\u002FS3 上的 Parquet 文件。\n2. 支持传入文件列表或目录路径，并通过 `batch_size` 控制读取量。\n3. 将读取的数据转换为模型所需的 `Dict[str, Tensor]` 格式。\n使用示例：\n```python\ndataset = ParquetIterableDataset(\n    file_paths=[\"\u002Fpath\u002Fto\u002Fdata\u002Ftrain.parquet\u002F...\"], \n    feature_map=feature_columns\n)\ndataloader = DataLoader(dataset, batch_size=1024)\nmodel.fit(dataloader, ...)\n```\n该方案仅需轻量级依赖 `pyarrow`，无需在训练环境安装庞大的 PySpark。","https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fissues\u002F137",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},20113,"项目中如何统一封装 Faiss、Annoy 和 Milvus 等向量检索库以便灵活切换？","为了解决现有实现松散和切换成本高的问题，项目正在重构向量检索模块。方案是设计一个统一的 `BaseIndexer` 抽象基类，定义标准接口：\n1. `build`: 用于构建索引或插入数据。\n2. `search`: 用于向量查找，统一返回 IDs 和 Scores。\n3. `save\u002Fload`: 用于索引的持久化存储与加载。\n具体实现包括 `FaissIndexer`（修复报错并支持 CPU\u002FGPU）、`AnnoyIndexer`（封装文件读写）和 `MilvusIndexer`（管理 Collection 和连接）。用户后续可通过工厂模式或统一入口，仅修改配置参数即可无缝切换底层的向量检索后端。","https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fissues\u002F136",{"id":145,"question_zh":146,"answer_zh":147,"source_url":138},20114,"新贡献者的测试代码应该放在项目的哪个目录下？","为了保持项目结构的一致性，所有的单元测试应集中放置在根目录下的 `tests\u002F` 文件夹中，而不是分散在源代码目录里。\n例如，对于新的 Parquet 数据集功能，应创建文件：`tests\u002Fdata\u002Ftest_parquet_dataset.py`。\n源代码目录（`torch_rechub\u002F`）应专注于纯粹的逻辑实现，不包含测试代码。",{"id":149,"question_zh":150,"answer_zh":151,"source_url":128},20115,"在使用 DSSM 模型修改版时，如果遇到特征维度对应不上的问题该如何排查？","这通常是因为修改了物品塔（Item Tower）输入的特征后，未同步调整其他相关部分导致的。虽然核心的 `training_mode` 参数修改是正确的，但在应用到自己特定的数据集时，需要检查以下几点：\n1. 确认输入特征的维度与模型定义的嵌入层或线性层维度是否匹配。\n2. 检查 `generate_seq_feature_match` 方法生成的序列特征维度是否与模型期望一致。\n3. 如果使用了自定义的特征工程，确保数据预处理流程与模型输入要求对齐。\n建议在新数据集上进行小规模的 Debug，打印中间层的 Tensor shape 以定位具体的维度不匹配位置。",[153,158,163,168,173,178,183,188,193],{"id":154,"version":155,"summary_zh":156,"released_at":157},118158,"v0.6.0","\u003C!-- 使用 .github\u002Frelease.yml 中的配置在 main 分支生成的发布说明 -->\n\n## 变更内容\n### ✨ 新特性 \u002F Features\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F192 中修复了 data.py\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F194 中更新了 metric.py\n* 功能：添加华为 Ascend 支持的 NPU 可选依赖，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F196 中实现\n* 功能：新增 MMOE\u002FESMM 笔记本及训练代码，由 @Luxorion-12 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F200 中实现\n### 🐛 Bug 修复 \u002F Bug Fixes\n* 更新 00_QuickStart_CTR_DeepFM.ipynb 并更新 __init__.py，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F187 中完成\n### 📝 文档更新 \u002F Documentation\n* 文档：为 6 款优先级模型添加模型使用示例文档，由 @sliortega295-ops 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F185 中完成\n* 文档：为 DIN、DIEN、BST、MIND、PLE（第二批）添加模型使用示例文档，由 @sliortega295-ops 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F188 中完成\n* 添加 DSSM、DeepFM、DIN.ipynb，由 @queenyn 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F199 中完成\n### 🔧 模型更新 \u002F Models\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F195 中重构了 BST 的 Transformer 处理逻辑\n\n## 新贡献者\n* @sliortega295-ops 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F185 中完成了首次贡献\n* @queenyn 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F199 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fcompare\u002Fv0.5.0...v0.6.0","2026-03-18T07:51:45",{"id":159,"version":160,"summary_zh":161,"released_at":162},118159,"v0.5.0","\u003C!-- 发布说明由 .github\u002Frelease.yml 中的配置在 v0.5.0 版本生成 -->\n\n## 变更内容\n### 🐛 Bug 修复 \u002F Bug Fixes\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F174 中更新 test_inbatch_sampling.py\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F176 中支持 embedding 初始化器中的 padding_idx 参数\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F177 中更新 ple.py\n### 📝 文档更新 \u002F Documentation\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F182 中添加关于 examples\u002F 示例数据集的注释\n* 文档：添加博客导航、修复示例、移除缓存文档，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F183 中完成\n### 🔧 模型更新 \u002F Models\n* 新增生成模型：TIGER，由 @lw-xundong 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F173 中实现\n* Feature\u002Frqvae，由 @lw-xundong 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F156 中实现\n### 📦 依赖更新 \u002F Dependencies\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F181 中更新 ci.yml\n### 🔄 其他变更 \u002F Other Changes\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F175 中更新 project_framework.png\n* 多任务模型学习教程提交，由 @Luxorion-12 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F179 中完成\n\n## 新贡献者\n* @lw-xundong 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F173 中完成了首次贡献\n* @Luxorion-12 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F179 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fcompare\u002Fv0.4.0...v0.5.0","2026-02-27T01:56:04",{"id":164,"version":165,"summary_zh":166,"released_at":167},118160,"v0.4.0","\u003C!-- 使用 .github\u002Frelease.yml 中的配置在 main 分支生成的发布说明 -->\n\n## 变更内容\n### 📝 文档更新 \u002F Documentation\n* 更新快速入门文档：参数和输出，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F171 中完成\n### 📦 依赖更新 \u002F Dependencies\n* 修复该包的版本，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F170 中完成\n### 🔄 其他变更 \u002F Other Changes\n* 更新 project_framework.png，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F169 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fcompare\u002Fv0.3.0...v0.4.0","2026-02-11T14:43:40",{"id":169,"version":170,"summary_zh":171,"released_at":172},118161,"v0.3.0","\u003C!-- 使用 .github\u002Frelease.yml 中的配置生成的发布说明 -->\n\n## 变更内容\n### ✨ 新特性 \u002F Features\n* Inbatchsample，由 @zerolovesea 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F128 中实现\n### 📝 文档更新 \u002F Documentation\n* 增强文档：ONNX、服务化、工具、教程，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F165 中完成\n* 扩展文档：社区、指南、模型、数据，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F166 中完成\n### 🔄 其他变更 \u002F Other Changes\n* 更新网站图标和 logo 图片，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F164 中完成\n* 将文档中的导入语句更新为 torch_rechub，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F167 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fcompare\u002Fv0.2.0...v0.3.0","2026-02-05T08:11:06",{"id":174,"version":175,"summary_zh":176,"released_at":177},118162,"v0.2.0","\u003C!-- 使用 .github\u002Frelease.yml 中的配置在 main 分支生成的发布说明 -->\n\n## 变更内容\n### 🐛 Bug 修复\n* @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F157 中更新了 HSTULayer，加入了 L2 范数和 SiLU 注意力机制。\n* @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F161 中添加了 ONNX 量化脚本和测试，并改进了数据加载器的拆分逻辑。\n\n### 📝 文档更新\n* @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F154 中更新了文档和 README，添加了新的架构图。\n* @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F162 中添加了全面的向量索引文档（英文和中文）。\n* @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F163 中更新了英文和中文的快速入门及追踪文档。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fcompare\u002Fv0.1.0...v0.2.0","2026-01-11T17:40:53",{"id":179,"version":180,"summary_zh":181,"released_at":182},118163,"v0.1.0","\u003C!-- 使用 .github\u002Frelease.yml 中的配置生成的发布说明 -->\n\n## 变更内容\n### ✨ 新特性 \u002F Features\n* 更新文档和教程，并添加 ONNX 量化工具，同时增强导出功能，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F150 中完成\n* 重构+新功能：统一检索后端（ANNOY\u002FFAISS\u002FMilvus），由 @ywuenthought 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F151 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fcompare\u002Fv0.0.6...v0.1.0","2025-12-17T02:19:01",{"id":184,"version":185,"summary_zh":186,"released_at":187},118164,"v0.0.6","\u003C!-- 使用 .github\u002Frelease.yml 中的配置生成的发布说明 -->\n\n## 变更内容\n### ✨ 新特性 \u002F Features\n* 特性：支持流式 Parquet 数据集，由 @ywuenthought 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F143 中实现\n* 文档与追踪优化：日志记录器文档字符串、README 更新、依赖项调整，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F146 中完成\n### 📝 文档更新 \u002F Documentation\n* 重构中文文档结构，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F145 中完成\n\n## 新贡献者\n* @ywuenthought 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F143 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fcompare\u002Fv0.0.5...v0.0.6","2025-12-11T03:33:33",{"id":189,"version":190,"summary_zh":191,"released_at":192},118165,"v0.0.5","\u003C!-- 使用 main 分支中 .github\u002Frelease.yml 配置生成的发布说明 -->\n\n## 变更内容\n### ✨ 新特性 \u002F Features\n* 添加 torchview 以支持模型可视化 && 更新 CI\u002FCD 和发布工作流，由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F141 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fcompare\u002Fv0.0.4...v0.0.5","2025-12-05T02:02:26",{"id":194,"version":195,"summary_zh":196,"released_at":197},118166,"v0.0.4","\u003C!-- 使用 .github\u002Frelease.yml 中的配置在 main 分支上生成的发布说明 -->\n\n## 变更内容\n### ✨ 新特性 \u002F Features\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F89 中完成代码格式化、添加模板、集成 CI\u002FCD 以及测试文件。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F90 中完成代码格式化、添加 Dependabot、更新 CI\u002FCD 和测试文件。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F92 中更新 CI\u002FCD，并添加 uv 功能。\n* feat：由 @zerolovesea 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F120 中为训练器添加 L1\u002FL2 支持。\n* feat（排序模型）：由 @zerolovesea 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F121 中实现 AutoInt 模型。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F122 中添加 HSTU 模型。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F125 中添加 HLLM 模型、脚本及文档。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F129 中实现 Hllm 模型。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F131 中添加 ONNX 导出功能。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F140 中添加 Release CI。\n### 🐛 Bug 修复 \u002F Bug Fixes\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F97 中更新 ci.yml。\n* fix（教程）：由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F105 中更新多任务教程中完整数据集的链接。\n### 📝 文档更新 \u002F Documentation\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F77 中添加文档项目的初始版本，并适配 Python 3.12 和 PyTorch 2.0+。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F78 中添加 GitHub Pages。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F79 中再次添加 GitHub Pages。\n* docs：由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F80 中添加贡献指南、模型列表（中文版）及新主题。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F81 中更新文档。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F82 中添加 docs\u002Fintroduction。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F83 中更新 docs\u002Ffaq 并修复文档中的问题。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F84 中更新 docs\u002Findex_page。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F85 中更新中英文文档、教程和 API 参考。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F86 中删除 docs\u002Fexamples，并添加对 Faiss 向量库 API 的支持。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F87 中更新 README$$logo。\n* 由 @1985312383 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F107 中创建 help_wanted.md。\n* docs：由 @loliw 在 https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Ftorch-rechub\u002Fpull\u002F108 中修复 Milvus.ipynb 中的一些错误。\n* 将文档迁移至 VitePress。","2025-12-04T09:33:05"]