[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-THUwangcy--ReChorus":3,"similar-THUwangcy--ReChorus":86},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":19,"owner_email":20,"owner_twitter":18,"owner_website":18,"owner_url":21,"languages":22,"stars":31,"forks":32,"last_commit_at":33,"license":34,"difficulty_score":35,"env_os":36,"env_gpu":37,"env_ram":38,"env_deps":39,"category_tags":44,"github_topics":46,"view_count":51,"oss_zip_url":18,"oss_zip_packed_at":18,"status":52,"created_at":53,"updated_at":54,"faqs":55,"releases":85},2801,"THUwangcy\u002FReChorus","ReChorus","“Chorus” of recommendation models: a light and flexible PyTorch framework for Top-K recommendation.","ReChorus 2.0 是一个专为推荐系统研究打造的轻量级、模块化 PyTorch 框架。它致力于解决研究人员在复现算法、对比不同模型以及适配多样化数据场景时面临的代码冗余与灵活性不足的痛点，让复杂的实验配置变得简单高效。\n\n这款工具特别适合高校学者、算法工程师及深度学习研究者使用。无论是进行传统的 Top-K 推荐、点击率（CTR）预测，还是探索新兴的上下文感知推荐与重排序任务，ReChorus 都能提供强有力的支持。其核心亮点在于高度的“任务灵活性”：同一模型只需切换模式即可适配不同任务，无需重复编写代码。框架将数据处理、训练控制和模型定义解耦为读取器（Reader）、运行器（Runner）和模型（Model）三大模块，不仅支持多线程批处理以提升 GPU 利用率，更允许开发者在单个文件中快速实现新模型。通过统一实验标准并降低定制门槛，ReChorus 旨在成为连接各类推荐算法与任务的和谐“合唱”，助力科研创新。","![logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUwangcy_ReChorus_readme_4fd39a2462ec.png)\n---\n\n![PyPI - Python Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpyhton-3.10-blue) \n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-blue.svg)](.\u002FLICENSE)\n![GitHub repo size](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frepo-size\u002FTHUwangcy\u002FReChorus) \n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-ReChorus-%23B21B1B)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.18058)\n\n\nReChorus2.0 is a modular and task-flexible PyTorch library for recommendation, especially for research purpose. It aims to provide researchers a flexible framework to implement various recommendation tasks, compare different algorithms, and adapt to diverse and highly-customized data inputs. We hope ReChorus2.0 can serve as a more convinient and user-friendly tool for researchers, so as to form a \"Chorus\" of recommendation tasks and algorithms.\n\nThe previous version of ReChorus can be found at [ReChorus1.0](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002FReChorus1.0)\n\n## What's New in ReChorus2.0:\n\n- **New Tasks**: Newly supporting the context-aware top-k recommendation and CTR prediction task. Newly supporting the Impression-based re-ranking task.\n- **New Models**: Adding Context-aware Recommenders and Impression-based Re-ranking Models. Listed below.\n- **New dataset format**: Supporting various contextual feature input. Customizing candidate item lists in training and evaluation. Supporting variable length positive and negative samples.\n- **Task Flexible**: Each model can serve for different tasks, and task switching is conveniently achieved by altering *model mode*.\n  \n\nThis framework is especially suitable for researchers to choose or implement desired experimental settings, and compare algorithms under the same setting. The characteristics of our framework can be summarized as follows:\n\n- **Modular**: primary functions modularized into distinct components: runner, model, and reader, facilitating code comprehension and integration of new features.\n  \n- **Swift**: concentrate on your model design ***in a single file*** and implement new models quickly.\n\n- **Efficient**: multi-thread batch preparation, special implementations for the evaluation, and around 90% GPU utilization during training for deep models.\n\n- **Flexible**: implement new readers or runners for different datasets and experimental settings, and each model can be assigned with specific helpers.\n\n## Structure\n\nGenerally, ReChorus decomposes the whole process into three modules:\n\n- [Reader](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fsrc\u002Fhelpers\u002FBaseReader.py): read dataset into DataFrame and append necessary information to each instance\n- [Runner](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fsrc\u002Fhelpers\u002FBaseRunner.py): control the training process and model evaluation, including evaluation metrics.\n- [Model](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fsrc\u002Fmodels\u002FBaseModel.py): define how to generate output (predicted labels or ranking scores) and prepare batches.\n\n![logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUwangcy_ReChorus_readme_149d8a35df2a.png)\n\n## Requirements & Getting Started\nSee in the doc for [Requirements & Getting Started](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fdocs\u002FGetting_Started.md).\n\n## Tasks & Settings\n\nThe tasks & settings are listed below\n\n\u003Ctable>\n\u003Ctr>\u003Cth> Tasks \u003C\u002Fth>\u003Cth> Runner \u003C\u002Fth>\u003Cth> Metrics \u003C\u002Fth>\u003Cth> Loss Functions\u003C\u002Fth>\u003Cth> Reader \u003C\u002Fth>\u003Cth> BaseModel \u003C\u002Fth>\u003Cth> Models\u003C\u002Fth>\u003Cth> Model Modes \u003C\u002Fth>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd rowspan=\"3\"> Top-k Recommendation \u003C\u002Ftd>\u003Ctd rowspan=\"3\"> BaseRunner \u003C\u002Ftd>\u003Ctd rowspan=\"3\"> HitRate NDCG \u003C\u002Ftd>\u003Ctd rowspan=\"3\"> BPR \u003C\u002Ftd>\u003Ctd> BaseReader \u003C\u002Ftd>\u003Ctd> BaseModel.GeneralModel \u003C\u002Ftd>\u003Ctd> general \u003C\u002Ftd>\u003Ctd> '' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> SeqReader \u003C\u002Ftd>\u003Ctd> BaseModel.SequentialModel \u003C\u002Ftd>\u003Ctd> sequential \u003C\u002Ftd>\u003Ctd> '' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ContextReader \u003C\u002Ftd>\u003Ctd> BaseContextModel.ContextModel \u003C\u002Ftd>\u003Ctd> context \u003C\u002Ftd>\u003Ctd> 'TopK' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> CTR Prediction \u003C\u002Ftd>\u003Ctd> CTRRunner \u003C\u002Ftd>\u003Ctd> AUC Logloss \u003C\u002Ftd>\u003Ctd> BPR, BCE \u003C\u002Ftd>\u003Ctd> ContextReader \u003C\u002Ftd>\u003Ctd> BaseContextModel.ContextCTRModel \u003C\u002Ftd>\u003Ctd> context \u003C\u002Ftd>\u003Ctd> 'CTR' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd rowspan=\"4\"> Impression-based Ranking \u003C\u002Ftd>\u003Ctd rowspan=\"4\"> ImpressionRunner \u003C\u002Ftd>\u003Ctd rowspan=\"4\"> HitRate NDCG MAP \u003C\u002Ftd>\u003Ctd rowspan=\"4\"> List-level BPR, Listnet loss, Softmax cross entropy loss, Attention rank \u003C\u002Ftd>\u003Ctd> ImpressionReader \u003C\u002Ftd>\u003Ctd> BaseImpressionModel.ImpressionModel \u003C\u002Ftd>\u003Ctd> general \u003C\u002Ftd>\u003Ctd> 'Impression' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ImpressionSeqReader \u003C\u002Ftd>\u003Ctd> BaseImpressionModel.ImpressionSeqModel \u003C\u002Ftd>\u003Ctd> sequential \u003C\u002Ftd>\u003Ctd> 'Impression' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ImpressionReader \u003C\u002Ftd>\u003Ctd> BaseRerankerModel.RerankModel \u003C\u002Ftd>\u003Ctd> reranker \u003C\u002Ftd>\u003Ctd> 'General' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ImpressionSeqReader \u003C\u002Ftd>\u003Ctd> BaseRerankerModel.RerankSeqModel \u003C\u002Ftd>\u003Ctd> reranker \u003C\u002Ftd>\u003Ctd> 'Sequential' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n## Arguments\nSee in the doc for [Main Arguments](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fdocs\u002FMain_Arguments.md).\n\n## Models\nSee in the doc for [Supported Models](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fdocs\u002FSupported_Models.md).\n\nExperimental results and corresponding configurations are shown in [Demo Script Results](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fdocs\u002Fdemo_scripts_results\u002FREADME.md).\n\n\n## Citation\n\n**If you find ReChorus is helpful to your research, please cite either of the following papers. Thanks!**\n\n```\n@inproceedings{li2024rechorus2,\n  title={ReChorus2. 0: A Modular and Task-Flexible Recommendation Library},\n  author={Li, Jiayu and Li, Hanyu and He, Zhiyu and Ma, Weizhi and Sun, Peijie and Zhang, Min and Ma, Shaoping},\n  booktitle={Proceedings of the 18th ACM Conference on Recommender Systems},\n  pages={454--464},\n  year={2024}\n}\n```\n```\n@inproceedings{wang2020make,\n  title={Make it a chorus: knowledge-and time-aware item modeling for sequential recommendation},\n  author={Wang, Chenyang and Zhang, Min and Ma, Weizhi and Liu, Yiqun and Ma, Shaoping},\n  booktitle={Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval},\n  pages={109--118},\n  year={2020}\n}\n```\n```\n@article{王晨阳2021rechorus,\n  title={ReChorus: 一个综合, 高效, 易扩展的轻量级推荐算法框架},\n  author={王晨阳 and 任一 and 马为之 and 张敏 and 刘奕群 and 马少平},\n  journal={软件学报},\n  volume={33},\n  number={4},\n  pages={0--0},\n  year={2021}\n}\n```\n\nThis is also our public implementation for the following papers (codes and datasets to reproduce the results can be found at corresponding branch):\n\n\n- *Chenyang Wang, Min Zhang, Weizhi Ma, Yiqun Liu, and Shaoping Ma. [Make It a Chorus: Knowledge- and Time-aware Item Modeling for Sequential Recommendation](http:\u002F\u002Fwww.thuir.cn\u002Fgroup\u002F~mzhang\u002Fpublications\u002FSIGIR2020Wangcy.pdf). In SIGIR'20.*\n\n```bash\ngit clone -b SIGIR20 https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus.git\n```\n\n- *Chenyang Wang, Weizhi Ma, Min Zhang, Chong Chen, Yiqun Liu, and Shaoping Ma. [Towards Dynamic User Intention: Temporal Evolutionary Effects of Item Relations in Sequential Recommendation](https:\u002F\u002Fchenchongthu.github.io\u002Ffiles\u002FTOIS-KDA-wcy.pdf). In TOIS'21.*\n\n```bash\ngit clone -b TOIS21 https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus.git\n```\n\n- *Chenyang Wang, Weizhi Ma, Chong, Chen, Min Zhang, Yiqun Liu, and Shaoping Ma. [Sequential Recommendation with Multiple Contrast Signals](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fpdf\u002F10.1145\u002F3522673). In TOIS'22.*\n\n```bash\ngit clone -b TOIS22 https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus.git\n```\n\n- *Chenyang Wang, Zhefan Wang, Yankai Liu, Yang Ge, Weizhi Ma, Min Zhang, Yiqun Liu, Junlan Feng, Chao Deng, and Shaoping Ma. [Target Interest Distillation for Multi-Interest Recommendation](). In CIKM'22.*\n\n```bash\ngit clone -b CIKM22 https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus.git\n```\n\n## Contact\n\n**ReChorus 1.0**: Chenyang Wang (THUwangcy@gmail.com)\n\n**ReChorus 2.0**: Jiayu Li (lijiayu997@gmail.com), Hanyu Li (l-hy12@outlook.com)\n\n\u003C!-- MARKDOWN LINKS & IMAGES -->\n\n\u003C!-- https:\u002F\u002Fwww.markdownguide.org\u002Fbasic-syntax\u002F#reference-style-links -->\n\n[contributors-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002Fothneildrew\u002FBest-README-Template.svg?style=flat-square\n[contributors-url]: https:\u002F\u002Fgithub.com\u002Fothneildrew\u002FBest-README-Template\u002Fgraphs\u002Fcontributors\n[forks-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fothneildrew\u002FBest-README-Template.svg?style=flat-square\n[forks-url]: https:\u002F\u002Fgithub.com\u002Fothneildrew\u002FBest-README-Template\u002Fnetwork\u002Fmembers\n[stars-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fothneildrew\u002FBest-README-Template.svg?style=flat-square\n[stars-url]: https:\u002F\u002Fgithub.com\u002Fothneildrew\u002FBest-README-Template\u002Fstargazers\n[issues-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fothneildrew\u002FBest-README-Template.svg?style=flat-square\n[issues-url]: https:\u002F\u002Fgithub.com\u002Fothneildrew\u002FBest-README-Template\u002Fissues\n[license-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fothneildrew\u002FBest-README-Template.svg?style=flat-square\n[license-url]: https:\u002F\u002Fgithub.com\u002Fothneildrew\u002FBest-README-Template\u002Fblob\u002Fmaster\u002FLICENSE.txt\n[linkedin-shield]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-LinkedIn-black.svg?style=flat-square&logo=linkedin&colorB=555\n[linkedin-url]: https:\u002F\u002Flinkedin.com\u002Fin\u002Fothneildrew\n[product-screenshot]: images\u002Fscreenshot.png\n","![logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUwangcy_ReChorus_readme_4fd39a2462ec.png)\n---\n\n![PyPI - Python Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpyhton-3.10-blue) \n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-blue.svg)](.\u002FLICENSE)\n![GitHub repo size](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frepo-size\u002FTHUwangcy\u002FReChorus) \n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-ReChorus-%23B21B1B)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.18058)\n\n\nReChorus2.0 是一个模块化且任务灵活的 PyTorch 推荐库，尤其适用于研究目的。它旨在为研究人员提供一个灵活的框架，用于实现各种推荐任务、比较不同算法，并适应多样化的高度定制数据输入。我们希望 ReChorus2.0 能够成为研究人员更加便捷、友好的工具，从而形成推荐任务与算法的“合奏”。\n\nReChorus 的上一版本可参见 [ReChorus1.0](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002FReChorus1.0)。\n\n## ReChorus2.0 新特性：\n\n- **新增任务**：新增支持上下文感知的 Top-K 推荐和 CTR 预测任务；新增支持基于曝光的重排序任务。\n- **新增模型**：增加了上下文感知推荐模型和基于曝光的重排序模型，具体如下。\n- **新数据集格式**：支持多种上下文特征输入；可在训练和评估中自定义候选物品列表；支持变长的正负样本。\n- **任务灵活**：每个模型均可服务于不同的任务，通过切换 *模型模式* 即可方便地完成任务切换。\n\n该框架特别适合研究人员选择或实现所需的实验设置，并在相同设置下比较算法。我们的框架具有以下特点：\n\n- **模块化**：主要功能被模块化为独立组件：运行器、模型和读取器，便于代码理解及新功能的集成。\n  \n- **快速**：只需 ***在一个文件中*** 专注于模型设计，即可快速实现新模型。\n\n- **高效**：采用多线程批量准备数据，针对评估进行了特殊优化，深度模型训练时 GPU 利用率可达约 90%。\n\n- **灵活**：可为不同数据集和实验设置实现新的读取器或运行器，且每个模型都可以分配特定的帮助程序。\n\n## 结构\n\n总体而言，ReChorus 将整个流程分解为三个模块：\n\n- [读取器](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fsrc\u002Fhelpers\u002FBaseReader.py)：将数据集读入 DataFrame，并为每个实例添加必要信息。\n- [运行器](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fsrc\u002Fhelpers\u002FBaseRunner.py)：控制训练过程和模型评估，包括评估指标。\n- [模型](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fsrc\u002Fmodels\u002FBaseModel.py)：定义如何生成输出（预测标签或排序分数）以及如何准备批次。\n\n![logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUwangcy_ReChorus_readme_149d8a35df2a.png)\n\n## 环境要求与入门\n详细信息请参阅文档中的 [环境要求与入门](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fdocs\u002FGetting_Started.md)。\n\n## 任务与设置\n\n以下是任务与设置的列表：\n\n\u003Ctable>\n\u003Ctr>\u003Cth> 任务 \u003C\u002Fth>\u003Cth> 运行器 \u003C\u002Fth>\u003Cth> 指标 \u003C\u002Fth>\u003Cth> 损失函数\u003C\u002Fth>\u003Cth> 读取器 \u003C\u002Fth>\u003Cth> 基础模型 \u003C\u002Fth>\u003Cth> 模型\u003C\u002Fth>\u003Cth> 模型模式 \u003C\u002Fth>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd rowspan=\"3\"> Top-k 推荐 \u003C\u002Ftd>\u003Ctd rowspan=\"3\"> BaseRunner \u003C\u002Ftd>\u003Ctd rowspan=\"3\"> HitRate NDCG \u003C\u002Ftd>\u003Ctd rowspan=\"3\"> BPR \u003C\u002Ftd>\u003Ctd> BaseReader \u003C\u002Ftd>\u003Ctd> BaseModel.GeneralModel \u003C\u002Ftd>\u003Ctd> general \u003C\u002Ftd>\u003Ctd> '' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> SeqReader \u003C\u002Ftd>\u003Ctd> BaseModel.SequentialModel \u003C\u002Ftd>\u003Ctd> sequential \u003C\u002Ftd>\u003Ctd> '' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ContextReader \u003C\u002Ftd>\u003Ctd> BaseContextModel.ContextModel \u003C\u002Ftd>\u003Ctd> context \u003C\u002Ftd>\u003Ctd> 'TopK' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> CTR 预测 \u003C\u002Ftd>\u003Ctd> CTRRunner \u003C\u002Ftd>\u003Ctd> AUC Logloss \u003C\u002Ftd>\u003Ctd> BPR, BCE \u003C\u002Ftd>\u003Ctd> ContextReader \u003C\u002Ftd>\u003Ctd> BaseContextModel.ContextCTRModel \u003C\u002Ftd>\u003Ctd> context \u003C\u002Ftd>\u003Ctd> 'CTR' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd rowspan=\"4\"> 基于曝光的排序 \u003C\u002Ftd>\u003Ctd rowspan=\"4\"> ImpressionRunner \u003C\u002Ftd>\u003Ctd rowspan=\"4\"> HitRate NDCG MAP \u003C\u002Ftd>\u003Ctd rowspan=\"4\"> List-level BPR, Listnet loss, Softmax cross entropy loss, Attention rank \u003C\u002Ftd>\u003Ctd> ImpressionReader \u003C\u002Ftd>\u003Ctd> BaseImpressionModel.ImpressionModel \u003C\u002Ftd>\u003Ctd> general \u003C\u002Ftd>\u003Ctd> 'Impression' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ImpressionSeqReader \u003C\u002Ftd>\u003Ctd> BaseImpressionModel.ImpressionSeqModel \u003C\u002Ftd>\u003Ctd> sequential \u003C\u002Ftd>\u003Ctd> 'Impression' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ImpressionReader \u003C\u002Ftd>\u003Ctd> BaseRerankerModel.RerankModel \u003C\u002Ftd>\u003Ctd> reranker \u003C\u002Ftd>\u003Ctd> 'General' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ImpressionSeqReader \u003C\u002Ftd>\u003Ctd> BaseRerankerModel.RerankSeqModel \u003C\u002Ftd>\u003Ctd> reranker \u003C\u002Ftd>\u003Ctd> 'Sequential' \u003C\u002Ftd>\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n## 参数\n详细信息请参阅文档中的 [主要参数](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fdocs\u002FMain_Arguments.md)。\n\n## 模型\n详细信息请参阅文档中的 [支持的模型](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fdocs\u002FSupported_Models.md)。\n\n实验结果及相应配置详见 [示例脚本结果](https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Ftree\u002Fmaster\u002Fdocs\u002Fdemo_scripts_results\u002FREADME.md)。\n\n## 引用\n\n**如果您发现 ReChorus 对您的研究有所帮助，请引用以下任一论文。谢谢！**\n\n```\n@inproceedings{li2024rechorus2,\n  title={ReChorus2. 0: 一个模块化且任务灵活的推荐库},\n  author={李嘉宇、李涵宇、何志宇、马为志、孙培杰、张敏、马少平},\n  booktitle={第18届ACM推荐系统会议论文集},\n  pages={454--464},\n  year={2024}\n}\n```\n```\n@inproceedings{wang2020make,\n  title={让它成为合唱：面向序列推荐的知识与时间感知物品建模},\n  author={王晨阳、张敏、马为志、刘奕群、马少平},\n  booktitle={第43届国际ACM SIGIR信息检索研究与发展大会论文集},\n  pages={109--118},\n  year={2020}\n}\n```\n```\n@article{王晨阳2021rechorus,\n  title={ReChorus: 一个综合, 高效, 易扩展的轻量级推荐算法框架},\n  author={王晨阳、任一、马为之、张敏、刘奕群、马少平},\n  journal={软件学报},\n  volume={33},\n  number={4},\n  pages={0--0},\n  year={2021}\n}\n```\n\n这也是我们针对以下论文的公开实现（代码和数据集可在相应分支中找到，用于复现结果）：\n\n\n- *Chenyang Wang, Min Zhang, Weizhi Ma, Yiqun Liu, and Shaoping Ma. [让其成为合唱：面向序列推荐的知识与时间感知物品建模](http:\u002F\u002Fwww.thuir.cn\u002Fgroup\u002F~mzhang\u002Fpublications\u002FSIGIR2020Wangcy.pdf). In SIGIR'20.*\n\n```bash\ngit clone -b SIGIR20 https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus.git\n```\n\n- *Chenyang Wang, Weizhi Ma, Min Zhang, Chong Chen, Yiqun Liu, and Shaoping Ma. [走向动态用户意图：序列推荐中物品关系的时间演化效应](https:\u002F\u002Fchenchongthu.github.io\u002Ffiles\u002FTOIS-KDA-wcy.pdf). In TOIS'21.*\n\n```bash\ngit clone -b TOIS21 https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus.git\n```\n\n- *Chenyang Wang, Weizhi Ma, Chong, Chen, Min Zhang, Yiqun Liu, and Shaoping Ma. [具有多重对比信号的序列推荐](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fpdf\u002F10.1145\u002F3522673). In TOIS'22.*\n\n```bash\ngit clone -b TOIS22 https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus.git\n```\n\n- *Chenyang Wang, Zhefan Wang, Yankai Liu, Yang Ge, Weizhi Ma, Min Zhang, Yiqun Liu, Junlan Feng, Chao Deng, and Shaoping Ma. [面向多兴趣推荐的目标兴趣蒸馏](). In CIKM'22.*\n\n```bash\ngit clone -b CIKM22 https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus.git\n```\n\n## 联系方式\n\n**ReChorus 1.0**: 王晨阳 (THUwangcy@gmail.com)\n\n**ReChorus 2.0**: 李嘉宇 (lijiayu997@gmail.com)、李涵宇 (l-hy12@outlook.com)\n\n\u003C!-- MARKDOWN LINKS & IMAGES -->\n\n\u003C!-- https:\u002F\u002Fwww.markdownguide.org\u002Fbasic-syntax\u002F#reference-style-links -->\n\n[contributors-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002Fothneildrew\u002FBest-README-Template.svg?style=flat-square\n[contributors-url]: https:\u002F\u002Fgithub.com\u002Fothneildrew\u002FBest-README-Template\u002Fgraphs\u002Fcontributors\n[forks-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fothneildrew\u002FBest-README-Template.svg?style=flat-square\n[forks-url]: https:\u002F\u002Fgithub.com\u002Fothneildrew\u002FBest-README-Template\u002Fnetwork\u002Fmembers\n[stars-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fothneildrew\u002FBest-README-Template.svg?style=flat-square\n[stars-url]: https:\u002F\u002Fgithub.com\u002Fothneildrew\u002FBest-README-Template\u002Fstargazers\n[issues-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fothneildrew\u002FBest-README-Template.svg?style=flat-square\n[issues-url]: https:\u002F\u002Fgithub.com\u002Fothneildrew\u002FBest-README-Template\u002Fissues\n[license-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fothneildrew\u002FBest-README-Template.svg?style=flat-square\n[license-url]: https:\u002F\u002Fgithub.com\u002Fothneildrew\u002FBest-README-Template\u002Fblob\u002Fmaster\u002FLICENSE.txt\n[linkedin-shield]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-LinkedIn-black.svg?style=flat-square&logo=linkedin&colorB=555\n[linkedin-url]: https:\u002F\u002Flinkedin.com\u002Fin\u002Fothneildrew\n[product-screenshot]: images\u002Fscreenshot.png","# ReChorus 2.0 快速上手指南\n\nReChorus 2.0 是一个模块化且任务灵活的 PyTorch 推荐系统库，专为科研设计。它支持上下文感知 Top-K 推荐、CTR 预测以及基于曝光的重排序等多种任务，允许研究人员在统一框架下快速实现模型对比与实验验证。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux 或 macOS (Windows 需通过 WSL 运行)\n*   **Python 版本**: Python 3.10\n*   **核心依赖**:\n    *   PyTorch (建议安装与您的 CUDA 版本匹配的最新版)\n    *   NumPy, Pandas, SciPy\n    *   tqdm, tensorboardX\n\n> **提示**：国内用户建议使用清华源或阿里源加速 Python 包和 PyTorch 的安装。\n\n## 安装步骤\n\n### 1. 克隆项目\n从 GitHub 克隆 ReChorus 2.0 主分支代码：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus.git\ncd ReChorus\n```\n\n### 2. 安装依赖\n推荐使用 `pip` 安装所需依赖。国内用户可添加 `-i` 参数使用镜像源：\n\n```bash\n# 使用清华源安装依赖\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n如果 `requirements.txt` 未包含 PyTorch，请单独安装（以 CUDA 11.8 为例）：\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n```\n\n## 基本使用\n\nReChorus 的核心设计理念是**模块化**（Reader-Model-Runner）。最简单的使用方式是通过命令行运行已有的演示脚本，或修改配置文件来训练新模型。\n\n### 1. 目录结构概览\n主要代码位于 `src` 目录：\n*   `src\u002Fhelpers\u002FBaseReader.py`: 数据读取与预处理\n*   `src\u002Fmodels\u002F`: 模型定义\n*   `src\u002Fhelpers\u002FBaseRunner.py`: 训练流程控制与评估\n\n### 2. 运行示例任务\n假设您想运行一个基础的序列推荐模型（如 SASRec）在标准数据集上，通常可以在根目录下找到对应的脚本或配置。\n\n**通用运行命令格式：**\n```bash\npython src\u002Fmain.py --model [模型名称] --dataset [数据集名称] --task [任务类型]\n```\n\n**具体示例（以 Top-K 推荐任务为例）：**\n```bash\n# 运行一个序列模型 (sequential) 进行 Top-K 推荐\npython src\u002Fmain.py --model SASRec --dataset Amazon_Beauty --task sequential --mode ''\n```\n\n**切换任务模式（例如切换到 CTR 预测）：**\n只需更改 `--task` 和 `--mode` 参数，无需修改模型代码：\n```bash\n# 运行上下文模型进行 CTR 预测\npython src\u002Fmain.py --model DIN --dataset Criteo --task context --mode 'CTR'\n```\n\n### 3. 自定义开发\n若要实现新模型，只需在 `src\u002Fmodels` 下新建一个 Python 文件，继承对应的基类（如 `BaseModel.GeneralModel` 或 `BaseModel.SequentialModel`），并实现 `forward` 和 `prepare_batch` 方法即可。框架会自动处理训练循环和评估指标。\n\n```python\n# src\u002Fmodels\u002FMyNewModel.py 示例骨架\nfrom models.BaseModel import SequentialModel\n\nclass MyNewModel(SequentialModel):\n    def __init__(self, args, data_dict):\n        super().__init__(args, data_dict)\n        # 初始化模型层\n        \n    def forward(self, batch):\n        # 定义前向传播逻辑\n        pass\n```\n\n运行新模型：\n```bash\npython src\u002Fmain.py --model MyNewModel --dataset [您的数据集] --task sequential\n```\n\n更多详细的参数配置、支持的数据集格式及完整模型列表，请参考项目文档中的 `Main_Arguments.md` 和 `Supported_Models.md`。","某高校推荐系统实验室的研究团队正致力于开发一种融合用户实时上下文信息（如时间、地点）的 Top-K 商品推荐新算法，并需与传统的序列推荐模型进行公平对比。\n\n### 没有 ReChorus 时\n- **代码复用率低**：每尝试一个新的实验设定（如从序列任务切换到上下文感知任务），都需要重写大量数据读取和训练循环代码，难以模块化复用。\n- **环境对齐困难**：在对比不同算法时，因手动构建的数据加载器和评估指标不一致，导致实验结果存在偏差，难以证明新模型的优越性。\n- **开发效率低下**：研究者需花费数天时间处理变长正负样本和候选集定制等底层细节，而非专注于核心模型结构的设计。\n- **资源利用率不足**：自研框架缺乏针对深度模型的多线程批处理优化，GPU 利用率往往低于 60%，拖慢了大规模实验的迭代速度。\n\n### 使用 ReChorus 后\n- **任务切换灵活**：仅需修改配置文件中的 `model mode` 和 `reader` 类型，即可在同一框架下无缝切换“序列推荐”与“上下文感知 Top-K\"任务，无需重构代码。\n- **实验公平可控**：ReChorus 内置统一的 `Runner` 模块和标准评估指标（如 NDCG、HitRate），确保所有对比算法在完全相同的数据划分和评估逻辑下运行。\n- **聚焦核心创新**：研究者只需在单个文件中定义模型前向传播逻辑，框架自动处理复杂的变长样本构建和候选集生成，大幅缩短研发周期。\n- **训练高效加速**：利用框架特有的多线程批准备机制和评估优化，深度模型训练时的 GPU 利用率稳定在 90% 左右，显著提升了实验迭代效率。\n\nReChorus 通过其模块化设计和任务灵活性，让研究人员能从繁琐的工程实现中解放出来，真正专注于推荐算法本身的创新与验证。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUwangcy_ReChorus_4fd39a24.png","THUwangcy","Chenyang Wang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FTHUwangcy_c0fee82b.png","Fourth-year Ph.D. student at Tsinghua University, major in CST.",null,"Beijing","THUwangcy@gmail.com","https:\u002F\u002Fgithub.com\u002FTHUwangcy",[23,27],{"name":24,"color":25,"percentage":26},"Python","#3572A5",81.6,{"name":28,"color":29,"percentage":30},"Jupyter Notebook","#DA5B0B",18.4,640,96,"2026-03-30T16:14:56","MIT",3,"","未明确说明具体型号，但文档提到训练深度模型时 GPU 利用率可达 90%，暗示需要 NVIDIA GPU 以支持 PyTorch CUDA 加速","未说明",{"notes":40,"python":41,"dependencies":42},"该工具是一个基于 PyTorch 的推荐系统研究库。具体的依赖库列表、安装步骤及环境配置详情请参阅官方文档中的 'Requirements & Getting Started' 章节（链接在 README 中提供），README 正文中未直接列出详细的 requirements.txt 内容。","3.10",[43],"PyTorch",[45],"开发框架",[47,48,49,50],"recommendation","framework","pytorch","ranking",2,"ready","2026-03-27T02:49:30.150509","2026-04-06T09:46:08.507370",[56,61,66,71,76,81],{"id":57,"question_zh":58,"answer_zh":59,"source_url":60},12952,"训练时出现 'ValueError: The value argument must be within the support' 错误怎么办？","这通常是因为 PyTorch 1.8 版本默认开启了对分布参数的严格验证。解决方法是在代码中找到实例化 `torch.distributions.exponential.Exponential` 的地方（例如第 116 行），并传入 `validate_args=False` 参数。修改后的代码示例：`exp_dist = torch.distributions.exponential.Exponential(beta, validate_args=False)`。","https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Fissues\u002F21",{"id":62,"question_zh":63,"answer_zh":64,"source_url":65},12953,"ContraRec 或 Caser 模型在 PyTorch 1.8 下训练报错，是版本兼容性问题吗？","是的，这很可能是 PyTorch 版本差异导致的问题。维护者确认在 PyTorch 1.1 版本下测试正常，而 1.8 版本引入了其他潜在问题。建议尝试切换回 PyTorch 1.1 版本，或者关注后续针对高版本 PyTorch 的修复更新。","https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Fissues\u002F38",{"id":67,"question_zh":68,"answer_zh":69,"source_url":70},12954,"自定义模型时出现命中率（HR）接近 100% 的异常情况，原因是什么？","这通常是因为线性层输出维度设置不当，导致模型参数“记住”了第一个预测项应该是正样本。此外，如果负采样物品顺序固定，模型可能过拟合该顺序。解决方案包括：1. 确保每个实例独立通过网络，最终线性层应将输入向量转换为标量而非涉及其他实例的预测；2. 在训练过程中对物品列表进行随机打乱（shuffle），以打破固定的顺序依赖。","https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Fissues\u002F43",{"id":72,"question_zh":73,"answer_zh":74,"source_url":75},12955,"该项目主要用于召回阶段还是精排阶段？支持哪些评估指标？","该框架更面向精排（Ranking）任务，但也可以用于召回（Recall）。若用于召回，只需将所有物品作为候选集（candidate items）即可。在实际推荐系统中，通常先由召回模型生成候选集，再使用此框架对这些候选商品进行精排。","https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Fissues\u002F4",{"id":77,"question_zh":78,"answer_zh":79,"source_url":80},12956,"代码中负采样数量（num_neg）默认值是 1 还是 99？与论文描述不一致如何处理？","论文中设定的负采样数量为 99。代码中默认参数可能因文件不同而有差异（如 BaseModel.py 中曾改为 1，而 amazon.ipynb 保持 99）。正确的训练设置应为：训练时每个正样本对应 1 个负样本计算损失（BPR loss 兼容多负样本但在该设定下通常为 1），而在评估\u002F推荐排序阶段，则是将 1 个正样本与 99 个负样本一起排序。请根据具体实验需求调整 `--num_neg` 参数。","https:\u002F\u002Fgithub.com\u002FTHUwangcy\u002FReChorus\u002Fissues\u002F10",{"id":82,"question_zh":83,"answer_zh":84,"source_url":60},12957,"运行 Chorus 模型时报错 'Pre-trained KG model does not exist'，如何解决？","Chorus 模型依赖知识图谱（KG）信息。如果在第二阶段（stage 2）运行时找不到预训练的 KG 模型，需要先运行第一阶段（stage 1）进行预训练。命令示例：`python main.py --model_name Chorus ... --stage 1`。注意：如果数据集（如 ML-1M）缺乏物品关系信息（如互补、替代关系），则无法运行 Chorus 模型，建议使用包含此类信息的数据集（如 Amazon 系列）。",[],[87,97,106,114,122,135],{"id":88,"name":89,"github_repo":90,"description_zh":91,"stars":92,"difficulty_score":35,"last_commit_at":93,"category_tags":94,"status":52},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[45,95,96],"图像","Agent",{"id":98,"name":99,"github_repo":100,"description_zh":101,"stars":102,"difficulty_score":51,"last_commit_at":103,"category_tags":104,"status":52},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,"2026-04-05T23:32:43",[45,96,105],"语言模型",{"id":107,"name":108,"github_repo":109,"description_zh":110,"stars":111,"difficulty_score":51,"last_commit_at":112,"category_tags":113,"status":52},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[45,95,96],{"id":115,"name":116,"github_repo":117,"description_zh":118,"stars":119,"difficulty_score":51,"last_commit_at":120,"category_tags":121,"status":52},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[45,105],{"id":123,"name":124,"github_repo":125,"description_zh":126,"stars":127,"difficulty_score":51,"last_commit_at":128,"category_tags":129,"status":52},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[95,130,131,132,96,133,105,45,134],"数据工具","视频","插件","其他","音频",{"id":136,"name":137,"github_repo":138,"description_zh":139,"stars":140,"difficulty_score":35,"last_commit_at":141,"category_tags":142,"status":52},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[96,95,45,105,133]]