[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-shenweichen--DeepCTR-Torch":3,"tool-shenweichen--DeepCTR-Torch":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":23,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":23,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,60,43,61,15,62,26,13,63],"数据工具","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":79,"owner_email":80,"owner_twitter":78,"owner_website":78,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":91,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":103,"github_topics":104,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":114,"updated_at":115,"faqs":116,"releases":151},4179,"shenweichen\u002FDeepCTR-Torch","DeepCTR-Torch","【PyTorch】Easy-to-use,Modular and Extendible package of deep-learning based CTR models.","DeepCTR-Torch 是一个基于 PyTorch 框架打造的开源工具包，专为深度学习点击率（CTR）预测模型设计。在广告推荐、用户行为分析等场景中，如何从海量稀疏特征中精准预测用户点击概率是一大难题，DeepCTR-Torch 通过集成多种业界领先的算法模型，有效解决了这一痛点。\n\n该工具非常适合算法工程师、数据科学家及人工智能研究人员使用。无论是希望快速复现经典论文成果的研究者，还是需要在生产环境中高效落地推荐系统的开发者，都能从中受益。DeepCTR-Torch 的核心亮点在于其“易用性”与“模块化”设计：它封装了包括 Wide & Deep、DeepFM、xDeepFM、DIN 等在内的十余种主流 CTR 模型，用户只需几行代码即可调用 `model.fit()` 和 `model.predict()` 完成训练与预测。同时，其灵活的组件架构允许用户像搭积木一样自由组合核心网络层，轻松构建自定义模型。作为知名库 DeepCTR 的 PyTorch 版本，它在保持功能强大的同时，完美融入了 PyTorch 生态，让复杂的深度学习建模过程变得简单高效。","# DeepCTR-Torch\n\n[![Python Versions](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fdeepctr-torch.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fdeepctr-torch)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_3b1133daf4c1.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fdeepctr-torch)\n[![PyPI Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fdeepctr-torch.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fdeepctr-torch)\n[![GitHub Issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fshenweichen\u002Fdeepctr-torch.svg\n)](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002Fdeepctr-torch\u002Fissues)\n\n\n[![Documentation Status](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_13d664e1afd7.png)](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002F)\n![CI status](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002Fdeepctr-torch\u002Fworkflows\u002FCI\u002Fbadge.svg)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fshenweichen\u002FDeepCTR-Torch\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg?token=m6v89eYOjp)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fshenweichen\u002FDeepCTR-Torch)\n[![Disscussion](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fchat-wechat-brightgreen?style=flat)](.\u002FREADME.md#disscussiongroup)\n[![License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fshenweichen\u002Fdeepctr-torch.svg)](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002Fdeepctr-torch\u002Fblob\u002Fmaster\u002FLICENSE)\n\nPyTorch version of [DeepCTR](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR).\n\nDeepCTR is a **Easy-to-use**,**Modular** and **Extendible** package of deep-learning based CTR models along with lots of core components layers which can be used to build your own custom model easily.You can use any complex model with `model.fit()`and `model.predict()` .Install through `pip install -U deepctr-torch`.\n\nLet's [**Get Started!**](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FQuick-Start.html)([Chinese Introduction](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F53231955))\n\n## Models List\n\n|                 Model                  | Paper                                                                                                                                                           |\n| :------------------------------------: | :-------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n|  Convolutional Click Prediction Model  | [CIKM 2015][A Convolutional Click Prediction Model](http:\u002F\u002Fir.ia.ac.cn\u002Fbitstream\u002F173211\u002F12337\u002F1\u002FA%20Convolutional%20Click%20Prediction%20Model.pdf)             |\n| Factorization-supported Neural Network | [ECIR 2016][Deep Learning over Multi-field Categorical Data: A Case Study on User Response Prediction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1601.02376.pdf)                    |\n|      Product-based Neural Network      | [ICDM 2016][Product-based neural networks for user response prediction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.00144.pdf)                                                   |\n|              Wide & Deep               | [DLRS 2016][Wide & Deep Learning for Recommender Systems](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.07792.pdf)                                                                 |\n|                 DeepFM                 | [IJCAI 2017][DeepFM: A Factorization-Machine based Neural Network for CTR Prediction](http:\u002F\u002Fwww.ijcai.org\u002Fproceedings\u002F2017\u002F0239.pdf)                           |\n|        Piece-wise Linear Model         | [arxiv 2017][Learning Piece-wise Linear Models from Large Scale Data for Ad Click Prediction](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.05194)                                 |\n|          Deep & Cross Network          | [ADKDD 2017][Deep & Cross Network for Ad Click Predictions](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.05123)                                                                   |\n|   Attentional Factorization Machine    | [IJCAI 2017][Attentional Factorization Machines: Learning the Weight of Feature Interactions via Attention Networks](http:\u002F\u002Fwww.ijcai.org\u002Fproceedings\u002F2017\u002F435) |\n|      Neural Factorization Machine      | [SIGIR 2017][Neural Factorization Machines for Sparse Predictive Analytics](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.05027.pdf)                                               |\n|                xDeepFM                 | [KDD 2018][xDeepFM: Combining Explicit and Implicit Feature Interactions for Recommender Systems](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1803.05170.pdf)                         |\n|         Deep Interest Network          | [KDD 2018][Deep Interest Network for Click-Through Rate Prediction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.06978.pdf)                                                       |\n|    Deep Interest Evolution Network     | [AAAI 2019][Deep Interest Evolution Network for Click-Through Rate Prediction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1809.03672.pdf)                                            |\n|                AutoInt                 | [CIKM 2019][AutoInt: Automatic Feature Interaction Learning via Self-Attentive Neural Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.11921)                              |\n|                  ONN                   | [arxiv 2019][Operation-aware Neural Networks for User Response Prediction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.12579.pdf)                                                |\n|                FiBiNET                 | [RecSys 2019][FiBiNET: Combining Feature Importance and Bilinear feature Interaction for Click-Through Rate Prediction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.09433.pdf)   |\n|                  IFM                   | [IJCAI 2019][An Input-aware Factorization Machine for Sparse Prediction](https:\u002F\u002Fwww.ijcai.org\u002FProceedings\u002F2019\u002F0203.pdf)   |\n|                  DCN V2                | [arxiv 2020][DCN V2: Improved Deep & Cross Network and Practical Lessons for Web-scale Learning to Rank Systems](https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.13535)   |\n|                  DIFM                  | [IJCAI 2020][A Dual Input-aware Factorization Machine for CTR Prediction](https:\u002F\u002Fwww.ijcai.org\u002FProceedings\u002F2020\u002F0434.pdf)   |\n|                  AFN                   | [AAAI 2020][Adaptive Factorization Network: Learning Adaptive-Order Feature Interactions](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.03276)   |\n|               SharedBottom             | [arxiv 2017][An Overview of Multi-Task Learning in Deep Neural Networks](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.05098.pdf)  |\n|                  ESMM                  | [SIGIR 2018][Entire Space Multi-Task Model: An Effective Approach for Estimating Post-Click Conversion Rate](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3209978.3210104)                       |\n|                  MMOE                  | [KDD 2018][Modeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-Experts](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3219819.3220007)                   |\n|                  PLE                   | [RecSys 2020][Progressive Layered Extraction (PLE): A Novel Multi-Task Learning (MTL) Model for Personalized Recommendations](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3383313.3412236)                   |\n\n\n\n## DisscussionGroup & Related Projects\n\n- [Github Discussions](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR\u002Fdiscussions)\n- Wechat Discussions\n\n|公众号：浅梦学习笔记|微信：deepctrbot|学习小组 [加入](https:\u002F\u002Ft.zsxq.com\u002F026UJEuzv) [主题集合](https:\u002F\u002Fmp.weixin.qq.com\u002Fmp\u002Fappmsgalbum?__biz=MjM5MzY4NzE3MA==&action=getalbum&album_id=1361647041096843265&scene=126#wechat_redirect)|\n|:--:|:--:|:--:|\n| [![公众号](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_2a7fa640ecc3.png)](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FAlgoNotes)| [![微信](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_fa7f9d3024da.png)](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FAlgoNotes)|[![学习小组](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_2c58a53f9114.png)](https:\u002F\u002Ft.zsxq.com\u002F026UJEuzv)|\n\n- Related Projects\n\n  - [AlgoNotes](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FAlgoNotes)\n  - [DeepCTR](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR)\n  - [DeepMatch](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepMatch)\n  - [GraphEmbedding](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FGraphEmbedding)\n\n## Main Contributors([welcome to join us!](.\u002FCONTRIBUTING.md))\n\n\u003Ctable border=\"0\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" >\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fshenweichen\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_160bf89db48e.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fshenweichen\">Shen Weichen\u003C\u002Fa> ​\n        \u003Cp> Alibaba Group \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzanshuxun\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_74201827c500.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzanshuxun\">Zan Shuxun\u003C\u002Fa>\n        \u003Cp> Alibaba Group \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweberrr\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_ff40c624ba84.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n         \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweberrr\">Wang Ze\u003C\u002Fa> ​\n        \u003Cp> Meituan \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwutongzhang\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_85e19839ccc6.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n         \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwutongzhang\">Zhang Wutong\u003C\u002Fa>\n         \u003Cp> Tencent \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZhangYuef\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_dbdac5da20c8.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZhangYuef\">Zhang Yuefeng\u003C\u002Fa>\n        \u003Cp> Peking University  \u003C\u002Fp>​\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr align=\"center\">\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FJyiHUO\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_2c4bd6e9c433.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FJyiHUO\">Huo Junyi\u003C\u002Fa>\n        \u003Cp>\n        University of Southampton \u003Cbr> \u003Cbr>  \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZengai\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_936e9d86283b.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZengai\">Zeng Kai\u003C\u002Fa> ​\n        \u003Cp>\n        SenseTime \u003Cbr> \u003Cbr>  \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fchenkkkk\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_faca0cef4bec.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fchenkkkk\">Chen K\u003C\u002Fa> ​\n        \u003Cp>\n        NetEase \u003Cbr>  \u003Cbr>  \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWeiyuCheng\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_8451aa8620df.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWeiyuCheng\">Cheng Weiyu\u003C\u002Fa> ​\n        \u003Cp>\n        Shanghai Jiao Tong University\u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftangaqi\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_6e362ef4d4a4.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftangaqi\">Tang\u003C\u002Fa>\n        \u003Cp>\n        Tongji University \u003Cbr> \u003Cbr>  \u003C\u002Fp>​\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>","# DeepCTR-Torch\n\n[![Python版本](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fdeepctr-torch.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fdeepctr-torch)\n[![下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_3b1133daf4c1.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fdeepctr-torch)\n[![PyPI版本](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fdeepctr-torch.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fdeepctr-torch)\n[![GitHub问题](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fshenweichen\u002Fdeepctr-torch.svg\n)](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002Fdeepctr-torch\u002Fissues)\n\n\n[![文档状态](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_13d664e1afd7.png)](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002F)\n![CI状态](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002Fdeepctr-torch\u002Fworkflows\u002FCI\u002Fbadge.svg)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fshenweichen\u002FDeepCTR-Torch\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg?token=m6v89eYOjp)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fshenweichen\u002FDeepCTR-Torch)\n[![讨论](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fchat-wechat-brightgreen?style=flat)](.\u002FREADME.md#disscussiongroup)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fshenweichen\u002Fdeepctr-torch.svg)](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002Fdeepctr-torch\u002Fblob\u002Fmaster\u002FLICENSE)\n\n[DeepCTR](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR)的PyTorch版本。\n\nDeepCTR是一个**易于使用**、**模块化**且**可扩展**的深度学习CTR模型库，内置大量核心组件层，方便用户轻松构建自定义模型。您只需通过`model.fit()`和`model.predict()`即可使用任何复杂模型。可通过`pip install -U deepctr-torch`进行安装。\n\n让我们一起[**开始吧！**](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FQuick-Start.html)([中文介绍](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F53231955))\n\n## 模型列表\n\n|                 模型                  | 论文                                                                                                                                                           |\n| :------------------------------------: | :-------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n|  卷积点击预测模型  | [CIKM 2015][A Convolutional Click Prediction Model](http:\u002F\u002Fir.ia.ac.cn\u002Fbitstream\u002F173211\u002F12337\u002F1\u002FA%20Convolutional%20Click%20Prediction%20Model.pdf)             |\n| 因子分解支持的神经网络 | [ECIR 2016][Deep Learning over Multi-field Categorical Data: A Case Study on User Response Prediction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1601.02376.pdf)                    |\n|      产品基础神经网络      | [ICDM 2016][Product-based neural networks for user response prediction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.00144.pdf)                                                   |\n|              Wide & Deep               | [DLRS 2016][Wide & Deep Learning for Recommender Systems](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.07792.pdf)                                                                 |\n|                 DeepFM                 | [IJCAI 2017][DeepFM: A Factorization-Machine based Neural Network for CTR Prediction](http:\u002F\u002Fwww.ijcai.org\u002Fproceedings\u002F2017\u002F0239.pdf)                           |\n|        分段线性模型         | [arxiv 2017][Learning Piece-wise Linear Models from Large Scale Data for Ad Click Prediction](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.05194)                                 |\n|          深度与交叉网络          | [ADKDD 2017][Deep & Cross Network for Ad Click Predictions](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.05123)                                                                   |\n|   注意力因子分解机    | [IJCAI 2017][Attentional Factorization Machines: Learning the Weight of Feature Interactions via Attention Networks](http:\u002F\u002Fwww.ijcai.org\u002Fproceedings\u002F2017\u002F435) |\n|      神经因子分解机      | [SIGIR 2017][Neural Factorization Machines for Sparse Predictive Analytics](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.05027.pdf)                                               |\n|                xDeepFM                 | [KDD 2018][xDeepFM: Combining Explicit and Implicit Feature Interactions for Recommender Systems](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1803.05170.pdf)                         |\n|         深度兴趣网络          | [KDD 2018][Deep Interest Network for Click-Through Rate Prediction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.06978.pdf)                                                       |\n|    深度兴趣进化网络     | [AAAI 2019][Deep Interest Evolution Network for Click-Through Rate Prediction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1809.03672.pdf)                                            |\n|                AutoInt                 | [CIKM 2019][AutoInt: Automatic Feature Interaction Learning via Self-Attentive Neural Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.11921)                              |\n|                  ONN                   | [arxiv 2019][Operation-aware Neural Networks for User Response Prediction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.12579.pdf)                                                |\n|                FiBiNET                 | [RecSys 2019][FiBiNET: Combining Feature Importance and Bilinear feature Interaction for Click-Through Rate Prediction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.09433.pdf)   |\n|                  IFM                   | [IJCAI 2019][An Input-aware Factorization Machine for Sparse Prediction](https:\u002F\u002Fwww.ijcai.org\u002FProceedings\u002F2019\u002F0203.pdf)   |\n|                  DCN V2                | [arxiv 2020][DCN V2: Improved Deep & Cross Network and Practical Lessons for Web-scale Learning to Rank Systems](https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.13535)   |\n|                  DIFM                  | [IJCAI 2020][A Dual Input-aware Factorization Machine for CTR Prediction](https:\u002F\u002Fwww.ijcai.org\u002FProceedings\u002F2020\u002F0434.pdf)   |\n|                  AFN                   | [AAAI 2020][Adaptive Factorization Network: Learning Adaptive-Order Feature Interactions](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.03276)   |\n|               SharedBottom             | [arxiv 2017][An Overview of Multi-Task Learning in Deep Neural Networks](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.05098.pdf)  |\n|                  ESMM                  | [SIGIR 2018][Entire Space Multi-Task Model: An Effective Approach for Estimating Post-Click Conversion Rate](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3209978.3210104)                       |\n|                  MMOE                  | [KDD 2018][Modeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-Experts](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3219819.3220007)                   |\n|                  PLE                   | [RecSys 2020][Progressive Layered Extraction (PLE): A Novel Multi-Task Learning (MTL) Model for Personalized Recommendations](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3383313.3412236)                   |\n\n## 讨论组与相关项目\n\n- [Github Discussions](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR\u002Fdiscussions)\n- 微信讨论群\n\n|公众号：浅梦学习笔记|微信：deepctrbot|学习小组 [加入](https:\u002F\u002Ft.zsxq.com\u002F026UJEuzv) [主题集合](https:\u002F\u002Fmp.weixin.qq.com\u002Fmp\u002Fappmsgalbum?__biz=MjM5MzY4NzE3MA==&action=getalbum&album_id=1361647041096843265&scene=126#wechat_redirect)|\n|:--:|:--:|:--:|\n| [![公众号](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_2a7fa640ecc3.png)](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FAlgoNotes)| [![微信](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_fa7f9d3024da.png)](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FAlgoNotes)|[![学习小组](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_2c58a53f9114.png)](https:\u002F\u002Ft.zsxq.com\u002F026UJEuzv)|\n\n- 相关项目\n\n  - [AlgoNotes](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FAlgoNotes)\n  - [DeepCTR](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR)\n  - [DeepMatch](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepMatch)\n  - [GraphEmbedding](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FGraphEmbedding)\n\n## 主要贡献者([欢迎加入我们!](.\u002FCONTRIBUTING.md))\n\n\u003Ctable border=\"0\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" >\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fshenweichen\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_160bf89db48e.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fshenweichen\">沈伟臣\u003C\u002Fa> ​\n        \u003Cp> 阿里巴巴集团 \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzanshuxun\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_74201827c500.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzanshuxun\">赞书勋\u003C\u002Fa>\n        \u003Cp> 阿里巴巴集团 \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweberrr\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_ff40c624ba84.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n         \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweberrr\">王泽\u003C\u002Fa> ​\n        \u003Cp> 美团 \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwutongzhang\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_85e19839ccc6.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n         \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwutongzhang\">张悟桐\u003C\u002Fa>\n         \u003Cp> 腾讯 \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZhangYuef\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_dbdac5da20c8.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZhangYuef\">张跃峰\u003C\u002Fa>\n        \u003Cp> 北京大学  \u003C\u002Fp>​\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr align=\"center\">\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FJyiHUO\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_2c4bd6e9c433.png\" alt=\"pic\">\u003C\u002Fa>\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FJyiHUO\">霍俊毅\u003C\u002Fa>\n        \u003Cp>\n        南安普顿大学 \u003Cbr> \u003Cbr>  \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZengai\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_936e9d86283b.png\" alt=\"pic\">\u003C\u002Fa)\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZengai\">曾凯\u003C\u002Fa> ​\n        \u003Cp>\n        商汤科技 \u003Cbr> \u003Cbr>  \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fchenkkkk\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_faca0cef4bec.png\" alt=\"pic\">\u003C\u002Fa)\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fchenkkkk\">陈K\u003C\u002Fa> ​\n        \u003Cp>\n        网易 \u003Cbr>  \u003Cbr>  \u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWeiyuCheng\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_8451aa8620df.png\" alt=\"pic\">\u003C\u002Fa)\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWeiyuCheng\">程伟宇\u003C\u002Fa> ​\n        \u003Cp>\n        上海交通大学\u003C\u002Fp>​\n      \u003C\u002Ftd>\n      \u003Ctd>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftangaqi\">\u003Cimg width=\"70\" height=\"70\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_readme_6e362ef4d4a4.png\" alt=\"pic\">\u003C\u002Fa)\u003Cbr>\n        ​ \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftangaqi\">唐\u003C\u002Fa>\n        \u003Cp>\n        同济大学 \u003Cbr> \u003Cbr>  \u003C\u002Fp>​\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>","# DeepCTR-Torch 快速上手指南\n\nDeepCTR-Torch 是一个基于 PyTorch 的深度学习点击率（CTR）预估模型库。它易于使用、模块化且可扩展，内置了多种主流 CTR 模型（如 DeepFM, DIN, DCN 等）的核心组件，支持通过简单的 `fit()` 和 `predict()` 接口完成模型训练与预测。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS, Windows\n*   **Python 版本**: Python 3.6 - 3.9 (推荐 3.8+)\n*   **核心依赖**:\n    *   `torch` (PyTorch)\n    *   `scikit-learn`\n    *   `pandas`\n    *   `numpy`\n\n> **注意**：请先安装好对应 CUDA 版本的 PyTorch。如果尚未安装，可访问 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F) 获取安装命令。\n\n## 2. 安装步骤\n\n推荐使用 pip 进行安装。国内用户建议使用清华或阿里镜像源以加速下载。\n\n**标准安装：**\n```bash\npip install -U deepctr-torch\n```\n\n**使用国内镜像源加速安装（推荐）：**\n```bash\npip install -U deepctr-torch -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 3. 基本使用\n\nDeepCTR-Torch 的使用流程非常简洁，主要分为数据预处理、定义特征列、构建模型、训练与预测五个步骤。以下是一个基于 `DeepFM` 模型的最简示例：\n\n### 步骤 1: 导入依赖与准备数据\n\n```python\nimport pandas as pd\nfrom sklearn.metrics import log_loss, roc_auc_score\nfrom sklearn.model_selection import train_test_split\nfrom sklearn.preprocessing import LabelEncoder, MinMaxScaler\n\n# 读取数据 (以 Criteo 数据集为例)\ndata = pd.read_csv('criteo_sample.txt')\n\nsparse_features = ['C' + str(i) for i in range(1, 27)]\ndense_features = ['I' + str(i) for i in range(1, 14)]\n\ntarget = ['label']\n\n# 简单预处理：缺失值填充与编码\ndata[sparse_features] = data[sparse_features].fillna('-1', )\ndata[dense_features] = data[dense_features].fillna(0, )\n\nfor feat in sparse_features:\n    lbe = LabelEncoder()\n    data[feat] = lbe.fit_transform(data[feat])\n\nmms = MinMaxScaler(feature_range=(0, 1))\ndata[dense_features] = mms.fit_transform(data[dense_features])\n\n# 划分训练集和测试集\ntrain, test = train_test_split(data, test_size=0.2)\n\ntrain_model_input = train[sparse_features + dense_features]\ntest_model_input = test[sparse_features + dense_features]\n```\n\n### 步骤 2: 定义特征列\n\n需要明确区分稀疏特征（Sparse Features）和稠密特征（Dense Features）。\n\n```python\nfrom deepctr_torch.inputs import SparseFeat, DenseFeat, get_feature_names\n\nfixlen_feature_columns = [SparseFeat(feat, vocabulary_size=data[feat].max() + 1, embedding_dim=4)\n                          for feat in sparse_features] + \\\n                         [DenseFeat(feat, 1, )\n                          for feat in dense_features]\n\nfeature_names = get_feature_names(fixlen_feature_columns)\n```\n\n### 步骤 3: 构建、训练与预测模型\n\n```python\nfrom deepctr_torch.models import DeepFM\nfrom deepctr_torch.callbacks import EarlyStopping, ModelCheckpoint\nimport torch\n\n# 构建设备\ndevice = 'cuda' if torch.cuda.is_available() else 'cpu'\n\n# 初始化模型\nmodel = DeepFM(linear_feature_columns=fixlen_feature_columns, \n               dnn_feature_columns=fixlen_feature_columns, \n               task='binary', \n               device=device)\n\n# 配置回调函数 (可选)\nes = EarlyStopping(monitor='val_auc', min_delta=0, verbose=1, patience=3, mode='max')\nmdckpt = ModelCheckpoint(filepath='model.ckpt', monitor='val_auc', verbose=1, save_best_only=True, mode='max')\n\n# 训练模型\nmodel.compile(\"adam\", \"binary_crossentropy\", metrics=['binary_crossentropy', 'auc'])\nmodel.fit(train_model_input, train[target].values, \n          batch_size=256, epochs=10, verbose=2, \n          validation_data=(test_model_input, test[target].values), \n          callbacks=[es, mdckpt])\n\n# 预测结果\npred_ans = model.predict(test_model_input, batch_size=256)\n\n# 评估结果\nprint(\"test LogLoss\", round(log_loss(test[target].values, pred_ans), 4))\nprint(\"test AUC\", round(roc_auc_score(test[target].values, pred_ans), 4))\n```\n\n通过以上步骤，您即可快速运行第一个 DeepCTR 模型。如需尝试其他模型（如 `DIN`, `DCN`, `xDeepFM` 等），只需将 `DeepFM` 替换为对应的模型类名称，并根据模型特性调整输入参数即可。","某电商平台的推荐算法团队正面临双 11 大促前的紧急任务，需要快速迭代多个点击率（CTR）预估模型以提升广告转化率。\n\n### 没有 DeepCTR-Torch 时\n- **重复造轮子效率低**：每次尝试新模型（如 DeepFM 或 xDeepFM），工程师都需从零编写复杂的特征交叉层和注意力机制代码，耗时数天且容易出错。\n- **模型对比成本高**：由于缺乏统一接口，不同模型的输入数据处理和训练流程各异，难以在相同基准下快速公平地对比多个算法效果。\n- **业务响应滞后**：面对运营部门提出的“尝试最新学术模型”需求，从复现论文到上线测试周期过长，往往错过最佳营销窗口期。\n- **维护负担重**：自定义实现的模型代码风格不一，后续优化和排查 Bug 困难，团队成员间协作成本高。\n\n### 使用 DeepCTR-Torch 后\n- **开箱即用加速研发**：直接调用库中集成的 Wide&Deep、DeepFM 等主流模型，仅需几行代码即可完成构建，将新模型验证周期从数天缩短至几小时。\n- **标准化流程便于对比**：所有模型均提供统一的 `model.fit()` 和 `model.predict()` 接口，团队可轻松在同一数据集上批量测试多种架构，快速锁定最优方案。\n- **灵活扩展满足定制**：基于其模块化设计，研究人员可像搭积木一样复用核心组件（如 FM 层、CIN 层），快速组合出符合特定业务场景的自定义模型。\n- **稳定可靠降低运维**：依托成熟的 PyTorch 生态和完善的文档，模型训练稳定性显著提升，团队协作开发更加顺畅。\n\nDeepCTR-Torch 通过标准化的模块封装，让算法团队从繁琐的代码实现中解放出来，专注于策略优化与业务价值创造。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshenweichen_DeepCTR-Torch_e938f9f2.png","shenweichen","浅梦","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fshenweichen_160bf89d.jpg",null,"Hangzhou, Zhejiang, China","weichenswc@163.com","https:\u002F\u002Fgithub.com\u002Fshenweichen",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,3405,736,"2026-04-05T01:54:38","Apache-2.0",1,"未说明","未说明 (基于 PyTorch，可选支持 CUDA)",{"notes":95,"python":96,"dependencies":97},"该工具是 DeepCTR 的 PyTorch 版本，主要用于点击率（CTR）预测模型。安装命令为 `pip install -U deepctr-torch`。具体 GPU 加速需求取决于用户安装的 PyTorch 版本及是否配置 CUDA 环境，README 中未强制要求特定显卡型号或显存大小。","3.6+",[98,99,100,101,102],"torch","tensorflow (仅用于某些底层依赖或对比，核心为 torch)","scikit-learn","numpy","pandas",[13],[105,106,107,108,109,110,111,112,113],"deepctr","ctr-models","deep-learning","deepctr-pytorch","deepfm","fibinet","xdeepfm","torchrec","deeprec","2026-03-27T02:49:30.150509","2026-04-06T14:02:48.664956",[117,122,127,132,137,142,147],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},19050,"遇到梯度计算报错：'one of the variables needed for gradient computation has been modified by an inplace operation'怎么办？","该问题在新版本中已修复。请运行命令 `pip install -U deepctr-torch` 升级库到最新版本即可解决。","https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR-Torch\u002Fissues\u002F90",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},19051,"模型训练后如何保存检查点并加载用于推理（预测）？","DeepCTR-Torch 支持所有模型的推理任务。虽然目前不支持像某些库那样极其简便地直接加载预训练参数，但你可以通过标准的 PyTorch 方式保存和加载模型状态字典（state_dict）。对于嵌入层，设置 `trainable=False` 可以冻结嵌入向量，设置 `trainable=True` 则可以进行微调。","https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR-Torch\u002Fissues\u002F198",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},19052,"为什么升级 DeepCTR-Torch 版本后（如从 0.2.1 到 0.2.3），AUC 和 Loss 出现明显下降？","这是因为 L2 正则化机制的修复导致的。在 v0.2.2 之前的版本中，正则化损失（reg_loss）存在 Bug，仅由初始参数计算一次（相当于常数），实际上未起作用。从 v0.2.2 开始修复了该 Bug，正则化在每次迭代中正常计算，导致模型表现变化。如果你希望获得与旧版本一致的结果（即不使用正则化），可以将所有 l2_reg 相关参数（`l2_reg_linear`, `l2_reg_embedding`, `l2_reg_dnn`）设置为 0。","https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR-Torch\u002Fissues\u002F131",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},19053,"运行 FiBiNET 模型时报错 'ZeroDivisionError: float division by zero' 是什么原因？","该错误通常发生在特征域大小（field_size）为 0 或导致线性层初始化时 fan_in\u002Ffan_out 为 0 的情况下。这往往是因为输入数据预处理不当，导致传入模型的稀疏特征维度计算错误。请检查数据预处理步骤，确保 `feature_columns` 正确构建，且没有空的特征域传入 SENETLayer 或其他交互层。","https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR-Torch\u002Fissues\u002F36",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},19054,"使用 CUDA 运行 DIEN 模型时报错：'lengths' argument should be a 1D CPU int64 tensor, but got 1D cuda:0 Long tensor' 如何解决？","这是 PyTorch 某些操作（如 pack_padded_sequence）要求长度张量必须在 CPU 上而非 GPU 上。虽然提供的 Issue 详情被截断，但通用解决方案是在将 lengths 传入模型或相关函数前，显式将其转移到 CPU：`lengths = lengths.cpu()`。如果是在 `model.fit` 内部报错，可能需要检查数据生成器或确保输入的序列长度张量未意外移动到 GPU。","https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR-Torch\u002Fissues\u002F240",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},19055,"遇到 'RuntimeError: cublas runtime error : library not initialized' 错误怎么办？","这不是 DeepCTR-Torch 库本身的 Bug，而是底层 CUDA\u002FcuBLAS 环境配置问题。通常由 PyTorch 与 CUDA 驱动版本不匹配、GPU 资源冲突或环境初始化失败引起。建议检查 Python、PyTorch 和 CUDA 版本的兼容性，尝试重启内核或重新初始化 CUDA 上下文。如果问题依旧，请参考 PyTorch 官方关于 CUDA 初始化的故障排查指南。","https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR-Torch\u002Fissues\u002F135",{"id":148,"question_zh":149,"answer_zh":150,"source_url":121},19056,"在 Criteo 数据集上训练时，为什么验证集 AUC 在第一个 epoch 后就开始上升（过拟合），即使添加了正则化参数？","对于完整的 Criteo45M 这样的大数据集，通常训练 1 个 epoch 就足够了，继续训练极易发生过拟合。如果发现添加模型内部的 l2_reg 参数后仍然过拟合，可以尝试去掉模型中的所有正则化参数，改用优化器（optimizer）内部的 `weight_decay` 来代替。注意：PyTorch 优化器的 weight_decay 默认也会对 bias 进行正则化，这与部分模型实现可能略有不同，需根据实际效果调整。",[152,157,162,167,172,177,182,187,192,197,202,207,212],{"id":153,"version":154,"summary_zh":155,"released_at":156},117091,"v0.2.9","# 更改日志\n## 主要功能与改进\n1. 新增多任务模型：[SharedBottom](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFeatures.html#sharedbottom)、[ESMM](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFeatures.html#esmm-entire-space-multi-task-model)、[MMOE](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFeatures.html#mmoe-multi-gate-mixture-of-experts)、[PLE](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFeatures.html#ple-progressive-layered-extraction) @zanshuxun \n2. 支持 Python 3.9 和 3.10 @shenweichen \n## 错误修复及其他更改\n- 修复 #232、#240 @zanshuxun \n\n# 讨论组\n\n- [Github Discussions](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR\u002Fdiscussions)\n- 微信讨论群\n\n|公众号：浅梦学习笔记|微信：deepctrbot|学习小组 [加入](https:\u002F\u002Ft.zsxq.com\u002F026UJEuzv) [主题集合](https:\u002F\u002Fmp.weixin.qq.com\u002Fmp\u002Fappmsgalbum?__biz=MjM5MzY4NzE3MA==&action=getalbum&album_id=1361647041096843265&scene=126#wechat_redirect)|\n|:--:|:--:|:--:|\n| [![公众号](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR\u002Fblob\u002Fmaster\u002Fdocs\u002Fpics\u002Fcode.png)](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FAlgoNotes)| [![微信](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR\u002Fblob\u002Fmaster\u002Fdocs\u002Fpics\u002Fdeepctrbot.png)](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FAlgoNotes)|[![学习小组](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR\u002Fblob\u002Fmaster\u002Fdocs\u002Fpics\u002Fplanet_github.png)](https:\u002F\u002Ft.zsxq.com\u002F026UJEuzv)|\n","2022-10-21T13:28:12",{"id":158,"version":159,"summary_zh":160,"released_at":161},117092,"v0.2.8","# 变更日志\n\n## 错误修复及其他更改\n- 修复使用 acc 指标时模型保存错误 #106  @gaohongkui \n- 修复当所有特征列均为稠密列时的模型错误 #192 @zanshuxun \n\n# 讨论组\n\n- [Github Discussions](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR\u002Fdiscussions)\n- 微信讨论群\n\n|公众号：浅梦学习笔记|微信：deepctrbot|学习小组 [加入](https:\u002F\u002Ft.zsxq.com\u002F026UJEuzv) [主题集合](https:\u002F\u002Fmp.weixin.qq.com\u002Fmp\u002Fappmsgalbum?__biz=MjM5MzY4NzE3MA==&action=getalbum&album_id=1361647041096843265&scene=126#wechat_redirect)|\n|:--:|:--:|:--:|\n| [![公众号](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR\u002Fblob\u002Fmaster\u002Fdocs\u002Fpics\u002Fcode.png)](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FAlgoNotes)| [![微信](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR\u002Fblob\u002Fmaster\u002Fdocs\u002Fpics\u002Fdeepctrbot.png)](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FAlgoNotes)|[![学习小组](https:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR\u002Fblob\u002Fmaster\u002Fdocs\u002Fpics\u002Fplanet_github.png)](https:\u002F\u002Ft.zsxq.com\u002F026UJEuzv)|","2022-06-19T11:13:59",{"id":163,"version":164,"summary_zh":165,"released_at":166},117093,"v0.2.7","# 更改日志\n## 主要功能与改进\n- 添加 [AFN](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Fdev-swc\u002FFeatures.html#afn-adaptive-factorization-network-learning-adaptive-order-feature-interactions) 模型  @WeiyuCheng \n\n## 错误修复及其他更改\n\n- 修复回调函数错误 #171 @zanshuxun \n- 修复 `VarLenSparseFeat` 错误  #176 #179  #180 @zanshuxun \n- 修改 `Autoint` 中 `InteractingLayer` 的输出形状  #74 @zanshuxun \n\n","2021-06-14T03:52:18",{"id":168,"version":169,"summary_zh":170,"released_at":171},117094,"v0.2.6","# 变更日志\n## 主要特性与改进\n- 新增 [IFM](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFeatures.html#ifm-input-aware-factorization-machine) 和 [DIFM](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFeatures.html#difm-dual-input-aware-factorization-machine) 模型\n- 支持多 GPU 运行。[示例](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFAQ.html#how-to-run-the-demo-with-multiple-gpus)","2021-04-04T08:48:54",{"id":173,"version":174,"summary_zh":175,"released_at":176},117095,"v0.2.5","# 更改日志\n\n## 错误修复及其他更改\n\n- 修复 dcn-mix 中的错误","2021-02-12T12:38:23",{"id":178,"version":179,"summary_zh":180,"released_at":181},117096,"v0.2.4","# 变更日志\n## 主要功能与改进\n\n- 添加 `History` 回调（[示例](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFAQ.html#set-learning-rate-and-use-earlystopping)）\n\n## 错误修复及其他变更\n\n- 解决 #69、#87、#93、#128、#130 中的问题\n- 修复 PyTorch 1.7 版本中的正则化错误\n- 提升对旧版本的兼容性\n\n## API 变更\n\n\n- 在 `deepctr_torch.callbacks` 中添加 `History`\n","2020-12-05T15:49:58",{"id":183,"version":184,"summary_zh":185,"released_at":186},117097,"v0.2.3","\r\n# 更改日志\r\n## 主要功能与改进\r\n\r\n- 新增模型：[DCN-M](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFeatures.html#dcn-deep-cross-network) 和 [DCN-mix](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFeatures.html#dcn-mix-improved-deep-cross-network-with-mix-of-experts-and-matrix-kernel)\r\n- 新增 `EarlyStopping` 和 `ModelCheckpoint` 回调函数，[示例](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFAQ.html#set-learning-rate-and-use-earlystopping)\r\n\r\n## 错误修复及其他变更\r\n\r\n- 在指标计算中使用 `float64` 类型，以防止在计算 logloss 时出现 nan 或 inf 损失\r\n\r\n## API 变更\r\n\r\n- `DCN` 添加了一个新参数：  \r\n  `cross_parameterization`: 字符串，取值为 ``\"vector\"`` 或 ``\"matrix\"``, 用于指定交叉网络的参数化方式。若设置为 ``\"matrix\"``，则等价于 `DCN-M`\r\n- 在 `deepctr_torch.callbacks` 中新增 `EarlyStopping` 和 `ModelCheckpoint`\n","2020-10-18T04:51:04",{"id":188,"version":189,"summary_zh":190,"released_at":191},117098,"v0.2.2","# 更改日志\n## 主要功能与改进\n\n- 提升模型的可复现性\n\n\n\n## 错误修复及其他变更\n  修复以下问题中的 `RuntimeError: 用于梯度计算的变量之一已被就地操作修改：[torch.cuda.FloatTensor [128]]，它是 SelectBackward 的第 0 个输出，当前版本为 2，而期望版本为 1。提示：可通过启用异常检测来定位未能计算梯度的操作，方法是调用 torch.autograd.set_detect_anomaly(True)`：\nhttps:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR-Torch\u002Fissues\u002F88\nhttps:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR-Torch\u002Fissues\u002F98\nhttps:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR-Torch\u002Fissues\u002F90\nhttps:\u002F\u002Fgithub.com\u002Fshenweichen\u002FDeepCTR-Torch\u002Fissues\u002F102\n","2020-10-09T09:03:18",{"id":193,"version":194,"summary_zh":195,"released_at":196},117099,"v0.2.1","# 更改日志\n## 主要功能与改进\n添加 `DIN` 和 `DIEN`\n## Bug 修复及其他更改\n- 修复 #63 中 `InteractingLayer` 的 softmax 维度错误问题\n","2020-03-27T15:09:07",{"id":198,"version":199,"summary_zh":200,"released_at":201},117100,"v0.2.0","# 更改日志\n## 主要功能与改进\n- 重构[特征列](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFeatures.html#feature-columns)。\n\n- 不同的特征可以使用不同的`embedding_dim`。\n- 在部分模型中添加线性部分。\n- 添加`SequencePoolingLayer`（[API](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002Fdeepctr_torch.layers.sequence.html#deepctr_torch.layers.sequence.SequencePoolingLayer)）。\n\n## 错误修复及其他更改\n- 通过在`model.fit()`中设置`use_double=True`，支持在指标计算中使用双精度。#15\n\n## API 变更\n- 模型的`embedding_size`参数已被移除。现在必须在`SparseFeat`或`VarLenSparseFeat`中设置`embedding_dim`（默认值为4）。\n","2020-01-31T12:38:32",{"id":203,"version":204,"summary_zh":205,"released_at":206},117101,"v0.1.3","# Major Features and Improvements\r\n- Simplify input logic,[examples](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FExamples.html#classification-criteo)","2019-10-03T08:01:19",{"id":208,"version":209,"summary_zh":210,"released_at":211},117102,"v0.1.2","# Major Features and Improvements\r\n- Add [sequence(multi-value) input support](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FExamples.html#multi-value-input-movielens) .\r\n","2019-09-28T06:42:31",{"id":213,"version":214,"summary_zh":215,"released_at":216},117103,"v0.1.1","# Change Log\r\n## Major Features and Improvements\r\n\r\n- Add [CCPM(Convolutional Click Prediction Model)](https:\u002F\u002Fdeepctr-torch.readthedocs.io\u002Fen\u002Flatest\u002FFeatures.html#ccpm-convolutional-click-prediction-model)\r\n中文介绍[CCPM&FGCNN:使用CNN进行特征生成的CTR预测模型](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F64015347)","2019-09-24T13:50:36"]