[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-NVIDIA-Merlin--Merlin":3,"tool-NVIDIA-Merlin--Merlin":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",148568,2,"2026-04-09T23:34:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":111,"github_topics":112,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":152},6081,"NVIDIA-Merlin\u002FMerlin","Merlin","NVIDIA Merlin is an open source library providing end-to-end GPU-accelerated recommender systems, from feature engineering and preprocessing to training deep learning models and running inference in production.","Merlin 是 NVIDIA 推出的开源库，专为构建端到端的 GPU 加速推荐系统而设计。它覆盖了从数据特征工程、预处理，到深度学习模型训练及生产环境推理的全流程。\n\n在推荐系统开发中，处理海量表格数据、训练超大嵌入表以及实现高性能部署往往是主要瓶颈。Merlin 通过深度优化 GPU 资源，有效解决了这些难题：它能轻松处理超出内存限制的 TB 级数据集，支持将巨大的嵌入表分布式存储在多卡或多节点上，并提供高度优化的数据加载器，可将 TensorFlow、PyTorch 等框架的训练速度提升高达 10 倍。此外，用户仅需少量代码即可将数据处理流程和训练好的模型部署至生产环境。\n\nMerlin 非常适合数据科学家、机器学习工程师及研究人员使用，尤其是那些需要构建大规模、高性能推荐系统的团队。其核心组件包括用于高效数据预处理的 NVTabular、支持分布式训练的 HugeCTR 框架，以及提供高质量标准模型的 Merlin Models 库。凭借易用的 API 和强大的扩展能力，Merlin 让开发者能更专注于算法逻辑本身，而非底层基础设施的复杂性，从而快速迭代并落地先进的推荐方案。","# [NVIDIA Merlin](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin)\n\n![GitHub tag (latest SemVer)](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Ftag\u002FNVIDIA-Merlin\u002FMerlin?sort=semver)\n![GitHub License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FNVIDIA-Merlin\u002FMerlin)\n[![Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002FMerlin\u002Fstable\u002FREADME.html)\n\nNVIDIA Merlin is an open source library that accelerates recommender systems on\nNVIDIA GPUs. The library enables data scientists, machine learning engineers,\nand researchers to build high-performing recommenders at scale. Merlin includes\ntools to address common feature engineering, training, and inference challenges.\nEach stage of the Merlin pipeline is optimized to support hundreds of terabytes\nof data, which is all accessible through easy-to-use APIs. For more information,\nsee [NVIDIA Merlin](https:\u002F\u002Fdeveloper.nvidia.com\u002Fnvidia-merlin) on the NVIDIA\ndeveloper web site.\n\n## Benefits\n\nNVIDIA Merlin is a scalable and GPU-accelerated solution, making it easy to\nbuild recommender systems from end to end. With NVIDIA Merlin, you can:\n\n- Transform data (ETL) for preprocessing and engineering features.\n- Accelerate your existing training pipelines in TensorFlow, PyTorch, or FastAI\n  by leveraging optimized, custom-built data loaders.\n- Scale large deep learning recommender models by distributing large embedding\n  tables that exceed available GPU and CPU memory.\n- Deploy data transformations and trained models to production with only a few\n  lines of code.\n\n## Components of NVIDIA Merlin\n\nNVIDIA Merlin consists of the following open source libraries:\n\n**[NVTabular](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FNVTabular)**\n[![PyPI version shields.io](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fnvtabular.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fnvtabular\u002F)\n[![ Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002FNVTabular\u002Fstable\u002FIntroduction.html)\n\u003Cbr> NVTabular is a feature engineering and preprocessing library for tabular\ndata. The library can quickly and easily manipulate terabyte-size datasets that\nare used to train deep learning based recommender systems. The library offers a\nhigh-level API that can define complex data transformation workflows. With\nNVTabular, you can:\n\n- Prepare datasets quickly and easily for experimentation so that you can train\n  more models.\n- Process datasets that exceed GPU and CPU memory without having to worry about\n  scale.\n- Focus on what to do with the data and not how to do it by using abstraction at\n  the operation level.\n\n**[HugeCTR](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FHugeCTR)**\n[![ Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002FHugeCTR\u002Fstable\u002Fhugectr_user_guide.html)\u003Cbr>\nHugeCTR is a GPU-accelerated training framework that can scale large deep learning\nrecommendation models by distributing training across multiple GPUs and nodes.\nHugeCTR contains optimized data loaders with GPU-acceleration and provides\nstrategies for scaling large embedding tables beyond available memory. With\nHugeCTR, you can:\n\n- Scale embedding tables over multiple GPUs or nodes.\n- Load a subset of an embedding table into a GPU in a coarse-grained, on-demand\n  manner during the training stage.\n\n**[Merlin Models](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002Fmodels)**\n[![PyPI version shields.io](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmerlin-models.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmerlin-models\u002F)\n[![ Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002Fmodels\u002Fstable\u002FREADME.html)\u003Cbr>\nThe Merlin Models library provides standard models for recommender systems with\nan aim for high-quality implementations that range from classic machine learning\nmodels to highly-advanced deep learning models. With Merlin Models, you can:\n\n- Accelerate your ranking model training by up to 10x by using performant data\n  loaders for TensorFlow, PyTorch, and HugeCTR.\n- Iterate rapidly on featuring engineering and model exploration by mapping\n  datasets created with NVTabular into a model input layer automatically. The\n  model input layer enables you to change either without impacting the other.\n- Assemble connectable building blocks for common RecSys architectures so that\n  you can create of new models quickly and easily.\n\n**[Transformers4Rec](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FTransformers4Rec)**\n[![PyPI version shields.io](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002FTransformers4Rec.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002FTransformers4Rec\u002F)\n[![ Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002FTransformers4Rec\u002Fstable\u002FREADME.html)\u003Cbr>\nThe Transformers4Rec library provides sequential and session-based recommendation.\nThe library provides modular building blocks that are compatible with standard PyTorch modules.\nYou can use the building blocks to design custom architectures such as multiple towers, multiple heads and tasks, and losses.\nWith Transformers4Rec, you can:\n\n- Build sequential and session-based recommenders from any sequential tabular data.\n- Take advantage of the integration with NVTabular for seamless data preprocessing and feature engineering.\n- Perform next-item prediction as well as classic binary classification or regression tasks.\n\n**[Merlin Systems](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002Fsystems)**\n[![PyPI version shields.io](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmerlin-systems.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmerlin-systems\u002F)\n[![ Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002Fsystems\u002Fstable\u002FREADME.html)\u003Cbr>\nMerlin Systems provides tools for combining recommendation models with other\nelements of production recommender systems like feature stores, nearest neighbor\nsearch, and exploration strategies into end-to-end recommendation pipelines that\ncan be served with Triton Inference Server. With Merlin Systems, you can:\n\n- Start with an integrated platform for serving recommendations built on Triton\n  Inference Server.\n- Create graphs that define the end-to-end process of generating\n  recommendations.\n- Benefit from existing integrations with popular tools that are commonly found\n  in recommender system pipelines.\n\n**[Merlin Core](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002Fcore)**\n[![PyPI version shields.io](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmerlin-core.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmerlin-core\u002F)\n[![ Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002Fcore\u002Fstable\u002FREADME.html)\u003Cbr>\nMerlin Core provides functionality that is used throughout the Merlin ecosystem.\nWith Merlin Core, you can:\n\n- Use a standard dataset abstraction for processing large datasets across\n  multiple GPUs and nodes.\n- Benefit from a common schema that identifies key dataset features and enables\n  Merlin to automate routine modeling and serving tasks.\n- Simplify your code by using a shared API for constructing graphs of data\n  transformation operators.\n\n## Installation\n\nThe simplest way to use Merlin is to run a docker container. NVIDIA GPU Cloud (NGC) provides containers that include all the Merlin component libraries, dependencies, and receive unit and integration testing. For more information, see the [Containers](https:\u002F\u002Fnvidia-merlin.github.io\u002FMerlin\u002Fstable\u002Fcontainers.html) page.\n\nTo develop and contribute to Merlin, review the installation documentation for each component library. The development environment for each Merlin component is easily set up with `conda` or `pip`:\n\n| Component        | Installation Steps                                                                 |\n| ---------------- | ---------------------------------------------------------------------------------- |\n| HugeCTR          | https:\u002F\u002Fnvidia-merlin.github.io\u002FHugeCTR\u002Fmaster\u002Fhugectr_contributor_guide.html      |\n| Merlin Core      | https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002Fcore\u002Fblob\u002Fstable\u002FREADME.md#installation             |\n| Merlin Models    | https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002Fmodels\u002Fblob\u002Fstable\u002FREADME.md#installation           |\n| Merlin Systems   | https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002Fsystems\u002Fblob\u002Fstable\u002FREADME.md#installation          |\n| NVTabular        | https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FNVTabular\u002Fblob\u002Fstable\u002FREADME.md#installation        |\n| Transformers4Rec | https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FTransformers4Rec\u002Fblob\u002Fstable\u002FREADME.md#installation |\n\n## Example Notebooks and Tutorials\n\nA collection of [end-to-end examples](.\u002Fexamples\u002F) are available in the form of Jupyter notebooks.\nThe example notebooks demonstrate how to:\n\n- Download and prepare a dataset.\n- Use preprocessing and engineering features.\n- Train deep-learning recommendation models with TensorFlow, PyTorch, FastAI, HugeCTR or Merlin Models.\n- Deploy the models to production with Triton Inference Server.\n\nThese examples are based on different datasets and provide a wide range of\nreal-world use cases.\n\n## Merlin Is Built On\n\n**[RAPIDS cuDF](https:\u002F\u002Fgithub.com\u002Frapidsai\u002Fcudf)**\u003Cbr> Merlin relies on cuDF for\nGPU-accelerated DataFrame operations used in feature engineering.\n\n**[Dask](https:\u002F\u002Fwww.dask.org\u002F)**\u003Cbr> Merlin relies on Dask to distribute and scale\nfeature engineering and preprocessing within NVTabular and to accelerate\ndataloading in Merlin Models and HugeCTR.\n\n**[Triton Inference Server](https:\u002F\u002Fgithub.com\u002Ftriton-inference-server\u002Fserver)**\u003Cbr>\nMerlin leverages Triton Inference Server to provide GPU-accelerated serving for\nrecommender system pipelines.\n\n## Feedback and Support\n\nTo report bugs or get help, please\n[open an issue](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fissues\u002Fnew\u002Fchoose).\n","# [NVIDIA Merlin](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin)\n\n![GitHub tag (latest SemVer)](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Ftag\u002FNVIDIA-Merlin\u002FMerlin?sort=semver)\n![GitHub License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FNVIDIA-Merlin\u002FMerlin)\n[![Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002FMerlin\u002Fstable\u002FREADME.html)\n\nNVIDIA Merlin 是一个开源库，可在 NVIDIA GPU 上加速推荐系统。该库使数据科学家、机器学习工程师和研究人员能够大规模构建高性能的推荐模型。Merlin 包含用于解决常见特征工程、训练和推理挑战的工具。Merlin 管道的每个阶段都经过优化，可支持数百 TB 的数据，并且所有功能均可通过易于使用的 API 访问。更多信息请参阅 NVIDIA 开发者网站上的 [NVIDIA Merlin](https:\u002F\u002Fdeveloper.nvidia.com\u002Fnvidia-merlin)。\n\n## 优势\n\nNVIDIA Merlin 是一种可扩展的 GPU 加速解决方案，可轻松实现端到端的推荐系统构建。借助 NVIDIA Merlin，您可以：\n\n- 对数据进行转换（ETL），以进行预处理和特征工程。\n- 通过利用优化的自定义数据加载器，加速您现有的 TensorFlow、PyTorch 或 FastAI 训练管道。\n- 通过分布式存储超出 GPU 和 CPU 内存容量的大规模嵌入表，扩展大型深度学习推荐模型。\n- 仅需几行代码即可将数据转换和训练好的模型部署到生产环境。\n\n## NVIDIA Merlin 的组件\n\nNVIDIA Merlin 由以下开源库组成：\n\n**[NVTabular](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FNVTabular)**\n[![PyPI version shields.io](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fnvtabular.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fnvtabular\u002F)\n[![ 文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002FNVTabular\u002Fstable\u002FIntroduction.html)\n\u003Cbr> NVTabular 是一个用于表格数据的特征工程和预处理库。该库可以快速简便地操作用于训练深度学习推荐系统的 TB 级数据集。它提供了一个高级 API，可用于定义复杂的数据转换工作流。使用 NVTabular，您可以：\n\n- 快速简便地准备数据集以进行实验，从而训练更多模型。\n- 处理超出 GPU 和 CPU 内存容量的数据集，而无需担心规模问题。\n- 专注于如何处理数据，而不是如何实现，因为该库在操作层面提供了抽象。\n\n**[HugeCTR](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FHugeCTR)**\n[![ 文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002FHugeCTR\u002Fstable\u002Fhugectr_user_guide.html)\u003Cbr>\nHugeCTR 是一个 GPU 加速的训练框架，可通过在多个 GPU 和节点之间分配训练任务来扩展大型深度学习推荐模型。HugeCTR 包含经过优化的 GPU 加速数据加载器，并提供将大型嵌入表扩展到超出可用内存容量之外的策略。使用 HugeCTR，您可以：\n\n- 将嵌入表分布在多个 GPU 或节点上。\n- 在训练阶段以粗粒度、按需的方式将嵌入表的一部分加载到 GPU 中。\n\n**[Merlin Models](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002Fmodels)**\n[![PyPI version shields.io](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmerlin-models.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmerlin-models\u002F)\n[![ 文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002Fmodels\u002Fstable\u002FREADME.html)\u003Cbr>\nMerlin Models 库为推荐系统提供了标准模型，旨在实现高质量的实现，涵盖从经典机器学习模型到高度先进的深度学习模型。使用 Merlin Models，您可以：\n\n- 通过为 TensorFlow、PyTorch 和 HugeCTR 提供高性能数据加载器，将排名模型的训练速度提升多达 10 倍。\n- 通过自动将 NVTabular 创建的数据集映射到模型输入层，快速迭代特征工程和模型探索。模型输入层允许您单独更改其中一方而不影响另一方。\n- 组装可连接的通用 RecSys 架构模块，以便快速简便地创建新模型。\n\n**[Transformers4Rec](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FTransformers4Rec)**\n[![PyPI version shields.io](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002FTransformers4Rec.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002FTransformers4Rec\u002F)\n[![ 文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002FTransformers4Rec\u002Fstable\u002FREADME.html)\u003Cbr>\nTransformers4Rec 库提供基于序列和会话的推荐功能。该库包含与标准 PyTorch 模块兼容的模块化构建块。您可以使用这些构建块设计自定义架构，例如多塔、多头和多任务以及损失函数。使用 Transformers4Rec，您可以：\n\n- 从任何序列化的表格数据中构建基于序列和会话的推荐系统。\n- 利用与 NVTabular 的集成，实现无缝的数据预处理和特征工程。\n- 执行下一项预测任务，以及经典的二分类或回归任务。\n\n**[Merlin Systems](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002Fsystems)**\n[![PyPI version shields.io](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmerlin-systems.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmerlin-systems\u002F)\n[![ 文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002Fsystems\u002Fstable\u002FREADME.html)\u003Cbr>\nMerlin Systems 提供了将推荐模型与其他生产级推荐系统组件（如特征存储、最近邻搜索和探索策略）结合在一起的工具，从而构建可使用 Triton 推理服务器服务的端到端推荐管道。使用 Merlin Systems，您可以：\n\n- 从基于 Triton 推理服务器的集成推荐服务平台开始。\n- 创建定义端到端推荐生成流程的图。\n- 享受与推荐系统管道中常用工具的现有集成带来的便利。\n\n**[Merlin Core](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002Fcore)**\n[![PyPI version shields.io](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmerlin-core.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmerlin-core\u002F)\n[![ 文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-blue.svg)](https:\u002F\u002Fnvidia-merlin.github.io\u002Fcore\u002Fstable\u002FREADME.html)\u003Cbr>\nMerlin Core 提供了整个 Merlin 生态系统中通用的功能。使用 Merlin Core，您可以：\n\n- 使用标准的数据集抽象来跨多个 GPU 和节点处理大型数据集。\n- 利用通用模式识别关键数据集特征，从而使 Merlin 能够自动化常规建模和推理任务。\n- 通过共享的数据转换算子图 API 简化您的代码。\n\n## 安装\n\n使用 Merlin 的最简单方式是运行一个 Docker 容器。NVIDIA GPU Cloud (NGC) 提供了包含所有 Merlin 组件库和依赖项的容器，并且这些容器都经过单元测试和集成测试。更多信息请参阅 [容器](https:\u002F\u002Fnvidia-merlin.github.io\u002FMerlin\u002Fstable\u002Fcontainers.html) 页面。\n\n若要开发并为 Merlin 做贡献，请查阅各个组件库的安装文档。每个 Merlin 组件的开发环境都可以通过 `conda` 或 `pip` 轻松搭建：\n\n| 组件        | 安装步骤                                                                 |\n| ---------------- | ---------------------------------------------------------------------------------- |\n| HugeCTR          | https:\u002F\u002Fnvidia-merlin.github.io\u002FHugeCTR\u002Fmaster\u002Fhugectr_contributor_guide.html      |\n| Merlin Core      | https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002Fcore\u002Fblob\u002Fstable\u002FREADME.md#installation             |\n| Merlin Models    | https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002Fmodels\u002Fblob\u002Fstable\u002FREADME.md#installation           |\n| Merlin Systems   | https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002Fsystems\u002Fblob\u002Fstable\u002FREADME.md#installation          |\n| NVTabular        | https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FNVTabular\u002Fblob\u002Fstable\u002FREADME.md#installation        |\n| Transformers4Rec | https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FTransformers4Rec\u002Fblob\u002Fstable\u002FREADME.md#installation |\n\n## 示例笔记本与教程\n\n我们提供了一系列[端到端示例](.\u002Fexamples\u002F)，以 Jupyter 笔记本的形式呈现。\n这些示例笔记本展示了如何：\n\n- 下载并准备数据集。\n- 使用预处理和特征工程。\n- 用 TensorFlow、PyTorch、FastAI、HugeCTR 或 Merlin Models 训练深度学习推荐模型。\n- 使用 Triton 推理服务器将模型部署到生产环境。\n\n这些示例基于不同的数据集，涵盖了广泛的现实场景应用。\n\n## Merlin 的技术基础\n\n**[RAPIDS cuDF](https:\u002F\u002Fgithub.com\u002Frapidsai\u002Fcudf)**\u003Cbr> Merlin 依赖 cuDF 实现 GPU 加速的 DataFrame 操作，用于特征工程。\n\n**[Dask](https:\u002F\u002Fwww.dask.org\u002F)**\u003Cbr> Merlin 利用 Dask 在 NVTabular 中实现特征工程和预处理的分布式与规模化，并加速 Merlin Models 和 HugeCTR 中的数据加载。\n\n**[Triton 推理服务器](https:\u002F\u002Fgithub.com\u002Ftriton-inference-server\u002Fserver)**\u003Cbr>\nMerlin 借助 Triton 推理服务器为推荐系统流水线提供 GPU 加速的推理服务。\n\n## 反馈与支持\n\n如需报告 bug 或寻求帮助，请[提交 issue](https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fissues\u002Fnew\u002Fchoose)。","# NVIDIA Merlin 快速上手指南\n\nNVIDIA Merlin 是一个开源库，旨在利用 NVIDIA GPU 加速推荐系统的构建。它涵盖了从数据预处理（ETL）、模型训练到生产部署的全流程，支持处理数百 TB 级别的数据。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **硬件要求**：\n    *   配备 NVIDIA GPU 的服务器或工作站（推荐使用支持 CUDA 的 GPU）。\n    *   显存大小取决于数据集规模，Merlin 支持分布式多卡训练以突破单卡显存限制。\n*   **软件要求**：\n    *   **操作系统**：Linux (Ubuntu 18.04\u002F20.04\u002F22.04 推荐)。\n    *   **驱动**：已安装兼容的 NVIDIA 驱动程序和 CUDA Toolkit。\n    *   **容器运行时**：推荐安装 **Docker** 和 **NVIDIA Container Toolkit** (`nvidia-docker2`)，这是使用 Merlin 最简便的方式。\n    *   **包管理工具**：若选择源码安装，需安装 `conda` 或 `pip`。\n\n> **提示**：国内用户若拉取 Docker 镜像较慢，可配置阿里云、腾讯云或网易云等国内 Docker 镜像加速器。\n\n## 2. 安装步骤\n\nNVIDIA 官方推荐使用 **Docker 容器**方式运行，因为它预装了所有组件库、依赖项并通过了测试，能避免复杂的环境配置问题。\n\n### 方法一：使用 Docker 容器（推荐）\n\n直接从 NVIDIA GPU Cloud (NGC) 拉取包含完整 Merlin 生态的镜像：\n\n```bash\ndocker pull nvcr.io\u002Fnvidia\u002Fmerlin\u002Fmerlin-tensorflow:23.12\n# 或者 PyTorch 版本\ndocker pull nvcr.io\u002Fnvidia\u002Fmerlin\u002Fmerlin-pytorch:23.12\n```\n\n启动容器（确保挂载当前目录以便访问代码和数据）：\n\n```bash\ndocker run --gpus all -it --rm -v $(pwd):\u002Fworkspace nvcr.io\u002Fnvidia\u002Fmerlin\u002Fmerlin-pytorch:23.12\n```\n\n### 方法二：使用 pip\u002Fconda 单独安装组件\n\n如果您需要在现有环境中开发或贡献代码，可以单独安装各个组件。以下是核心组件的安装命令示例：\n\n```bash\n# 安装 NVTabular (数据预处理)\npip install nvtabular\n\n# 安装 Merlin Models (模型构建)\npip install merlin-models\n\n# 安装 Transformers4Rec (序列推荐)\npip install transformers4rec\n\n# 安装 Merlin Systems (部署服务)\npip install merlin-systems\n\n# 安装 HugeCTR (大规模稀疏模型训练框架，建议参考其官方文档进行特定安装)\n```\n\n> **注意**：单独安装时，请确保已预先安装好对应的深度学习框架（如 TensorFlow 或 PyTorch）以及 RAPIDS cuDF 等底层依赖。\n\n## 3. 基本使用\n\nMerlin 的典型工作流分为三个阶段：**数据预处理 (NVTabular)** -> **模型训练 (Merlin Models\u002FHugeCTR)** -> **模型部署 (Merlin Systems\u002FTriton)**。\n\n以下是一个基于 PyTorch 和 NVTabular 的最小化端到端示例流程：\n\n### 第一步：数据预处理与特征工程 (NVTabular)\n\n使用 NVTabular 加载数据、定义转换工作流并输出为优化的格式。\n\n```python\nimport nvtabular as nvt\nfrom nvtabular import ops as ops\n\n# 1. 定义输入列\ncat_columns = [\"user_id\", \"item_id\"]\nlabel_columns = [\"click\"]\n\n# 2. 定义预处理工作流 (Workflow)\nworkflow = nvt.Workflow(\n    cat_columns >> ops.Categorify() >> ops.Rename(postfix=\"_encoded\")\n)\n\n# 3. 加载数据集并应用工作流\n# 假设有一个包含原始数据的 DataFrame 或文件路径\ndataset = nvt.Dataset(\".\u002Fraw_data\u002F\")\nworkflow.fit(dataset)\ntransformed_dataset = workflow.transform(dataset)\n\n# 4. 保存处理后的数据供训练使用\ntransformed_dataset.to_parquet(output_path=\".\u002Fprocessed_data\u002F\")\n```\n\n### 第二步：模型构建与训练 (Merlin Models)\n\n利用 Merlin Models 快速构建推荐模型，并自动对接 NVTabular 生成的 Schema。\n\n```python\nimport merlin.models as mm\nfrom merlin.io import Dataset\nfrom merlin.models.loader.tf_utils import configure_tensorflow\n\n# 加载预处理后的数据\ntrain_ds = Dataset(\".\u002Fprocessed_data\u002F\")\n\n# 构建一个简单的双塔模型 (Two-Tower Model)\nmodel = mm.DualTowerModel(\n    train_ds.schema,\n    query_tower=mm.MLPBlock([64, 32]),\n    item_tower=mm.MLPBlock([64, 32]),\n    prediction_tasks=mm.BinaryClassificationTask(\"click\")\n)\n\n# 编译模型\nmodel.compile(optimizer=\"adam\", loss=\"binary_crossentropy\")\n\n# 训练模型\nmodel.fit(train_ds, batch_size=1024, epochs=5)\n```\n\n### 第三步：模型部署 (Merlin Systems & Triton)\n\n将数据处理流程和训练好的模型组合成一个完整的推理图，并导出到 Triton Inference Server。\n\n```python\nfrom merlin.systems.triton import export_triton_model\n\n# 创建推理图，串联预处理和模型预测\n# 这里假设 workflow 和 model 已在上文定义\ninference_pipeline = workflow + model\n\n# 导出模型到 Triton 格式\nexport_triton_model(\n    inference_pipeline, \n    output_dir=\".\u002Ftriton_model_repo\", \n    version=1\n)\n```\n\n导出完成后，您可以使用 Triton Inference Server 启动服务：\n\n```bash\ntritonserver --model-repository=.\u002Ftriton_model_repo\n```\n\n至此，您已完成从数据准备到模型服务的全流程。更多详细案例请参考项目 `examples\u002F` 目录下的 Jupyter Notebook。","某大型电商平台的算法团队正面临黑五促销前的紧急任务，需要基于数百 TB 的用户行为日志快速迭代并上线一个高精度的实时推荐系统。\n\n### 没有 Merlin 时\n- **数据处理瓶颈**：传统 CPU 集群处理 TB 级特征工程耗时数天，无法跟上每日数据更新的节奏，导致模型训练基于过时数据。\n- **显存溢出危机**：包含数十亿商品 ID 的嵌入表（Embedding Tables）体积巨大，单卡或多卡直接加载会导致显存瞬间溢出，训练被迫中断。\n- **框架适配繁琐**：为了适配 TensorFlow 或 PyTorch，工程师需手动编写复杂的自定义数据加载器，代码维护成本高且读取效率低下。\n- **部署周期漫长**：从实验环境到生产环境的推理服务部署涉及大量重构工作，新模型上线往往需要数周时间调试。\n\n### 使用 Merlin 后\n- **GPU 加速 ETL**：利用 NVTabular 将特征预处理流程完全迁移至 GPU，数据处理速度提升数十倍，原本几天的工作量缩短至几小时完成。\n- **分布式嵌入管理**：通过 HugeCTR 的分布式策略，将超大嵌入表智能分片存储于多 GPU 甚至多节点间，按需加载子集，轻松突破单卡显存限制。\n- **无缝框架集成**：Merlin Models 提供优化后的高性能数据加载器，直接对接现有 TensorFlow\u002FPyTorch 流水线，训练吞吐量显著提升且无需重写底层代码。\n- **一键生产部署**：借助统一的 API，数据转换逻辑与训练好的模型可被打包为标准化推理服务，仅需几行代码即可部署至生产环境，实现天级甚至小时级上线。\n\nMerlin 通过全链路 GPU 加速与弹性扩展能力，将超大规模推荐系统的构建周期从“月级”压缩至“天级”，让算法团队能专注于模型创新而非基础设施运维。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIA-Merlin_Merlin_05941a53.png","NVIDIA-Merlin","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FNVIDIA-Merlin_46f912e0.jpg","Merlin is a framework providing end-to-end GPU-accelerated recommender systems, from feature engineering to deep learning training and deploying to production",null,"https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin",[78,82,86],{"name":79,"color":80,"percentage":81},"Python","#3572A5",86.3,{"name":83,"color":84,"percentage":85},"Shell","#89e051",8.2,{"name":87,"color":88,"percentage":89},"HCL","#844FBA",5.5,886,130,"2026-04-07T14:04:47","Apache-2.0","Linux","必需 NVIDIA GPU。支持多 GPU 及多节点分布式训练以扩展显存限制。具体 CUDA 版本未说明（通常依赖 NGC 容器版本）。","未说明（但支持处理超过 CPU 和 GPU 内存的数据集，依赖 Dask 进行分布式处理）",{"notes":98,"python":99,"dependencies":100},"官方推荐使用 NVIDIA GPU Cloud (NGC) 提供的 Docker 容器进行部署，这是最简单的方式，容器内已包含所有组件库、依赖项及测试环境。若需开发或贡献代码，各组件可通过 conda 或 pip 单独安装。该工具专为处理数百 TB 级数据设计，利用 Dask 实现特征工程的分布式扩展，并利用 HugeCTR 等技术将超出显存的大型嵌入表分布到多个 GPU 或节点上。","未说明",[101,102,103,104,105,106,107,108,109,110],"RAPIDS cuDF","Dask","Triton Inference Server","TensorFlow","PyTorch","FastAI","HugeCTR","NVTabular","Merlin Models","Transformers4Rec",[14],[113,114,115,116,117,118],"deep-learning","end-to-end","gpu-acceleration","machine-learning","recommendation-system","recommender-system","2026-03-27T02:49:30.150509","2026-04-10T10:28:24.560688",[122,127,132,137,142,147],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},27556,"如何在 Merlin 中集成预训练向量嵌入（Pre-trained Embeddings）作为模型输入特征？","可以通过在 Schema 中添加 `Tags.EMBEDDING` 标签来实现。具体步骤包括：1. 使用 NVTabular 处理数据时，确保外部嵌入表适合 CPU 内存（当前版本限制）；2. 在 Merlin Core schema 实现中将 `Tags.EMBEDDING` 作为预制标签添加；3. 对于生产环境服务，需要在请求中直接提供这些嵌入特征。注意：目前不支持动态生成嵌入或超出 CPU 内存的大规模嵌入表，且通常需要将预训练嵌入设置为不可训练（freeze）。","https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fissues\u002F211",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},27557,"在使用多热编码（multi-hot）分类列时，无法将图导出为集成模型（Ensemble）怎么办？","该问题曾在 22.05 版本的推理容器中出现，特别是在部署多阶段推荐系统笔记本的 Feast 材料化步骤中。维护者已确认原始问题已修复。如果您仍遇到类似错误，请检查是否使用了最新版本的容器和库。如果问题依然存在且与原始报错不同，建议创建新的独立 Issue 并提供详细的复现步骤和数据样本，以便团队进一步排查。","https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fissues\u002F361",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},27558,"如何在 NGC 推理容器中成功加载导出的 HugeCTR (DeepFM) 模型？","确保使用兼容的容器版本（如 22.03 或更新版本）。有用户反馈在测试 Criteo HugeCTR 推理示例时工作正常。加载时需确认以下配置：1. 模型原始 JSON 配置文件路径正确；2. 检查日志中是否显示 \"Loading HugeCTR model successfully\"；3. 注意日志中关于 Peer-to-peer access 的警告通常不影响功能。如果遇到 \"failed to load\" 错误，请验证依赖的子模型（如 deepfm_nvt）是否也已正确导出并放置在相同的模型仓库目录结构中。","https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fissues\u002F125",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},27559,"Merlin 是否有支持检索、过滤、排序和重排序的多阶段推荐系统架构示例？","是的，Merlin 提供了多阶段推荐管道的清晰示例。该示例展示了 NVTabular、Data Loader、Merlin Models 和 Merlin Systems 如何协同工作。您可以参考官方发布的 Recsys 教程和相关文档（如 Google Doc 规划文档），其中详细说明了如何构建包含检索（Retrieval）、过滤（Filtering）、排名（Ranking）和排序（Ordering）的完整流程。注意：由于 NVTabular 的限制，用户特征和物品特征可能需要分别通过两个独立的工作流进行处理。","https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fissues\u002F286",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},27560,"如何在 TensorFlow 项目中建立一致的内存分配策略以避免显存问题？","建议在项目中统一使用 `allocate_tensorflow_memory` 函数替代旧的配置方式。具体操作包括：1. 更新 NVTabular 的 TensorFlow 示例代码；2. 在 Merlin Models 中调用 `config_tensorflow()` 或直接使用内存分配工具函数来规范化显存行为。这有助于解决因示例代码中内存分配不一致导致的运行时错误。开发者应参考最新的最佳实践文档来配置 TensorFlow 的显存增长或限制策略。","https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fissues\u002F229",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},27561,"Merlin 是否支持基于会话（Session-based）的推荐模型？","支持。Merlin 提供了 Transformers4Rec (T4Rec) 库，专门用于定义和训练基于会话和序列的推荐模型。该库利用 Transformer 架构对短序列进行建模，已在多个 RecSys 挑战赛中验证了其有效性。用户可以通过 T4Rec 轻松集成此类架构，并参考相关论文和获胜方案代码来实现个性化的会话推荐功能。","https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fissues\u002F433",[153,158,163,168,173,178,183,188,193,198],{"id":154,"version":155,"summary_zh":156,"released_at":157},180687,"v24.06.00","## 变更内容\n* 由 @EmmaQiaoCh 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1088 中修复 SOK 测试脚本路径问题。\n* 由 @EmmaQiaoCh 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1094 中修复了一些安全问题。\n* 由 @mikemckiernan 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1096 中将 GDPR 信息添加到页脚。\n* [HugeCTR] 由 @EmmaQiaoCh 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1098 中为 HugeCTR 添加了一个新的基础镜像。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fcompare\u002Fv23.12.00...v24.06.00","2024-06-14T12:19:07",{"id":159,"version":160,"summary_zh":161,"released_at":162},180688,"v23.12.00","## 变更内容\n* 由 @EmmaQiaoCh 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1075 中对 onnxruntime 进行更新\n* 由 @EmmaQiaoCh 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1081 中清理旧版 HugeCTR 推理示例，并集成 HugeCTR Triton Bac…\n* 由 @EmmaQiaoCh 提交的拉取请求\u002F1085，详见 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1086\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fcompare\u002Fv23.09.00...v23.12.00","2024-01-15T02:09:18",{"id":164,"version":165,"summary_zh":166,"released_at":167},180689,"v23.09.00","## 变更内容\n* 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1062 中使用 @ajschmidt8 的 `copy-pr-bot`\n* 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1067 中更新 gpu-ci.yml，移除拉取请求触发器，由 @jperez999 完成\n* 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1066 中更新 gpu-ci.yml，添加容器，由 @jperez999 完成\n* 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1068 中，@jperez999 提交了拉取请求\u002F1065\n* 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1069 中，@EmmaQiaoCh 提交了拉取请求\u002F1064\n* 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1072 中，@EmmaQiaoCh 移除了与推理相关的测试\n\n## 新贡献者\n* @ajschmidt8 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1062 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fcompare\u002Fv23.08.00...v23.09.00","2023-09-26T13:51:42",{"id":169,"version":170,"summary_zh":171,"released_at":172},180690,"v23.08.00","## 变更内容\n* @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1013 中重新添加了 keyring 更新\n* @gabrielspmoreira 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1014 中改进了排序快速入门指南\n* @gabrielspmoreira 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1017 中修复了排序快速入门中的预处理和训练脚本\n* @rnyak 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1020 中修正了构建和部署多阶段推荐系统示例中的 feast 仓库名称\n* @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1031 中激活了 CI Dockerfile 中的 cubinlinker 相关行\n* @nv-alaiacano 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1009 中添加了 23.06 版本的变更日志结构\n* @nv-alaiacano 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1035 中更新了 23.06 版本的支持矩阵\n* @jayrodge 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1037 中更新了 README.md 文件\n* @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1036 中更新了 CI 容器\n* @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1038 中通过 pip 安装 ptx\n* @rnyak 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1034 中将系统示例迁移到 Merlin 项目中\n* @gabrielspmoreira 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1015 中为排序快速入门创建了集成测试\n* @oliverholworthy 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1047 中将 DataFrame 传递给 `setup_faiss`，而非数组\n* @radekosmulski 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1028 中将“使用 Transformer 进行下一个物品预测”示例从 models 模块中移出\n* @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1022 中更新了包含子图的多阶段笔记本\n* @oliverholworthy 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1046 中将文档主题从 `sphinx_rtd_theme` 更改为 `sphinx_book_theme`\n* @andompesta 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1050 中更新了训练教程的链接\n* @bashimao 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1018 中为 23.06 版本提供了 CTR 的 Dockerfile\n* @EmmaQiaoCh 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1043 中更新了 dockerfile.tf 和 dockerfile.torch\n* @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1056 中为测试添加了包检查\n* @bashimao 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1049 中启用了 x86 + NVIDIA Grace (ARM64) 的交叉编译功能\n* @EmmaQiaoCh 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1057 中修复了由于 tensorflow-metadata 版本冲突导致的 sok 测试错误\n* @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1059 中修复了 Merlin 测试中的错误\n* @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1060 中修复了 Merlin 的错误\n* @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1061 中停用了 merlin-tensorflow 容器的 Merlin 仓库集成测试\n\n## 新贡献者\n* @jayrodge 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F1037 中做出了首次贡献\n* @andomp","2023-08-28T03:14:40",{"id":174,"version":175,"summary_zh":176,"released_at":177},180691,"v23.05.00","## 变更内容\n\n## 🐜 Bug 修复\n\n- 恢复 TensorFlow 安装 @jperez999 (#997)\n- 更新推荐系统示例部署中的路径 @nv-alaiacano (#988)\n- 为 HugeCTR 的 gmock 构建错误提供临时解决方案 @EmmaQiaoCh (#982)\n- 排序快速入门：修复保存单任务训练模型时的 bug，并将工具类移至 Models 模块 @gabrielspmoreira (#967)\n\n## 🚀 新特性\n\n- 排序快速入门：在 ranking.py 脚本中添加 --shuffled_train 参数 @gabrielspmoreira (#985)\n- 将 Feast 更新至最新发布版本 0.31 @jperez999 (#975)\n- 排序快速入门：修复保存单任务训练模型时的 bug，并将工具类移至 Models 模块 @gabrielspmoreira (#967)\n\n## 📄 文档更新\n\n- 排序快速入门：增加对 Triton 推理的支持 @rnyak (#966)\n- 添加推荐模型指南 @bschifferer (#953)\n- 支持 23.04 版本的矩阵更新 @nvidia-merlin-bot (#959)\n- 添加 22.04 版本的变更日志 @nv-alaiacano (#954)\n\n## 🔧 维护与优化\n\n- 恢复 TensorFlow 安装 @jperez999 (#997)\n- 更新 release-23.05 的 Dockerfile @nv-alaiacano (#996)\n- 语法修复：使用 f-string 格式化字符串 @nv-alaiacano (#990)\n- 更新推荐系统示例部署中的路径 @nv-alaiacano (#988)\n- 将 Feast 更新至最新发布版本 0.31 @jperez999 (#975)\n- 在安装 Feast 后降级 protobuf 版本 @jperez999 (#984)\n- 为 HugeCTR 的 gmock 构建错误提供临时解决方案 @EmmaQiaoCh (#982)\n- 针对新的 CUDA\u002FArrow\u002FParquet 进行更新 @EmmaQiaoCh (#974)\n- 在集成测试中升级 Dask 和 PyArrow 版本 @edknv (#979)\n- 修复 CI 容器以适应新环境 @jperez999 (#981)\n- 将 Merlin 基础镜像更新至使用 Triton\u002FDLFW 23.03 版本 @edknv (#976)\n- 添加指向 Merlin 23.04 版本的 `requirements.txt` 文件 @karlhigley (#939)\n- 添加工作流以检查基础分支并设置稳定分支 @oliverholworthy (#965)\n- 更新 GitHub Workflows 中的标签模式 @oliverholworthy (#964)\n- 不再对已关闭的 PR 重新运行测试 @nv-alaiacano (#963)","2023-05-31T14:57:43",{"id":179,"version":180,"summary_zh":181,"released_at":182},180692,"v23.04.00","## 变更内容\n\n## 🐜 问题修复\n\n- 将 cuPy 版本更新至最低 12.0.0 @jperez999 (#899)\n- 在 Criteo NVTabular 中将 nvtabular.utils 替换为 merlin.core.compat @edknv (#892)\n- 安装 Horovod 0.27 以支持 TensorFlow 2.11 @edknv (#883)\n- 更新 Transformers TF 2.11 @jperez999 (#882)\n- 对示例笔记本和测试进行小幅调整 @karlhigley (#864)\n\n## 🚀 新特性\n\n- 更新 sok 单元测试 @EmmaQiaoCh (#876)\n\n## 📄 文档\n\n- 移除遗留示例 @radekosmulski (#868)\n- 支持 23.02 版本的矩阵更新 @nvidia-merlin-bot (#854)\n\n## 🔧 维护\n\n- 在集成测试中安装兼容版本的 Protocol Buffers @edknv (#911)\n- 默认不安装分布式嵌入，并移除相关测试 @nv-alaiacano (#908)\n- 添加 TARGETARCH 参数并设置默认值 @nv-alaiacano (#902)\n- 移除基础 Dockerfile 中重复的构建镜像 @karlhigley (#901)\n- 将 cuPy 版本更新至最低 12.0.0 @jperez999 (#899)\n- 更新单元测试，移除 read_parquet() 中的 num_rows 参数 @edknv (#891)\n- 撤销“安装 Horovod 0.27 以支持 TensorFlow 2.11 (#883)” @edknv (#890)\n- 更新集成测试中的依赖版本 @edknv (#885)\n- 安装 Horovod 0.27 以支持 TensorFlow 2.11 @edknv (#883)\n- 更新 Transformers TF 2.11 @jperez999 (#882)\n- 更新 sok 单元测试 @EmmaQiaoCh (#876)\n- 增加容器大小 @jperez999 (#869)\n- 修复 libnvinfer 冲突 @EmmaQiaoCh (#855)\n- 将 \u002Fdocs 目录下的 IPython 从 8.2.0 升级至 8.10.0 @dependabot (#848)\n- 在 dockerfile.merlin 中添加 Arm64 支持 @jlinford (#846)\n- 在 CI 运行器中使用 'scikit-learn' 而不是 'sklearn' @edknv (#860)\n- 将 CI 运行器中的 TensorFlow 版本升级至 2.10 @edknv (#849)\n- 移除旧版的 MovieLens 入门示例笔记本 @karlhigley (#859)","2023-04-27T14:40:58",{"id":184,"version":185,"summary_zh":186,"released_at":187},180693,"v23.02.00","## 有哪些变化\n\n## 🚀 功能\n\n- 将 `next(iter(loader))` 替换为 `loader.peek()` @edknv (#778)\n\n## 📄 文档\n\n- 更新 README.md 和文档 @radekosmulski (#804)\n- 添加文档链接 @radekosmulski (#802)\n- 审核入门示例 @radekosmulski (#779)\n- 更新 22.12 版本的支持矩阵 @nvidia-merlin-bot (#784)\n- 将 `next(iter(loader))` 替换为 `loader.peek()` @edknv (#778)\n- 处理评审反馈 @mikemckiernan (#755)\n- 入门教程 movielens 中列的顺序不一致 @mikemckiernan (#758)\n- 移除遗留的 Criteo 示例 @bschifferer (#757)\n- 审核 Criteo 示例并添加单元测试 @bschifferer (#756)\n- 在文档中添加 SageMaker 示例 @mikemckiernan (#754)\n- 更新 22.11 版本的支持矩阵 @nvidia-merlin-bot (#747)\n\n## 🔧 维护\n\n- 将容器大小增加到 16GB @jperez999 (#847)\n- 在 hugectr\u002Ftf\u002Fpytorch 中安装 hps 后端和 hps trt 插件 @EmmaQiaoCh (#783)\n- 在 CI 运行器镜像中添加 transformers==4.26.1 @oliverholworthy (#843)\n- 在 CI 镜像中其他安装之后固定 dask\u002Fdistributed 包版本 @karlhigley (#841)\n- 修复 CI 容器构建中的各种小问题 @karlhigley (#840)\n- 调整夜间构建镜像中的 Merlin 库安装 @karlhigley (#839)\n- 修复 CI 容器测试脚本中的字符串字面量比较问题 @karlhigley (#838)\n- 整合容器构建中的大小检查 @karlhigley (#837)\n- 修复大小检查以排除挂载点 @jperez999 (#836)\n- 跳过 CI 容器的大小检查 @karlhigley (#832)\n- 从 Docker 基础镜像中移除 NVT Triton 后端安装 @karlhigley (#831)\n- 将 pynvml 固定到 11.4.1 @oliverholworthy (#830)\n- 修复语法错误 @nv-alaiacano (#821)\n- 对 HugeCTR 子模块进行浅克隆并移除 `.git\u002Fmodules` @oliverholworthy (#817)\n- 在安装后清理克隆仓库中的 .git 文件 @nv-alaiacano (#812)\n- 在所有 Dockerfile 的 pip install 命令中使用 `--no-cache-dir` @oliverholworthy (#808)\n- 在检查脚本中添加容器大小检查 @jperez999 (#790)\n- 修复小于 15GB 的容器大小问题 @jperez999 (#789)\n- 修复文档构建，使其按照说明使用 tox @mikemckiernan (#803)\n- 为 hugectr 安装 protobuf==3.20.3 @EmmaQiaoCh (#777)\n- 更新 Dockerfile 中的 Merlin 基础容器 @jperez999 (#781)\n- 保存用于系统测试的环境变量 @jperez999 (#780)\n- 将 `next(iter(loader))` 替换为 `loader.peek()` @edknv (#778)\n- 在 GHA 运行器上添加 GPU CI 工作流 @jperez999 (#775)\n- 撤销 CI 更改 @bschifferer (#774)\n- 移除集成测试中的数据操作，并运行第一个笔记本… @edknv (#773)\n- 为集成测试固定 pyarrow 版本 @oliverholworthy (#770)\n- 将 `ensemble_model` 替换为 `executor_model` @oliverholworthy (#772)\n- 移除 hugectr 测试 @jperez999 (#771)\n- 增加 scaling-criteo\u002F03-Training-with-HugeCTR 测试的超时时间 @oliverholworthy (#769)\n- 将 `treelite` 升级到 2.4.0，以匹配 Triton 22.11 @karlhigley (#750)\n- 将 Merlin 基础容器中的 protobuf 版本固定为 3.20.3 @oliverholworthy (#765)\n- 为 jenk 添加 gcp 标签","2023-03-08T16:39:17",{"id":189,"version":190,"summary_zh":191,"released_at":192},180694,"v22.11.00","## 变更内容\n\n## 🐜 错误修复\n\n- 更新 `dockerfile.ci`，以找到 NVT 开发依赖文件 @karlhigley (#740)\n- 限制 `cmake\u003C3.25.0`，以避免无法找到 CUDA 工具包的问题 @karlhigley (#739)\n- 为运行数据加载器的单元测试添加必要的数据加载器依赖项 @jperez999 (#735)\n- 将 xgboost 锁定到 1.6.2 版本，以使测试通过 @jperez999 (#726)\n- 添加来自 Merlin 模型的新指标 loss_batch @jperez999 (#727)\n\n## 📄 文档\n\n- 添加在 Sagemaker 上进行训练和推理的示例笔记本 @edknv (#692)\n\n## 🔧 维护\n\n- 添加 Jenkinsfile @AyodeAwe (#734)\n- 更新 `dockerfile.ci`，以找到 NVT 开发依赖文件 @karlhigley (#740)\n- 限制 `cmake\u003C3.25.0`，以避免无法找到 CUDA 工具包的问题 @karlhigley (#739)\n- 为运行数据加载器的单元测试添加必要的数据加载器依赖项 @jperez999 (#735)\n- 将数据加载器的单元测试添加到容器运行中 @jperez999 (#728)\n- 将多阶段笔记本测试的超时时间从 120 秒增加至 180 秒 @oliverholworthy (#729)\n- 将 xgboost 锁定到 1.6.2 版本，以使测试通过 @jperez999 (#726)\n- 添加来自 Merlin 模型的新指标 loss_batch @jperez999 (#727)","2022-11-22T22:37:12",{"id":194,"version":195,"summary_zh":196,"released_at":197},180695,"untagged-c73c3c7a63c75e538917","## 变更内容\n\n- 移除 nvtabular 后端 @jperez999 (#378)\n- 添加在 CPU 上运行端到端示例的说明 @AshishSardana (#332)\n- 将 fastai 添加到 PyTorch Dockerfile 中 @jperez999 (#363)\n- 如果推理容器中缺少 TritonServer，则构建失败 @benfred (#358)\n- 使用 `python setup.py install` 安装 SOK @jperez999 (#357)\n- 更新 HugeCTR Dockerfile @jperez999 (#355)\n- 将稀疏操作套件和分布式嵌入添加到 TensorFlow 镜像中 @jperez999 (#354)\n- 更新 HugeCTR 和 PyTorch 的 Dockerfile @jperez999 (#353)\n- 为 22.05 版本更新 Merlin 基础 Dockerfile @jperez999 (#348)\n- 更新 Arrow 和 Triton 的版本 @jperez999 (#347)\n- 修复系统测试 @jperez999 (#342)\n- 将 Tf Keras 添加到 Dockerfile 中 @jperez999 (#341)\n- 修复 CI 路由 @jperez999 (#331)\n- 更新 CI Dockerfile，加入新的 CUDA 密钥环及仓库密钥 @jperez999 (#334)\n- 修复 CVE 漏洞 @jperez999 (#328)\n- 由于 PYTHONPATH 编辑不当导致分布式嵌入无法安装 @jperez999 (#326)\n- 修复 merlin-tensorflow-training:22.05 中的“导入错误”问题 @EmmaQiaoCh (#317)\n- 从 Merlin 中移除无效密钥 @jperez999 (#316)\n- 从 Merlin 中移除无效密钥 @jperez999 (#314)\n- 移除 NVIDIA APT 仓库的无效密钥 @jperez999 (#311)\n- 添加 PyTorch 推理支持 @jperez999 (#307)\n- 添加 PyTorch 推理支持 @jperez999 (#305)\n- 移除 Merlin 中的 PYTHONPATH 编辑 @jperez999 (#304)\n- 移除 Horovod 升级以解决 TensorFlow 性能问题 @zehuanw (#302)\n- 在笔记本中添加容器信息 @bschifferer (#298)\n- 移除 pip e @jperez999 (#300)\n\n## ⚠ 破坏性变更\n\n- 根据 HugeCTR 分支名称的变化进行更新 @EmmaQiaoCh (#705)\n- 修复 CI 执行顺序 @jperez999 (#581)\n- 修复集成测试 @jperez999 (#578)\n- 在所有软件包构建和更新完成后添加 NumPy 锚定版本 @jperez999 (#566)\n- 修复 Criteo 推理服务中的单位缩放问题 @jperez999 (#559)\n- 将损失函数和指标移动到 model.compile 中 @oliverholworthy (#340)\n\n## 🐜 Bug 修复\n\n- 将 dataloader 仓库添加到 Dockerfile 中 @jperez999 (#722)\n- 在安装 Feast 后重新安装 Dask 和 Distributed @jperez999 (#713)\n- 创建容错的目录删除逻辑 @jperez999 (#718)\n- 通过从上游添加缺失的库来修复缺失问题 @jperez999 (#689)\n- 从上游容器获取 Numba @jperez999 (#690)\n- 在每日构建的 Docker 中添加 git pull 命令，以确保使用最新提交 @jperez999 (#617)\n- 修复 Criteo 推理服务中的单位缩放问题 @jperez999 (#559)\n- 修复集成测试并更新 Notebook @radekosmulski (#544)\n- 修复每日构建的容器 @benfred (#518)\n- 修复 CI 脚本文件名中的拼写错误 @karlhigley (#445)\n- 从容器中移除多余的 CMD 指令 @jperez999 (#390)\n- 在 CI Dockerfile 中添加 PyTorch 的 TritonServer 后端 @jperez999 (#441)\n- 从入口点和 cupy cuda116 进行更新 @jperez999 (#389)\n- 将 Matplotlib 添加到 PyTorch 容器中 @jperez999 (#386)\n- 将 nvt 后端重新添加回容器中 @jperez999 (#382)\n- 从推理\u002F训练镜像中移除入口点。@oliverholworthy (#336)\n- 修复 HugeCTR 测试作业中的“非法指令”错误 @EmmaQiaoCh (#295)\n\n## 🚀 功能","2022-11-09T16:34:48",{"id":199,"version":200,"summary_zh":201,"released_at":202},180696,"v22.05","## 变更内容\n* 由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F64 中移除安装 NVTabular 时的 --user 参数。\n* 由 @benfred 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F68 中修复 Docker 文件中的拼写错误。\n* 由 @benfred 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F70 中修复 README 中的链接，并更新 Merlin 示例。\n* 由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F69 中添加软件包并修复拼写错误。\n* 21.11 DLFW，由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F73 中完成。\n* 由 @zehuanw 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F76 中更新统一容器以支持 HugeCTR v3.3。\n* 由 @zehuanw 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F77 中通过添加 \"PORTABLE=1\" 来修复非法指令问题。\n* 由 @zehuanw 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F79 中修复 TensorFlow 容器构建中缺少 install.sh 的问题。\n* Rel 21.12，由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F78 中完成。\n* 由 @benfred 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F80 中将新问题添加到待办事项项目。\n* 由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F86 中更新 dlfw 21.12。\n* 由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F89 中移除 CUDA 兼容性脚本。\n* [待评审] 由 @zehuanw 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F85 中实现对统一容器中自定义 HugeCTR 仓库的支持。\n* 由 @shijieliu 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F92 中进行 mask_nvt_for_tf1_image 操作。\n* 由 @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F94 中添加 HDFS 和 S3 支持。\n* 由 @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F95 中实现 Arrow 对 S3 和 HDFS 的支持。\n* 由 @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F96 中启用 ORC 格式。\n* Release 22.02，由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F93 中发布。\n* 由 @jperez999 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F98 中再次实现 Arrow 对 S3 和 HDFS 的支持。\n* 由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F100 中减小容器体积。\n* 由 @jershi425 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F123 中修复安全漏洞 jershi。\n* 由 @shijieliu 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F122 中为 CTR 和 TensorFlow 添加 mpi4py、ONNX 和 ONNX Runtime。\n* 由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F119 中创建新容器。\n* Rel 22.03，由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F124 中完成。\n* 由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F132 中创建 CI 容器。\n* 由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F133 中修复 CI 容器相关问题。\n* Merlin Release 22.03，由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F147 中发布。\n* 由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F141 中整理软件版本和工具信息。\n* 由 @albert17 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F135 中修复推理容器问题。\n* 由 @rnyak 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F169 中与 Merlin Systems 合作进行推理 PoC。\n* 由 @karlhigley 在 https:\u002F\u002Fgithub.com\u002FNVIDIA-Merlin\u002FMerlin\u002Fpull\u002F167 中根据文档 Bash 的补充编辑更新 Merlin README。","2022-06-09T18:52:16"]