[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-bytedance--X-Portrait":3,"tool-bytedance--X-Portrait":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":29,"env_os":97,"env_gpu":98,"env_ram":99,"env_deps":100,"category_tags":105,"github_topics":106,"view_count":29,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":108,"updated_at":109,"faqs":110,"releases":131},446,"bytedance\u002FX-Portrait","X-Portrait","Source code for the SIGGRAPH 2024 paper \"X-Portrait: Expressive Portrait Animation with Hierarchical Motion Attention\"","X-Portrait 是字节跳动研发并开源的肖像动画生成模型，相关论文已被 SIGGRAPH 2024 收录。它的核心功能是将静态人像图片转化为动态视频，用户只需提供一张静态照片和一个包含动作的“驱动视频”，X-Portrait 就能让照片中的人物精准模仿视频里的表情和动作。\n\n传统的人脸动画技术往往难以平衡动作幅度与画面质量，容易出现表情僵硬或面部失真。X-Portrait 通过引入独特的“分层运动注意力”机制，有效解决了这一难题，能够精准捕捉并迁移细微的面部表情与头部运动，生成效果自然且极具表现力。\n\n在技术层面，X-Portrait 兼容 LCM LoRA 技术，可大幅减少推理步骤，提升生成效率；同时也支持结合其他人脸重演方法来进一步增强效果。这款工具主要面向 AI 开发者、算法研究人员以及数字内容创作者，非常适合用于影视特效制作、虚拟数字人驱动或相关学术研究。由于涉及代码环境配置与模型部署，普通非技术用户使用起来可能具有一定门槛。","\u003C!-- # magic-edit.github.io -->\n\n\u003Cp align=\"center\">\n\n  \u003Ch2 align=\"center\">X-Portrait: Expressive Portrait Animation with Hierarchical Motion Attention\u003C\u002Fh2>\n  \u003Cp align=\"center\">\n                \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fcitations?user=FV0eXhQAAAAJ&hl=en\">You Xie\u003C\u002Fa>,\n                \u003Ca href=\"https:\u002F\u002Fhongyixu37.github.io\u002Fhomepage\u002F\">Hongyi Xu\u003C\u002Fa>,\n                \u003Ca href=\"https:\u002F\u002Fguoxiansong.github.io\u002Fhomepage\u002Findex.html\">Guoxian Song\u003C\u002Fa>,\n                \u003Ca href=\"https:\u002F\u002Fchaowang.info\u002F\">Chao Wang\u003C\u002Fa>,\n                \u003Ca href=\"https:\u002F\u002Fseasonsh.github.io\u002F\">Yichun Shi\u003C\u002Fa>,\n                \u003Ca href=\"http:\u002F\u002Flinjieluo.com\u002F\">Linjie Luo\u003C\u002Fa>\n    \u003Cbr>\n    \u003Cb>&nbsp;  ByteDance Inc. \u003C\u002Fb>\n    \u003Cbr>\n    \u003Cbr>\n        \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.15931\">\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-X--Portrait-red' alt='Paper PDF'>\u003C\u002Fa>\n        \u003Ca href='https:\u002F\u002Fbyteaigc.github.io\u002Fx-portrait\u002F'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject_Page-X--Portrait-green' alt='Project Page'>\u003C\u002Fa>\n        \u003Ca href='https:\u002F\u002Fyoutu.be\u002FVGxt5XghRdw'>\n        \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYouTube-X--Portrait-rgb(255, 0, 0)' alt='Youtube'>\u003C\u002Fa>\n    \u003Cbr>\n  \u003C\u002Fp>\n  \n  \u003Ctable align=\"center\">\n    \u003Ctr>\n    \u003Ctd>\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbytedance_X-Portrait_readme_6a826db18419.png\">\n    \u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\nThis repository contains the video generation code of SIGGRAPH 2024 paper [X-Portrait](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2403.15931). \n\n## Installation\nNote: Python 3.9 and Cuda 11.8 are required.\n```shell\nbash env_install.sh\n```\n\n## Model\nPlease download pre-trained model from [here](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Bq0n-w1VT5l99CoaVg02hFpqE5eGLo9O?usp=sharing), and save it under \"checkpoint\u002F\"\n\n## Testing\n```shell\nbash scripts\u002Ftest_xportrait.sh\n```\nparameters:  \n**model_config**: config file of the corresponding model  \n**output_dir**: output path for generated video  \n**source_image**: path of source image  \n**driving_video**: path of driving video  \n**best_frame**: specify the frame index in the driving video where the head pose best matches the source image (note: precision of best_frame index might affect the final quality)  \n**out_frames**: number of generation frames  \n**num_mix**: number of overlapping frames when applying prompt travelling during inference  \n**ddim_steps**: number of inference steps (e.g., 30 steps for ddim)     \n\n## Performance Boost\n**efficiency**: Our model is compatible with LCM LoRA (https:\u002F\u002Fhuggingface.co\u002Flatent-consistency\u002Flcm-lora-sdv1-5), which helps reduce the number of inference steps.  \n**expressiveness**: Expressiveness of the results could be boosted if results of other face reenactment approaches, e.g., face vid2vid, could be provided via parameter \"--initial_facevid2vid_results\".  \n\n## 🎓 Citation\nIf you find this codebase useful for your research, please use the following entry.\n```BibTeX\n@inproceedings{xie2024x,\n  title={X-Portrait: Expressive Portrait Animation with Hierarchical Motion Attention},\n  author={Xie, You and Xu, Hongyi and Song, Guoxian and Wang, Chao and Shi, Yichun and Luo, Linjie},\n  journal={arXiv preprint arXiv:2403.15931},\n  year={2024}\n}\n```\n","\u003C!-- # magic-edit.github.io -->\n\n\u003Cp align=\"center\">\n\n  \u003Ch2 align=\"center\">X-Portrait: 基于层次化运动注意力的表现力肖像动画\u003C\u002Fh2>\n  \u003Cp align=\"center\">\n                \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fcitations?user=FV0eXhQAAAAJ&hl=en\">You Xie\u003C\u002Fa>,\n                \u003Ca href=\"https:\u002F\u002Fhongyixu37.github.io\u002Fhomepage\u002F\">Hongyi Xu\u003C\u002Fa>,\n                \u003Ca href=\"https:\u002F\u002Fguoxiansong.github.io\u002Fhomepage\u002Findex.html\">Guoxian Song\u003C\u002Fa>,\n                \u003Ca href=\"https:\u002F\u002Fchaowang.info\u002F\">Chao Wang\u003C\u002Fa>,\n                \u003Ca href=\"https:\u002F\u002Fseasonsh.github.io\u002F\">Yichun Shi\u003C\u002Fa>,\n                \u003Ca href=\"http:\u002F\u002Flinjieluo.com\u002F\">Linjie Luo\u003C\u002Fa>\n    \u003Cbr>\n    \u003Cb>&nbsp;  字节跳动 \u003C\u002Fb>\n    \u003Cbr>\n    \u003Cbr>\n        \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.15931\">\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-X--Portrait-red' alt='Paper PDF'>\u003C\u002Fa>\n        \u003Ca href='https:\u002F\u002Fbyteaigc.github.io\u002Fx-portrait\u002F'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject_Page-X--Portrait-green' alt='Project Page'>\u003C\u002Fa>\n        \u003Ca href='https:\u002F\u002Fyoutu.be\u002FVGxt5XghRdw'>\n        \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYouTube-X--Portrait-rgb(255, 0, 0)' alt='Youtube'>\u003C\u002Fa>\n    \u003Cbr>\n  \u003C\u002Fp>\n  \n  \u003Ctable align=\"center\">\n    \u003Ctr>\n    \u003Ctd>\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbytedance_X-Portrait_readme_6a826db18419.png\">\n    \u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\n本仓库包含 SIGGRAPH 2024 论文 [X-Portrait](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2403.15931) 的视频生成代码。 \n\n## 安装\n注意：需要 Python 3.9 和 Cuda 11.8 环境。\n```shell\nbash env_install.sh\n```\n\n## 模型\n请从[此处](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Bq0n-w1VT5l99CoaVg02hFpqE5eGLo9O?usp=sharing)下载预训练模型，并保存至 \"checkpoint\u002F\" 目录下。\n\n## 测试\n```shell\nbash scripts\u002Ftest_xportrait.sh\n```\n参数：  \n**model_config**：对应模型的配置文件  \n**output_dir**：生成视频的输出路径  \n**source_image**：源图像路径  \n**driving_video**：驱动视频路径  \n**best_frame**：指定驱动视频中头部姿态与源图像最匹配的帧索引（注意：best_frame 索引的精度可能会影响最终质量）  \n**out_frames**：生成帧数  \n**num_mix**：推理过程中应用 prompt travelling（提示词巡游）时的重叠帧数  \n**ddim_steps**：推理步数（例如：ddim 为 30 步）     \n\n## 性能提升\n**效率**：我们的模型兼容 LCM LoRA (https:\u002F\u002Fhuggingface.co\u002Flatent-consistency\u002Flcm-lora-sdv1-5)，这有助于减少推理步数。  \n**表现力**：如果通过参数 \"--initial_facevid2vid_results\" 提供其他人脸重现（face reenactment）方法（例如 face vid2vid）的结果，可以提升生成结果的表现力。  \n\n## 🎓 引用\n如果您发现此代码库对您的研究有用，请使用以下引用条目。\n```BibTeX\n@inproceedings{xie2024x,\n  title={X-Portrait: Expressive Portrait Animation with Hierarchical Motion Attention},\n  author={Xie, You and Xu, Hongyi and Song, Guoxian and Wang, Chao and Shi, Yichun and Luo, Linjie},\n  journal={arXiv preprint arXiv:2403.15931},\n  year={2024}\n}\n```","# X-Portrait 快速上手指南\n\n本指南将帮助您快速部署并运行 SIGGRAPH 2024 论文项目 X-Portrait，实现富有表现力的人像动画生成。\n\n## 1. 环境准备\n\n在开始安装前，请确保您的系统满足以下核心依赖要求：\n\n*   **Python**: 3.9\n*   **CUDA**: 11.8\n\n## 2. 安装步骤\n\n**第一步：配置环境**\n\n项目提供了一键安装脚本，请在项目根目录下运行：\n\n```shell\nbash env_install.sh\n```\n\n**第二步：下载模型权重**\n\n请点击下方链接下载预训练模型，下载完成后请将模型文件存放于项目根目录下的 `checkpoint\u002F` 文件夹中。\n\n*   **下载链接**：[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Bq0n-w1VT5l99CoaVg02hFpqE5eGLo9O?usp=sharing)\n\n## 3. 基本使用\n\n**运行推理脚本**\n\n使用以下命令启动人像动画生成：\n\n```shell\nbash scripts\u002Ftest_xportrait.sh\n```\n\n**核心参数说明**\n\n为了获得最佳效果，请在脚本中调整以下关键参数：\n\n*   `source_image`：源图像路径（即需要被驱动的静态人像）。\n*   `driving_video`：驱动视频路径（提供动作参考的视频）。\n*   `output_dir`：生成视频的输出路径。\n*   `best_frame`：驱动视频中头部姿态与源图像最匹配的帧索引（注意：该参数的精度直接影响最终生成质量）。\n*   `ddim_steps`：推理步数（例如设置为 30）。\n\n**性能优化建议**\n\n*   **推理加速**：模型兼容 [LCM LoRA](https:\u002F\u002Fhuggingface.co\u002Flatent-consistency\u002Flcm-lora-sdv1-5)，集成后可显著减少推理步数。\n*   **表现力增强**：若提供其他面部重演方法（如 face vid2vid）的结果作为 `--initial_facevid2vid_results` 参数输入，可提升生成效果的表现力。","独立游戏开发者李明正在制作一款剧情向 RPG 游戏，他手头只有精美的静态角色立绘，急需根据配音演员的表演视频制作生动的角色对话动画，以提升游戏的沉浸感。\n\n### 没有 X-Portrait 时\n- **制作周期漫长**：为了匹配配音的情绪，李明需要手动逐帧调整角色的五官位置，一个简单的点头或皱眉动作可能耗费数小时，严重拖慢开发进度。\n- **表情缺乏灵气**：使用传统的简单变形或口型同步工具，生成的角色眼神往往呆滞空洞，无法传递配音中愤怒、悲伤等细腻的微表情，导致角色像在“念稿”。\n- **技术门槛高**：若想获得高质量效果，通常需要昂贵的动捕设备或复杂的 3D 绑定流程，这对独立开发者而言成本过高且技术难以落地。\n- **风格一致性差**：强行使用通用视频生成模型，容易导致生成的画面风格与原游戏美术风格割裂，甚至出现面部崩坏或“恐怖谷”效应。\n\n### 使用 X-Portrait 后\n- **一键生成动画**：只需输入静态立绘和一段表演视频，X-Portrait 即可快速驱动静态图像，将制作周期从“天”级缩短至“分钟”级。\n- **精准还原微表情**：得益于分层运动注意力机制，X-Portrait 能精准捕捉驱动视频中的眼神流转、眉毛挑动等细节，让角色表情丰富且充满情感张力。\n- **无需 3D 建模**：直接在 2D 图像层面实现电影级的面部重演，无需任何动捕设备或 3D 模型绑定，极大降低了高质量动画的制作门槛。\n- **完美保留原画风格**：生成的动画严格遵循源图像的美术特征，仅迁移运动信息而不改变人物身份与画风，确保了游戏视觉体验的统一性。\n\nX-Portrait 让静态角色立绘瞬间“活”过来，以极低的成本实现了电影级的面部表情捕捉与还原，解决了 2D 游戏动画制作中效率与质量难以兼得的痛点。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbytedance_X-Portrait_6a826db1.png","bytedance","Bytedance Inc.","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbytedance_7fee2b15.png","",null,"ByteDanceOSS","https:\u002F\u002Fopensource.bytedance.com","https:\u002F\u002Fgithub.com\u002Fbytedance",[85,89],{"name":86,"color":87,"percentage":88},"Python","#3572A5",99.9,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0.1,540,49,"2026-04-03T07:40:14","Apache-2.0","Linux","需要 NVIDIA GPU，CUDA 11.8","未说明",{"notes":101,"python":102,"dependencies":103},"明确要求 Python 3.9 和 CUDA 11.8 环境。需手动下载预训练模型至 checkpoint\u002F 目录。支持集成 LCM LoRA 以减少推理步数，提升生成效率。","3.9",[104],"需通过 env_install.sh 脚本安装",[18],[107],"research","2026-03-27T02:49:30.150509","2026-04-06T08:40:44.502705",[111,116,121,126],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},1728,"运行代码时提示 'ModuleNotFoundError: No module named 'utils'' 如何解决？","这通常是因为 Python 无法找到项目根目录下的模块。可以在 `core\u002Ftest_xportrait.py` 文件的顶部添加以下代码来解决路径问题：\n\n```python\nimport sys\nsys.path.append('\u002Fyour_path_to_repository\u002FX-Portrait')\n```\n请将路径替换为您本地实际的 X-Portrait 仓库路径。","https:\u002F\u002Fgithub.com\u002Fbytedance\u002FX-Portrait\u002Fissues\u002F9",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},1729,"该项目可以在 24GB 显存的 GPU（如 RTX 3090\u002F4090）上运行吗？","在单张 24GB 显存的消费级显卡（如 3090\u002F4090）上运行可能会遇到显存不足（OOM）的问题。有用户反馈在 Google A100 上运行时显存占用能控制在 24GB 以内，但在本地 3090 上可能会因为其他进程（如桌面环境）占用显存而导致失败。建议尝试关闭其他占用显存的程序，或使用更大显存的显卡。","https:\u002F\u002Fgithub.com\u002Fbytedance\u002FX-Portrait\u002Fissues\u002F7",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},1730,"可以使用驱动图像代替驱动视频吗？","当直接提供图像作为驱动视频时，模型可能无法很好地处理头部旋转，容易产生伪影。如果需要调整特定的头部姿态，有用户推荐尝试 ComfyUI-AdvancedLivePortrait 项目作为替代方案。","https:\u002F\u002Fgithub.com\u002Fbytedance\u002FX-Portrait\u002Fissues\u002F6",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},1731,"运行脚本时提示 'ModuleNotFoundError: No module named 'face_alignment'' 怎么办？","这表示缺少 `face_alignment` 依赖库。可以通过 pip 安装指定版本来解决：\n\n```bash\npip install face-alignment==1.4.1\n```","https:\u002F\u002Fgithub.com\u002Fbytedance\u002FX-Portrait\u002Fissues\u002F1",[]]