[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kijai--ComfyUI-MochiWrapper":3,"tool-kijai--ComfyUI-MochiWrapper":64},[4,23,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70626,3,"2026-04-05T22:51:36",[19,17,20,16],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":10,"last_commit_at":38,"category_tags":39,"status":22},3074,"gpt4free","xtekky\u002Fgpt4free","gpt4free 是一个由社区驱动的开源项目，旨在聚合多种可访问的大型语言模型（LLM）和媒体生成接口，让用户能更灵活、便捷地使用前沿 AI 能力。它解决了直接调用各类模型时面临的接口分散、门槛高或成本昂贵等痛点，通过统一的标准将不同提供商的资源整合在一起。\n\n无论是希望快速集成 AI 功能的开发者、需要多模型对比测试的研究人员，还是想免费体验最新技术的普通用户，都能从中受益。gpt4free 提供了丰富的使用方式：既包含易于上手的 Python 和 JavaScript 客户端库，也支持部署本地图形界面（GUI），更提供了兼容 OpenAI 标准的 REST API，方便无缝替换现有应用后端。\n\n其技术亮点在于强大的多提供商支持架构，能够动态调度包括 Opus、Gemini、DeepSeek 等多种主流模型资源，并支持 Docker 一键部署及本地推理。项目秉持社区优先原则，在降低使用门槛的同时，也为贡献者提供了扩展新接口的便利框架，是探索和利用多样化 AI 资源的实用工具。",65970,"2026-04-04T01:02:03",[16,19,17],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":22},51,"gstack","garrytan\u002Fgstack","gstack 是 Y Combinator CEO Garry Tan 亲自开源的一套 AI 工程化配置，旨在将 Claude Code 升级为你的虚拟工程团队。面对单人开发难以兼顾产品战略、架构设计、代码审查及质量测试的挑战，gstack 提供了一套标准化解决方案，帮助开发者实现堪比二十人团队的高效产出。\n\n这套配置特别适合希望提升交付效率的创始人、技术负责人，以及初次尝试 Claude Code 的开发者。gstack 的核心亮点在于内置了 15 个具有明确职责的 AI 角色工具，涵盖 CEO、设计师、工程经理、QA 等职能。用户只需通过简单的斜杠命令（如 `\u002Freview` 进行代码审查、`\u002Fqa` 执行测试、`\u002Fplan-ceo-review` 规划功能），即可自动化处理从需求分析到部署上线的全链路任务。\n\n所有操作基于 Markdown 和斜杠命令，无需复杂配置，完全免费且遵循 MIT 协议。gstack 不仅是一套工具集，更是一种现代化的软件工厂实践，让单人开发者也能拥有严谨的工程流程。",64604,"2026-04-05T23:10:16",[17,16],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":22},193,"meilisearch","meilisearch\u002Fmeilisearch","Meilisearch 是一个开源的极速搜索服务，专为现代应用和网站打造，开箱即用。它能帮助开发者快速集成高质量的搜索功能，无需复杂的配置或额外的数据预处理。传统搜索方案往往需要大量调优才能实现准确结果，而 Meilisearch 内置了拼写容错、同义词识别、即时响应等实用特性，并支持 AI 驱动的混合搜索（结合关键词与语义理解），显著提升用户查找信息的体验。\n\nMeilisearch 特别适合 Web 开发者、产品团队或初创公司使用，尤其适用于需要快速上线搜索功能的场景，如电商网站、内容平台或 SaaS 应用。它提供简洁的 RESTful API 和多种语言 SDK，部署简单，资源占用低，本地开发或生产环境均可轻松运行。对于希望在不依赖大型云服务的前提下，为用户提供流畅、智能搜索体验的团队来说，Meilisearch 是一个高效且友好的选择。",56972,"2026-04-05T22:34:33",[13,17,14,20,16,18],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":29,"last_commit_at":62,"category_tags":63,"status":22},3833,"MoneyPrinterTurbo","harry0703\u002FMoneyPrinterTurbo","MoneyPrinterTurbo 是一款利用 AI 大模型技术，帮助用户一键生成高清短视频的开源工具。只需输入一个视频主题或关键词，它就能全自动完成从文案创作、素材匹配、字幕合成到背景音乐搭配的全过程，最终输出完整的竖屏或横屏短视频。\n\n这款工具主要解决了传统视频制作流程繁琐、门槛高以及素材版权复杂等痛点。无论是需要快速产出内容的自媒体创作者，还是希望尝试视频生成的普通用户，无需具备专业的剪辑技能或昂贵的硬件配置（普通电脑即可运行），都能轻松上手。同时，其清晰的 MVC 架构和对多种主流大模型（如 DeepSeek、Moonshot、通义千问等）的广泛支持，也使其成为开发者进行二次开发或技术研究的理想底座。\n\nMoneyPrinterTurbo 的独特亮点在于其高度的灵活性与本地化友好性。它不仅支持中英文双语及多种语音合成，允许用户精细调整字幕样式和画面比例，还特别优化了国内网络环境下的模型接入方案，让用户无需依赖 VPN 即可使用高性能国产大模型。此外，工具提供批量生成模式，可一次性产出多个版本供用户择优，极大地提升了内容创作的效率与质量。",54991,"2026-04-05T12:23:02",[20,19,17,15,13],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":68,"owner_company":68,"owner_location":79,"owner_email":68,"owner_twitter":80,"owner_website":68,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":29,"env_os":91,"env_gpu":92,"env_ram":91,"env_deps":93,"category_tags":99,"github_topics":68,"view_count":29,"oss_zip_url":68,"oss_zip_packed_at":68,"status":22,"created_at":100,"updated_at":101,"faqs":102,"releases":133},3798,"kijai\u002FComfyUI-MochiWrapper","ComfyUI-MochiWrapper",null,"ComfyUI-MochiWrapper 是专为 ComfyUI 设计的节点封装工具，旨在让用户能够直接在 ComfyUI 工作流中运行 Genmo 开发的 Mochi 视频生成模型。它主要解决了 Mochi 原生代码与 ComfyUI 生态不兼容的问题，让熟悉节点式操作的用户无需编写复杂代码即可体验先进的视频生成技术。\n\n这款工具特别适合已经在使用 ComfyUI 的创作者、设计师以及希望快速验证视频生成效果的 AI 研究人员。对于普通用户而言，只要具备基础的 ComfyUI 操作知识，也能通过自动下载节点轻松上手。\n\n在技术亮点方面，ComfyUI-MochiWrapper 提供了灵活的注意力机制选项，支持 flash_attn、PyTorch SDPA 以及速度最快的 SageAttention，用户可根据硬件条件自由选择以优化性能。针对视频生成中显存占用高的痛点，它集成了实验性的分块解码器（tiled decoder），该技术借鉴自 CogVideoX，能有效降低显存需求。这使得在 20GB 显存的设备上也能生成较高帧数的视频，目前测试已支持高达 97 帧的输出，大大提升了长视","ComfyUI-MochiWrapper 是专为 ComfyUI 设计的节点封装工具，旨在让用户能够直接在 ComfyUI 工作流中运行 Genmo 开发的 Mochi 视频生成模型。它主要解决了 Mochi 原生代码与 ComfyUI 生态不兼容的问题，让熟悉节点式操作的用户无需编写复杂代码即可体验先进的视频生成技术。\n\n这款工具特别适合已经在使用 ComfyUI 的创作者、设计师以及希望快速验证视频生成效果的 AI 研究人员。对于普通用户而言，只要具备基础的 ComfyUI 操作知识，也能通过自动下载节点轻松上手。\n\n在技术亮点方面，ComfyUI-MochiWrapper 提供了灵活的注意力机制选项，支持 flash_attn、PyTorch SDPA 以及速度最快的 SageAttention，用户可根据硬件条件自由选择以优化性能。针对视频生成中显存占用高的痛点，它集成了实验性的分块解码器（tiled decoder），该技术借鉴自 CogVideoX，能有效降低显存需求。这使得在 20GB 显存的设备上也能生成较高帧数的视频，目前测试已支持高达 97 帧的输出，大大提升了长视频生成的可行性与效率。","# ComfyUI wrapper nodes for [Mochi](https:\u002F\u002Fgithub.com\u002Fgenmoai\u002Fmodels) video generator\n\n\n# WORK IN PROGRESS\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fa714b70f-dcdb-4f91-8a3d-8da679a28d6e\n\n\nCan use flash_attn, pytorch attention (sdpa) or [sage attention](https:\u002F\u002Fgithub.com\u002Fthu-ml\u002FSageAttention), sage being fastest.\n\nDepending on frame count can fit under 20GB, VAE decoding is heavy and there is experimental tiled decoder (taken from CogVideoX -diffusers code) which allows higher frame counts, so far highest I've done is 97 with the default tile size 2x2 grid.\n\nModels:\n\nhttps:\u002F\u002Fhuggingface.co\u002FKijai\u002FMochi_preview_comfy\u002Ftree\u002Fmain\n\nmodel to: `ComfyUI\u002Fmodels\u002Fdiffusion_models\u002Fmochi`\n\nvae to: `ComfyUI\u002Fmodels\u002Fvae\u002Fmochi`\n\nThere is autodownload node (also will be normal loader node)\n","# 用于 [Mochi](https:\u002F\u002Fgithub.com\u002Fgenmoai\u002Fmodels) 视频生成器的 ComfyUI 封装节点\n\n\n# 开发中\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fa714b70f-dcdb-4f91-8a3d-8da679a28d6e\n\n\n可以使用 flash_attn、PyTorch 自带的注意力机制（sdpa），或 [sage attention](https:\u002F\u002Fgithub.com\u002Fthu-ml\u002FSageAttention)，其中 sage 的速度最快。\n\n根据帧数的不同，显存占用可以控制在 20GB 以内。VAE 解码较为耗资源，目前有一个实验性的分块解码器（源自 CogVideoX -diffusers 代码），它允许更高的帧数。到目前为止，我用默认的 2×2 分块大小成功生成了最高 97 帧的视频。\n\n模型：\n\nhttps:\u002F\u002Fhuggingface.co\u002FKijai\u002FMochi_preview_comfy\u002Ftree\u002Fmain\n\n模型存放路径：`ComfyUI\u002Fmodels\u002Fdiffusion_models\u002Fmochi`\n\nVAE 存放路径：`ComfyUI\u002Fmodels\u002Fvae\u002Fmochi`\n\n还有一个自动下载节点（后续也会提供常规加载节点）。","# ComfyUI-MochiWrapper 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求和依赖：\n\n*   **操作系统**: Linux 或 Windows (推荐 Linux 以获得最佳性能)\n*   **显存要求**: \n    *   基础运行：建议 20GB 以上显存。\n    *   高帧数生成：若使用实验性的分块解码器 (Tiled Decoder)，可在有限显存下生成更高帧数（目前已测试最高 97 帧）。\n*   **前置依赖**:\n    *   Python 3.10+\n    *   PyTorch (支持 CUDA)\n    *   **注意力机制优化** (可选但强烈推荐):\n        *   `flash_attn`: 通用加速\n        *   `sage_attention`: **速度最快** (推荐安装 [SageAttention](https:\u002F\u002Fgithub.com\u002Fthu-ml\u002FSageAttention))\n        *   默认 fallback: PyTorch SDPA\n\n## 安装步骤\n\n### 1. 安装自定义节点\n在 ComfyUI 的 `custom_nodes` 目录下克隆本仓库：\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002FKijai\u002FComfyUI-MochiWrapper.git\n```\n\n### 2. 安装 Python 依赖\n进入插件目录并安装所需库。国内用户建议使用清华源加速：\n\n```bash\ncd ComfyUI-MochiWrapper\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n*注意：若需启用最快的 `sage_attention`，请单独按照其官方文档进行编译安装。*\n\n### 3. 下载模型\n你可以使用插件自带的 **Autodownload Node** 自动下载，或手动将模型文件放置到指定目录。\n\n**手动下载地址**:\n*   模型仓库: https:\u002F\u002Fhuggingface.co\u002FKijai\u002FMochi_preview_comfy\u002Ftree\u002Fmain\n*   *国内加速*: 建议使用 [MirrorLink](https:\u002F\u002Fmirrorlink.org\u002F) 或 [HuggingFace 镜像站](https:\u002F\u002Fhf-mirror.com\u002F) 下载。\n\n**文件放置路径**:\n将下载的文件分别放入以下目录（若目录不存在请手动创建）：\n\n*   **扩散模型 (Diffusion Model)**:\n    `ComfyUI\u002Fmodels\u002Fdiffusion_models\u002Fmochi`\n*   **VAE 模型**:\n    `ComfyUI\u002Fmodels\u002Fvae\u002Fmochi`\n\n## 基本使用\n\n1.  **启动 ComfyUI**: 重启服务以加载新节点。\n2.  **加载工作流**:\n    *   在节点面板搜索 `Mochi` 关键字。\n    *   找到并使用 **Autodownload** 节点（首次运行时会自动拉取模型），或使用标准的 **Loader** 节点加载已下载的模型。\n3.  **配置参数**:\n    *   连接 VAE 解码器。如果显存受限或需要生成长视频，请启用实验性的 **Tiled Decoder** (源自 CogVideoX)，它允许以 2x2 网格等方式分块解码，显著降低显存占用。\n    *   设置帧数 (Frame Count)。根据显存大小调整，使用分块解码可尝试生成 97 帧或更多。\n4.  **生成视频**: 点击 \"Queue Prompt\" 开始生成。\n\n> **提示**: 为了获得最佳推理速度，请确保环境中已正确安装 `sage_attention` 或 `flash_attn`，否则将回退到较慢的默认注意力机制。","一位独立动画创作者试图在本地生成一段包含复杂光影变化且时长超过 3 秒的高质量视频，用于其短片的开场镜头。\n\n### 没有 ComfyUI-MochiWrapper 时\n- **显存极易溢出**：尝试生成高帧数视频时，由于缺乏分块解码（Tiled Decoder）支持，20GB 显存的显卡也频繁报错崩溃，无法完成渲染。\n- **推理速度缓慢**：只能依赖基础的 PyTorch 注意力机制，生成单段视频耗时极长，严重拖慢创意迭代节奏。\n- **部署流程繁琐**：需要手动下载模型文件并配置复杂的路径结构，容易因版本不匹配导致环境报错。\n- **工作流割裂**：Mochi 模型无法直接嵌入现有的 ComfyUI 节点图，必须切换软件或编写独立脚本运行，打断创作心流。\n\n### 使用 ComfyUI-MochiWrapper 后\n- **突破显存限制**：利用内置的实验性分块解码技术，成功在 20GB 显存下流畅生成高达 97 帧的视频，轻松满足长镜头需求。\n- **加速生成过程**：灵活切换至 Sage Attention 加速后端，显著缩短推理时间，让创作者能快速预览不同提示词的效果。\n- **一键自动加载**：通过自带的自动下载节点，模型与 VAE 文件自动归位至正确目录，省去了手动配置环境的麻烦。\n- **无缝集成工作流**：将 Mochi 作为原生节点融入 ComfyUI，可与其他图像处理节点自由连接，实现从生成到后期的一站式流水线。\n\nComfyUI-MochiWrapper 通过优化显存管理和加速推理引擎，让高性能视频生成模型在消费级硬件上变得真正可用且高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-MochiWrapper_dad41ef7.png","kijai","Jukka Seppänen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkijai_5a67a464.jpg","Finland","kijaidesign","https:\u002F\u002Fgithub.com\u002Fkijai",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,799,70,"2026-03-31T05:40:19","Apache-2.0","未说明","需要支持 Flash Attention、PyTorch SDPA 或 Sage Attention 的 GPU（通常为 NVIDIA），显存建议 20GB 以下可运行，具体取决于帧数；使用实验性分块解码器可处理更高帧数",{"notes":94,"python":91,"dependencies":95},"该项目处于开发中（WORK IN PROGRESS）。支持多种注意力机制，其中 Sage Attention 速度最快。显存需求随视频帧数变化，默认设置下可在 20GB 显存内运行；VAE 解码消耗较大，但集成了来自 CogVideoX 的实验性分块解码器（tiled decoder），允许生成更多帧数（测试最高达 97 帧，使用 2x2 网格分块）。模型需下载至 ComfyUI 指定目录，提供自动下载节点。",[96,97,98],"flash_attn (可选)","sageattention (可选)","torch (支持 sdpa)",[15,16],"2026-03-27T02:49:30.150509","2026-04-06T08:44:24.253617",[103,108,113,118,123,128],{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},17389,"在 Windows 上运行时报错 'No module named torch.nn.attention' 或提示需要 Flash Attention，该如何解决？","最新版本的节点已不再强制要求安装 Flash Attention。如果遇到此错误，请确保您使用的是最新版本的插件。如果仍需安装（旧版本或特定需求），在 Windows 上需要先安装正确版本的 CUDA Toolkit 和 Microsoft Visual Studio Build Tools，然后运行 `pip install flash-attn`（编译可能需要较长时间）。此外，尝试安装 `accelerate` 库也可能解决部分依赖问题：`pip install accelerate`。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-MochiWrapper\u002Fissues\u002F1",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},17390,"使用 MochiSampler 配合 Triton 或 'Mochi Torch Compile' 节点时出现 'ImportError: DLL load failed' 错误怎么办？","这通常是由于环境配置冲突或缺少特定依赖导致的。解决方案包括：\n1. 彻底重新安装 ComfyUI、Visual Studio 和 CUDA Toolkit，并确保环境变量 PATH 配置正确。\n2. 如果是 Python 3.12 用户且报错涉及 'dlltracer'，可以手动下载并安装预编译的 wheel 文件：\n   `python_embeded\\python.exe -m pip install dlltracer-1.0.3a1-cp312-cp312-win_amd64.whl`\n   下载地址：https:\u002F\u002Fpypi.org\u002Fproject\u002Fdlltracer\u002F1.0.3a1\u002F#files","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-MochiWrapper\u002Fissues\u002F62",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},17391,"加载工作流（Workflow JSON）后 ComfyUI 显示空白屏幕或无反应，如何解决？","这个问题通常与本地环境配置有关，而非插件本身。建议尝试在一台新机器上进行全新安装测试。如果必须排查当前环境，请确认是否使用了正确的 CLIP 模型。该节点使用的文本编码器模型与 Flux 和 SD3 相同，推荐下载地址：https:\u002F\u002Fhuggingface.co\u002Fcomfyanonymous\u002Fflux_text_encoders\u002Fblob\u002Fmain\u002Ft5xxl_fp8_e4m3fn.safetensors。确保所有自定义节点和依赖项均为最新版本。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-MochiWrapper\u002Fissues\u002F46",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},17392,"默认的 CFG 值 4.5 生成的视频质量较低，如何调整以获得更好的效果？","默认值确实较为保守，许多用户反馈将 CFG 提高到 7.0 或 7.5 能显著提升视频质量。您可以在节点中直接修改 CFG 数值。此外，作者还添加了自定义 CFG 调度功能，允许您为每一步设置不同的 CFG 值列表（例如配合 SplineEditor 节点使用），以实现更精细的控制。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-MochiWrapper\u002Fissues\u002F24",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},17393,"Mochi Model Loader 不支持 ComfyUI 原生的 fp8_scaled 模型吗？加载后出现粉色噪声怎么办？","目前该加载器主要针对标准的 fp8 和 bf16 模型优化。测试表明，在使用 euler 采样器和 linear_quadratic 调度器时，标准 fp8 模型的效果与 bf16 相当，且速度更快（部分得益于 accelerate 优化）。如果您遇到粉色噪声，请检查是否错误地混用了采样器设置。建议直接使用插件推荐的模型格式，或等待后续更新以更好地支持 fp8_scaled。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-MochiWrapper\u002Fissues\u002F80",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},17394,"选择了 bf16 模型，但运行时仍然下载并使用 fp8 模型，如何解决？","这是一个 UI 选择项未完全同步的问题。维护者已确认在后续提交中修复了该选项的下拉菜单，现在您可以明确选择 bf16 模型。如果您仍遇到此问题，请确保已更新到最新的插件版本，并在节点设置中仔细检查模型精度选项是否已正确切换。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-MochiWrapper\u002Fissues\u002F3",[]]