[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-MrForExample--ComfyUI-3D-Pack":3,"tool-MrForExample--ComfyUI-3D-Pack":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",143909,2,"2026-04-07T11:33:18",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":72,"owner_website":78,"owner_url":79,"languages":80,"stars":118,"forks":119,"last_commit_at":120,"license":121,"difficulty_score":122,"env_os":123,"env_gpu":124,"env_ram":125,"env_deps":126,"category_tags":134,"github_topics":135,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":139,"updated_at":140,"faqs":141,"releases":177},5203,"MrForExample\u002FComfyUI-3D-Pack","ComfyUI-3D-Pack","An extensive node suite that enables ComfyUI to process 3D inputs (Mesh & UV Texture, etc) using cutting edge algorithms (3DGS, NeRF, etc.)","ComfyUI-3D-Pack 是一套功能强大的节点扩展包，旨在让 ComfyUI 像生成图像和视频一样轻松、高效地创建 3D 资产。它解决了传统 3D 内容制作门槛高、流程复杂的问题，通过集成前沿算法（如 3DGS、NeRF）和先进模型（包括 InstantMesh、CRM、TripoSR 等），让用户能够直接在熟悉的节点式工作流中处理网格、UV 纹理等 3D 输入。\n\n这套工具特别适合希望将 AI 能力延伸至 3D 领域的设计师、数字艺术家以及技术研究人员。对于熟悉 ComfyUI 的用户，它可以无缝融入现有工作流；对于开发者，其模块化的节点设计也便于二次开发和实验。其独特亮点在于支持从单张图片或场景图直接生成带有部件分割的精细 3D 网格（基于 PartCrafter 技术），并能输出合并后的完整模型或独立的部件文件，极大地丰富了生成内容的可控性与实用性。无论是快速原型设计还是复杂的场景构建，ComfyUI-3D-Pack 都提供了一站式的解决方案，让 3D 生成变得前所未有的便捷。","# ComfyUI-3D-Pack\n**Make 3D assets generation in ComfyUI good and convenient as it generates image\u002Fvideo!**\n\u003Cbr>\nThis is an extensive node suite that enables ComfyUI to process 3D inputs (Mesh & UV Texture, etc.) using cutting edge algorithms (3DGS, NeRF, etc.) and models (InstantMesh, CRM, TripoSR, etc.)\n\n\u003Cspan style=\"font-size:1.5em;\">\n\u003Ca href=#Features>Features\u003C\u002Fa> &mdash;\n\u003Ca href=#install>Install\u003C\u002Fa> &mdash;\n\u003Ca href=#roadmap>Roadmap\u003C\u002Fa> &mdash;\n\u003Ca href=#development>Development\u003C\u002Fa> &mdash;\n\u003Ca href=#tips>Tips\u003C\u002Fa> &mdash;\n\u003Ca href=#supporters>Supporters\u003C\u002Fa>\n\u003C\u002Fspan>\n\n## Install:\n**Can be installed directly from [ComfyUI-Manager](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Manager)🚀**\n\n**Alternatively you can download [Comfy3D-WinPortable](https:\u002F\u002Fgithub.com\u002FYanWenKun\u002FComfy3D-WinPortable) made by [YanWenKun](https:\u002F\u002Fgithub.com\u002FYanWenKun)**\n\n- [Pre-builds](https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfy3D_Pre_Builds) are available for:\n  - Windows 10\u002F11\n  - Python 3.12\n  - CUDA 12.4\n  - torch 2.5.1+cu124\n- [install.py](install.py) will download & install Pre-builds automatically according to your runtime environment, if it couldn't find corresponding Pre-builds, then [build script](_Pre_Builds\u002F_Build_Scripts\u002Fauto_build_all.py) will start automatically, if automatic build doesn't work for you, then please check out [Semi-Automatic Build Guide](_Pre_Builds\u002FREADME.md#build-required-packages-semi-automatically)\n- If you have any missing node in any open Comfy3D workflow, try simply click [Install Missing Custom Nodes](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Manager?tab=readme-ov-file#support-of-missing-nodes-installation) in ComfyUI-Manager\n- In case there is missing python library, you can check [all the python dependencies of my dev environment](my-reqs.txt)\n- If for some reason your comfy3d can't download pre-trained models automatically, you can always download them manually and put them in to correct folder under [Checkpoints](Checkpoints)directory, but please **DON'T** overwrite any exist .json files\n- Docker install please check [DOCKER_INSTRUCTIONS.md](DOCKER_INSTRUCTIONS.md)\n- **Note:** at this moment, you'll still need to install [Visual Studio Build Tools for windows](_Pre_Builds\u002FREADME.md#build-for-windows) and [install `gcc g++` for Linux](_Pre_Builds\u002FREADME.md#build-for-linux) in order for `InstantNGP & Convert 3DGS to Mesh with NeRF and Marching_Cubes` nodes to work, since those two nodes used JIT torch cpp extension that builds in runtime, but I plan to replace those nodes\n\n**For manual install**\n```bash\n# Fetch newest version of Comfy3D\ncd Your ComfyUI Root Directory\\ComfyUI\\custom_nodes\\\ngit clone https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack.git\ncd ComfyUI-3D-Pack\n\n# Install all dependencies\nYour ComfyUI Root Directory\\python_embeded\\python.exe -s -m pip install -r requirements.txt\nYour ComfyUI Root Directory\\python_embeded\\python.exe install.py\n```\n\n\n## Features:\n- For use cases please check out [Example Workflows](.\u002Fexample_workflows\u002F). [**Last update: 5\u002FJune\u002F2025**]\n  - **Note:** you need to put [Example Inputs Files & Folders](example_workflows\u002F_Example_Inputs_Files\u002F) under ComfyUI Root Directory\\ComfyUI\\input folder before you can run the example workflow\n    \n- **PartCrafter**: [wgsxm\u002FPartCrafter](https:\u002F\u002Fgithub.com\u002Fwgsxm\u002FPartCrafter)  \n  - Two-model pipeline:\n    - **Single object** mode:\n      - Single image → 3D mesh with **part segmentation**   \n      - Output:\n        - Merged full mesh\n        - ZIP archive with individual part meshes\n    - **Scene** mode:\n      - Scene image → multiple 3D part meshes  \n      - Output:\n        - Merged full scene mesh\n        - ZIP archive with individual object meshes\n  - Model weights:\n    - [PartCrafter (object mode)](https:\u002F\u002Fhuggingface.co\u002Fwgsxm\u002FPartCrafter)  \n    - [PartCrafter-Scene (scene mode)](https:\u002F\u002Fhuggingface.co\u002Fwgsxm\u002FPartCrafter-Scene)\n  - Workflows:\n    - [Single Object](.\u002Fexample_workflows\u002FPartCrafter\u002FPartCrafter.json)  \n    - [Scene](.\u002Fexample_workflows\u002FPartCrafter\u002FPartCrafter-Scene.json)\n      \n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fb80bcc97-7381-4cf7-9ec6-ee48c8d58217\">\u003C\u002Fvideo>\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd82f4b32-4916-4286-8478-a86dd5da37a6\">\u003C\u002Fvideo>\n\n- **Hunyuan3D_2.1**: [Tencent-Hunyuan\u002FHunyuan3D-2.1](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuan3D-2.1)  \n  - Updated two-stage pipeline:\n    - Single image → 3D mesh (shape generation)\n    - 3D mesh + reference image → 3D mesh with RGB texture\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-2.1\n  - Workflows: [Full](.\u002Fexample_workflows\u002FHunyuan3D_2_1\u002FHunyuan2.1-Full.json), [Shapegen](.\u002Fexample_workflows\u002FHunyuan3D_2_1\u002FHunyuan2.1-Shapegen.json), [Texgen](.\u002Fexample_workflows\u002FHunyuan3D_2_1\u002FHunyuan2.1-Texgen.json)\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F514bbece-ca19-43cf-83ca-2ccc6c60039e\">\u003C\u002Fvideo>\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F65f329e7-610f-4520-b0c6-6da62f8209d1\">\u003C\u002Fvideo>\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fb67a91f4-3d7f-4a2d-9202-c284b013e9fb\">\u003C\u002Fvideo>\n\n- **MV-Adapter**: [huanngzh\u002FMV-Adapter](https:\u002F\u002Fgithub.com\u002Fhuanngzh\u002FMV-Adapter)\n  - Two generation methods:\n    - IG2MV: Single image + 3D mesh to multi-view images\n    - TG2MV: Text prompt + 3D mesh to multi-view images\n    - Texturing: Grid image + 3D mesh to textured mesh\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Fhuanngzh\u002Fmv-adapter\n  - Workflows: [IG2MV](.\u002Fexample_workflows\u002FMV-Adapter\u002FMV-Adapter-ig2mv.json), [T2MV](.\u002Fexample_workflows\u002FMV-Adapter\u002FMV-Adapter-tg2mv.json), [Texturing](.\u002Fexample_workflows\u002FMV-Adapter\u002FMV-Adapter-Texturing.json)\n    \n   \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F47b77c9e-a121-45c4-a6d0-f307bda1579c\">\u003C\u002Fvideo>\n   \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F35c6cee5-d408-4559-88aa-753741eacb95\">\u003C\u002Fvideo>\n   \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fdcf33c27-0ff7-4379-91b5-a0efe229d63c\">\u003C\u002Fvideo>\n\n- **Stable3DGen**: [Stable-X\u002FStable3DGen](https:\u002F\u002Fgithub.com\u002FStable-X\u002FStable3DGen)\n  - Two models pipeline:\n    - Stable3DGen: Single image to 3D Mesh\n    - StableNormal: Image processing for normal map generation\n  - Model weights: \n    - Stable3DGen: https:\u002F\u002Fhuggingface.co\u002FStable-X\u002Ftrellis-normal-v0-1\n    - StableNormal: https:\u002F\u002Fhuggingface.co\u002FStable-X\u002Fyoso-normal-v1-8-1\n  - [Workflow](.\u002Fexample_workflows\u002FStable3DGen.json)\n    \n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F2a38fa0a-4028-4fe5-a67a-bbc7c305da75\">\u003C\u002Fvideo>\n \n- **Hunyuan3D_V2**: turbo, mini, fast, multiview\n  - Single image to 3D Mesh\n  - Multi-views to 3D Mesh with RGB texture\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-2, https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-2mini\n  - [Workflows](.\u002Fexample_workflows\u002FHunyuan3D_V2)\n    \n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fae0f68d8-edd3-4bdd-9a9a-1f5ccc07a3d0\">\u003C\u002Fvideo>\n\n- **TripoSG**: [VAST-AI-Research\u002FTripoSG](https:\u002F\u002Fgithub.com\u002FVAST-AI-Research\u002FTripoSG)\n  - Single image (Reference or Scribble) to 3D Mesh\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002FVAST-AI\u002FTripoSG, https:\u002F\u002Fhuggingface.co\u002FVAST-AI\u002FTripoSG-scribble\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7b7969c1-e7c8-465b-9605-8bba7e847dbf\">\u003C\u002Fvideo>\n\n- **TRELLIS**: [microsoft\u002FTRELLIS](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FTRELLIS)\n  - Single image to 3D Mesh with RGB texture\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Fjetx\u002FTRELLIS-image-large\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff569c561-23ea-471f-a9d3-f2e6d1803e00\">\u003C\u002Fvideo>\n\n- **Hunyuan3D_V2** [tencent\u002FHunyuan3D-2](https:\u002F\u002Fgithub.com\u002FTencent\u002FHunyuan3D-2\u002F)\n  - Two stages pipeline:\n    1. Single image to 3D Mesh shape only\n    2. 3D Mesh shape + Single reference image to 3D Mesh with RGB texture\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-2\u002Ftree\u002Fmain\n  - [Workflows](https:\u002F\u002Fgithub.com\u002FDenisKochetov\u002FComfyUI-3D-Pack\u002Ftree\u002Fdev\u002Fexample_workflows\u002FHunyuan3D_V2)\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fda6a8f8b-8dab-4460-90a6-44769ec9bb09\">\u003C\u002Fvideo>\n\n- **Hunyuan3D_V1** [tencent\u002FHunyuan3D-1](https:\u002F\u002Fgithub.com\u002FTencent\u002FHunyuan3D-1\u002F)\n  - Two stages pipeline:\n    1. Single image to multi-views\n  \t1. Multi-views to 3D Mesh with RGB texture\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-1\u002Ftree\u002Fmain\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F2cc31b81-2107-40fe-a531-a783a3f699fc\">\u003C\u002Fvideo>\n\n- **StableFast3D**: [Stability-AI\u002Fstable-fast-3d](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fstable-fast-3d)\n  - Single image to 3D Mesh with RGB texture\n  - *Note: you need to agree to Stability-AI's term of usage before been able to download the model weights, if you downloaded model weights manually, then you need to put it under [Checkpoints\u002FStableFast3D](Checkpoints\u002FStableFast3D), otherwise you can add your huggingface token in [Configs\u002Fsystem.conf](Configs\u002Fsystem.conf)*\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002Fstable-fast-3d\u002Ftree\u002Fmain\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F3ed3d1ed-4abe-4959-bd79-4431d19c9d47\">\u003C\u002Fvideo>\n\n- **CharacterGen**: [zjp-shadow\u002FCharacterGen](https:\u002F\u002Fgithub.com\u002Fzjp-shadow\u002FCharacterGen)\n  - Single front view of a character with arbitrary pose\n  - Can [combine with Unique3D workflow](.\u002Fexample_workflows\u002FCharacterGen\u002FCharacterGen_to_Unique3D.json) for better result\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Fzjpshadow\u002FCharacterGen\u002Ftree\u002Fmain\n \n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F4f0ae0c0-2d29-49f0-a6f2-a636dd4b4dcc\">\u003C\u002Fvideo>\n\n- **Unique3D**: [AiuniAI\u002FUnique3D](https:\u002F\u002Fgithub.com\u002FAiuniAI\u002FUnique3D)\n  - Four stages pipeline: \n    1. Single image to 4 multi-view images with resolution: 256X256\n    2. Consistent Multi-view images Upscale to 512X512, super resolution to 2048X2048\n    3. Multi-view images to Normal maps with resolution: 512X512, super resolution to 2048X2048\n    4. Multi-view images & Normal maps to 3D mesh with texture\n  - To use the [All stage Unique3D workflow](.\u002Fexample_workflows\u002FUnique3D\u002FUnique3D_All_Stages.json), Download Models:\n    - [sdv1.5-pruned-emaonly](https:\u002F\u002Fhuggingface.co\u002Frunwayml\u002Fstable-diffusion-v1-5\u002Fblob\u002Fmain\u002Fv1-5-pruned-emaonly.ckpt) and put it into `Your ComfyUI root directory\u002FComfyUI\u002Fmodels\u002Fcheckpoints`\n    - [fine-tuned controlnet-tile](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FWuvin\u002FUnique3D\u002Ftree\u002Fmain\u002Fckpt\u002Fcontrolnet-tile) and put it into `Your ComfyUI root directory\u002FComfyUI\u002Fmodels\u002Fcontrolnet`\n    - [ip-adapter_sd15](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fblob\u002Fmain\u002Fmodels\u002Fip-adapter_sd15.safetensors) and put it into `Your ComfyUI root directory\u002FComfyUI\u002Fmodels\u002Fipadapter`\n    - [OpenCLIP-ViT-H-14](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fblob\u002Fmain\u002Fmodels\u002Fimage_encoder\u002Fmodel.safetensors), rename it to **OpenCLIP-ViT-H-14.safetensors** and put it into `Your ComfyUI root directory\u002FComfyUI\u002Fmodels\u002Fclip_vision`\n    - [RealESRGAN_x4plus](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN\u002Freleases\u002Fdownload\u002Fv0.1.0\u002FRealESRGAN_x4plus.pth) and put it into `Your ComfyUI root directory\u002FComfyUI\u002Fmodels\u002Fupscale_models`\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FWuvin\u002FUnique3D\u002Ftree\u002Fmain\u002Fckpt\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002F45dd6bfc-4f2b-4b1f-baed-13a1b0722896\">\u003C\u002Fvideo>\n\n- **Era3D MVDiffusion Model**: [pengHTYX\u002FEra3D](https:\u002F\u002Fgithub.com\u002FpengHTYX\u002FEra3D)\n  - Single image to 6 multi-view images & normal maps with resolution: 512X512\n  - *Note: you need at least 16GB vram to run this model*\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002FpengHTYX\u002FMacLab-Era3D-512-6view\u002Ftree\u002Fmain\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002Ffc210cac-6c7d-4a55-926c-adb5fb7b0c57\">\u003C\u002Fvideo>\n\n- **InstantMesh Reconstruction Model**: [TencentARC\u002FInstantMesh](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FInstantMesh)\n  - Sparse multi-view images with white background to 3D Mesh with RGB texture\n  - Works with arbitrary MVDiffusion models (Probably works best with Zero123++, but also works with CRM MVDiffusion model)\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002FTencentARC\u002FInstantMesh\u002Ftree\u002Fmain\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002Fa0648a44-f8cb-4f78-9704-a907f9174936\">\u003C\u002Fvideo>\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002F33aecedb-f595-4c12-90dd-89d5f718598e\">\u003C\u002Fvideo>\n\n\n- **Zero123++**: [SUDO-AI-3D\u002Fzero123plus](https:\u002F\u002Fgithub.com\u002FSUDO-AI-3D\u002Fzero123plus)\n  - Single image to 6 view images with resolution: 320X320\n\n- **Convolutional Reconstruction Model**: [thu-ml\u002FCRM](https:\u002F\u002Fgithub.com\u002Fthu-ml\u002FCRM)\n  - Three stages pipeline: \n    1. Single image to 6 view images (Front, Back, Left, Right, Top & Down)\n    2. Single image & 6 view images to 6 same views CCMs (Canonical Coordinate Maps)\n    3. 6 view images & CCMs to 3D mesh\n  - *Note: For low vram pc, if you can't fit all three models for each stages into your GPU memory, then you can divide those three stages into different comfy workflow and run them separately*\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Fsudo-ai\u002Fzero123plus-v1.2\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002Fcf68bb83-9244-44df-9db8-f80eb3fdc29e\">\u003C\u002Fvideo>\n\n- **TripoSR**: [VAST-AI-Research\u002FTripoSR](https:\u002F\u002Fgithub.com\u002FVAST-AI-Research\u002FTripoSR) | [ComfyUI-Flowty-TripoSR](https:\u002F\u002Fgithub.com\u002Fflowtyone\u002FComfyUI-Flowty-TripoSR)\n  - Generate NeRF representation and using marching cube to turn it into 3D mesh\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002FTripoSR\u002Ftree\u002Fmain\n  - [tripoSR-layered-diffusion workflow](https:\u002F\u002Fgithub.com\u002FC0nsumption\u002FConsume-ComfyUI-Workflows\u002Ftree\u002Fmain\u002Fassets\u002Ftripo_sr\u002F00) by [@Consumption](https:\u002F\u002Ftwitter.com\u002Fc0nsumption_)\n \n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002Fec4f8df5-5907-4bbf-ba19-c0565fe95a97\">\u003C\u002Fvideo>\n\n- **Wonder3D**: [xxlong0\u002FWonder3D](https:\u002F\u002Fgithub.com\u002Fxxlong0\u002FWonder3D)\n  - Generate spatial consistent 6 views images & normal maps from a single image\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Fflamehaze1115\u002Fwonder3d-v1.0\u002Ftree\u002Fmain\n  \n  ![Wonder3D_FatCat_MVs](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMrForExample_ComfyUI-3D-Pack_readme_36692e18ebec.jpg)\n\n- **Large Multiview Gaussian Model**: [3DTopia\u002FLGM](https:\u002F\u002Fgithub.com\u002F3DTopia\u002FLGM)\n  - Enable single image to 3D Gaussian in less than 30 seconds on a RTX3080 GPU, later you can also convert 3D Gaussian to mesh\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002Fashawkey\u002FLGM\u002Ftree\u002Fmain\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002Fe221d7f8-49ac-4ed4-809b-d4c790b6270e\">\u003C\u002Fvideo>\n\n- **Triplane Gaussian Transformers**: [VAST-AI-Research\u002FTriplaneGaussian](https:\u002F\u002Fgithub.com\u002FVAST-AI-Research\u002FTriplaneGaussian)\n  - Enable single image to 3D Gaussian in less than 10 seconds on a RTX3080 GPU, later you can also convert 3D Gaussian to mesh\n  - Model weights: https:\u002F\u002Fhuggingface.co\u002FVAST-AI\u002FTriplaneGaussian\u002Ftree\u002Fmain\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002F90e7f298-bdbd-4c15-9378-1ca46cbb4871\">\u003C\u002Fvideo>\n\n- **Preview 3DGS and 3D Mesh**: 3D Visualization inside ComfyUI:\n  - Using [gsplat.js](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fgsplat.js\u002Ftree\u002Fmain) and [three.js](https:\u002F\u002Fgithub.com\u002Fmrdoob\u002Fthree.js\u002Ftree\u002Fdev) for 3DGS & 3D Mesh visualization respectively\n  - Custumizable background base on JS library: [mdbassit\u002FColoris](https:\u002F\u002Fgithub.com\u002Fmdbassit\u002FColoris)\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002F9f3c56b1-afb3-4bf1-8845-ab1025a87463\">\u003C\u002Fvideo>\n\n- **Stack Orbit Camera Poses**: Automatically generate all range of camera pose combinations\n  - You can use it to conditioning the [StableZero123 (You need to Download the checkpoint first)](https:\u002F\u002Fcomfyanonymous.github.io\u002FComfyUI_examples\u002F3d\u002F), with full range of camera poses in one prompt pass\n  - You can use it to generate the orbit camera poses and directly input to other 3D process node (e.g. GaussianSplatting and BakeTextureToMesh)\n  - Example usage:\n\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMrForExample_ComfyUI-3D-Pack_readme_0440eccf107e.png\" width=\"256\"\u002F> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMrForExample_ComfyUI-3D-Pack_readme_ed99d4d31792.png\" width=\"256\"\u002F>\n    \u003Cbr>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMrForExample_ComfyUI-3D-Pack_readme_8a6785fad4d1.gif\" width=\"256\"\u002F> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMrForExample_ComfyUI-3D-Pack_readme_128c64522e03.gif\" width=\"256\"\u002F> \n  - Coordinate system:\n    - Azimuth: In top view, from angle 0 rotate 360 degree with step -90 you get (0, -90, -180\u002F180, 90, 0), in this case camera rotates clock-wise, vice versa.\n    - Elevation: 0 when camera points horizontally forward, pointing down to the ground is negitive angle, vice versa.\n\n- **FlexiCubes**: [nv-tlabs\u002FFlexiCubes](https:\u002F\u002Fgithub.com\u002Fnv-tlabs\u002FFlexiCubes)\n  - Multi-View depth & mask (optional normal maps) as inputs\n  - Export to 3D Mesh\n  - Usage guide: \n    - *voxel_grids_resolution*: determine mesh resolution\u002Fquality\n    - *depth_min_distance* *depth_max_distance* : distance from object to camera, object parts in the render that is closer(futher) to camera than depth_min_distance(depth_max_distance) will be rendered with pure white(black) RGB value 1, 1, 1(0, 0, 0)\n    - *mask_loss_weight*: Control the silhouette of reconstrocted 3D mesh\n    - *depth_loss_weight*: Control the shape of reconstrocted 3D mesh, this loss will also affect the mesh deform detail on the surface, so results depends on quality of the depth map\n    - *normal_loss_weight*: Optional. Use to refine the mesh deform detail on the surface\n    - *sdf_regularizer_weight*: Helps to remove floaters in areas of the shape that are not supervised by the application objective, such as internal faces when using image supervision only\n    - *remove_floaters_weight*: This can be increased if you observe artifacts in flat areas\n    - *cube_stabilizer_weight*: This does not have a significant impact during the optimization of a single shape, however it helps to stabilizing training in somecases\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002F166bbc1f-04b7-42c8-87bb-302e3f5aabb2\">\u003C\u002Fvideo>\n\n\n- **Instant NGP**: [nerfacc](https:\u002F\u002Fgithub.com\u002Fnerfstudio-project\u002Fnerfacc)\n  - Multi-View images as inputs\n  - Export to 3D Mesh using marching cubes\n\n- **3D Gaussian Splatting**\n  - [Improved Differential Gaussian Rasterization](https:\u002F\u002Fgithub.com\u002Fashawkey\u002Fdiff-gaussian-rasterization)\n  - Better Compactness-based Densification method from [Gsgen](https:\u002F\u002Fgsgen3d.github.io\u002F), \n  - Support initialize gaussians from given 3D mesh (Optional)\n  - Support mini-batch optimazation\n  - Multi-View images as inputs\n  - Export to standard 3DGS .ply format supported\n  \n- **Gaussian Splatting Orbit Renderer**\n  - Render 3DGS to images sequences or video, given a 3DGS file and camera poses generated by **Stack Orbit Camera Poses** node\n  \n- **Mesh Orbit Renderer**\n  - Render 3D mesh to images sequences or video, given a mesh file and camera poses generated by **Stack Orbit Camera Poses** node\n\n- **Fitting_Mesh_With_Multiview_Images**\n  - Bake Multi-View images into UVTexture of given 3D mesh using [Nvdiffrast](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fnvdiffrast), supports:\n  - Export to .obj, .ply, .glb\n\n- **Save & Load 3D file**\n  - .obj, .ply, .glb for 3D Mesh\n  - .ply for 3DGS\n\n- **Switch Axis for 3DGS & 3D Mesh**\n  - Since different algorithms likely use different coordinate system, so the ability to re-mapping the axis of coordinate is crucial for passing generated result between differnt nodes.\n\n- **[Customizable system config file](Configs\u002Fsystem.conf)**\n  - Custom clients IP address\n  - Add your huggingface user token\n\n## Roadmap:\n- [X] Integrate [CharacterGen](https:\u002F\u002Fgithub.com\u002Fzjp-shadow\u002FCharacterGen)\n\n- [ ] Improve 3DGS\u002FNerf to Mesh conversion algorithms:\n  -  Find better methods to converts 3DGS or Points Cloud to Mesh (Normal maps reconstruction maybe?)\n\n- [ ] Add & Improve a few best MVS algorithms (e.g 2DGS, etc.)\n\n- [ ] Add camera pose estimation from raw multi-views images\n\n## Development\n#### How to Contribute\n1. Fork the project\n2. Make Improvements\u002FAdd New Features\n3. Creating a Pull Request to [dev branch](https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Ftree\u002Fdev)\n\n#### Project Structure \n- **[nodes.py](nodes.py)**: \n\u003Cbr>Contains the interface code for all Comfy3D nodes (i.e. the nodes you can actually seen & use inside ComfyUI), you can add your new nodes here\n\n- **[Gen_3D_Modules](Gen_3D_Modules)**:\n\u003Cbr>A folder that contains the code for all generative models\u002Fsystems (e.g. multi-view diffusion models, 3D reconstruction models). New 3D generative modules should be added here\n\n- **[MVs_Algorithms](MVs_Algorithms)**:\n\u003Cbr>A folder that contains the code for all multi-view stereo algorithms, i.e. algorighms (e.g. Gaussian Splatting, NeRF and FlexiCubes) that takes multi-view images and convert it to 3D representation (e.g. Gaussians, MLP or Mesh). New MVS algorithms should be added here\n\n- **[web](web)**:\n\u003Cbr>A folder that contains the files & code (html, js, css) for all browser UI related things (e.g. the html layout, style and the core logics for preview 3D Mesh & Gaussians). New web UI should be added here\n\n- **[webserver](webserver)**:\n\u003Cbr>A folder that contains the code for communicate with browser, i.e. deal with web client requests (e.g. Sending 3D Mesh to client when requested with certain url routes). New web server related functions should be added here\n\n- **[Configs](Configs)**:\n\u003Cbr>A folder that contains different config files for different modules, new config should be added here, use a sub folder if there are more than one config to a single module (e.g. [Unique3D](Configs\u002FUnique3D_configs), [CRM](Configs\u002FCRM_configs))\n\n- **[Checkpoints](Checkpoints)**:\n\u003Cbr>A folder that contains all the pre-trained model and some of the model architecture config files required by diffusers, New checkpoints if could be downloaded automatically by `Load_Diffusers Pipeline` node, then it should be added here\n\n- **[install.py](install.py)**: \n\u003Cbr>Main install script, will download & install [Pre-builds](https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfy3D_Pre_Builds) automatically according to your runtime environment, if it couldn't find corresponding Pre-builds, then [build script](_Pre_Builds\u002F_Build_Scripts\u002Fauto_build_all.py) will start automatically, called by ComfyUI-Manager right after it installed the dependencies listed in [requirements.txt](requirements.txt) using pip\n\u003Cbr>If the new modules your are trying to add needs some additional packages that cannot be simplly added into [requirements.txt](requirements.txt) and [build_config.remote_packages](_Pre_Builds\u002F_Build_Scripts\u002Fbuild_config.yaml), then you can try to add it by modify this script\n\n- **[_Pre_Builds](_Pre_Builds)**:\n\u003Cbr>A folder that contains the files & code for build all required dependencies, if you want to pre-build some additional dependencies, then please check [_Pre_Builds\u002FREADME.md](_Pre_Builds\u002FREADME.md) for more informations\n\n## Tips\n* OpenGL (Three.js, Blender) world & camera coordinate system:\n  ```\n      World            Camera        \n    \n      +y              up  target                                              \n      |                |  \u002F                                           \n      |                | \u002F                                           \n      |______+x        |\u002F______right                                      \n      \u002F                \u002F         \n     \u002F                \u002F          \n    \u002F                \u002F           \n  +z               forward           \n\n  z-axis is pointing towards you and is coming out of the screen\n  elevation: in (-90, 90), from +y to +x is (-90, 0)\n  azimuth: in (-180, 180), from +z to +x is (0, 90)\n  ```\n* If you encounter OpenGL errors (e.g., `[F glutil.cpp:338] eglInitialize() failed`), then set `force_cuda_rasterize` to true on corresponding node\n* If after the installation, your ComfyUI gets stuck at starting or running, you can follow the instructions in the following link to solve the problem: [Code Hangs Indefinitely When Evaluating Neuron Models on GPU](https:\u002F\u002Fgithub.com\u002Flava-nc\u002Flava-dl\u002Fdiscussions\u002F211)\n* [Fix \"nvcc fatal : Could not set up the environment for Microsoft Visual Studio using 'C:\u002FProgram Files (x86)\u002FMicrosoft V isual Studio\u002F...\u002Fvcvars64.bat'](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp\u002Fissues\u002F709#issuecomment-1378155274)\n## Supporters\n- [MrNeRF](https:\u002F\u002Ftwitter.com\u002Fjanusch_patas)\n","# ComfyUI-3D-Pack\n**让 ComfyUI 中的 3D 资源生成像生成图像\u002F视频一样简单便捷！**\n\u003Cbr>\n这是一个功能强大的节点套件，使 ComfyUI 能够使用前沿算法（3DGS、NeRF 等）和模型（InstantMesh、CRM、TripoSR 等）处理 3D 输入（网格与 UV 纹理等）。\n\n\u003Cspan style=\"font-size:1.5em;\">\n\u003Ca href=#Features>特性\u003C\u002Fa> &mdash;\n\u003Ca href=#install>安装\u003C\u002Fa> &mdash;\n\u003Ca href=#roadmap>路线图\u003C\u002Fa> &mdash;\n\u003Ca href=#development>开发\u003C\u002Fa> &mdash;\n\u003Ca href=#tips>提示\u003C\u002Fa> &mdash;\n\u003Ca href=#supporters>支持者\u003C\u002Fa>\n\u003C\u002Fspan>\n\n## 安装：\n**可以直接从 [ComfyUI-Manager](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Manager) 安装🚀**\n\n**或者，您也可以下载由 [YanWenKun](https:\u002F\u002Fgithub.com\u002FYanWenKun) 制作的 [Comfy3D-WinPortable](https:\u002F\u002Fgithub.com\u002FYanWenKun\u002FComfy3D-WinPortable)**\n\n- [预编译版本](https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfy3D_Pre_Builds)适用于：\n  - Windows 10\u002F11\n  - Python 3.12\n  - CUDA 12.4\n  - torch 2.5.1+cu124\n- [install.py](install.py) 将根据您的运行环境自动下载并安装预编译版本；如果找不到对应的预编译版本，则会自动启动[构建脚本](_Pre_Builds\u002F_Build_Scripts\u002Fauto_build_all.py)。若自动构建对您不起作用，请参阅[半自动构建指南](_Pre_Builds\u002FREADME.md#build-required-packages-semi-automatically)。\n- 如果在任何开放的 Comfy3D 工作流中缺少节点，可以尝试直接点击 ComfyUI-Manager 中的[安装缺失自定义节点](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Manager?tab=readme-ov-file#support-of-missing-nodes-installation)。\n- 若缺少某些 Python 库，您可以查看[我开发环境中的所有 Python 依赖项](my-reqs.txt)。\n- 如果由于某种原因您的 Comfy3D 无法自动下载预训练模型，您可以随时手动下载并将它们放入 [Checkpoints](Checkpoints) 目录下的正确文件夹中，但请务必**不要**覆盖现有的 .json 文件。\n- Docker 安装请参考 [DOCKER_INSTRUCTIONS.md](DOCKER_INSTRUCTIONS.md)。\n- **注意**：目前，为了使 `InstantNGP` 和 `使用 NeRF 与 Marching_Cubes 将 3DGS 转换为网格` 节点正常工作，您仍然需要安装 [适用于 Windows 的 Visual Studio Build Tools](_Pre_Builds\u002FREADME.md#build-for-windows) 以及 [为 Linux 安装 `gcc g++`](_Pre_Builds\u002FREADME.md#build-for-linux)，因为这两个节点使用了在运行时构建的 JIT torch cpp 扩展。不过，我计划替换这些节点。\n\n**手动安装方法**\n```bash\n# 获取最新版 Comfy3D\ncd 您的 ComfyUI 根目录\\ComfyUI\\custom_nodes\\\ngit clone https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack.git\ncd ComfyUI-3D-Pack\n\n# 安装所有依赖项\n您的 ComfyUI 根目录\\python_embeded\\python.exe -s -m pip install -r requirements.txt\n您的 ComfyUI 根目录\\python_embeded\\python.exe install.py\n```\n\n\n## 特性：\n- 使用场景请参阅 [示例工作流](.\u002Fexample_workflows\u002F)。[**最后更新：2025年6月5日**]\n  - **注意**：您需要将 [示例输入文件及文件夹](example_workflows\u002F_Example_Inputs_Files\u002F) 放置在 ComfyUI 根目录\\ComfyUI\\input 文件夹下，才能运行示例工作流。\n\n- **PartCrafter**：[wgsxm\u002FPartCrafter](https:\u002F\u002Fgithub.com\u002Fwgsxm\u002FPartCrafter)  \n  - 双模型流程：\n    - **单物体**模式：\n      - 单张图片 → 带有**部件分割**的 3D 网格   \n      - 输出：\n        - 合并后的完整网格\n        - 包含各个部件网格的 ZIP 压缩包\n    - **场景**模式：\n      - 场景图片 → 多个 3D 部件网格  \n      - 输出：\n        - 合并后的完整场景网格\n        - 包含各个对象网格的 ZIP 压缩包\n  - 模型权重：\n    - [PartCrafter（物体模式）](https:\u002F\u002Fhuggingface.co\u002Fwgsxm\u002FPartCrafter)  \n    - [PartCrafter-Scene（场景模式）](https:\u002F\u002Fhuggingface.co\u002Fwgsxm\u002FPartCrafter-Scene)\n  - 工作流：\n    - [单物体](.\u002Fexample_workflows\u002FPartCrafter\u002FPartCrafter.json)  \n    - [场景](.\u002Fexample_workflows\u002FPartCrafter\u002FPartCrafter-Scene.json)\n      \n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fb80bcc97-7381-4cf7-9ec6-ee48c8d58217\">\u003C\u002Fvideo>\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd82f4b32-4916-4286-8478-a86dd5da37a6\">\u003C\u002Fvideo>\n\n- **Hunyuan3D_2.1**：[Tencent-Hunyuan\u002FHunyuan3D-2.1](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuan3D-2.1)  \n  - 更新后的两阶段流程：\n    - 单张图片 → 3D 网格（形状生成）\n    - 3D 网格 + 参考图片 → 带 RGB 纹理的 3D 网格\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-2.1\n  - 工作流：[完整](.\u002Fexample_workflows\u002FHunyuan3D_2_1\u002FHunyuan2.1-Full.json)、[形状生成](.\u002Fexample_workflows\u002FHunyuan3D_2_1\u002FHunyuan2.1-Shapegen.json)、[纹理生成](.\u002Fexample_workflows\u002FHunyuan3D_2_1\u002FHunyuan2.1-Texgen.json)\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F514bbece-ca19-43cf-83ca-2ccc6c60039e\">\u003C\u002Fvideo>\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F65f329e7-610f-4520-b0c6-6da62f8209d1\">\u003C\u002Fvideo>\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fb67a91f4-3d7f-4a2d-9202-c284b013e9fb\">\u003C\u002Fvideo>\n\n- **MV-Adapter**：[huanngzh\u002FMV-Adapter](https:\u002F\u002Fgithub.com\u002Fhuanngzh\u002FMV-Adapter)\n  - 两种生成方式：\n    - IG2MV：单张图片 + 3D 网格生成多视角图像\n    - TG2MV：文本提示 + 3D 网格生成多视角图像\n    - 纹理化：网格图像 + 3D 网格生成带纹理的网格\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Fhuanngzh\u002Fmv-adapter\n  - 工作流：[IG2MV](.\u002Fexample_workflows\u002FMV-Adapter\u002FMV-Adapter-ig2mv.json)、[T2MV](.\u002Fexample_workflows\u002FMV-Adapter\u002FMV-Adapter-tg2mv.json)、[纹理化](.\u002Fexample_workflows\u002FMV-Adapter\u002FMV-Adapter-Texturing.json)\n    \n   \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F47b77c9e-a121-45c4-a6d0-f307bda1579c\">\u003C\u002Fvideo>\n   \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F35c6cee5-d408-4559-88aa-753741eacb95\">\u003C\u002Fvideo>\n   \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fdcf33c27-0ff7-4379-91b5-a0efe229d63c\">\u003C\u002Fvideo>\n\n- **Stable3DGen**: [Stable-X\u002FStable3DGen](https:\u002F\u002Fgithub.com\u002FStable-X\u002FStable3DGen)\n  - 两阶段模型流程：\n    - Stable3DGen：单张图像生成3D网格\n    - StableNormal：用于法线贴图生成的图像处理\n  - 模型权重：\n    - Stable3DGen：https:\u002F\u002Fhuggingface.co\u002FStable-X\u002Ftrellis-normal-v0-1\n    - StableNormal：https:\u002F\u002Fhuggingface.co\u002FStable-X\u002Fyoso-normal-v1-8-1\n  - [工作流](.\u002Fexample_workflows\u002FStable3DGen.json)\n    \n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F2a38fa0a-4028-4fe5-a67a-bbc7c305da75\">\u003C\u002Fvideo>\n \n- **Hunyuan3D_V2**：turbo、mini、fast、multiview\n  - 单张图像生成3D网格\n  - 多视角图像结合RGB纹理生成3D网格\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-2，https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-2mini\n  - [工作流](.\u002Fexample_workflows\u002FHunyuan3D_V2)\n    \n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fae0f68d8-edd3-4bdd-9a9a-1f5ccc07a3d0\">\u003C\u002Fvideo>\n\n- **TripoSG**: [VAST-AI-Research\u002FTripoSG](https:\u002F\u002Fgithub.com\u002FVAST-AI-Research\u002FTripoSG)\n  - 单张参考图或草图生成3D网格\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002FVAST-AI\u002FTripoSG，https:\u002F\u002Fhuggingface.co\u002FVAST-AI\u002FTripoSG-scribble\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7b7969c1-e7c8-465b-9605-8bba7e847dbf\">\u003C\u002Fvideo>\n\n- **TRELLIS**: [microsoft\u002FTRELLIS](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FTRELLIS)\n  - 单张图像生成带有RGB纹理的3D网格\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Fjetx\u002FTRELLIS-image-large\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff569c561-23ea-471f-a9d3-f2e6d1803e00\">\u003C\u002Fvideo>\n\n- **Hunyuan3D_V2** [tencent\u002FHunyuan3D-2](https:\u002F\u002Fgithub.com\u002FTencent\u002FHunyuan3D-2\u002F)\n  - 两阶段流程：\n    1. 单张图像仅生成3D网格形状\n    2. 结合3D网格形状和一张参考图生成带有RGB纹理的3D网格\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-2\u002Ftree\u002Fmain\n  - [工作流](https:\u002F\u002Fgithub.com\u002FDenisKochetov\u002FComfyUI-3D-Pack\u002Ftree\u002Fdev\u002Fexample_workflows\u002FHunyuan3D_V2)\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fda6a8f8b-8dab-4460-90a6-44769ec9bb09\">\u003C\u002Fvideo>\n\n- **Hunyuan3D_V1** [tencent\u002FHunyuan3D-1](https:\u002F\u002Fgithub.com\u002FTencent\u002FHunyuan3D-1\u002F)\n  - 两阶段流程：\n    1. 单张图像生成多视角图像\n    2. 多视角图像结合RGB纹理生成3D网格\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-1\u002Ftree\u002Fmain\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F2cc31b81-2107-40fe-a531-a783a3f699fc\">\u003C\u002Fvideo>\n\n- **StableFast3D**: [Stability-AI\u002Fstable-fast-3d](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fstable-fast-3d)\n  - 单张图像生成带有RGB纹理的3D网格\n  - *注意：在下载模型权重之前，您需要同意Stability AI的使用条款。如果您手动下载了模型权重，则需要将其放置在[Checkpoints\u002FStableFast3D]目录下；否则，您可以将您的Hugging Face令牌添加到[Configs\u002Fsystem.conf]中。*\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002Fstable-fast-3d\u002Ftree\u002Fmain\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F3ed3d1ed-4abe-4959-bd79-4431d19c9d47\">\u003C\u002Fvideo>\n\n- **CharacterGen**: [zjp-shadow\u002FCharacterGen](https:\u002F\u002Fgithub.com\u002Fzjp-shadow\u002FCharacterGen)\n  - 单张任意姿势的人物正面图像\n  - 可与[Unique3D工作流](.\u002Fexample_workflows\u002FCharacterGen\u002FCharacterGen_to_Unique3D.json)结合使用以获得更好的效果\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Fzjpshadow\u002FCharacterGen\u002Ftree\u002Fmain\n \n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F4f0ae0c0-2d29-49f0-a6f2-a636dd4b4dcc\">\u003C\u002Fvideo>\n\n- **Unique3D**: [AiuniAI\u002FUnique3D](https:\u002F\u002Fgithub.com\u002FAiuniAI\u002FUnique3D)\n  - 四阶段流程：\n    1. 单张图像生成4张分辨率为256×256的多视角图像\n    2. 将一致的多视角图像超分辨率至512×512，并进一步超分辨率至2048×2048\n    3. 将多视角图像生成分辨率为512×512的法线贴图，并进一步超分辨率至2048×2048\n    4. 将多视角图像和法线贴图结合生成带纹理的3D网格\n  - 要使用[全阶段Unique3D工作流](.\u002Fexample_workflows\u002FUnique3D\u002FUnique3D_All_Stages.json)，请下载以下模型：\n    - [sdv1.5-pruned-emaonly](https:\u002F\u002Fhuggingface.co\u002Frunwayml\u002Fstable-diffusion-v1-5\u002Fblob\u002Fmain\u002Fv1-5-pruned-emaonly.ckpt)并将其放入`您的ComfyUI根目录\u002FComfyUI\u002Fmodels\u002Fcheckpoints`\n    - [fine-tuned controlnet-tile](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FWuvin\u002FUnique3D\u002Ftree\u002Fmain\u002Fckpt\u002Fcontrolnet-tile)并将其放入`您的ComfyUI根目录\u002FComfyUI\u002Fmodels\u002Fcontrolnet`\n    - [ip-adapter_sd15](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fblob\u002Fmain\u002Fmodels\u002Fip-adapter_sd15.safetensors)并将其放入`您的ComfyUI根目录\u002FComfyUI\u002Fmodels\u002Fipadapter`\n    - [OpenCLIP-ViT-H-14](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fblob\u002Fmain\u002Fmodels\u002Fimage_encoder\u002Fmodel.safetensors)，重命名为**OpenCLIP-ViT-H-14.safetensors**并将其放入`您的ComfyUI根目录\u002FComfyUI\u002Fmodels\u002Fclip_vision`\n    - [RealESRGAN_x4plus](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN\u002Freleases\u002Fdownload\u002Fv0.1.0\u002FRealESRGAN_x4plus.pth)并将其放入`您的ComfyUI根目录\u002FComfyUI\u002Fmodels\u002Fupscale_models`\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FWuvin\u002FUnique3D\u002Ftree\u002Fmain\u002Fckpt\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002F45dd6bfc-4f2b-4b1f-baed-13a1b0722896\">\u003C\u002Fvideo>\n\n- **Era3D MVDiffusion Model**: [pengHTYX\u002FEra3D](https:\u002F\u002Fgithub.com\u002FpengHTYX\u002FEra3D)\n  - 单张图像生成6张分辨率为512×512的多视角图像及法线贴图\n  - *注：运行此模型至少需要16GB显存*\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002FpengHTYX\u002FMacLab-Era3D-512-6view\u002Ftree\u002Fmain\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002Ffc210cac-6c7d-4a55-926c-adb5fb7b0c57\">\u003C\u002Fvideo>\n\n- **InstantMesh重建模型**: [TencentARC\u002FInstantMesh](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FInstantMesh)\n  - 带有白色背景的稀疏多视角图像生成带有RGB纹理的3D网格\n  - 可与任意MVDiffusion模型配合使用（可能与Zero123++效果最佳，但也适用于CRM MVDiffusion模型）\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002FTencentARC\u002FInstantMesh\u002Ftree\u002Fmain\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002Fa0648a44-f8cb-4f78-9704-a907f9174936\">\u003C\u002Fvideo>\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002F33aecedb-f595-4c12-90dd-89d5f718598e\">\u003C\u002Fvideo>\n\n\n- **Zero123++**: [SUDO-AI-3D\u002Fzero123plus](https:\u002F\u002Fgithub.com\u002FSUDO-AI-3D\u002Fzero123plus)\n  - 单张图像生成6张分辨率为320×320的视角图像\n\n- **卷积重建模型**：[thu-ml\u002FCRM](https:\u002F\u002Fgithub.com\u002Fthu-ml\u002FCRM)\n  - 三阶段流程：\n    1. 单张图像转为6视角图像（前、后、左、右、上、下）\n    2. 单张图像及6视角图像转为6个相同视角的CCM（规范坐标映射）\n    3. 6视角图像及CCM转为3D网格\n  - *注意：对于显存较低的电脑，如果无法将各阶段的三个模型全部加载到显存中，可以将这三个阶段拆分到不同的ComfyUI工作流中分别运行*\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Fsudo-ai\u002Fzero123plus-v1.2\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002Fcf68bb83-9244-44df-9db8-f80eb3fdc29e\">\u003C\u002Fvideo>\n\n- **TripoSR**：[VAST-AI-Research\u002FTripoSR](https:\u002F\u002Fgithub.com\u002FVAST-AI-Research\u002FTripoSR) | [ComfyUI-Flowty-TripoSR](https:\u002F\u002Fgithub.com\u002Fflowtyone\u002FComfyUI-Flowty-TripoSR)\n  - 生成NeRF表示，并使用Marching Cubes将其转换为3D网格\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002FTripoSR\u002Ftree\u002Fmain\n  - [tripoSR层叠扩散工作流](https:\u002F\u002Fgithub.com\u002FC0nsumption\u002FConsume-ComfyUI-Workflows\u002Ftree\u002Fmain\u002Fassets\u002Ftripo_sr\u002F00)由[@Consumption](https:\u002F\u002Ftwitter.com\u002Fc0nsumption_)提供\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002Fec4f8df5-5907-4bbf-ba19-c0565fe95a97\">\u003C\u002Fvideo>\n\n- **Wonder3D**：[xxlong0\u002FWonder3D](https:\u002F\u002Fgithub.com\u002Fxxlong0\u002FWonder3D)\n  - 从单张图像生成空间一致的6视角图像及法线贴图\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Fflamehaze1115\u002Fwonder3d-v1.0\u002Ftree\u002Fmain\n\n  ![Wonder3D_FatCat_MVs](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMrForExample_ComfyUI-3D-Pack_readme_36692e18ebec.jpg)\n\n- **大型多视角高斯模型**：[3DTopia\u002FLGM](https:\u002F\u002Fgithub.com\u002F3DTopia\u002FLGM)\n  - 在RTX3080显卡上，可在不到30秒内实现单张图像到3D高斯的转换，随后还可将3D高斯转换为网格\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002Fashawkey\u002FLGM\u002Ftree\u002Fmain\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002Fe221d7f8-49ac-4ed4-809b-d4c790b6270e\">\u003C\u002Fvideo>\n\n- **三平面高斯变换器**：[VAST-AI-Research\u002FTriplaneGaussian](https:\u002F\u002Fgithub.com\u002FVAST-AI-Research\u002FTriplaneGaussian)\n  - 在RTX3080显卡上，可在不到10秒内实现单张图像到3D高斯的转换，随后也可将3D高斯转换为网格\n  - 模型权重：https:\u002F\u002Fhuggingface.co\u002FVAST-AI\u002FTriplaneGaussian\u002Ftree\u002Fmain\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002F90e7f298-bdbd-4c15-9378-1ca46cbb4871\">\u003C\u002Fvideo>\n\n- **预览3DGS和3D网格**：在ComfyUI内部进行3D可视化：\n  - 使用[gsplat.js](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fgsplat.js\u002Ftree\u002Fmain)和[three.js](https:\u002F\u002Fgithub.com\u002Fmrdoob\u002Fthree.js\u002Ftree\u002Fdev)分别用于3DGS和3D网格的可视化\n  - 可自定义背景，基于JS库：[mdbassit\u002FColoris](https:\u002F\u002Fgithub.com\u002Fmdbassit\u002FColoris)\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002F9f3c56b1-afb3-4bf1-8845-ab1025a87463\">\u003C\u002Fvideo>\n\n- **堆栈轨道相机位姿**：自动生成所有范围的相机位姿组合\n  - 可用于对[StableZero123（需先下载检查点）](https:\u002F\u002Fcomfyanonymous.github.io\u002FComfyUI_examples\u002F3d\u002F)进行条件控制，在一个提示词中包含全范围的相机位姿\n  - 也可用于生成轨道相机位姿，并直接输入到其他3D处理节点（如GaussianSplatting和BakeTextureToMesh）\n  - 示例用法：\n\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMrForExample_ComfyUI-3D-Pack_readme_0440eccf107e.png\" width=\"256\"\u002F> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMrForExample_ComfyUI-3D-Pack_readme_ed99d4d31792.png\" width=\"256\"\u002F>\n    \u003Cbr>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMrForExample_ComfyUI-3D-Pack_readme_8a6785fad4d1.gif\" width=\"256\"\u002F> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMrForExample_ComfyUI-3D-Pack_readme_128c64522e03.gif\" width=\"256\"\u002F> \n  - 坐标系统：\n    - 方位角：在俯视图中，从角度0开始以-90度为步长旋转360度，得到(0, -90, -180\u002F180, 90, 0)，此时相机顺时针旋转，反之亦然。\n    - 仰角：相机水平向前时为0度，指向地面则为负角度，反之亦然。\n\n- **FlexiCubes**：[nv-tlabs\u002FFlexiCubes](https:\u002F\u002Fgithub.com\u002Fnv-tlabs\u002FFlexiCubes)\n  - 输入多视角深度图及掩码（可选法线贴图）\n  - 导出为3D网格\n  - 使用指南：\n    - *voxel_grids_resolution*：决定网格分辨率\u002F质量\n    - *depth_min_distance* 和 *depth_max_distance*：物体与相机之间的距离，渲染中距离相机比depth_min_distance（depth_max_distance）更近（更远）的部分将以纯白色（黑色）RGB值1, 1, 1（0, 0, 0）渲染\n    - *mask_loss_weight*：控制重建后的3D网格轮廓\n    - *depth_loss_weight*：控制重建后的3D网格形状，该损失还会影响表面的细节变形，因此结果取决于深度图的质量\n    - *normal_loss_weight*：可选。用于细化表面的细节变形\n    - *sdf_regularizer_weight*：有助于去除未受应用目标监督区域中的浮动体，例如仅使用图像监督时的内部面\n    - *remove_floaters_weight*：若在平坦区域观察到伪影，可适当增加此权重\n    - *cube_stabilizer_weight*：在优化单个形状时影响不大，但在某些情况下有助于稳定训练\n\n  \u003Cvideo controls autoplay loop src=\"https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fassets\u002F62230687\u002F166bbc1f-04b7-42c8-87bb-302e3f5aabb2\">\u003C\u002Fvideo>\n\n\n- **即时NGP**：[nerfacc](https:\u002F\u002Fgithub.com\u002Fnerfstudio-project\u002Fnerfacc)\n  - 输入多视角图像\n  - 使用Marching Cubes导出为3D网格\n\n- **3D高斯泼溅**\n  - [改进的微分高斯光栅化](https:\u002F\u002Fgithub.com\u002Fashawkey\u002Fdiff-gaussian-rasterization)\n  - 更好的基于紧凑性的致密化方法来自[Gsgen](https:\u002F\u002Fgsgen3d.github.io\u002F)，\n  - 支持从给定的3D网格初始化高斯点（可选）\n  - 支持小批量优化\n  - 输入多视角图像\n  - 导出为标准的3DGS .ply格式\n\n- **高斯泼溅轨道渲染器**\n  - 根据给定的3DGS文件和由**堆栈轨道相机位姿**节点生成的相机位姿，将3DGS渲染为图像序列或视频\n\n- **网格轨道渲染器**\n  - 根据给定的网格文件和由**堆栈轨道相机位姿**节点生成的相机位姿，将3D网格渲染为图像序列或视频\n\n- **多视角图像拟合网格**\n  - 使用[Nvdiffrast](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fnvdiffrast)将多视角图像烘焙到给定3D网格的UV纹理中，支持：\n  - 导出为.obj、.ply、.glb\n\n- **保存与加载3D文件**\n  - .obj、.ply、.glb用于3D网格\n  - .ply用于3DGS\n\n- **切换 3DGS 和 3D 网格的坐标轴**\n  - 由于不同的算法可能使用不同的坐标系，因此能够重新映射坐标轴对于在不同节点之间传递生成的结果至关重要。\n\n- **[可自定义的系统配置文件](Configs\u002Fsystem.conf)**\n  - 自定义客户端 IP 地址\n  - 添加你的 Hugging Face 用户令牌\n\n\n\n## 路线图：\n- [X] 集成 [CharacterGen](https:\u002F\u002Fgithub.com\u002Fzjp-shadow\u002FCharacterGen)\n\n- [ ] 改进 3DGS\u002FNerf 到 Mesh 的转换算法：\n  - 寻找更好的方法将 3DGS 或点云转换为网格（也许可以重建法线贴图？）\n\n- [ ] 增加并改进一些最佳的 MVS 算法（例如 2DGS 等）\n\n- [ ] 增加从原始多视角图像中估计相机位姿的功能\n\n## 开发\n#### 如何贡献\n1. 分支该项目\n2. 进行改进\u002F添加新功能\n3. 向 [dev 分支](https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Ftree\u002Fdev) 提交拉取请求\n\n#### 项目结构 \n- **[nodes.py](nodes.py)**: \n\u003Cbr>包含所有 Comfy3D 节点的接口代码（即你在 ComfyUI 中实际可以看到并使用的节点），你可以在这里添加新的节点\n\n- **[Gen_3D_Modules](Gen_3D_Modules)**:\n\u003Cbr>一个包含所有生成模型\u002F系统的代码的文件夹（例如多视角扩散模型、3D 重建模型）。新的 3D 生成模块应在此处添加\n\n- **[MVs_Algorithms](MVs_Algorithms)**:\n\u003Cbr>一个包含所有多视图立体算法的代码的文件夹，即那些接收多视角图像并将其转换为 3D 表示（例如高斯分布、MLP 或网格）的算法（如 Gaussian Splatting、NeRF 和 FlexiCubes）。新的 MVS 算法应在此处添加\n\n- **[web](web)**:\n\u003Cbr>一个包含所有与浏览器 UI 相关的文件和代码（html、js、css）的文件夹（例如 HTML 布局、样式以及预览 3D 网格和高斯分布的核心逻辑）。新的 Web UI 应在此处添加\n\n- **[webserver](webserver)**:\n\u003Cbr>一个包含与浏览器通信代码的文件夹，即处理 Web 客户端请求的代码（例如，在特定 URL 路由请求时向客户端发送 3D 网格）。新的 Web 服务器相关功能应在此处添加\n\n- **[Configs](Configs)**:\n\u003Cbr>一个包含不同模块的不同配置文件的文件夹，新的配置应在此处添加，如果单个模块有多个配置，则使用子文件夹（例如 [Unique3D](Configs\u002FUnique3D_configs)、[CRM](Configs\u002FCRM_configs)）\n\n- **[Checkpoints](Checkpoints)**:\n\u003Cbr>一个包含所有预训练模型以及 diffusers 所需的部分模型架构配置文件的文件夹。如果新的检查点可以通过 `Load_Diffusers Pipeline` 节点自动下载，则应将其添加到此文件夹中\n\n- **[install.py](install.py)**: \n\u003Cbr>主安装脚本，会根据你的运行环境自动下载并安装 [Pre-builds](https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfy3D_Pre_Builds)。如果找不到相应的 Pre-builds，则会自动启动 [build script](_Pre_Builds\u002F_Build_Scripts\u002Fauto_build_all.py)，该脚本由 ComfyUI-Manager 在使用 pip 安装完 [requirements.txt](requirements.txt) 中列出的依赖项后调用。\n\u003Cbr>如果你尝试添加的新模块需要一些无法简单添加到 [requirements.txt](requirements.txt) 和 [build_config.remote_packages](_Pre_Builds\u002F_Build_Scripts\u002Fbuild_config.yaml) 中的额外软件包，则可以通过修改此脚本进行添加。\n\n- **[_Pre_Builds](_Pre_Builds)**:\n\u003Cbr>一个包含构建所有所需依赖项的文件和代码的文件夹。如果你想预先构建一些额外的依赖项，请查看 [_Pre_Builds\u002FREADME.md](_Pre_Builds\u002FREADME.md) 获取更多信息。\n\n## 小贴士\n* OpenGL（Three.js、Blender）的世界和相机坐标系：\n  ```\n      世界            相机        \n    \n      +y              上方  目标                                              \n      |                |  \u002F                                           \n      |                | \u002F                                           \n      |______+x        |\u002F______右侧                                      \n      \u002F                \u002F         \n     \u002F                \u002F          \n    \u002F                \u002F           \n  +z               正面           \n\n  z 轴指向你，并且是从屏幕内指向外的\n  仰角：在 (-90, 90) 之间，从 +y 到 +x 是 (-90, 0)\n  方位角：在 (-180, 180) 之间，从 +z 到 +x 是 (0, 90)\n  ```\n* 如果遇到 OpenGL 错误（例如 `[F glutil.cpp:338] eglInitialize() failed`），则在相应节点上将 `force_cuda_rasterize` 设置为 true\n* 如果安装后，你的 ComfyUI 在启动或运行时卡住，可以按照以下链接中的说明解决问题：[在 GPU 上评估神经元模型时代码无限期挂起](https:\u002F\u002Fgithub.com\u002Flava-nc\u002Flava-dl\u002Fdiscussions\u002F211)\n* [修复 \"nvcc fatal : 使用 'C:\u002FProgram Files (x86)\u002FMicrosoft Visual Studio\u002F...\u002Fvcvars64.bat' 无法设置 Microsoft Visual Studio 的环境\"](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp\u002Fissues\u002F709#issuecomment-1378155274)\n## 支持者\n- [MrNeRF](https:\u002F\u002Ftwitter.com\u002Fjanusch_patas)","# ComfyUI-3D-Pack 快速上手指南\n\nComfyUI-3D-Pack 是一个强大的节点套件，旨在让 ComfyUI 像生成图像和视频一样便捷地生成 3D 资产。它支持处理网格（Mesh）、UV 纹理等 3D 输入，并集成了 InstantMesh、CRM、TripoSR、Hunyuan3D 等前沿算法与模型。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Windows 10\u002F11 或 Linux\n*   **Python**: 推荐 Python 3.12\n*   **CUDA**: 推荐 CUDA 12.4 (对应 torch 2.5.1+cu124)\n*   **显卡显存**: \n    *   基础模型运行建议至少 8GB VRAM。\n    *   部分高级模型（如 Era3D）需要 **16GB** 或更高显存。\n*   **编译工具 (重要)**:\n    *   **Windows**: 必须安装 [Visual Studio Build Tools](https:\u002F\u002Fvisualstudio.microsoft.com\u002Fvisual-cpp-build-tools\u002F) (包含 C++ 生成工具)，否则 `InstantNGP` 和 `3DGS 转 Mesh` 等涉及即时编译 (JIT) 的节点将无法工作。\n    *   **Linux**: 必须安装 `gcc` 和 `g++`。\n\n## 2. 安装步骤\n\n### 方法一：通过 ComfyUI Manager 安装（推荐）\n\n这是最简便的方式，适合大多数用户。\n\n1.  启动 ComfyUI，点击右侧菜单中的 **Manager** 按钮。\n2.  选择 **Install Custom Nodes**。\n3.  搜索 `ComfyUI-3D-Pack`。\n4.  点击 **Install** 进行安装。\n5.  安装完成后，**重启 ComfyUI**。\n    *   *注：首次运行时，插件会自动检测环境并尝试下载预构建包或编译缺失依赖。*\n\n### 方法二：手动安装\n\n如果您无法使用 Manager 或需要特定配置，请按以下步骤操作：\n\n1.  进入 ComfyUI 的自定义节点目录：\n    ```bash\n    cd Your_ComfyUI_Root_Directory\u002FComfyUI\u002Fcustom_nodes\u002F\n    ```\n\n2.  克隆仓库：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack.git\n    cd ComfyUI-3D-Pack\n    ```\n\n3.  安装依赖并运行初始化脚本（请根据实际 Python 路径调整命令）：\n    ```bash\n    # 安装 requirements.txt 中的依赖\n    Your_ComfyUI_Root_Directory\u002Fpython_embeded\u002Fpython.exe -s -m pip install -r requirements.txt\n    \n    # 运行安装脚本（自动下载预构建包或编译）\n    Your_ComfyUI_Root_Directory\u002Fpython_embeded\u002Fpython.exe install.py\n    ```\n    *如果是标准 Python 环境，请将 `python_embeded\u002Fpython.exe` 替换为 `python` 或 `python3`。*\n\n4.  **模型下载提示**：\n    *   插件通常会自动下载模型到 `Checkpoints` 目录。\n    *   若自动下载失败，可手动从 HuggingFace 下载模型权重，放入对应的 `Checkpoints` 子文件夹中。**注意：不要覆盖现有的 .json 配置文件。**\n    *   对于 **StableFast3D** 模型，需先同意 Stability-AI 的使用条款，或在 `Configs\u002Fsystem.conf` 中配置您的 HuggingFace Token。\n\n## 3. 基本使用\n\n安装完成后，您可以通过加载官方示例工作流快速开始。\n\n### 步骤 1：准备示例素材\n在运行示例工作流前，必须将示例输入文件复制到 ComfyUI 的输入目录：\n1.  找到插件目录下的 `example_workflows\u002F_Example_Inputs_Files\u002F` 文件夹。\n2.  将其中的所有内容复制到您 ComfyUI 根目录下的 `ComfyUI\u002Finput\u002F` 文件夹中。\n\n### 步骤 2：加载工作流\n1.  启动 ComfyUI。\n2.  点击菜单 **Load**，导航至插件目录下的 `example_workflows\u002F`。\n3.  选择一个适合您需求的工作流文件（例如 `.json` 格式）。\n\n### 常用模型与工作流推荐\n\n*   **单图生成 3D (通用)**:\n    *   **Hunyuan3D_2.1**: 腾讯混元最新模型，支持“形状生成” + “纹理生成”两阶段流程，效果出色。\n        *   工作流路径：`example_workflows\u002FHunyuan3D_2_1\u002FHunyuan2.1-Full.json`\n    *   **TripoSG**: 支持从单张参考图或草图生成 3D 网格。\n    *   **TRELLIS**: 微软出品，单图生成带 RGB 纹理的高质量 3D 网格。\n\n*   **角色生成专用**:\n    *   **CharacterGen**: 专为角色设计，支持任意姿势的单视图生成。可结合 Unique3D 工作流获得更好效果。\n        *   工作流路径：`example_workflows\u002FCharacterGen\u002FCharacterGen_to_Unique3D.json`\n\n*   **多视图与场景**:\n    *   **PartCrafter**: 支持单物体部件分割或整个场景的多物体生成。\n    *   **MV-Adapter**: 支持从单图+网格或文本+网格生成多视图图像及纹理。\n\n### 运行生成\n1.  加载工作流后，检查左侧输入节点（如 `Load Image`），确认图片路径正确。\n2.  点击右侧 **Queue Prompt** 按钮开始生成。\n3.  生成的 3D 模型（.obj, .glb 等）通常会输出到 `ComfyUI\u002Foutput\u002F` 目录，或在预览节点中直接查看。\n\n> **提示**：首次运行某些模型时可能需要较长时间下载权重或编译组件，请耐心等待。如遇节点缺失报错，请在 ComfyUI Manager 中点击 \"Install Missing Custom Nodes\" 自动补全依赖。","独立游戏开发者小林需要为一款奇幻 RPG 快速制作带有可交互部件（如可拆卸盔甲、分节机械臂）的 3D 角色资产，但手头只有一张概念设计图。\n\n### 没有 ComfyUI-3D-Pack 时\n- **流程割裂严重**：必须先在 Blender 中手动建模，再导出到外部软件进行 UV 展开和贴图绘制，最后返回引擎调整，反复切换工具耗时极长。\n- **部件拆分困难**：若想实现“盔甲可脱落”效果，需人工精细切割网格并重新拓扑，对建模师的专业技能要求极高且极易出错。\n- **迭代成本高昂**：一旦美术风格调整，整个建模和贴图流程几乎需要推倒重来，无法像生成 2D 图像那样快速尝试不同方案。\n- **技术门槛过高**：整合 NeRF 或 3DGS 等前沿算法需要编写复杂的 Python 脚本并配置独立的深度学习环境，普通开发者难以上手。\n\n### 使用 ComfyUI-3D-Pack 后\n- **工作流一体化**：直接在 ComfyUI 中加载单张概念图，通过 PartCrafter 节点一键生成带完整 UV 和贴图的 3D 网格，无需离开节点编辑器。\n- **智能部件分割**：利用其单物体模式，自动识别并将角色拆分为独立的部件网格（如头盔、胸甲），直接输出合并模型与包含各部件的 ZIP 包。\n- **敏捷迭代验证**：修改提示词或输入图后，几分钟内即可重新生成整套资产，让开发者能迅速对比多种设计风格并选定最优解。\n- **开箱即用算法**：内置 InstantMesh、TripoSR 等先进模型，自动处理依赖与环境配置，让前沿 3D 生成技术像生成图片一样简单便捷。\n\nComfyUI-3D-Pack 将原本繁琐数天的 3D 资产制作流程压缩至分钟级，真正实现了“像生成图片一样高效地生成可交互 3D 资产”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMrForExample_ComfyUI-3D-Pack_36692e18.jpg","MrForExample","Mr. For Example","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMrForExample_197c47fe.png","Building Something Great",null,"Up","https:\u002F\u002Fmrforexample.github.io\u002F","https:\u002F\u002Fgithub.com\u002FMrForExample",[81,85,89,93,97,101,105,109,112,115],{"name":82,"color":83,"percentage":84},"Python","#3572A5",90.8,{"name":86,"color":87,"percentage":88},"C++","#f34b7d",6.7,{"name":90,"color":91,"percentage":92},"Cuda","#3A4E3A",1.4,{"name":94,"color":95,"percentage":96},"JavaScript","#f1e05a",0.7,{"name":98,"color":99,"percentage":100},"CSS","#663399",0.2,{"name":102,"color":103,"percentage":104},"Dockerfile","#384d54",0.1,{"name":106,"color":107,"percentage":108},"HTML","#e34c26",0,{"name":110,"color":111,"percentage":108},"Slang","#1fbec9",{"name":113,"color":114,"percentage":108},"Shell","#89e051",{"name":116,"color":117,"percentage":108},"Batchfile","#C1F12E",3700,360,"2026-04-06T23:41:20","MIT",4,"Windows, Linux","需要 NVIDIA GPU (CUDA 12.4)，部分模型（如 Era3D）需至少 16GB 显存，预构建版本基于 torch 2.5.1+cu124","未说明 (建议根据具体 3D 生成模型需求配置，部分高负载模型可能需较大内存)",{"notes":127,"python":128,"dependencies":129},"1. Windows 用户需安装 Visual Studio Build Tools，Linux 用户需安装 gcc\u002Fg++ 以支持即时编译 (JIT) 的 C++ 扩展节点（如 InstantNGP）。2. 可通过 ComfyUI-Manager 一键安装或使用官方提供的 Windows 便携版。3. 部分节点在运行时会自动构建，若失败需参考半自动构建指南。4. 需手动下载预训练模型至 Checkpoints 目录（除非配置了 HuggingFace Token），且不可覆盖现有的 .json 配置文件。5. Docker 安装需参考单独的说明文档。","3.12",[130,131,132,133],"torch>=2.5.1","cuda-12.4","Visual Studio Build Tools (Windows)","gcc\u002Fg++ (Linux)",[15,14],[136,137,138],"comfy","comfyui","machine-learning","2026-03-27T02:49:30.150509","2026-04-08T01:57:16.448077",[142,147,152,157,161,165,169,173],{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},23584,"遇到 'accelerate' 未找到或低 CPU 内存初始化错误怎么办？","当出现 'Cannot initialize model with low cpu memory usage because `accelerate` was not found' 错误时，需要在环境中安装 accelerate 库。请使用以下命令安装：\npip install accelerate\n这将启用更快且内存占用更少的模型加载方式。","https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fissues\u002F61",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},23585,"Trellis 节点处理图像失败或报错怎么办？","Trellis 节点在处理没有 Alpha 通道（透明通道）的图像时通常会失败。请确保输入的是带有 Alpha 通道的 PNG 图像。如果图像来自其他处理节点，建议先执行背景移除并将结果保存为带透明通道的 PNG，然后再将其导入到网格生成节点中。","https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fissues\u002F502",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},23586,"Windows 上出现 'ImportError: DLL load failed while importing _C' 错误如何解决？","该错误通常是因为缺少必要的 C++ 编译环境。请确保已安装 Visual Studio 并勾选了 '使用 C++ 的桌面开发' (Desktop development with C++) 工作负载。安装完成后，可能需要重新安装相关的自定义节点或重启 ComfyUI 以加载正确的 DLL 文件。","https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fissues\u002F151",{"id":158,"question_zh":159,"answer_zh":160,"source_url":146},23587,"在 Windows 上构建扩展时遇到 'unsupported Microsoft Visual Studio version' 错误怎么办？","这是因为当前的 Visual Studio 版本不被支持。解决方法是更改 Visual Studio 的生成工具版本。例如，如果当前是 17.10 版本，请尝试降级或切换到 17.9 版本。可以在 Visual Studio Installer 中修改已安装的组件版本来解决此问题。",{"id":162,"question_zh":163,"answer_zh":164,"source_url":146},23588,"遇到 CUDA Kernel 错误导致 ComfyUI 在运行 TripoSR 后崩溃怎么办？","这是一个已知的 CUDA 兼容性问题。虽然有时错误消息可能不再显示，但崩溃现象依旧。建议检查显卡驱动是否为最新版本，并确保安装的 PyTorch 版本与您的 CUDA 版本完全匹配。如果问题持续，可能需要等待插件更新以修复特定的 CUDA 内核兼容性。",{"id":166,"question_zh":167,"answer_zh":168,"source_url":156},23589,"如何从头开始构建包含自定义节点的 ComfyUI 便携版环境？","构建步骤如下：\n1. 设置操作系统环境：安装 Git、GPU 驱动（或 CUDA Toolkit）、C++ 构建工具。\n2. 设置 Python 虚拟环境 (venv) 或嵌入式环境，并配置 PIP。\n3. 安装 PyTorch 和 xFormers。注意 xFormers 的版本必须与特定的 PyTorch 版本配对。\n4. Git clone ComfyUI 主程序及所需的自定义节点。\n5. 安装 ComfyUI 的 requirements.txt。\n6. 逐个安装各个自定义节点的 requirements.txt，需注意其中的依赖细节。",{"id":170,"question_zh":171,"answer_zh":172,"source_url":151},23590,"使用 install.py 安装时遇到 setuptools 关于 license 格式的警告或构建失败怎么办？","如果遇到关于 'project.license' 格式的弃用警告或构建失败，通常是因为 setuptools 版本过新或项目配置过时。虽然警告本身可能不影响运行，但如果导致构建失败，建议尝试更新插件到最新版本，或者手动修改 pyproject.toml 文件，将 license 字段改为简单的 SPDX 表达式字符串。",{"id":174,"question_zh":175,"answer_zh":176,"source_url":151},23591,"遇到掩码形状不匹配错误 ('The shape of the mask... does not match...') 怎么办？","当出现掩码形状与索引张量形状不匹配的错误时，通常是因为图像处理流程中的尺寸不一致。尝试在工作流中显式地调整图像或掩码的尺寸，确保它们在进行叠加或遮罩操作前具有相同的高度和宽度。避免直接将不同分辨率的处理节点输出相连。",[178,183,188,193,198],{"id":179,"version":180,"summary_zh":181,"released_at":182},145120,"v0.1.6","## 变更内容\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F475 中添加了 Hunyuan V2 Turbo、Mini、Fast 和 MultiView。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F481 中修复了 TRELLIS 权重的模型路径错误。\n* @robinjhuang 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F447 中更改了节点 ID 名称。\n* @sqlpxc 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F449 中修复了 WSL2 下 eglInitialize() 失败的问题。\n* @robinjhuang 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F459 中更新了用于发布到 Comfy Registry 的 GitHub Actions。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F483 中添加了 stable3dgen。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F485 中添加了 mv-adapter ig2mv 和 t2v。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F489 中修复了 stablegen 模型下载问题。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F491 中修复了 mv-adapter 的调度器问题。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F492 中将安装更新至 CUDA 12.8。\n* @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F493 中进行了开发。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F494 中更新了 wheels 安装。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F497 中更新了依赖项。\n* @sko00o 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F499 中修复了 TypeError: Hunyuan3DPaintPipeline.from_pretrained() 获取了意外的关键字参数 'torch_dtype' 的问题。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F501 中添加了 hunyuan 2.1。\n* @emmanuel-ferdman 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F500 中更新了 Docker 使用指南中的 `README.md` 引用。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F510 中修复了 hunyuan 的 rmbg 以及安装流程。\n* @robinjhuang 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F507 中将版本号提升至 v0.1.6。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F514 中添加了 partcrafter。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F513 中针对更新后的 PyTorch 修复了 trellis。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F515 中修复了 partcrafter。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F517 中添加了 partcrafter 场景。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F518 中移除了 pyrender 代码。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F519 中添加了白底功能。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F520 中更新了 diffusers 代码，以修复 charactergen 相关问题。\n* @DenisKochetov 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F521 中将示例工作流重命名为 comfy-manager 风格。\n* @MrForExample 在 https:\u002F\u002Fgith 中将 dev 分支合并至 main 分支。","2025-08-07T10:48:28",{"id":184,"version":185,"summary_zh":186,"released_at":187},145121,"v0.1.4","## 变更内容\n* 集成 Hunyuan3D-2，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F432 中完成\n* 移除图片以避免 Git LFS 报错“此仓库已超出数据配额”，由 @YanWenKun 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F434 中完成\n* 移除未使用的变量，由 @robinjhuang 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F439 中完成\n* 对 Hunyuan3D-2 进行小幅更新，合并 2 个 Pull Request，并新增 Decimate Mesh 节点，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F440 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fcompare\u002Fv0.1.3...v0.1.4","2025-01-24T18:41:37",{"id":189,"version":190,"summary_zh":191,"released_at":192},145122,"v0.1.3","## 变更内容\n* 集成 [TRELLIS](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FTRELLIS)\n* 支持最新的 ComfyUI v0.3.7、py12、cu124 和 torch 2.5.1\n* 由 @YanWenKun 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F391 中修复示例工作流中的过时节点\n* 由 @kampelmuehler 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F374 中修复 Rotate_Normal_Maps_Horizontally 节点\n* 文档：由 @eltociear 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F369 中更新 README.md\n* 集成 TRELLIS，并由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F399 中解决 Python 3.12 下 spconv 导入错误的问题\n* 由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F402 中修复 ComfyUI-Manager 安装错误\n\n## 新贡献者\n* @kampelmuehler 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F374 中完成了首次贡献\n* @eltociear 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F369 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fcompare\u002Fv0.1.2...v0.1.3","2024-12-18T00:24:04",{"id":194,"version":195,"summary_zh":196,"released_at":197},145123,"v0.1.2","## 变更内容\n* 集成了 [Hunyuan3D-1](https:\u002F\u002Fgithub.com\u002FTencent\u002FHunyuan3D-1\u002F)\n* 支持最新的 ComfyUI v0.2.7、py12、cu124、torch 2.5.1","2024-11-09T02:05:44",{"id":199,"version":200,"summary_zh":201,"released_at":202},145124,"v0.1.1","## 默认主要依赖包版本\ntorch 2.4.0；torchvision 0.19.0；xformers 0.0.27.post2\nCUDA 11.8、12.1\n\n## 变更内容\n* 允许选择 CUDA 光栅化，由 @jclarkk 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F45 中实现\n* 拟合网格时执行拉普拉斯平滑，由 @jclarkk 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F72 中实现\n* 添加 Dockerfile，由 @kalemas 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F107 中实现\n* 更新 interface.py，由 @if-ai 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F112 中实现\n* 修复 eglInitialize() 失败问题，由 @kalemas 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F119 中实现\n* 为 Linux 添加预编译的 wheel 文件，由 @YanWenKun 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F126 中实现\n* 更新 Linux 的预编译 wheel 文件，由 @YanWenKun 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F136 中实现\n* 为自定义节点注册表添加 pyproject.toml，由 @haohaocreates 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F154 中实现\n* 添加用于发布到 Comfy Registry 的 GitHub Actions，由 @haohaocreates 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F153 中实现\n* 移除 xformers 依赖，由 @jaeh 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F164 中实现\n* 更新 shared_utils\u002Fcommon_utils.py，允许在 parse_file_name 中使用 %H，由 @jaeh 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F162 中实现\n* 杂项：为 simple_knn.cu 添加 \u003Ccfloat> 头文件，由 @slbillups 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F173 中实现\n* 为 glb 文件添加动画混合器，由 @yashschandra 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F188 中实现\n* 从 Dev 分支合并到 Main 分支，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F193 中实现\n* 修复检查点文件夹名称，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F202 中实现\n* 更改配置文件夹名称，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F203 中实现\n* 修复 Gen3D 文件夹名称，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F204 中实现\n* 更新 Diffusers 下载节点及 Unique3D 相关工作流，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F205 中实现\n* 更新操作系统检测并修复 nvcc 命令问题，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F206 中实现\n* 更新自动安装\u002F构建脚本，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F207 中实现\n* 添加 Docker 使用说明，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F212 中实现\n* 添加下载按钮，由 @yashschandra 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F216 中实现\n* 更新 README，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F221 中实现\n* 更新 nodes.py - 添加 OrbitPose 预设，并可在姿势和列表之间切换，由 @jakechai 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F228 中实现\n* 添加 Craftman 节点，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002FComfyUI-3D-Pack\u002Fpull\u002F234 中实现\n* 添加 StableFast3D 节点，由 @MrForExample 在 https:\u002F\u002Fgithub.com\u002FMrForExample\u002F","2024-10-18T00:13:57"]