[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Tencent-Hunyuan--Hunyuan3D-Omni":3,"tool-Tencent-Hunyuan--Hunyuan3D-Omni":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,2,"2026-04-18T11:18:24",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":10,"env_os":88,"env_gpu":89,"env_ram":88,"env_deps":90,"category_tags":97,"github_topics":99,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":110},9217,"Tencent-Hunyuan\u002FHunyuan3D-Omni","Hunyuan3D-Omni","Hunyuan3D-Omni: A Unified Framework for Controllable Generation of 3D Assets","Hunyuan3D-Omni 是腾讯混元团队推出的新一代 3D 资产生成框架，旨在通过统一架构实现高度可控的 3D 模型创作。它解决了传统 AI 生成 3D 内容时难以精确控制形状、姿态和空间布局的痛点，让用户不再仅依赖文字或单张图片，而是能直接利用点云、体素、骨骼姿态及边界框等多种信号来引导生成过程。\n\n无论是需要快速原型验证的游戏开发者、追求精细控制的 3D 设计师，还是探索多模态生成的研究人员，都能从中获益。其核心技术亮点在于构建了一个统一的控制编码器，能够灵活融合多种输入条件：既可以通过边界框限定模型的整体轮廓，也能依据骨骼数据生成特定动作的人物模型，甚至支持从粗糙的点云或体素数据还原出高质量 3D 形状。此外，该框架在保持 33 亿参数规模的同时，引入了 FlashVDM 加速技术和 EMA 优化策略，显著提升了推理速度与稳定性，仅需 10GB 显存即可运行。Hunyuan3D-Omni 让复杂的 3D 创作变得更加直观高效，为数字内容生产提供了强大的新工具。","\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent-Hunyuan_Hunyuan3D-Omni_readme_0abd3f6269db.png\">\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=https:\u002F\u002F3d.hunyuan.tencent.com target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOfficial%20Site-333399.svg?logo=homepage height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-Omni target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Models-d96902.svg height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002F3d-models.hunyuan.tencent.com\u002F target=\"_blank\">\u003Cimg src= https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPage-bb8a2e.svg?logo=github height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Fdiscord.gg\u002FdNBrdrGGMa target=\"_blank\">\u003Cimg src= https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-white.svg?logo=discord height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.21245 target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FReport-b5212f.svg?logo=arxiv height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Fx.com\u002FTencentHunyuan target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHunyuan-black.svg?logo=x height=22px>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n[\u002F\u002F]: # (  \u003Ca href=# target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FReport-b5212f.svg?logo=arxiv height=22px>\u003C\u002Fa>)\n\n[\u002F\u002F]: # (  \u003Ca href=# target=\"_blank\">\u003Cimg src= https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FColab-8f2628.svg?logo=googlecolab height=22px>\u003C\u002Fa>)\n\n[\u002F\u002F]: # (  \u003Ca href=\"#\">\u003Cimg alt=\"PyPI - Downloads\" src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmulankit?logo=pypi\"  height=22px>\u003C\u002Fa>)\n\u003Cbr>\n\n# Hunyuan3D-Omni\n\nHunyuan3D-Omni is a unified framework for the controllable generation of 3D assets, which inherits the structure of Hunyuan3D 2.1. In contrast, Hunyuan3D-Omni constructs a unified control encoder to introduce additional control signals, including point cloud, voxel, skeleton, and bounding box.\n\n\u003Cp align=\"left\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent-Hunyuan_Hunyuan3D-Omni_readme_c4cd8c3a1e5f.jpg\">\n\u003C\u002Fp>\n\n### Multi-Modal Conditional Control\n- **Bounding Box Control**: Generate 3D models constrained by 3D bounding boxes.\n- **Pose Control**: Create 3D human models with specific skeletal poses.\n- **Point Cloud Control**: Generate 3D models guided by input point clouds.\n- **Voxel Control**: Create 3D models from voxel representations.\n\n## 🎁 Models Zoo\n\nIt takes 10 GB VRAM for generation.\n\n\n| Model                      | Description                 | Date       | Size | Huggingface                                                                               |\n|----------------------------|-----------------------------|------------|------|-------------------------------------------------------------------------------------------| \n| Hunyuan3D-Omni        | Image to Shape Model with multi-modal control       | 2025-09-25 | 3.3B | [Download](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-Omni\u002Ftree\u002Fmain)         |\n\n\n## Installation\n\n### Requirements\nWe test our model with Python 3.10.\n```bash\npip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu124\npip install -r requirements.txt\n```\n\n## Usage\n\n### Inference\n\n#### Multi-Modal Inference\n```bash\npython3 inference.py --control_type \u003Ccontrol_type> [--use_ema] [--flashvdm]\n```\nThe `control_type` parameter has four available options:\n\n`point`: Use point control type for inference.  \n`voxel`: Use voxel control type for inference.  \n`bbox`: Use bounding box control type for inference.  \n`pose`: Use pose control type for inference.\n\nThe `--use_ema` flag enables the use of Exponential Moving Average (EMA) model for more stable inference.\n\nThe `--flashvdm` flag enables FlashVDM optimization for faster inference speed.\n\nPlease choose the appropriate control_type based on your requirements. For example, if you want to use the `point` control type, you can run:\n```bash\npython3 inference.py --control_type point \npython3 inference.py --control_type point --use_ema\npython3 inference.py --control_type point --flashvdm\n```\n\n## Acknowledgements\n\nWe would like to thank the contributors to\nthe [TripoSG](https:\u002F\u002Fgithub.com\u002FVAST-AI-Research\u002FTripoSG), [CLAY](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.13897), [Trellis](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FTRELLIS),  [DINOv2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdinov2), [Stable Diffusion](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fstablediffusion), [FLUX](https:\u002F\u002Fgithub.com\u002Fblack-forest-labs\u002Fflux), [diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers), [HuggingFace](https:\u002F\u002Fhuggingface.co), [CraftsMan3D](https:\u002F\u002Fgithub.com\u002Fwyysf-98\u002FCraftsMan3D), [Michelangelo](https:\u002F\u002Fgithub.com\u002FNeuralCarver\u002FMichelangelo\u002Ftree\u002Fmain), [Hunyuan-DiT](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuanDiT), [HunyuanVideo](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuanVideo), [HunyuanWorld-1.0](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuanWorld-1.0), [HunyuanWorld-Voyager](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuanWorld-Voyager), and [PoseMaster](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.21076) works, for their open research and\nexploration.\n\n## Citation\n\nIf you use this code in your research, please cite:\n```bibtex\n@misc{hunyuan3d2025hunyuan3domni,\n      title={Hunyuan3D-Omni: A Unified Framework for Controllable Generation of 3D Assets}, \n      author={Tencent Hunyuan3D Team},\n      year={2025},\n      eprint={2509.21245},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2509.21245}, \n}\n\n@misc{hunyuan3d2025hunyuan3d,\n    title={Hunyuan3D 2.1: From Images to High-Fidelity 3D Assets with Production-Ready PBR Material},\n    author={Tencent Hunyuan3D Team},\n    year={2025},\n    eprint={2506.15442},\n    archivePrefix={arXiv},\n    primaryClass={cs.CV}\n}\n\n@misc{hunyuan3d22025tencent,\n    title={Hunyuan3D 2.0: Scaling Diffusion Models for High Resolution Textured 3D Assets Generation},\n    author={Tencent Hunyuan3D Team},\n    year={2025},\n    eprint={2501.12202},\n    archivePrefix={arXiv},\n    primaryClass={cs.CV}\n}\n\n@misc{yang2024hunyuan3d,\n    title={Hunyuan3D 1.0: A Unified Framework for Text-to-3D and Image-to-3D Generation},\n    author={Tencent Hunyuan3D Team},\n    year={2024},\n    eprint={2411.02293},\n    archivePrefix={arXiv},\n    primaryClass={cs.CV}\n}\n```\n\n## Star History\n\n\u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#Tencent-Hunyuan\u002FHunyuan3D-Omni&Date\">\n \u003Cpicture>\n   \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent-Hunyuan_Hunyuan3D-Omni_readme_339a198ebabf.png&theme=dark\" \u002F>\n   \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent-Hunyuan_Hunyuan3D-Omni_readme_339a198ebabf.png\" \u002F>\n   \u003Cimg alt=\"Star History Chart\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent-Hunyuan_Hunyuan3D-Omni_readme_339a198ebabf.png\" \u002F>\n \u003C\u002Fpicture>\n\u003C\u002Fa>\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent-Hunyuan_Hunyuan3D-Omni_readme_0abd3f6269db.png\">\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=https:\u002F\u002F3d.hunyuan.tencent.com target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOfficial%20Site-333399.svg?logo=homepage height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-Omni target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Models-d96902.svg height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002F3d-models.hunyuan.tencent.com\u002F target=\"_blank\">\u003Cimg src= https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPage-bb8a2e.svg?logo=github height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Fdiscord.gg\u002FdNBrdrGGMa target=\"_blank\">\u003Cimg src= https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-white.svg?logo=discord height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.21245 target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FReport-b5212f.svg?logo=arxiv height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Fx.com\u002FTencentHunyuan target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHunyuan-black.svg?logo=x height=22px>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n[\u002F\u002F]: # (  \u003Ca href=# target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FReport-b5212f.svg?logo=arxiv height=22px>\u003C\u002Fa>)\n\n[\u002F\u002F]: # (  \u003Ca href=# target=\"_blank\">\u003Cimg src= https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FColab-8f2628.svg?logo=googlecolab height=22px>\u003C\u002Fa>)\n\n[\u002F\u002F]: # (  \u003Ca href=\"#\">\u003Cimg alt=\"PyPI - Downloads\" src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmulankit?logo=pypi\"  height=22px>\u003C\u002Fa>)\n\u003Cbr>\n\n# Hunyuan3D-Omni\n\nHunyuan3D-Omni 是一个用于可控生成 3D 资产的统一框架，继承了 Hunyuan3D 2.1 的结构。与之不同的是，Hunyuan3D-Omni 构建了一个统一的控制编码器，以引入额外的控制信号，包括点云、体素、骨骼和边界框。\n\n\u003Cp align=\"left\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent-Hunyuan_Hunyuan3D-Omni_readme_c4cd8c3a1e5f.jpg\">\n\u003C\u002Fp>\n\n### 多模态条件控制\n- **边界框控制**：生成受 3D 边界框约束的 3D 模型。\n- **姿态控制**：创建具有特定骨骼姿态的 3D 人体模型。\n- **点云控制**：根据输入点云生成 3D 模型。\n- **体素控制**：从体素表示创建 3D 模型。\n\n## 🎁 模型库\n\n生成过程需要 10 GB 显存。\n\n\n| 模型                      | 描述                 | 日期       | 大小 | HuggingFace                                                                               |\n|----------------------------|-----------------------------|------------|------|-------------------------------------------------------------------------------------------| \n| Hunyuan3D-Omni        | 具有多模态控制的图像到形状模型       | 2025-09-25 | 3.3B | [下载](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-Omni\u002Ftree\u002Fmain)         |\n\n\n## 安装\n\n### 需求\n我们使用 Python 3.10 测试我们的模型。\n```bash\npip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu124\npip install -r requirements.txt\n```\n\n## 使用\n\n### 推理\n\n#### 多模态推理\n```bash\npython3 inference.py --control_type \u003Ccontrol_type> [--use_ema] [--flashvdm]\n```\n`control_type` 参数有四个可选值：\n\n`point`：使用点云控制类型进行推理。  \n`voxel`：使用体素控制类型进行推理。  \n`bbox`：使用边界框控制类型进行推理。  \n`pose`：使用姿态控制类型进行推理。\n\n`--use_ema` 标志启用指数移动平均（EMA）模型，以获得更稳定的推理结果。\n\n`--flashvdm` 标志启用 FlashVDM 优化，以提高推理速度。\n\n请根据您的需求选择合适的 `control_type`。例如，如果您想使用 `point` 控制类型，可以运行：\n```bash\npython3 inference.py --control_type point \npython3 inference.py --control_type point --use_ema\npython3 inference.py --control_type point --flashvdm\n```\n\n## 致谢\n\n我们感谢以下项目的贡献者：[TripoSG](https:\u002F\u002Fgithub.com\u002FVAST-AI-Research\u002FTripoSG)、[CLAY](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.13897)、[Trellis](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FTRELLIS)、[DINOv2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdinov2)、[Stable Diffusion](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fstablediffusion)、[FLUX](https:\u002F\u002Fgithub.com\u002Fblack-forest-labs\u002Fflux)、[diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers)、[HuggingFace](https:\u002F\u002Fhuggingface.co)、[CraftsMan3D](https:\u002F\u002Fgithub.com\u002Fwyysf-98\u002FCraftsMan3D)、[Michelangelo](https:\u002F\u002Fgithub.com\u002FNeuralCarver\u002FMichelangelo\u002Ftree\u002Fmain)、[Hunyuan-DiT](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuanDiT)、[HunyuanVideo](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuanVideo)、[HunyuanWorld-1.0](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuanWorld-1.0)、[HunyuanWorld-Voyager](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuanWorld-Voyager)以及 [PoseMaster](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.21076)，感谢他们开放的研究与探索。\n\n## 引用\n\n如果您在研究中使用此代码，请引用：\n```bibtex\n@misc{hunyuan3d2025hunyuan3domni,\n      title={Hunyuan3D-Omni: 一个用于可控生成 3D 资产的统一框架}, \n      author={腾讯 Hunyuan3D 团队},\n      year={2025},\n      eprint={2509.21245},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2509.21245}, \n}\n\n@misc{hunyuan3d2025hunyuan3d,\n    title={Hunyuan3D 2.1：从图像到高保真 3D 资产，并配备可用于生产的 PBR 材质},\n    author={腾讯 Hunyuan3D 团队},\n    year={2025},\n    eprint={2506.15442},\n    archivePrefix={arXiv},\n    primaryClass={cs.CV}\n}\n\n@misc{hunyuan3d22025tencent,\n    title={Hunyuan3D 2.0：扩展扩散模型以生成高分辨率纹理 3D 资产},\n    author={腾讯 Hunyuan3D 团队},\n    year={2025},\n    eprint={2501.12202},\n    archivePrefix={arXiv},\n    primaryClass={cs.CV}\n}\n\n@misc{yang2024hunyuan3d,\n    title={Hunyuan3D 1.0：一个用于文本到 3D 和图像到 3D 生成的统一框架},\n    author={腾讯 Hunyuan3D 团队},\n    year={2024},\n    eprint={2411.02293},\n    archivePrefix={arXiv},\n    primaryClass={cs.CV}\n}\n```\n\n## 星标历史\n\n\u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#Tencent-Hunyuan\u002FHunyuan3D-Omni&Date\">\n \u003Cpicture>\n   \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent-Hunyuan_Hunyuan3D-Omni_readme_339a198ebabf.png&theme=dark\" \u002F>\n   \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent-Hunyuan_Hunyuan3D-Omni_readme_339a198ebabf.png\" \u002F>\n   \u003Cimg alt=\"星标历史图表\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent-Hunyuan_Hunyuan3D-Omni_readme_339a198ebabf.png\" \u002F>\n \u003C\u002Fpicture>\n\u003C\u002Fa>","# Hunyuan3D-Omni 快速上手指南\n\nHunyuan3D-Omni 是腾讯混元团队推出的统一 3D 资产可控生成框架。它在 Hunyuan3D 2.1 的基础上，引入了统一的控制编码器，支持通过点云、体素、骨架姿态和边界框等多种模态信号精确控制 3D 模型的生成。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐) 或 Windows\n*   **Python 版本**: 3.10 (已测试验证)\n*   **显卡要求**: 显存至少 **10 GB** (用于生成过程)\n*   **CUDA 版本**: 推荐 CUDA 12.4 (对应 PyTorch 2.5.1)\n\n## 安装步骤\n\n### 1. 安装 PyTorch\n根据官方推荐，首先安装与 CUDA 12.4 匹配的 PyTorch 核心组件：\n\n```bash\npip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu124\n```\n\n> **提示**：国内用户若下载缓慢，可尝试使用清华大学或阿里云镜像源替换 `--index-url` 后的地址。\n\n### 2. 安装项目依赖\n克隆项目代码后，进入目录并安装其余依赖包：\n\n```bash\npip install -r requirements.txt\n```\n\n### 3. 下载模型\n从 Hugging Face 下载预训练模型文件，并将其放置在项目指定的模型目录中（通常为 `weights` 或配置文件指定的路径）：\n*   **模型地址**: [Hunyuan3D-Omni on Hugging Face](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan3D-Omni)\n*   **模型大小**: 3.3B\n\n## 基本使用\n\n安装完成后，即可通过命令行进行多模态推理。工具支持四种控制类型：**点云 (`point`)**、**体素 (`voxel`)**、**边界框 (`bbox`)** 和 **姿态 (`pose`)**。\n\n### 基础推理命令\n\n以下是最简单的运行示例，以**点云控制**为例：\n\n```bash\npython3 inference.py --control_type point\n```\n\n### 进阶选项\n\n为了获得更稳定的生成结果或更快的推理速度，可以添加以下参数：\n\n*   `--use_ema`: 启用指数移动平均模型，提升生成稳定性。\n*   `--flashvdm`: 启用 FlashVDM 优化，显著加快推理速度。\n\n**组合使用示例：**\n\n```bash\n# 使用点云控制 + EMA 稳定模式\npython3 inference.py --control_type point --use_ema\n\n# 使用点云控制 + 加速模式\npython3 inference.py --control_type point --flashvdm\n\n# 同时启用 EMA 和加速\npython3 inference.py --control_type point --use_ema --flashvdm\n```\n\n### 切换控制类型\n\n只需更改 `--control_type` 参数即可切换不同的控制模态：\n\n```bash\n# 边界框控制\npython3 inference.py --control_type bbox\n\n# 姿态控制 (适用于人物模型)\npython3 inference.py --control_type pose\n\n# 体素控制\npython3 inference.py --control_type voxel\n```\n\n请根据您的输入数据格式（如点云文件、骨骼数据等）选择对应的控制类型，并确保输入数据已按照项目要求的格式准备好。","一家独立游戏工作室正在为即将上线的奇幻 RPG 项目紧急批量制作具有特定动作和体型约束的 NPC 角色模型。\n\n### 没有 Hunyuan3D-Omni 时\n- **动作匹配难**：美术师需先在建模软件中手动调整骨骼绑定以匹配预设战斗姿态，耗时且容易出错。\n- **尺寸反复调**：生成的模型常因比例不符场景碰撞箱，必须人工缩放并重新导出，导致迭代周期拉长。\n- **细节丢失严重**：仅靠文字描述或单张参考图生成时，复杂的盔甲结构往往模糊不清，缺乏几何精度。\n- **多源数据割裂**：无法直接利用现有的点云扫描数据或体素草图，必须从头开始建模，浪费前期资产。\n\n### 使用 Hunyuan3D-Omni 后\n- **精准姿态控制**：直接输入骨骼骨架数据（Pose Control），一键生成完全符合指定战斗动作的高精度人物模型。\n- **自动边界约束**：通过包围盒控制（Bounding Box Control），确保所有产出模型严格适配游戏引擎的物理碰撞范围。\n- **结构细节还原**：结合点云或体素引导（Point\u002FVoxel Control），将粗糙的概念草图瞬间转化为纹理清晰、结构严谨的 3D 资产。\n- **统一工作流**：在一个框架内同时处理图像、骨架、点云等多种控制信号，无需在不同工具间切换，大幅缩短生产管线。\n\nHunyuan3D-Omni 通过多模态条件控制技术，将原本需要数天的角色定制流程压缩至分钟级，实现了高质量 3D 资产的可控化批量生产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent-Hunyuan_Hunyuan3D-Omni_e432eb52.png","Tencent-Hunyuan","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FTencent-Hunyuan_c6e5ecd4.png","",null,"https:\u002F\u002Fhunyuan.tencent.com\u002F","https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,562,48,"2026-04-18T05:50:30","NOASSERTION","未说明","需要 NVIDIA GPU，显存 10GB，CUDA 12.4 (基于安装命令中的 cu124)",{"notes":91,"python":92,"dependencies":93},"生成过程需要 10GB 显存。支持多种控制模式（点云、体素、边界框、姿态）。可使用 --use_ema 参数获得更稳定的推理结果，或使用 --flashvdm 参数加速推理。","3.10",[94,95,96],"torch==2.5.1","torchvision==0.20.1","torchaudio==2.5.1",[15,98],"其他",[100,101,102,103,104,105,106],"3d","3d-aigc","3d-generation","hunyuan3d","image-to-3d","multimodal","shape","2026-03-27T02:49:30.150509","2026-04-19T03:05:12.378243",[],[]]