[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-HumanAIGC--Cloth2Tex":3,"tool-HumanAIGC--Cloth2Tex":64},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,2,"2026-04-06T11:32:50",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[43,15,13,14],"语言模型",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[15,16,52,61,13,62,43,14,63],"插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":90,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":109,"github_topics":79,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":110,"updated_at":111,"faqs":112,"releases":143},5263,"HumanAIGC\u002FCloth2Tex","Cloth2Tex","Cloth2Tex: A Customized Cloth Texture Generation Pipeline for 3D Virtual Try-On","Cloth2Tex 是一个专为 3D 虚拟试衣打造的定制化服装纹理生成流水线，由阿里巴巴 XR 实验室等机构联合研发。它主要解决了在将 2D 服装图片转化为 3D 模型时，难以自动生成高质量、贴合人体动态的精细纹理这一痛点。\n\n该工具的工作流程分为两个阶段：首先通过神经网格渲染技术，将参数化服装网格注册到目录图像上，确定 3D 服装形状并生成粗略纹理；随后利用基于大规模合成数据训练的图像转换网络，从粗略估计中恢复出逼真的细节纹理。目前开源版本主要提供了第一阶段的核心能力。其技术亮点在于巧妙结合了可微渲染与预训练潜在扩散模型（Latent Diffusion Models），实现了从单张或多张服装图到 3D UV 纹理的高效映射。\n\nCloth2Tex 非常适合从事计算机图形学、虚拟现实领域的研究人员，以及需要构建 3D 试衣系统的开发者使用。对于希望快速原型验证或深入研究 3D 服装重建算法的团队来说，这是一个极具参考价值的开源项目。需要注意的是，当前版本对运行环境（如 PyTorch、CUDA 版本及特定几何处理库）有较专业的要求，因此更偏向于具备一定深度学习工程能力的技术用户，而非","Cloth2Tex 是一个专为 3D 虚拟试衣打造的定制化服装纹理生成流水线，由阿里巴巴 XR 实验室等机构联合研发。它主要解决了在将 2D 服装图片转化为 3D 模型时，难以自动生成高质量、贴合人体动态的精细纹理这一痛点。\n\n该工具的工作流程分为两个阶段：首先通过神经网格渲染技术，将参数化服装网格注册到目录图像上，确定 3D 服装形状并生成粗略纹理；随后利用基于大规模合成数据训练的图像转换网络，从粗略估计中恢复出逼真的细节纹理。目前开源版本主要提供了第一阶段的核心能力。其技术亮点在于巧妙结合了可微渲染与预训练潜在扩散模型（Latent Diffusion Models），实现了从单张或多张服装图到 3D UV 纹理的高效映射。\n\nCloth2Tex 非常适合从事计算机图形学、虚拟现实领域的研究人员，以及需要构建 3D 试衣系统的开发者使用。对于希望快速原型验证或深入研究 3D 服装重建算法的团队来说，这是一个极具参考价值的开源项目。需要注意的是，当前版本对运行环境（如 PyTorch、CUDA 版本及特定几何处理库）有较专业的要求，因此更偏向于具备一定深度学习工程能力的技术用户，而非普通终端消费者。","\u003Cp align=\"center\">\n\n  \u003Ch1 align=\"center\">Cloth2Tex: A Customized Cloth Texture Generation Pipeline for 3D Virtual Try-On\u003C\u002Fh1>\n  \u003Ch2 align=\"center\">3DV 2024\u003C\u002Fh2>\n  \u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanAIGC_Cloth2Tex_readme_200dab435ac9.png\" alt=\"Logo\" width=\"100%\">\n  \u003C\u002Fdiv>\n  \n  \u003Cdiv class=\"is-size-5 publication-authors\">\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">Daiheng Gao\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">Xu Chen\u003C\u002Fa>\u003Csup>2,3\u003C\u002Fsup>,\u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">Xindi Zhang\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\n    \u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">Qi Wang\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\n    \u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">Ke Sun\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\n    \u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">Bang Zhang\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\n    \u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">Liefeng Bo\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\n    \u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">Qixing Huang\u003C\u002Fa>\u003Csup>4\u003C\u002Fsup>,\n    \u003C\u002Fspan>\n    \u003C\u002Fdiv>\n    \u003Cdiv class=\"is-size-5 publication-authors\">\n    \u003Cspan class=\"author-block\">\u003Csup>1\u003C\u002Fsup>Alibaba XR Lab,\u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\u003Csup>2\u003C\u002Fsup>ETH Zurich, Department of Computer Science,\u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\u003Csup>3\u003C\u002Fsup>Max Planck Institute for Intelligent Systems,\u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\u003Csup>4\u003C\u002Fsup>The University of Texas at Austin\u003C\u002Fspan>\n    \u003C\u002Fdiv>\n    \u003C\u002Fdiv>\n\n\n  \u003Cp align=\"center\">\n  \u003Cbr>\n\u003Cbr>\u003C\u002Fbr>\n    \u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04288'>\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-PDF-green?style=for-the-badge&logo=arXiv&logoColor=green' alt='Paper PDF'>\n    \u003C\u002Fa>\n    \u003Ca href='https:\u002F\u002Ftomguluson92.github.io\u002Fprojects\u002Fcloth2tex\u002F' style='padding-left: 0.5rem;'>\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCloth2Tex-Page-blue?style=for-the-badge&logo=Google%20chrome&logoColor=blue' alt='Project Page'>\n    \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=RFMNKe6supE\">\u003Cimg alt=\"youtube views\" title=\"Subscribe to my YouTube channel\" src=\"https:\u002F\u002Fimg.shields.io\u002Fyoutube\u002Fviews\u002FhZd6AYin2DE?logo=youtube&labelColor=ce4630&style=for-the-badge\"\u002F>\u003C\u002Fa>\n  \u003C\u002Fp>\n\u003C\u002Fp>\n  \u003C\u002Fp>\n\u003C\u002Fp>\n\n\u003Cbr \u002F>\n\n---\n## 1. Installation\n\nOur enviroment is *python3.8, pytorch1.13, cuda11.7*, you can change the following instructions that suitable for your settings.\n\n```shell\n    sudo apt-get update -y\n    sudo apt-get install libgl1\n    sudo apt-get install libboost-dev\n```\n\n- **pytorch3d** [code](https:\u002F\u002Fpytorch3d.org\u002F)\n- **psbody-mesh** [code](https:\u002F\u002Fgithub.com\u002FMPI-IS\u002Fmesh)\n- **Kaolin** [code](https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin)\n- **torch_geometric** [code](https:\u002F\u002Fdata.pyg.org\u002Fwhl\u002F)\n\n```\npip install torch_geometric\npip install pyg_lib-0.3.0+pt113cu117-cp38-cp38-linux_x86_64.whl\npip install torch_cluster-1.6.1+pt113cu117-cp38-cp38-linux_x86_64.whl\npip install torch_scatter-2.1.1+pt113cu117-cp38-cp38-linux_x86_64.whl\npip install torch_sparse-0.6.15+pt113cu117-cp38-cp38-linux_x86_64.whl\n```\n\n---\n\n## 2. Architecture\n\nCloth2Tex is composed of two phase: (1) **Coarse texture generation** and (2) **Fine texture completion**. Where Phase I is to determine the 3D garment shape and coarse texture. We do this by registering our parametric garment meshes onto catalog images using a neural mesh renderer. The pipeline’s Then Phase II is to recover fine textures from the coarse estimate of Phase I. We use image translation networks trained on large-scale data synthesized by pre-trained latent diffusion models.\n\nWe only made **Phase I** publicly available for now.\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanAIGC_Cloth2Tex_readme_564ec79a9da1.png)\n\n---\n\n## 3. Inference\n\n### Phase I (w\u002Fo automatic scaling mechanism)\n\n``` shell\npython phase1_inference.py --g 1_wy --s 1.2 --d \"20231017_wy\" --steps_one 501 --steps_two 1001\n```\n\nThe optimized results are saved in `experiments\u002F20231017_wy`, `x_texture_uv_1000.jpg` is the final UV texture.\n\nUsers can check it with **Blender**, remember you should only reserve one material, and remove other redundant materials for textured mesh.\n\n![img](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanAIGC_Cloth2Tex_readme_4cdcb2065014.png)\n\n\n#### (a) reference scale coefficient\n\nThe noteworthy thing here is that we are not make automatic scaling mechanism code publicly available, if you need it, you could self-implement it or manually adjust the `--s` (scale).\n\nDefault coefficient for test images:\n``` python\nper_scale_dict = {\"1_wy\": 1.1,\n                  \"2_Polo\": 0.8, # default 0.8\n                  \"3_Tshirt\": 0.9, # default 0.7\n                  \"4_shorts\": 0.75, # # default 0.7\n                  \"5_trousers\": 0.75,\n                  \"6_zipup\": 1.1,\n                  \"7_windcoat\": 0.65,\n                  \"9_jacket\": 1.0,\n                  \"11_skirt\": 1.0} \n```\n\n#### (b) The landmark detector\n\nWe are not going to release the 2D landmark detector. If you need an accurate 2D landmarks in accordance with **Cloth2Tex**, you can annotate it manually or train a simple 2D cloth landmark detector with the same definition from **Cloth2Tex**.\n\n### Phase II (Inpainting\u002FCompletion Network)\n\nWe are applying for the open-source of Phase II, we will update once approval procedure has finished.\n\n---\n\n## 4. Demo\n\n### Real world 3D Try-On\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanAIGC_Cloth2Tex_readme_07793870730d.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanAIGC_Cloth2Tex_readme_d08dc2b715f4.png)\n\nPlease check cloth2tex web page for animated visual results: [cloth2tex](https:\u002F\u002Ftomguluson92.github.io\u002Fprojects\u002Fcloth2tex\u002F) or check our youtube video [youtube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=RFMNKe6supE).\n\n---\n\n## 5. Citation\n\n```bibtex\n@article{gao2023cloth2tex,\n  title={Cloth2Tex: A Customized Cloth Texture Generation Pipeline for 3D Virtual Try-On},\n  author={Gao, Daiheng and Chen, Xu and Zhang, Xindi and Wang, Qi and Sun, Ke and Zhang, Bang and Bo, Liefeng and Huang, Qixing},\n  journal={arXiv preprint arXiv:2308.04288},\n  year={2023}\n}\n```","\u003Cp align=\"center\">\n\n  \u003Ch1 align=\"center\">Cloth2Tex：用于3D虚拟试穿的定制化服装纹理生成流水线\u003C\u002Fh1>\n  \u003Ch2 align=\"center\">3DV 2024\u003C\u002Fh2>\n  \u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanAIGC_Cloth2Tex_readme_200dab435ac9.png\" alt=\"Logo\" width=\"100%\">\n  \u003C\u002Fdiv>\n  \n  \u003Cdiv class=\"is-size-5 publication-authors\">\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">高代恒\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">陈旭\u003C\u002Fa>\u003Csup>2,3\u003C\u002Fsup>,\u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">张新迪\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\n    \u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">王琪\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\n    \u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">孙科\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\n    \u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">张邦\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\n    \u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">薄立峰\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\n    \u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\n        \u003Ca href=\"\">黄启星\u003C\u002Fa>\u003Csup>4\u003C\u002Fsup>,\n    \u003C\u002Fspan>\n    \u003C\u002Fdiv>\n    \u003Cdiv class=\"is-size-5 publication-authors\">\n    \u003Cspan class=\"author-block\">\u003Csup>1\u003C\u002Fsup>阿里巴巴XR实验室,\u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\u003Csup>2\u003C\u002Fsup>苏黎世联邦理工学院计算机科学系,\u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\u003Csup>3\u003C\u002Fsup>马克斯普朗克智能系统研究所,\u003C\u002Fspan>\n    \u003Cspan class=\"author-block\">\u003Csup>4\u003C\u002Fsup>德克萨斯大学奥斯汀分校\u003C\u002Fspan>\n    \u003C\u002Fdiv>\n    \u003C\u002Fdiv>\n\n\n  \u003Cp align=\"center\">\n  \u003Cbr>\n\u003Cbr>\u003C\u002Fbr>\n    \u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04288'>\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-PDF-green?style=for-the-badge&logo=arXiv&logoColor=green' alt='Paper PDF'>\n    \u003C\u002Fa>\n    \u003Ca href='https:\u002F\u002Ftomguluson92.github.io\u002Fprojects\u002Fcloth2tex\u002F' style='padding-left: 0.5rem;'>\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCloth2Tex-Page-blue?style=for-the-badge&logo=Google%20chrome&logoColor=blue' alt='Project Page'>\n    \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=RFMNKe6supE\">\u003Cimg alt=\"youtube views\" title=\"Subscribe to my YouTube channel\" src=\"https:\u002F\u002Fimg.shields.io\u002Fyoutube\u002Fviews\u002FhZd6AYin2DE?logo=youtube&labelColor=ce4630&style=for-the-badge\"\u002F>\u003C\u002Fa>\n  \u003C\u002Fp>\n\u003C\u002Fp>\n  \u003C\u002Fp>\n\u003C\u002Fp>\n\n\u003Cbr \u002F>\n\n---\n## 1. 安装\n\n我们的环境是 *python3.8、pytorch1.13、cuda11.7*，您可以根据自己的设置调整以下说明。\n\n```shell\n    sudo apt-get update -y\n    sudo apt-get install libgl1\n    sudo apt-get install libboost-dev\n```\n\n- **pytorch3d** [代码](https:\u002F\u002Fpytorch3d.org\u002F)\n- **psbody-mesh** [代码](https:\u002F\u002Fgithub.com\u002FMPI-IS\u002Fmesh)\n- **Kaolin** [代码](https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin)\n- **torch_geometric** [代码](https:\u002F\u002Fdata.pyg.org\u002Fwhl\u002F)\n\n```\npip install torch_geometric\npip install pyg_lib-0.3.0+pt113cu117-cp38-cp38-linux_x86_64.whl\npip install torch_cluster-1.6.1+pt113cu117-cp38-cp38-linux_x86_64.whl\npip install torch_scatter-2.1.1+pt113cu117-cp38-cp38-linux_x86_64.whl\npip install torch_sparse-0.6.15+pt113cu117-cp38-cp38-linux_x86_64.whl\n```\n\n---\n\n## 2. 架构\n\nCloth2Tex由两个阶段组成：(1) **粗略纹理生成** 和 (2) **精细纹理补全**。其中，第一阶段用于确定3D服装形状和粗略纹理。我们通过使用神经网格渲染器将参数化的服装网格注册到目录图像上来实现这一点。随后的第二阶段则从第一阶段的粗略估计中恢复精细纹理。我们使用在预训练潜在扩散模型合成的大规模数据上训练的图像转换网络来完成这一任务。\n\n目前我们仅公开了 **第一阶段**。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanAIGC_Cloth2Tex_readme_564ec79a9da1.png)\n\n---\n\n## 3. 推理\n\n### 第一阶段（无自动缩放机制）\n\n``` shell\npython phase1_inference.py --g 1_wy --s 1.2 --d \"20231017_wy\" --steps_one 501 --steps_two 1001\n```\n\n优化后的结果保存在 `experiments\u002F20231017_wy` 中，`x_texture_uv_1000.jpg` 是最终的UV纹理。\n\n用户可以使用 **Blender** 检查结果，记得只保留一种材质，并移除其他多余的材质以获得带有纹理的网格。\n\n![img](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanAIGC_Cloth2Tex_readme_4cdcb2065014.png)\n\n\n#### (a) 参考尺度系数\n\n值得注意的是，我们并未公开自动缩放机制的代码，如果您需要该功能，可以自行实现或手动调整 `--s` 参数（缩放比例）。\n\n测试图像的默认系数如下：\n``` python\nper_scale_dict = {\"1_wy\": 1.1,\n                  \"2_Polo\": 0.8, # 默认0.8\n                  \"3_Tshirt\": 0.9, # 默认0.7\n                  \"4_shorts\": 0.75, # 默认0.7\n                  \"5_trousers\": 0.75,\n                  \"6_zipup\": 1.1,\n                  \"7_windcoat\": 0.65,\n                  \"9_jacket\": 1.0,\n                  \"11_skirt\": 1.0} \n```\n\n#### (b) 特征点检测器\n\n我们不会发布2D特征点检测器。如果您需要与 **Cloth2Tex** 一致的精确2D特征点，可以手动标注，或者基于 **Cloth2Tex** 的定义训练一个简单的2D服装特征点检测器。\n\n### 第二阶段（修复\u002F补全网络）\n\n我们正在申请开放第二阶段的源代码，一旦审批流程完成，我们将及时更新。\n\n---\n\n## 4. 演示\n\n### 现实世界中的3D试穿\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanAIGC_Cloth2Tex_readme_07793870730d.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanAIGC_Cloth2Tex_readme_d08dc2b715f4.png)\n\n请访问cloth2tex网页查看动画效果：[cloth2tex](https:\u002F\u002Ftomguluson92.github.io\u002Fprojects\u002Fcloth2tex\u002F) 或观看我们的YouTube视频 [youtube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=RFMNKe6supE)。\n\n---\n\n## 5. 引用\n\n```bibtex\n@article{gao2023cloth2tex,\n  title={Cloth2Tex: A Customized Cloth Texture Generation Pipeline for 3D Virtual Try-On},\n  author={Gao, Daiheng and Chen, Xu and Zhang, Xindi and Wang, Qi and Sun, Ke and Zhang, Bang and Bo, Liefeng and Huang, Qixing},\n  journal={arXiv preprint arXiv:2308.04288},\n  year={2023}\n}\n```","# Cloth2Tex 快速上手指南\n\nCloth2Tex 是一个用于 3D 虚拟试衣的定制化服装纹理生成流水线（3DV 2024）。目前开源版本仅包含**第一阶段（Phase I）**：粗略纹理生成，用于确定 3D 服装形状及基础纹理。\n\n## 1. 环境准备\n\n本项目基于以下核心环境构建，请确保您的系统满足要求：\n- **操作系统**: Linux (推荐 Ubuntu)\n- **Python**: 3.8\n- **PyTorch**: 1.13\n- **CUDA**: 11.7\n\n### 系统级依赖\n在安装 Python 包之前，请先安装必要的系统库：\n\n```shell\nsudo apt-get update -y\nsudo apt-get install libgl1\nsudo apt-get install libboost-dev\n```\n\n### Python 依赖\n需要安装以下关键库（部分可能需要编译或下载特定版本的 wheel 文件）：\n- pytorch3d\n- psbody-mesh\n- Kaolin\n- torch_geometric 及其扩展包 (pyg_lib, torch_cluster, torch_scatter, torch_sparse)\n\n> **注意**：`torch_geometric` 相关扩展包需严格匹配 PyTorch 1.13 + CUDA 11.7 + Python 3.8 的版本。\n\n## 2. 安装步骤\n\n请按照以下顺序安装 Python 依赖。如果您有国内镜像源需求，可在 `pip` 命令后添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 加速下载（注意：特定的 `.whl` 文件可能需要手动下载后本地安装）。\n\n```shell\n# 安装基础几何处理库\npip install torch_geometric\n\n# 安装针对 pt113\u002Fcu117\u002Fpy38 编译的扩展包\n# 请确保已下载对应的 .whl 文件到当前目录，或替换为有效的远程链接\npip install pyg_lib-0.3.0+pt113cu117-cp38-cp38-linux_x86_64.whl\npip install torch_cluster-1.6.1+pt113cu117-cp38-cp38-linux_x86_64.whl\npip install torch_scatter-2.1.1+pt113cu117-cp38-cp38-linux_x86_64.whl\npip install torch_sparse-0.6.15+pt113cu117-cp38-cp38-linux_x86_64.whl\n\n# 其他依赖建议通过源码或官方渠道安装\n# pip install pytorch3d\n# pip install git+https:\u002F\u002Fgithub.com\u002FMPI-IS\u002Fmesh.git\n# pip install kaolin\n```\n\n## 3. 基本使用\n\n目前仅支持运行 **Phase I (粗略纹理生成)**。该阶段将参数化服装网格注册到目录图像上，生成基础 UV 纹理。\n\n### 运行推理\n执行以下命令开始生成（以测试图像 `1_wy` 为例）：\n\n```shell\npython phase1_inference.py --g 1_wy --s 1.2 --d \"20231017_wy\" --steps_one 501 --steps_two 1001\n```\n\n**参数说明：**\n- `--g`: 输入图像\u002F服装标识 (如 `1_wy`, `2_Polo` 等)。\n- `--s`: 缩放系数 (scale coefficient)。由于自动缩放机制未开源，需手动调整此参数以获得最佳效果。\n- `--d`: 输出实验目录名称。\n- `--steps_one` \u002F `--steps_two`: 优化步数。\n\n### 参考缩放系数\n针对不同服装类型，推荐的手动缩放系数如下（对应 `--s` 参数）：\n\n```python\nper_scale_dict = {\n    \"1_wy\": 1.1,\n    \"2_Polo\": 0.8, \n    \"3_Tshirt\": 0.9, \n    \"4_shorts\": 0.75, \n    \"5_trousers\": 0.75,\n    \"6_zipup\": 1.1,\n    \"7_windcoat\": 0.65,\n    \"9_jacket\": 1.0,\n    \"11_skirt\": 1.0\n}\n```\n\n### 结果查看\n- **输出位置**: 结果保存在 `experiments\u002F\u003C日期_标识>` 目录下。\n- **最终纹理**: `x_texture_uv_1000.jpg` 即为生成的最终 UV 纹理图。\n- **可视化**: 推荐使用 **Blender** 加载带纹理的网格模型。\n  > **提示**: 在 Blender 中查看时，请仅保留一个材质球，并移除其他冗余材质，以确保纹理正确显示。\n\n### 注意事项\n1. **关键点检测**: 项目未开源 2D  landmarks 检测器。如需高精度结果，请手动标注关键点或使用符合 Cloth2Tex 定义的训练自有检测模型。\n2. **第二阶段 (Phase II)**: 精细纹理补全网络（Inpainting\u002FCompletion）暂未开源，待审批完成后更新。","某时尚电商平台的 3D 视觉团队正致力于将新款夏季连衣裙快速转化为高保真的虚拟试穿模型，以适配其元宇宙购物应用。\n\n### 没有 Cloth2Tex 时\n- **纹理映射失真严重**：人工将 2D 商品图贴合到 3D 服装模型时，在袖口、褶皱等复杂几何结构处常出现拉伸变形或纹理断裂。\n- **细节还原度低**：布料特有的细微花纹和织物质感难以通过传统贴图技术保留，导致虚拟衣物看起来像廉价的塑料模型。\n- **制作周期漫长**：美术设计师需手动在 Blender 中反复调整 UV 展开和绘制遮罩，单件服装的精细化处理耗时数小时甚至数天。\n- **规模化成本高**：面对每日上百款的新品上架需求，依赖人工精修的模式导致人力成本激增，无法实现自动化批量生产。\n\n### 使用 Cloth2Tex 后\n- **自适应几何贴合**：Cloth2Tex 的第一阶段粗粒度生成能自动将参数化服装网格注册到商品图上，完美解决复杂褶皱处的纹理对齐难题。\n- **高保真质感复现**：利用潜在扩散模型合成的数据进行图像转换，Cloth2Tex 能智能补全并恢复布料的高频细节，使虚拟衣物具备照片级真实感。\n- **流程自动化提速**：只需运行推理脚本，系统即可在分钟内自动生成最终的 UV 纹理图（如 `x_texture_uv_1000.jpg`），将单件处理时间从小时级压缩至分钟级。\n- **无缝引擎集成**：生成的标准化纹理可直接导入 Blender 或游戏引擎，无需额外清理冗余材质，轻松支撑大规模新品快速上线。\n\nCloth2Tex 通过智能化的两阶段生成管线，彻底解决了 3D 虚拟试穿中纹理生成的质量与效率瓶颈，让高保真数字服装的大规模量产成为现实。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanAIGC_Cloth2Tex_4cdcb206.png","HumanAIGC","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHumanAIGC_9b5fe8cd.png","HumanAIGC Team,  Tongyi, Alibaba",null,"https:\u002F\u002Fgithub.com\u002FHumanAIGC",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,519,140,"2026-04-05T07:38:14","GPL-3.0",4,"Linux","需要 NVIDIA GPU，CUDA 11.7+ (基于 pytorch1.13 + cu117 的依赖包)","未说明",{"notes":95,"python":96,"dependencies":97},"1. 安装指令中包含 'apt-get'，表明主要支持 Linux 环境。2. 目前仅开源了第一阶段（粗纹理生成），第二阶段（精细纹理补全）尚未发布。3. 官方未提供自动缩放机制代码和 2D  landmarks 检测器，需手动调整缩放系数或自行训练\u002F标注 landmarks。4. 生成的纹理网格建议在 Blender 中查看，且需保留单一材质并移除冗余材质。5. 部分依赖库（如 pyg_lib, torch_cluster 等）提供了针对特定版本（pt113cu117, cp38）的预编译 wheel 文件安装命令。","3.8",[98,99,100,101,102,103,104,105,106,107,108],"pytorch==1.13","pytorch3d","psbody-mesh","kaolin","torch_geometric","pyg_lib","torch_cluster","torch_scatter","torch_sparse","libgl1","libboost-dev",[15,62],"2026-03-27T02:49:30.150509","2026-04-08T05:28:56.456527",[113,118,123,128,133,138],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},23860,"如何输入自定义的服装照片？推理命令中的参数代表什么？","Cloth2Tex 目前主要生成结构合理的 UV 纹理贴图，而非直接从单张照片生成完整的 3D 网格。推理命令 `python phase1_inference.py --g 1_wy --s 1.2 --d \"20231017_wy\" --steps_one 501 --steps_two 1001` 中，输入图像通常隐含在指定的实验目录或配置中（如 `--d` 参数指定的日期\u002F实验名文件夹）。该工具输出的是类似 `experiments\u002F20231017_trousers\u002F0_texture_uv_1000.jpg` 的 UV 贴图，而不是直接的 OBJ 格式 3D 模型。","https:\u002F\u002Fgithub.com\u002FHumanAIGC\u002FCloth2Tex\u002Fissues\u002F3",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},23861,"在哪里可以找到模板网格（template meshes）和对应的 UV 映射？","模板网格文件已发布在仓库的特定目录中。请检查以下路径获取 Polo 衫等类别的网格数据：`https:\u002F\u002Fgithub.com\u002FHumanAIGC\u002FCloth2Tex\u002Ftree\u002Fmain\u002Ftemplate\u002Freference\u002F2_Polo\u002Fmesh`。用户需注意部分已发布数据中可能存在类别重复（如 dress 和 skirt 相同）或缺失（如第 8 类）的情况。","https:\u002F\u002Fgithub.com\u002FHumanAIGC\u002FCloth2Tex\u002Fissues\u002F5",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},23862,"预训练模型和 Demo 代码是否开源可用？","Phase I（第一阶段）的推理不需要额外的预训练模型即可运行。但是，Phase II（第二阶段）的模型目前暂时无法开放。对于需要在 Colab 上运行的用户，可以参考社区提供的帮助或联系相关开发者获取执行支持。","https:\u002F\u002Fgithub.com\u002FHumanAIGC\u002FCloth2Tex\u002Fissues\u002F2",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},23863,"Phase II（第二阶段）代码何时发布？在等待期间有什么替代方案？","Phase II 的发布正在进行繁琐的审查流程，具体时间未定。建议用户在等待期间使用当前的 SOTA（最先进）技术作为替代方案，例如利用 ControlNet 和 Stable Diffusion 来处理不规则孔洞修复等任务，而无需等待官方发布。","https:\u002F\u002Fgithub.com\u002FHumanAIGC\u002FCloth2Tex\u002Fissues\u002F4",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},23864,"项目是否提供 Google Colab 演示或完整的工程代码？","由于后续的工程代码大量依赖 UE5（Unreal Engine 5），这部分内容无法上传至 GitHub。因此，该项目目前仅提供核心算法部分的代码，不包含完整的工程实现或官方的 Colab 演示笔记本。","https:\u002F\u002Fgithub.com\u002FHumanAIGC\u002FCloth2Tex\u002Fissues\u002F1",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},23865,"如何获取论文的补充材料（supp. material）链接？","截至当前 Issue 记录，维护者尚未在评论区直接提供补充材料的具体下载链接。建议用户查阅项目 README 文档中的引用论文部分，或关注仓库后续的更新公告以获取补充材料（通常包含更多关于模板工作的细节）。","https:\u002F\u002Fgithub.com\u002FHumanAIGC\u002FCloth2Tex\u002Fissues\u002F10",[]]