[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-sangyun884--HR-VITON":3,"tool-sangyun884--HR-VITON":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":76,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":91,"env_deps":92,"category_tags":106,"github_topics":107,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":151},8712,"sangyun884\u002FHR-VITON","HR-VITON","Official PyTorch implementation for the paper High-Resolution Virtual Try-On with Misalignment and Occlusion-Handled Conditions (ECCV 2022).","HR-VITON 是一款基于 PyTorch 开源的高分辨率虚拟试衣工具，源自 ECCV 2022 的研究成果。它的主要功能是将指定的服装图像自然地“穿”在人物照片上，生成逼真的试穿效果。\n\n传统虚拟试衣技术常因衣物形变与人体分割步骤缺乏信息交互，导致生成的图像出现衣物错位、边缘不自然，或在身体遮挡区域产生不合理的拉伸变形（即像素挤压伪影）。HR-VITON 通过创新的条件生成器模块，将衣物形变与分割图生成统一处理，实现了两阶段间的信息互通，从而有效消除了错位和遮挡带来的视觉瑕疵。此外，它还引入了判别器拒绝机制，自动过滤错误的分割预测，进一步保障生成质量。\n\n该工具特别适合计算机视觉领域的研究人员、AI 开发者以及从事时尚科技应用的设计师使用。由于需要配置深度学习环境并处理数据集，它目前更偏向专业技术人群，而非普通终端用户。其核心技术亮点在于统一的试衣条件生成架构与特征融合模块，为高分辨率下的复杂试衣场景提供了更稳定、清晰的解决方案。","# HR-VITON &mdash; Official PyTorch Implementation\n\u003C!-- This repository contains a PyTorch implementation for our paper \"High-Resolution Virtual Try-On with Misalignment and Occlusion-Handled Conditions\". -->\n\n**\\*\\*\\*\\*\\* New follow-up research by our team is available at https:\u002F\u002Fgithub.com\u002Frlawjdghek\u002FPromptDresser \\*\\*\\*\\*\\***\u003Cbr>\u003Cbr>\n\n## Our Team's Researches\n\n(1) PromptDresser (https:\u002F\u002Fgithub.com\u002Frlawjdghek\u002FPromptDresser) - Arxiv 24.12 \u003Cbr>\n(2) StableVITON (https:\u002F\u002Fgithub.com\u002Frlawjdghek\u002FStableVITON) - CVPR 2024 \u003Cbr>\n(3) VITON-HD (https:\u002F\u002Fgithub.com\u002Fshadow2496\u002FVITON-HD) - CVPR 2021 \u003Cbr>\n\n![Teaser image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangyun884_HR-VITON_readme_cd70ecd686a4.jpg)\n\n> **High-Resolution Virtual Try-On with Misalignment and Occlusion-Handled Conditions**\u003Cbr>\n> [Sangyun Lee](https:\u002F\u002Fgithub.com\u002Fsangyun884)\\*\u003Csup>1\u003C\u002Fsup>, [Gyojung Gu](https:\u002F\u002Fgithub.com\u002Fkoo616)\\*\u003Csup>2,3\u003C\u002Fsup>, [Sunghyun Park](https:\u002F\u002Fpsh01087.github.io)\u003Csup>2\u003C\u002Fsup>, [Seunghwan Choi](https:\u002F\u002Fgithub.com\u002Fshadow2496)\u003Csup>2\u003C\u002Fsup>, [Jaegul Choo](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fjaegulchoo)\u003Csup>2\u003C\u002Fsup>\u003Cbr>\n> \u003Csup>1\u003C\u002Fsup>Soongsil University, \u003Csup>2\u003C\u002Fsup>KAIST, \u003Csup>3\u003C\u002Fsup>Nestyle\u003Cbr>\n> In ECCV 2022 (* indicates equal contribution)\n\n> Paper: https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.14180\u003Cbr>\n> Project page: https:\u002F\u002Fkoo616.github.io\u002FHR-VITON\n\n> **Abstract:** *Image-based virtual try-on aims to synthesize an image of a person wearing a given clothing item. To solve the task, the existing methods warp the clothing item to fit the person's body and generate the segmentation map of the person wearing the item before fusing the item with the person. However, when the warping and the segmentation generation stages operate individually without information exchange, the misalignment between the warped clothes and the segmentation map occurs, which leads to the artifacts in the final image. The information disconnection also causes excessive warping near the clothing regions occluded by the body parts, so-called pixel-squeezing artifacts. To settle the issues, we propose a novel try-on condition generator as a unified module of the two stages (i.e., warping and segmentation generation stages). A newly proposed feature fusion block in the condition generator implements the information exchange, and the condition generator does not create any misalignment or pixel-squeezing artifacts. We also introduce discriminator rejection that filters out the incorrect segmentation map predictions and assures the performance of virtual try-on frameworks. Experiments on a high-resolution dataset demonstrate that our model successfully handles the misalignment and occlusion, and significantly outperforms the baselines.*\n\n## Installation\n\nClone this repository:\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON.git\ncd .\u002FHR-VITON\u002F\n```\n\nInstall PyTorch and other dependencies:\n\n```\nconda create -n {env_name} python=3.8\nconda activate {env_name}\nconda install pytorch torchvision torchaudio cudatoolkit=11.1 -c pytorch-lts -c nvidia\npip install opencv-python torchgeometry Pillow tqdm tensorboardX scikit-image scipy\n```\n\n## Dataset\nWe train and evaluate our model using the dataset from [VITON-HD: High-Resolution Virtual Try-On via Misalignment-Aware Normalization](https:\u002F\u002Fgithub.com\u002Fshadow2496\u002FVITON-HD).\n\nTo download the dataset, please check the following link https:\u002F\u002Fgithub.com\u002Fshadow2496\u002FVITON-HD.\n\nWe assume that you have downloaded it into `.\u002Fdata`.\n\n## Inference\n\nHere are the download links for each model checkpoint:\n\n- Try-on condition generator: [link](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1XJTCdRBOPVgVTmqzhVGFAgMm2NLkw5uQ\u002Fview?usp=sharing)\n- Try-on condition generator (discriminator): [link](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1T4V3cyRlY5sHVK7Quh_EJY5dovb5FxGX\u002Fview?usp=share_link)\n- Try-on image generator: [link](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1T5_YDUhYSSKPC_nZMk2NeC-XXUFoYeNy\u002Fview?usp=share_link)\n- AlexNet (LPIPS): [link](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1FF3BBSDIA3uavmAiuMH6YFCv09Lt8jUr\u002Fview?usp=sharing), we assume that you have downloaded it into `.\u002Feval_models\u002Fweights\u002Fv0.1`.\n\n```python\npython3 test_generator.py --occlusion --cuda {True} --test_name {test_name} --tocg_checkpoint {condition generator ckpt} --gpu_ids {gpu_ids} --gen_checkpoint {image generator ckpt} --datasetting unpaired --dataroot {dataset_path} --data_list {pair_list_textfile}\n```\n\n## Train try-on condition generator\n\n```python\npython3 train_condition.py --cuda {True} --gpu_ids {gpu_ids} --Ddownx2 --Ddropout --lasttvonly --interflowloss --occlusion\n```\n\n## Train try-on image generator\n\n```python\npython3 train_generator.py --cuda {True} --name test -b 4 -j 8 --gpu_ids {gpu_ids} --fp16 --tocg_checkpoint {condition generator ckpt path} --occlusion\n```\nThis stage takes approximately 4 days with two RTX 3090 GPUs. Tested environment: PyTorch 1.8.2+cu111.\n\nTo use \"--fp16\" option, you should install apex library.\n\n## License\n\nAll material is made available under [Creative Commons BY-NC 4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc\u002F4.0\u002F). You can **use, redistribute, and adapt** the material for **non-commercial purposes**, as long as you give appropriate credit by **citing our paper** and **indicate any changes** that you've made.\n\n## Citation\n\nIf you find this work useful for your research, please cite our paper:\n\n```\n@article{lee2022hrviton,\n  title={High-Resolution Virtual Try-On with Misalignment and Occlusion-Handled Conditions},\n  author={Lee, Sangyun and Gu, Gyojung and Park, Sunghyun and Choi, Seunghwan and Choo, Jaegul},\n  journal={arXiv preprint arXiv:2206.14180},\n  year={2022}\n}\n```\n","# HR-VITON — 官方 PyTorch 实现\n\u003C!-- 本仓库包含我们论文《处理错位与遮挡的高分辨率虚拟试穿》的 PyTorch 实现。 -->\n\n**\\*\\*\\*\\*\\* 我们团队的新后续研究已在 https:\u002F\u002Fgithub.com\u002Frlawjdghek\u002FPromptDresser 上发布 \\*\\*\\*\\*\\***\u003Cbr>\u003Cbr>\n\n## 我们团队的研究成果\n\n(1) PromptDresser (https:\u002F\u002Fgithub.com\u002Frlawjdghek\u002FPromptDresser) - ArXiv 2024年12月\u003Cbr>\n(2) StableVITON (https:\u002F\u002Fgithub.com\u002Frlawjdghek\u002FStableVITON) - CVPR 2024\u003Cbr>\n(3) VITON-HD (https:\u002F\u002Fgithub.com\u002Fshadow2496\u002FVITON-HD) - CVPR 2021\u003Cbr>\n\n![预告图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangyun884_HR-VITON_readme_cd70ecd686a4.jpg)\n\n> **处理错位与遮挡的高分辨率虚拟试穿**\u003Cbr>\n> [Sangyun Lee](https:\u002F\u002Fgithub.com\u002Fsangyun884)\\*\u003Csup>1\u003C\u002Fsup>, [Gyojung Gu](https:\u002F\u002Fgithub.com\u002Fkoo616)\\*\u003Csup>2,3\u003C\u002Fsup>, [Sunghyun Park](https:\u002F\u002Fpsh01087.github.io)\u003Csup>2\u003C\u002Fsup>, [Seunghwan Choi](https:\u002F\u002Fgithub.com\u002Fshadow2496)\u003Csup>2\u003C\u002Fsup>, [Jaegul Choo](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fjaegulchoo)\u003Csup>2\u003C\u002Fsup>\u003Cbr>\n> \u003Csup>1\u003C\u002Fsup>崇实大学，\u003Csup>2\u003C\u002Fsup>KAIST，\u003Csup>3\u003C\u002Fsup>Nestyle\u003Cbr>\n> 收录于 ECCV 2022（\\* 表示共同第一作者）\n\n> 论文：https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.14180\u003Cbr>\n> 项目页面：https:\u002F\u002Fkoo616.github.io\u002FHR-VITON\n\n> **摘要：** *基于图像的虚拟试穿旨在合成一个人穿着指定服装的图像。现有方法通常先将服装变形以贴合人体，再生成穿着该服装的人体分割图，最后将服装与人体融合。然而，当变形和分割生成这两个步骤独立进行、缺乏信息交互时，会导致变形后的服装与分割图之间出现错位，从而在最终图像中产生伪影。此外，这种信息断层还会导致在被身体部位遮挡的服装区域附近发生过度变形，即所谓的“像素挤压”伪影。为解决这些问题，我们提出了一种新颖的试穿条件生成器，作为变形和分割生成两个阶段的统一模块。该生成器中的新型特征融合模块实现了信息交互，从而避免了错位和像素挤压伪影的产生。同时，我们引入了判别器拒绝机制，用于过滤掉不正确的分割预测，确保虚拟试穿框架的性能。在高分辨率数据集上的实验表明，我们的模型能够有效处理错位与遮挡问题，并显著优于基线方法。*\n\n## 安装\n\n克隆本仓库：\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON.git\ncd .\u002FHR-VITON\u002F\n```\n\n安装 PyTorch 及其他依赖项：\n\n```\nconda create -n {env_name} python=3.8\nconda activate {env_name}\nconda install pytorch torchvision torchaudio cudatoolkit=11.1 -c pytorch-lts -c nvidia\npip install opencv-python torchgeometry Pillow tqdm tensorboardX scikit-image scipy\n```\n\n## 数据集\n我们使用来自 [VITON-HD: 基于错位感知归一化的高分辨率虚拟试穿](https:\u002F\u002Fgithub.com\u002Fshadow2496\u002FVITON-HD) 的数据集来训练和评估模型。\n请访问以下链接下载数据集：https:\u002F\u002Fgithub.com\u002Fshadow2496\u002FVITON-HD。\n假设您已将其下载至 `.\u002Fdata` 目录。\n\n## 推理\n\n以下是各模型检查点的下载链接：\n\n- 试穿条件生成器：[链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1XJTCdRBOPVgVTmqzhVGFAgMm2NLkw5uQ\u002Fview?usp=sharing)\n- 试穿条件生成器（带判别器）：[链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1T4V3cyRlY5sHVK7Quh_EJY5dovb5FxGX\u002Fview?usp=share_link)\n- 试穿图像生成器：[链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1T5_YDUhYSSKPC_nZMk2NeC-XXUFoYeNy\u002Fview?usp=share_link)\n- AlexNet (LPIPS)：[链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1FF3BBSDIA3uavmAiuMH6YFCv09Lt8jUr\u002Fview?usp=sharing)，假设您已将其下载至 `.\u002Feval_models\u002Fweights\u002Fv0.1`。\n\n```python\npython3 test_generator.py --occlusion --cuda {True} --test_name {test_name} --tocg_checkpoint {条件生成器检查点} --gpu_ids {gpu_ids} --gen_checkpoint {图像生成器检查点} --datasetting unpaired --dataroot {数据集路径} --data_list {配对列表文本文件}\n```\n\n## 训练试穿条件生成器\n\n```python\npython3 train_condition.py --cuda {True} --gpu_ids {gpu_ids} --Ddownx2 --Ddropout --lasttvonly --interflowloss --occlusion\n```\n\n## 训练试穿图像生成器\n\n```python\npython3 train_generator.py --cuda {True} --name test -b 4 -j 8 --gpu_ids {gpu_ids} --fp16 --tocg_checkpoint {条件生成器检查点路径} --occlusion\n```\n此阶段在两块 RTX 3090 显卡上大约需要 4 天。测试环境：PyTorch 1.8.2+cu111。\n若要使用 `--fp16` 选项，需安装 apex 库。\n\n## 许可证\n所有材料均依据 [知识共享署名-非商业性使用 4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc\u002F4.0\u002F) 协议开放。您可以在**非商业用途**下**使用、再分发和改编**这些材料，但必须通过**引用我们的论文**并**注明您所做的任何修改**来给予适当署名。\n\n## 引用\n如果您认为本工作对您的研究有所帮助，请引用我们的论文：\n\n```\n@article{lee2022hrviton,\n  title={High-Resolution Virtual Try-On with Misalignment and Occlusion-Handled Conditions},\n  author={Lee, Sangyun and Gu, Gyojung and Park, Sunghyun and Choi, Seunghwan and Choo, Jaegul},\n  journal={arXiv preprint arXiv:2206.14180},\n  year={2022}\n}\n```","# HR-VITON 快速上手指南\n\nHR-VITON 是一个用于高分辨率虚拟试衣的 PyTorch 实现，能够有效处理衣物与人体姿态的对齐偏差（Misalignment）及遮挡（Occlusion）问题。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐)\n*   **Python**: 3.8\n*   **CUDA**: 11.1 (对应 `cudatoolkit=11.1`)\n*   **GPU**: 建议使用 NVIDIA GPU (训练阶段推荐双卡 RTX 3090)\n*   **额外依赖**: 若需开启混合精度训练 (`--fp16`)，需预先安装 `apex` 库。\n\n## 安装步骤\n\n### 1. 克隆项目\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON.git\ncd .\u002FHR-VITON\u002F\n```\n\n### 2. 创建并激活虚拟环境\n```bash\nconda create -n hr-viton python=3.8\nconda activate hr-viton\n```\n\n### 3. 安装 PyTorch 及依赖\n> **注意**：国内用户建议使用清华或中科大镜像源加速下载。以下命令已调整为使用国内镜像源安装基础包，其余 pip 包也指定了国内源。\n\n```bash\n# 安装 PyTorch (指定 CUDA 11.1)\nconda install pytorch torchvision torchaudio cudatoolkit=11.1 -c pytorch-lts -c nvidia\n\n# 安装其他 Python 依赖 (使用清华镜像加速)\npip install opencv-python torchgeometry Pillow tqdm tensorboardX scikit-image scipy -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n*(可选) 若需使用 `--fp16` 参数训练，请另行安装 apex:*\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fapex\ncd apex\npip install -v --no-cache-dir . --global-option=\"--cpp_ext\" --global-option=\"--cuda_ext\"\n```\n\n## 基本使用 (推理演示)\n\n在运行推理前，请确保已完成以下步骤：\n1.  **数据集准备**：下载 [VITON-HD](https:\u002F\u002Fgithub.com\u002Fshadow2496\u002FVITON-HD) 数据集并放置于 `.\u002Fdata` 目录。\n2.  **模型权重下载**：从 README 提供的 Google Drive 链接下载以下检查点：\n    *   Try-on condition generator\n    *   Try-on image generator\n    *   AlexNet (LPIPS) -> 放置于 `.\u002Feval_models\u002Fweights\u002Fv0.1`\n\n### 执行推理\n将 `{condition generator ckpt}` 和 `{image generator ckpt}` 替换为实际下载的文件路径，`{dataset_path}` 替换为数据根目录，`{pair_list_textfile}` 替换为测试对列表文件路径。\n\n```bash\npython3 test_generator.py --occlusion --cuda {True} --test_name demo_test --tocg_checkpoint .\u002Fcheckpoints\u002Fcondition_gen.pth --gpu_ids 0 --gen_checkpoint .\u002Fcheckpoints\u002Fimage_gen.pth --datasetting unpaired --dataroot .\u002Fdata --data_list .\u002Fdata\u002Ftest_pairs.txt\n```\n\n*注：上述命令中的路径仅为示例，请根据实际文件位置修改。*","某时尚电商平台的运营团队正急需为秋季新品目录生成大量模特试穿图，以替代昂贵的线下实拍拍摄。\n\n### 没有 HR-VITON 时\n- **衣物与身体错位**：传统算法在将服装“变形”贴合人体时，生成的身体分割掩码与变形后的衣物无法对齐，导致袖口或衣摆处出现明显的重影和断裂伪影。\n- **遮挡区域失真**：当模特的手臂交叉在胸前遮挡住部分上衣时，旧模型会强行拉伸像素去填补被遮挡区域，产生严重的“像素挤压”现象，使布料纹理扭曲变形。\n- **高清细节丢失**：在处理高分辨率商品图时，由于缺乏有效的信息交互机制，生成的试穿图在领口、纽扣等关键细节处模糊不清，无法满足电商上架标准。\n- **人工修图成本高**：为了修复上述瑕疵，设计团队不得不花费大量时间对每张生成图进行手动 PS 修补，严重拖慢了新品上线节奏。\n\n### 使用 HR-VITON 后\n- **智能对齐消除伪影**：HR-VITON 通过统一的试穿条件生成模块，让衣物变形与身体分割阶段实时交换信息，彻底消除了衣物边缘的错位和重影问题。\n- **完美处理复杂遮挡**：面对手臂遮挡等复杂姿态，该工具能精准识别遮挡关系，不再错误地挤压像素，保留了衣物自然的垂坠感和纹理完整性。\n- **高清画质直达商用**：得益于高分辨率数据集的训练，HR-VITON 输出的图像清晰锐利，即使是细微的面料织纹也能完美呈现，直接达到广告级画质。\n- **自动化流程提效**：配合判别器拒绝机制，自动过滤不合格结果，团队无需人工干预即可批量产出高质量试穿图，将新品视觉素材的制作周期缩短了 80%。\n\nHR-VITON 通过解决高分辨率下的错位与遮挡难题，让虚拟试穿技术真正具备了替代商业实拍的生产力价值。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangyun884_HR-VITON_cd70ecd6.jpg","sangyun884","Sangyun Lee","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsangyun884_549f1d82.png",null,"sangyunl@andrew.cmu.edu","sang_yun_lee","sangyun884.github.io\u002Fabout\u002F","https:\u002F\u002Fgithub.com\u002Fsangyun884",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,915,191,"2026-04-10T15:02:32","Linux","必需 NVIDIA GPU。训练阶段测试环境为双 RTX 3090；CUDA 版本要求为 11.1 (cudatoolkit=11.1)。","未说明",{"notes":93,"python":94,"dependencies":95},"1. 训练图像生成器阶段若使用 '--fp16' 选项，需额外安装 apex 库。2. 官方测试环境为 PyTorch 1.8.2+cu111。3. 训练图像生成器在双 RTX 3090 上约需 4 天。4. 需手动下载 VITON-HD 数据集及多个模型检查点（包括条件生成器、图像生成器及 LPIPS 评估模型）。","3.8",[96,97,98,99,100,101,102,103,104,105],"pytorch>=1.8.2","torchvision","torchaudio","opencv-python","torchgeometry","Pillow","tqdm","tensorboardX","scikit-image","scipy",[15],[108,109,110,111,112],"image-generation","image-synthesis","virtual-try-on","virtual-tryon","virtual-tryon-ecommerce","2026-03-27T02:49:30.150509","2026-04-18T09:20:48.212784",[116,121,126,131,136,141,146],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},39022,"如何使用 CIHP_PGN 进行人体解析？需要注意什么？","该模型对像素非常敏感，建议使用与训练集相似的数据（如 'humans dataset'）。如果使用高分辨率图片，需要专用 GPU，否则可能会崩溃。建议先将图片缩小分辨率以加快处理速度并提高解析准确度，解析完成后再将结果调整回原始尺寸。此外，在 Google Colab 中如果遇到 TensorFlow 1.15 导入问题，可以尝试运行 `sudo update-alternatives --config python3` 并选择 Python 3.6。","https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON\u002Fissues\u002F12",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},39023,"应该使用哪个 DensePose 模型以及如何生成不带背景混合的 DensePose 图像？","可以使用 Detectron2 中的 DensePose 模型。安装后，使用 `apply_net.py` 脚本生成图像。默认生成的图像会与原始图像混合，若要去除混合效果，需修改源码：进入 `Densepose->densepose->vis->densepose_results.py` 文件，找到 `DensePoseResultsFineSegmentationVisualizer` 类，将 `alpha` 参数设置为 1。参考命令示例：`python apply_net.py show configs\u002Fdensepose_rcnn_R_50_FPN_s1x.yaml [模型 URL] image.jpg bbox,dp_segm -v`（去掉 bbox 参数可生成完整 densepose 图像）。","https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON\u002Fissues\u002F8",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},39024,"如何生成无服装人体图像（agnostic image）？","可以通过代码自动生成。参考 `cp_dataset.py` 文件中的模型实现（具体见第 49 行），或者参考 VITON-HD 仓库中的 `datasets.py` 文件（第 36 行）来获取无服装表示（agnostic representation）的生成逻辑。","https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON\u002Fissues\u002F13",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},39025,"测试新的人物和服装图片时出现 'cloth-mask' 文件缺失错误怎么办？","错误提示找不到 `cloth-mask` 文件是因为测试自定义数据时，必须手动生成服装掩码（cloth-mask）。项目没有提供自动为新图片生成该文件的脚本，用户需要自己通过预处理步骤制作对应的 mask 文件放入相应目录。","https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON\u002Fissues\u002F32",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},39026,"是否可以用全身服装图像（Full body outfit）训练模型？","作者未在使用包含全身的 dataset 上验证过性能，因此无法确认效果。但最近发布的 DressCode 数据集包含全身图像，建议使用该数据集进行训练并测试模型在全身场景下的表现。","https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON\u002Fissues\u002F9",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},39027,"数据预处理的具体流程和依赖模型是什么？","人体分割使用了 CIHP_PGN 的预训练模型（来自 Engineering-Course 仓库）；无服装图像和分割图是参照 VITON-HD 的方法获得的；DensePose 部分请使用 Detectron2。详细的预处理流程请参考项目论文（arxiv.org\u002Fpdf\u002F2206.14180.pdf）或查看相关的教程 Issue（如 Issue #45）。","https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON\u002Fissues\u002F1",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},39028,"训练数据对（train_pairs.txt）中的人和衣服 ID 不匹配是正常的吗？","是的，这是正常的。虽然论文中提到训练时使用的是模特身上已穿着的衣物，但在提供的 VITON-HD 数据集中，`train_pairs.txt` 文件故意包含了不匹配的人体和服装 ID，这是为了训练模型的虚拟试穿能力（将任意衣服穿到任意人身上），无需重新创建该文件。","https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON\u002Fissues\u002F4",[]]