[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-shadow2496--VITON-HD":3,"tool-shadow2496--VITON-HD":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":79,"owner_email":81,"owner_twitter":79,"owner_website":79,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":94,"env_deps":95,"category_tags":103,"github_topics":104,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":111,"updated_at":112,"faqs":113,"releases":114},4071,"shadow2496\u002FVITON-HD","VITON-HD","Official PyTorch implementation of \"VITON-HD: High-Resolution Virtual Try-On via Misalignment-Aware Normalization\" (CVPR 2021)","VITON-HD 是一款基于 PyTorch 开源的高分辨率虚拟试衣工具，源自 KAIST 团队发表于 CVPR 2021 的研究成果。它致力于解决传统虚拟试衣技术生成的图像分辨率低（通常仅为 256x192）、细节模糊以及衣物与人体对齐不准导致伪影明显等痛点。通过引入独特的“错位感知归一化”机制，VITON-HD 能够合成高达 1024x768 分辨率的清晰试衣图像，在保留衣物纹理锐度的同时，自然处理衣物变形与人体姿态的融合问题。\n\n该工具的核心技术亮点在于其提出的 ALIAS（Alignment-Aware Segment）归一化模块与生成器架构。这一设计能有效引导合成过程，精准修复因衣物形变产生的错位区域，显著提升了最终图像的视觉质量与真实感。无论是定性观察还是定量评估，VITON-HD 的表现均大幅超越当时的基准方法。\n\nVITON-HD 主要面向计算机视觉领域的研究人员、AI 开发者以及时尚科技行业的技术团队。由于项目提供了完整的训练代码、预训练模型及高分辨率数据集接口，用户可快速复现论文结果或在此基础上进行二次开发。虽然普通用户难以直接运行命令行代码，但设计师和技术产品经理","VITON-HD 是一款基于 PyTorch 开源的高分辨率虚拟试衣工具，源自 KAIST 团队发表于 CVPR 2021 的研究成果。它致力于解决传统虚拟试衣技术生成的图像分辨率低（通常仅为 256x192）、细节模糊以及衣物与人体对齐不准导致伪影明显等痛点。通过引入独特的“错位感知归一化”机制，VITON-HD 能够合成高达 1024x768 分辨率的清晰试衣图像，在保留衣物纹理锐度的同时，自然处理衣物变形与人体姿态的融合问题。\n\n该工具的核心技术亮点在于其提出的 ALIAS（Alignment-Aware Segment）归一化模块与生成器架构。这一设计能有效引导合成过程，精准修复因衣物形变产生的错位区域，显著提升了最终图像的视觉质量与真实感。无论是定性观察还是定量评估，VITON-HD 的表现均大幅超越当时的基准方法。\n\nVITON-HD 主要面向计算机视觉领域的研究人员、AI 开发者以及时尚科技行业的技术团队。由于项目提供了完整的训练代码、预训练模型及高分辨率数据集接口，用户可快速复现论文结果或在此基础上进行二次开发。虽然普通用户难以直接运行命令行代码，但设计师和技术产品经理可借助其生成的高质量样图，探索下一代智能电商试衣应用的可行性。","## Our Team's Follow-up Research\n\n**1. [NEW!] PromptDresser (https:\u002F\u002Fgithub.com\u002Frlawjdghek\u002FPromptDresser) - Arxiv 24.12**\u003Cbr>\n2. StableVITON (https:\u002F\u002Fgithub.com\u002Frlawjdghek\u002FStableVITON) - CVPR 2024\u003Cbr>\n3. HR-VITON (https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON) - ECCV 2022\n\n# VITON-HD &mdash; Official PyTorch Implementation\n\n**\\*\\*\\*\\*\\* 2025-04-27: The link to the dataset has been updated. We apologize for the inconvenience. \\*\\*\\*\\*\\***\n\n![Teaser image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshadow2496_VITON-HD_readme_cc85e5db2766.png)\n\n> **VITON-HD: High-Resolution Virtual Try-On via Misalignment-Aware Normalization**\u003Cbr>\n> [Seunghwan Choi](https:\u002F\u002Fgithub.com\u002Fshadow2496)\\*\u003Csup>1\u003C\u002Fsup>, [Sunghyun Park](https:\u002F\u002Fpsh01087.github.io)\\*\u003Csup>1\u003C\u002Fsup>, [Minsoo Lee](https:\u002F\u002Fgithub.com\u002FMinsoo2022)\\*\u003Csup>1\u003C\u002Fsup>, [Jaegul Choo](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fjaegulchoo)\u003Csup>1\u003C\u002Fsup>\u003Cbr>\n> \u003Csup>1\u003C\u002Fsup>KAIST\u003Cbr>\n> In CVPR 2021. (* indicates equal contribution)\n\n> Paper: https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.16874\u003Cbr>\n> Project page: https:\u002F\u002Fpsh01087.github.io\u002FVITON-HD\n\n> **Abstract:** *The task of image-based virtual try-on aims to transfer a target clothing item onto the corresponding region of a person, which is commonly tackled by fitting the item to the desired body part and fusing the warped item with the person. While an increasing number of studies have been conducted, the resolution of synthesized images is still limited to low (e.g., 256x192), which acts as the critical limitation against satisfying online consumers. We argue that the limitation stems from several challenges: as the resolution increases, the artifacts in the misaligned areas between the warped clothes and the desired clothing regions become noticeable in the final results; the architectures used in existing methods have low performance in generating high-quality body parts and maintaining the texture sharpness of the clothes. To address the challenges, we propose a novel virtual try-on method called VITON-HD that successfully synthesizes 1024x768 virtual try-on images. Specifically, we first prepare the segmentation map to guide our virtual try-on synthesis, and then roughly fit the target clothing item to a given person's body. Next, we propose ALIgnment-Aware Segment (ALIAS) normalization and ALIAS generator to handle the misaligned areas and preserve the details of 1024x768 inputs. Through rigorous comparison with existing methods, we demonstrate that VITON-HD highly surpasses the baselines in terms of synthesized image quality both qualitatively and quantitatively.*\n\n## Dataset\n\nWe collected a 1024×768 virtual try-on dataset for **research purposes only**.\nYou can download the preprocessed dataset from [here](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1tLx8LRp-sxDp0EcYmYoV_vXdSc-jJ79w\u002Fview?usp=sharing).\nThe frontal-view woman and top-clothing image pairs are split into training and test sets with 11,647 and 2,032 pairs, respectively. \n\n## Installation\n\nClone this repository:\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fshadow2496\u002FVITON-HD.git\ncd .\u002FVITON-HD\u002F\n```\n\nInstall PyTorch and other dependencies:\n\n```\nconda create -y -n [ENV] python=3.8\nconda activate [ENV]\nconda install -y pytorch=[>=1.6.0] torchvision cudatoolkit=[>=9.2] -c pytorch\npip install opencv-python torchgeometry\n```\n\n## Pre-trained networks\n\nWe provide pre-trained networks and sample images from the test dataset. Please download `*.pkl` and test images from the [VITON-HD Google Drive folder](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F0B8kXrnobEVh9fnJHX3lCZzEtd20yUVAtTk5HdWk2OVV0RGl6YXc0NWhMOTlvb1FKX3Z1OUk?resourcekey=0-OIXHrDwCX8ChjypUbJo4fQ&usp=sharing) and unzip `*.zip` files. `test.py` assumes that the downloaded files are placed in `.\u002Fcheckpoints\u002F` and `.\u002Fdatasets\u002F` directories.\n\n## Testing\n\nTo generate virtual try-on images, run:\n\n```\nCUDA_VISIBLE_DEVICES=[GPU_ID] python test.py --name [NAME]\n```\n\nThe results are saved in the `.\u002Fresults\u002F` directory. You can change the location by specifying the `--save_dir` argument. To synthesize virtual try-on images with different pairs of a person and a clothing item, edit `.\u002Fdatasets\u002Ftest_pairs.txt` and run the same command.\n\n> [!Note]\n> The preprocessing code for clothing-agnostic person representation differs slightly in [HR-VITON](https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON).\n\n## License\n\nAll material is made available under [Creative Commons BY-NC 4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc\u002F4.0\u002F). You can **use, redistribute, and adapt** the material for **non-commercial purposes**, as long as you give appropriate credit by **citing our paper** and **indicate any changes** that you've made.\n\n## Citation\n\nIf you find this work useful for your research, please cite our paper:\n\n```\n@inproceedings{choi2021viton,\n  title={VITON-HD: High-Resolution Virtual Try-On via Misalignment-Aware Normalization},\n  author={Choi, Seunghwan and Park, Sunghyun and Lee, Minsoo and Choo, Jaegul},\n  booktitle={Proc. of the IEEE conference on computer vision and pattern recognition (CVPR)},\n  year={2021}\n}\n```\n","## 我们的团队后续研究\n\n**1. [新!] PromptDresser (https:\u002F\u002Fgithub.com\u002Frlawjdghek\u002FPromptDresser) - Arxiv 24.12**\u003Cbr>\n2. StableVITON (https:\u002F\u002Fgithub.com\u002Frlawjdghek\u002FStableVITON) - CVPR 2024\u003Cbr>\n3. HR-VITON (https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON) - ECCV 2022\n\n# VITON-HD — 官方 PyTorch 实现\n\n**\\*\\*\\*\\*\\* 2025-04-27：数据集链接已更新。由此带来的不便，我们深表歉意。\\*\\*\\*\\*\\***\n\n![预告图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshadow2496_VITON-HD_readme_cc85e5db2766.png)\n\n> **VITON-HD：基于错位感知归一化的高分辨率虚拟试穿**\u003Cbr>\n> [Seunghwan Choi](https:\u002F\u002Fgithub.com\u002Fshadow2496)\\*\u003Csup>1\u003C\u002Fsup>, [Sunghyun Park](https:\u002F\u002Fpsh01087.github.io)\\*\u003Csup>1\u003C\u002Fsup>, [Minsoo Lee](https:\u002F\u002Fgithub.com\u002FMinsoo2022)\\*\u003Csup>1\u003C\u002Fsup>, [Jaegul Choo](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fjaegulchoo)\u003Csup>1\u003C\u002Fsup>\u003Cbr>\n> \u003Csup>1\u003C\u002Fsup>KAIST\u003Cbr>\n> 收录于 CVPR 2021。（\\* 表示共同第一作者）\n\n> 论文：https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.16874\u003Cbr>\n> 项目页面：https:\u002F\u002Fpsh01087.github.io\u002FVITON-HD\n\n> **摘要：** *基于图像的虚拟试穿任务旨在将目标服装转移到人物相应区域，通常通过将服装拟合到指定的身体部位，并将其与人物图像融合来实现。尽管相关研究日益增多，但合成图像的分辨率仍然较低（例如 256×192），这成为满足在线消费者需求的关键瓶颈。我们认为，这一局限性源于几个挑战：随着分辨率的提高，变形后的服装与目标区域之间的错位部分在最终结果中会变得更加明显；现有方法所采用的网络架构在生成高质量人体部位以及保持服装纹理清晰度方面表现不佳。为应对这些挑战，我们提出了一种名为 VITON-HD 的新型虚拟试穿方法，能够成功合成 1024×768 分辨率的虚拟试穿图像。具体而言，我们首先准备分割图以指导虚拟试穿过程，然后将目标服装大致拟合到给定的人物身体上。接下来，我们提出了 ALIgnment-Aware Segment (ALIAS) 归一化和 ALIAS 生成器，用于处理错位区域并保留 1024×768 输入的细节。通过与现有方法的严格对比，我们证明 VITON-HD 在定性和定量两方面均显著优于基线方法，在合成图像质量上表现出色。*\n\n## 数据集\n\n我们收集了一个 1024×768 分辨率的虚拟试穿数据集，仅用于 **科研目的**。\n您可以从 [这里](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1tLx8LRp-sxDp0EcYmYoV_vXdSc-jJ79w\u002Fview?usp=sharing) 下载预处理后的数据集。\n该数据集包含正面视角的女性图像与上衣图像对，分为训练集和测试集，分别包含 11,647 对和 2,032 对。\n\n## 安装\n\n克隆本仓库：\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fshadow2496\u002FVITON-HD.git\ncd .\u002FVITON-HD\u002F\n```\n\n安装 PyTorch 及其他依赖项：\n\n```\nconda create -y -n [ENV] python=3.8\nconda activate [ENV]\nconda install -y pytorch=[>=1.6.0] torchvision cudatoolkit=[>=9.2] -c pytorch\npip install opencv-python torchgeometry\n```\n\n## 预训练模型\n\n我们提供了预训练模型和来自测试集的示例图像。请从 [VITON-HD Google Drive 文件夹](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F0B8kXrnobEVh9fnJHX3lCZzEtd20yUVAtTk5HdWk2OVV0RGl6YXc0NWhMOTlvb1FKX3Z1OUk?resourcekey=0-OIXHrDwCX8ChjypUbJo4fQ&usp=sharing) 下载 `*.pkl` 文件和测试图像，并解压 `*.zip` 文件。`test.py` 脚本假设下载的文件已放置在 `.\u002Fcheckpoints\u002F` 和 `.\u002Fdatasets\u002F` 目录中。\n\n## 测试\n\n要生成虚拟试穿图像，请运行：\n\n```\nCUDA_VISIBLE_DEVICES=[GPU_ID] python test.py --name [NAME]\n```\n\n结果将保存在 `.\u002Fresults\u002F` 目录中。您可以通过指定 `--save_dir` 参数来更改保存位置。要合成不同人物与服装组合的虚拟试穿图像，请编辑 `.\u002Fdatasets\u002Ftest_pairs.txt` 文件，然后运行相同的命令。\n\n> [!注意]\n> 用于服装无关的人体表示的预处理代码在 [HR-VITON](https:\u002F\u002Fgithub.com\u002Fsangyun884\u002FHR-VITON) 中略有不同。\n\n## 许可证\n\n所有材料均根据 [知识共享署名-非商业性使用 4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc\u002F4.0\u002F) 协议提供。您可以在 **非商业用途** 下 **使用、再分发和改编** 本材料，但需适当注明出处，即 **引用我们的论文**，并 **注明您所做的任何修改**。\n\n## 引用\n\n如果您认为本工作对您的研究有所帮助，请引用我们的论文：\n\n```\n@inproceedings{choi2021viton,\n  title={VITON-HD: High-Resolution Virtual Try-On via Misalignment-Aware Normalization},\n  author={Choi, Seunghwan and Park, Sunghyun and Lee, Minsoo and Choo, Jaegul},\n  booktitle={Proc. of the IEEE conference on computer vision and pattern recognition (CVPR)},\n  year={2021}\n}\n```","# VITON-HD 快速上手指南\n\nVITON-HD 是一个基于 PyTorch 的高分辨率虚拟试衣开源项目，能够生成 1024x768 分辨率的试衣图像，有效解决了传统方法在高分辨率下衣物错位和纹理模糊的问题。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐)\n*   **Python**: 3.8\n*   **PyTorch**: >= 1.6.0\n*   **CUDA**: >= 9.2\n*   **其他依赖**: torchvision, opencv-python, torchgeometry\n\n> **注意**：请确保您的显卡显存充足，以支持高分辨率图像的推理。\n\n## 安装步骤\n\n### 1. 克隆代码库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fshadow2496\u002FVITON-HD.git\ncd .\u002FVITON-HD\u002F\n```\n\n### 2. 创建并激活虚拟环境\n```bash\nconda create -y -n viton-hd python=3.8\nconda activate viton-hd\n```\n\n### 3. 安装深度学习框架\n*国内用户建议使用清华或中科大镜像源加速安装：*\n```bash\n# 使用清华镜像源安装 PyTorch (示例版本，可根据实际 CUDA 版本调整)\nconda install -y pytorch torchvision cudatoolkit -c pytorch -c https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fcloud\u002Fpytorch\u002F\n```\n*若上述命令不可用，请使用官方命令：*\n```bash\nconda install -y pytorch=[>=1.6.0] torchvision cudatoolkit=[>=9.2] -c pytorch\n```\n\n### 4. 安装其他 Python 依赖\n```bash\npip install opencv-python torchgeometry -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 5. 下载预训练模型与测试数据\n从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F0B8kXrnobEVh9fnJHX3lCZzEtd20yUVAtTk5HdWk2OVV0RGl6YXc0NWhMOTlvb1FKX3Z1OUk?resourcekey=0-OIXHrDwCX8ChjypUbJo4fQ&usp=sharing) 下载以下内容：\n*   `*.pkl` 预训练权重文件\n*   测试集图片及配对文件\n\n将下载的文件解压并放置到以下目录结构中：\n*   权重文件 -> `.\u002Fcheckpoints\u002F`\n*   数据集文件 -> `.\u002Fdatasets\u002F`\n\n*(注：如果无法访问 Google Drive，需自行寻找国内网盘搬运资源或联系作者获取)*\n\n## 基本使用\n\n完成环境配置和数据准备后，即可运行推理脚本生成虚拟试衣图像。\n\n### 运行测试命令\n将 `[GPU_ID]` 替换为您的显卡编号（如 0），`[NAME]` 替换为您在 checkpoints 中对应的模型名称（通常为实验名称）：\n\n```bash\nCUDA_VISIBLE_DEVICES=[GPU_ID] python test.py --name [NAME]\n```\n\n### 结果查看\n生成的试衣图像默认保存在 `.\u002Fresults\u002F` 目录下。\n\n### 自定义试衣配对\n若要尝试不同的人物与衣物组合，请编辑 `.\u002Fdatasets\u002Ftest_pairs.txt` 文件，修改其中的人物图像路径和衣物图像路径，然后重新运行上述命令即可。\n\n> **提示**：如需更改结果保存路径，可在命令中添加 `--save_dir` 参数指定新目录。","某时尚电商平台的运营团队正急需为夏季新款 T 恤制作高质量的模特上身效果图，以替代昂贵的线下实拍。\n\n### 没有 VITON-HD 时\n- **画质模糊无法满足需求**：传统虚拟试衣模型生成的图片分辨率通常仅为 256x192，放大后衣物纹理严重模糊，无法用于高清商品详情页。\n- **边缘拼接痕迹明显**：当衣物与模特身体姿态不完全匹配时，合成区域会出现明显的错位伪影，导致衣服看起来像“贴”在身上而非自然穿着。\n- **细节丢失严重**：现有架构难以在高分辨率下保持衣物原有的印花、褶皱等精细特征，导致商品展示效果大打折扣。\n- **依赖高昂的实拍成本**：由于自动化工具效果不佳，团队不得不雇佣模特进行多轮实拍，导致新品上线周期长且预算超支。\n\n### 使用 VITON-HD 后\n- **生成影院级高清图像**：VITON-HD 直接输出 1024x768 的高分辨率试衣图，衣物面料质感和纹理清晰可见，完全满足大屏展示标准。\n- **智能修复对齐瑕疵**：通过其特有的 ALIAS（对齐感知）归一化技术，工具能自动处理衣物变形与身体区域的错位，使融合边缘自然无痕。\n- **完美保留设计细节**：即使在高分辨率生成过程中，VITON-HD 也能精准维持衣物原本的图案锐度和复杂褶皱，真实还原设计初衷。\n- **大幅降本增效**：团队仅需提供平铺衣物图和模特图，即可批量生成高质量上身效果，将新品视觉素材的制作时间从数天缩短至几分钟。\n\nVITON-HD 通过突破分辨率瓶颈与解决对齐伪影难题，让电商企业能以极低成本获得媲美专业摄影的高清虚拟试衣效果。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshadow2496_VITON-HD_cc85e5db.png","shadow2496","Seunghwan Choi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fshadow2496_5b6120e4.jpg",null,"DAVIAN Lab, KAIST","dadadak4@gmail.com","https:\u002F\u002Fgithub.com\u002Fshadow2496",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,1134,247,"2026-04-01T03:47:35","NOASSERTION","Linux","必需 NVIDIA GPU，CUDA Toolkit >= 9.2，具体显存需求未说明（高分辨率生成通常建议 8GB+）","未说明",{"notes":96,"python":97,"dependencies":98},"1. 测试脚本通过 CUDA_VISIBLE_DEVICES 环境变量指定 GPU，暗示主要支持 Linux 环境。2. 需手动下载预训练模型 (*.pkl) 和测试数据集并放置于指定目录 (.\u002Fcheckpoints\u002F 和 .\u002Fdatasets\u002F)。3. 该工具专注于生成 1024x768 高分辨率虚拟试穿图像。4. 仅允许非商业用途 (CC BY-NC 4.0)。","3.8",[99,100,101,102],"pytorch>=1.6.0","torchvision","opencv-python","torchgeometry",[14,13],[105,106,107,108,109,110],"deep-learning","image-generation","normalization","virtual-try-on","viton","clothing-agnostic-representation","2026-03-27T02:49:30.150509","2026-04-06T09:08:01.985248",[],[]]