[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-sangwoomo--instagan":3,"tool-sangwoomo--instagan":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":72,"owner_website":79,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":10,"env_os":102,"env_gpu":103,"env_ram":104,"env_deps":105,"category_tags":113,"github_topics":114,"view_count":24,"oss_zip_url":120,"oss_zip_packed_at":120,"status":17,"created_at":121,"updated_at":122,"faqs":123,"releases":158},9974,"sangwoomo\u002Finstagan","instagan","InstaGAN: Instance-aware Image Translation (ICLR 2019)","InstaGAN 是一款基于 PyTorch 开发的图像转换开源项目，曾发表于顶级会议 ICLR 2019。它专注于解决传统图像风格迁移中难以精准控制特定物体变化的难题。与以往将整张图作为整体处理的方法不同，InstaGAN 引入了“实例感知”机制，能够识别并独立处理图像中的多个具体对象（如人物、动物或衣物），在改变目标实例属性的同时，完美保留背景和其他无关元素的细节。\n\n该工具的核心技术亮点在于其独特的多实例生成架构，支持对图像中不同个体进行并行且独立的风格转换，特别适用于需要精细编辑复杂场景的研究任务。例如，它可以实现将图片中多条牛仔裤分别转换为裙子，或将羊群变为长颈鹿，而互不干扰。\n\n需要注意的是，由于涉及衣物替换等可能引发伦理争议的应用场景，官方明确建议避免将其用于此类敏感研究。InstaGAN 主要面向人工智能研究人员、计算机视觉开发者以及算法工程师，适合用于探索细粒度图像编辑、验证实例级生成理论或构建自定义的数据集转换流程。对于普通用户而言，由于其依赖命令行操作且需配置深度学习环境，使用门槛相对较高，更适合作为学术研究代码参考而非日常修图工具。","# InstaGAN: Instance-aware Image-to-Image Translation\n\n**Warning:** This repo contains a model which has potential ethical concerns. Remark that the task of jeans\u003C->skirt was a bad application and should not be used in future research. See the [twitter thread](https:\u002F\u002Ftwitter.com\u002FSashaMTL\u002Fstatus\u002F1453491661720391685) for the discussion.\n\n---\n\nPyTorch implementation of [\"InstaGAN: Instance-aware Image-to-Image Translation\"](https:\u002F\u002Fopenreview.net\u002Fforum?id=ryxwJhC9YX) (ICLR 2019).\nThe implementation is based on the [official CycleGAN](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Fpytorch-CycleGAN-and-pix2pix) code.\nOur major contributions are in `.\u002Fmodels\u002Finsta_gan_model.py` and `.\u002Fmodels\u002Fnetworks.py`.\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_readme_cf3a0519a3f8.png'>\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_readme_158bdac3d9c1.png'>\n\n\n## Getting Started\n### Installation\n\n- Clone this repository\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fsangwoomo\u002Finstagan\n```\n\n- Install PyTorch 0.4+ and torchvision from http:\u002F\u002Fpytorch.org and other dependencies (e.g., [visdom](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fvisdom) and [dominate](https:\u002F\u002Fgithub.com\u002FKnio\u002Fdominate)).\nYou can install all the dependencies by\n```\npip install -r requirements.txt\n```\n\n- For Conda users, you can use a script `.\u002Fscripts\u002Fconda_deps.sh` to install PyTorch and other libraries.\n\n- **Acknowledgment:** Installation scripts are from the [official CycleGAN](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Fpytorch-CycleGAN-and-pix2pix) code.\n\n\n### Download base datasets\n\n- Download [clothing-co-parsing (CCP)](https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fclothing-co-parsing) dataset:\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fclothing-co-parsing .\u002Fdatasets\u002Fclothing-co-parsing\n```\n\n- Download [multi-human parsing (MHP)](https:\u002F\u002Flv-mhp.github.io\u002F) dataset:\n```\n# Download \"LV-MHP-v1\" from the link and locate in .\u002Fdatasets\n```\n\n- Download [MS COCO](http:\u002F\u002Fcocodataset.org\u002F) dataset:\n```\n.\u002Fdatasets\u002Fdownload_coco.sh\n```\n\n### Generate two-domain datasets\n\n- Generate two-domain dataset for experiments:\n```\npython .\u002Fdatasets\u002Fgenerate_ccp_dataset.py --save_root .\u002Fdatasets\u002Fjeans2skirt_ccp --cat1 jeans --cat2 skirt\npython .\u002Fdatasets\u002Fgenerate_mhp_dataset.py --save_root .\u002Fdatasets\u002Fpants2skirt_mhp --cat1 pants --cat2 skirt\npython .\u002Fdatasets\u002Fgenerate_coco_dataset.py --save_root .\u002Fdatasets\u002Fshp2gir_coco --cat1 sheep --cat2 giraffe\n```\n- **Note:** Generated dataset contains images and corresponding masks, which are located in image folders (e.g., 'trainA') and mask folders (e.g., 'trainA_seg'), respectively.\nFor each image (e.g., '0001.png'), corresponding masks for each instance (e.g., '0001_0.png', '0001_1.png', ...) are provided.\n\n### Run experiments\n\n- Train a model:\n```\npython train.py --dataroot .\u002Fdatasets\u002Fjeans2skirt_ccp --model insta_gan --name jeans2skirt_ccp_instagan --loadSizeH 330 --loadSizeW 220 --fineSizeH 300 --fineSizeW 200 --niter 400 --niter_decay 200\npython train.py --dataroot .\u002Fdatasets\u002Fpants2skirt_mhp --model insta_gan --name pants2skirt_mhp_instagan --loadSizeH 270 --loadSizeW 180 --fineSizeH 240 --fineSizeW 160\npython train.py --dataroot .\u002Fdatasets\u002Fshp2gir_coco --model insta_gan --name shp2gir_coco_instagan --loadSizeH 220 --loadSizeW 220 --fineSizeH 200 --fineSizeW 200\n```\n\n- To view training results and loss plots, run `python -m visdom.server` and click the URL http:\u002F\u002Flocalhost:8097.\nTo see more intermediate results, check out `.\u002Fcheckpoints\u002Fexperiment_name\u002Fweb\u002Findex.html`.\n\n- For faster experiment, increase batch size and use more gpus:\n```\npython train.py --dataroot .\u002Fdatasets\u002Fshp2gir_coco --model insta_gan --name shp2gir_coco_instagan --loadSizeH 220 --loadSizeW 220 --fineSizeH 200 --fineSizeW 200 --batch_size 4 --gpu_ids 0,1,2,3\n```\n\n- Test the model:\n```\npython test.py --dataroot .\u002Fdatasets\u002Fjeans2skirt_ccp --model insta_gan --name jeans2skirt_ccp_instagan --loadSizeH 300 --loadSizeW 200 --fineSizeH 300 --fineSizeW 200\npython test.py --dataroot .\u002Fdatasets\u002Fpants2skirt_mhp --model insta_gan --name pants2skirt_mhp_instagan --loadSizeH 240 --loadSizeW 160 --fineSizeH 240 --fineSizeW 160 --ins_per 2 --ins_max 20\npython test.py --dataroot .\u002Fdatasets\u002Fshp2gir_coco --model insta_gan --name shp2gir_coco_instagan --loadSizeH 200 --loadSizeW 200 --fineSizeH 200 --fineSizeW 200 --ins_per 2 --ins_max 20\n```\n- The test results will be saved to a html file here: `.\u002Fresults\u002Fexperiment_name\u002Flatest_test\u002Findex.html`.\n\n\n### Apply a pre-trained model\n\n- You can download a pre-trained model (pants->skirt and\u002For sheep->giraffe) from the following [Google drive link](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F10TfnuqZ4tIVAQP23cgHxJQKuVeJusu85?usp=sharing).\nSave the pretrained model in `.\u002Fcheckpoints\u002F` directory.\n\n- We provide samples of two datasets (pants->skirt and sheep->giraffe) in this repository.\nTo test the model:\n```\npython test.py --dataroot .\u002Fdatasets\u002Fpants2skirt_mhp --model insta_gan --name pants2skirt_mhp_instagan --loadSizeH 240 --loadSizeW 160 --fineSizeH 240 --fineSizeW 160 --ins_per 2 --ins_max 20 --phase sample --epoch 200\npython test.py --dataroot .\u002Fdatasets\u002Fshp2gir_coco --model insta_gan --name shp2gir_coco_instagan --loadSizeH 200 --loadSizeW 200 --fineSizeH 200 --fineSizeW 200 --ins_per 2 --ins_max 20 --phase sample --epoch 200\n```\n\n\n## Results\n\nWe provide some translation results of our model.\nSee the [**link**](\u002Fdocs\u002Fmore_results.md) for more translation results.\n\n### 1. Fashion dataset (pants->skirt)\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_readme_5ad35d7d038f.png'>\n\n### 2. COCO dataset (sheep->giraffe)\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_readme_3dc85a6832c8.png'>\n\n### 3. Results on Google-searched images (pants->skirt)\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_readme_bfab3fe442d1.png'>\n\n### 4. Results on YouTube-searched videos (pants->skirt)\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_readme_8338394fffdb.png'>\n\n\n## Citation\nIf you use this code for your research, please cite our papers.\n```\n@inproceedings{\n    mo2019instagan,\n    title={InstaGAN: Instance-aware Image-to-Image Translation},\n    author={Sangwoo Mo and Minsu Cho and Jinwoo Shin},\n    booktitle={International Conference on Learning Representations},\n    year={2019},\n    url={https:\u002F\u002Fopenreview.net\u002Fforum?id=ryxwJhC9YX},\n}\n```\n","# InstaGAN：实例感知的图像到图像转换\n\n**警告：** 本仓库包含一个可能存在伦理问题的模型。请注意，牛仔裤\u003C->裙子的任务是一个不恰当的应用场景，未来研究中不应再使用。相关讨论请参见 [推特线程](https:\u002F\u002Ftwitter.com\u002FSashaMTL\u002Fstatus\u002F1453491661720391685)。\n\n---\n\nPyTorch 实现了论文 [\"InstaGAN: Instance-aware Image-to-Image Translation\"](https:\u002F\u002Fopenreview.net\u002Fforum?id=ryxwJhC9YX)（ICLR 2019）。该实现基于 [官方 CycleGAN](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Fpytorch-CycleGAN-and-pix2pix) 的代码。我们的主要贡献位于 `.\u002Fmodels\u002Finsta_gan_model.py` 和 `.\u002Fmodels\u002Fnetworks.py` 中。\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_readme_cf3a0519a3f8.png'>\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_readme_158bdac3d9c1.png'>\n\n\n## 快速入门\n### 安装\n\n- 克隆本仓库\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fsangwoomo\u002Finstagan\n```\n\n- 从 http:\u002F\u002Fpytorch.org 安装 PyTorch 0.4+ 和 torchvision，以及其他依赖项（例如 [visdom](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fvisdom) 和 [dominate](https:\u002F\u002Fgithub.com\u002FKnio\u002Fdominate)）。您可以通过以下命令安装所有依赖：\n```\npip install -r requirements.txt\n```\n\n- 对于 Conda 用户，可以使用脚本 `.\u002Fscripts\u002Fconda_deps.sh` 来安装 PyTorch 和其他库。\n\n- **致谢：** 安装脚本源自 [官方 CycleGAN](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Fpytorch-CycleGAN-and-pix2pix) 的代码。\n\n\n### 下载基础数据集\n\n- 下载 [clothing-co-parsing (CCP)](https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fclothing-co-parsing) 数据集：\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fclothing-co-parsing .\u002Fdatasets\u002Fclothing-co-parsing\n```\n\n- 下载 [multi-human parsing (MHP)](https:\u002F\u002Flv-mhp.github.io\u002F) 数据集：\n```\n# 从链接下载“LV-MHP-v1”，并将其放置在 .\u002Fdatasets 目录下\n```\n\n- 下载 [MS COCO](http:\u002F\u002Fcocodataset.org\u002F) 数据集：\n```\n.\u002Fdatasets\u002Fdownload_coco.sh\n```\n\n### 生成双域数据集\n\n- 为实验生成双域数据集：\n```\npython .\u002Fdatasets\u002Fgenerate_ccp_dataset.py --save_root .\u002Fdatasets\u002Fjeans2skirt_ccp --cat1 jeans --cat2 skirt\npython .\u002Fdatasets\u002Fgenerate_mhp_dataset.py --save_root .\u002Fdatasets\u002Fpants2skirt_mhp --cat1 pants --cat2 skirt\npython .\u002Fdatasets\u002Fgenerate_coco_dataset.py --save_root .\u002Fdatasets\u002Fshp2gir_coco --cat1 sheep --cat2 giraffe\n```\n- **注意：** 生成的数据集包含图像及其对应的掩码，分别位于图像文件夹（如 'trainA'）和掩码文件夹（如 'trainA_seg'）中。对于每张图像（如 '0001.png'），都会提供对应每个实例的掩码（如 '0001_0.png', '0001_1.png', ...）。\n\n### 运行实验\n\n- 训练模型：\n```\npython train.py --dataroot .\u002Fdatasets\u002Fjeans2skirt_ccp --model insta_gan --name jeans2skirt_ccp_instagan --loadSizeH 330 --loadSizeW 220 --fineSizeH 300 --fineSizeW 200 --niter 400 --niter_decay 200\npython train.py --dataroot .\u002Fdatasets\u002Fpants2skirt_mhp --model insta_gan --name pants2skirt_mhp_instagan --loadSizeH 270 --loadSizeW 180 --fineSizeH 240 --fineSizeW 160\npython train.py --dataroot .\u002Fdatasets\u002Fshp2gir_coco --model insta_gan --name shp2gir_coco_instagan --loadSizeH 220 --loadSizeW 220 --fineSizeH 200 --fineSizeW 200\n```\n\n- 要查看训练结果和损失曲线，请运行 `python -m visdom.server`，然后点击 http:\u002F\u002Flocalhost:8097。如需查看更多中间结果，可访问 `.\u002Fcheckpoints\u002Fexperiment_name\u002Fweb\u002Findex.html`。\n\n- 为了加快实验速度，可以增加批量大小并使用更多 GPU：\n```\npython train.py --dataroot .\u002Fdatasets\u002Fshp2gir_coco --model insta_gan --name shp2gir_coco_instagan --loadSizeH 220 --loadSizeW 220 --fineSizeH 200 --fineSizeW 200 --batch_size 4 --gpu_ids 0,1,2,3\n```\n\n- 测试模型：\n```\npython test.py --dataroot .\u002Fdatasets\u002Fjeans2skirt_ccp --model insta_gan --name jeans2skirt_ccp_instagan --loadSizeH 300 --loadSizeW 200 --fineSizeH 300 --fineSizeW 200\npython test.py --dataroot .\u002Fdatasets\u002Fpants2skirt_mhp --model insta_gan --name pants2skirt_mhp_instagan --loadSizeH 240 --loadSizeW 160 --fineSizeH 240 --fineSizeW 160 --ins_per 2 --ins_max 20\npython test.py --dataroot .\u002Fdatasets\u002Fshp2gir_coco --model insta_gan --name shp2gir_coco_instagan --loadSizeH 200 --loadSizeW 200 --fineSizeH 200 --fineSizeW 200 --ins_per 2 --ins_max 20\n```\n- 测试结果将保存到 HTML 文件中：`.\u002Fresults\u002Fexperiment_name\u002Flatest_test\u002Findex.html`。\n\n\n### 应用预训练模型\n\n- 您可以从以下 [Google Drive 链接](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F10TfnuqZ4tIVAQP23cgHxJQKuVeJusu85?usp=sharing) 下载预训练模型（裤子→裙子和\u002F或绵羊→长颈鹿）。请将预训练模型保存到 `.\u002Fcheckpoints\u002F` 目录中。\n\n- 我们在此仓库中提供了两个数据集的示例（裤子→裙子和绵羊→长颈鹿）。要测试模型：\n```\npython test.py --dataroot .\u002Fdatasets\u002Fpants2skirt_mhp --model insta_gan --name pants2skirt_mhp_instagan --loadSizeH 240 --loadSizeW 160 --fineSizeH 240 --fineSizeW 160 --ins_per 2 --ins_max 20 --phase sample --epoch 200\npython test.py --dataroot .\u002Fdatasets\u002Fshp2gir_coco --model insta_gan --name shp2gir_coco_instagan --loadSizeH 200 --loadSizeW 200 --fineSizeH 200 --fineSizeW 200 --ins_per 2 --ins_max 20 --phase sample --epoch 200\n```\n\n\n## 结果\n\n我们提供了一些模型的翻译结果。更多翻译结果请参见 [**链接**](\u002Fdocs\u002Fmore_results.md)。\n\n### 1. 时尚数据集（裤子→裙子）\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_readme_5ad35d7d038f.png'>\n\n### 2. COCO 数据集（绵羊→长颈鹿）\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_readme_3dc85a6832c8.png'>\n\n### 3. 基于 Google 搜索图片的结果（裤子→裙子）\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_readme_bfab3fe442d1.png'>\n\n### 4. 基于 YouTube 搜索视频的结果（裤子→裙子）\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_readme_8338394fffdb.png'>\n\n\n## 引用\n如果您在研究中使用此代码，请引用我们的论文。\n```\n@inproceedings{\n    mo2019instagan,\n    title={InstaGAN: Instance-aware Image-to-Image Translation},\n    author={Sangwoo Mo and Minsu Cho and Jinwoo Shin},\n    booktitle={International Conference on Learning Representations},\n    year={2019},\n    url={https:\u002F\u002Fopenreview.net\u002Fforum?id=ryxwJhC9YX},\n}\n```","# InstaGAN 快速上手指南\n\nInstaGAN 是一个基于 PyTorch 的实例感知图像到图像翻译模型（ICLR 2019），特别适用于需要保留对象实例细节的风格迁移任务（如服装变换、动物转换）。\n\n> **⚠️ 伦理警告**：本仓库包含涉及伦理争议的模型（如牛仔裤\u003C->裙子任务）。该特定应用场景不建议用于未来的研究或实际部署。请参阅相关讨论了解详细信息。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux 或 macOS (Windows 需自行配置兼容环境)\n*   **Python**: 推荐 Python 3.6+\n*   **深度学习框架**: PyTorch 0.4+ 及 torchvision\n*   **硬件**: 推荐使用 NVIDIA GPU 以加速训练和推理\n*   **其他依赖**: `visdom` (可视化), `dominate` (HTML 生成)\n\n**国内加速建议**：\n安装 Python 依赖时，建议使用清华或阿里镜像源以提升下载速度：\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 2. 安装步骤\n\n### 2.1 克隆仓库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fsangwoomo\u002Finstagan\ncd instagan\n```\n\n### 2.2 安装依赖\n您可以选择自动安装或手动安装。\n\n**方式 A：自动安装（推荐）**\n```bash\npip install -r requirements.txt\n```\n*Conda 用户可使用脚本安装：*\n```bash\n.\u002Fscripts\u002Fconda_deps.sh\n```\n\n**方式 B：手动安装 PyTorch**\n如果自动脚本失败，请访问 [PyTorch 官网](https:\u002F\u002Fpytorch.org) 根据您的 CUDA 版本安装对应的 PyTorch 和 torchvision，然后安装其余依赖：\n```bash\npip install visdom dominate\n```\n\n### 2.3 准备数据集\n本项目主要使用 Clothing-Co-Parsing (CCP), Multi-Human Parsing (MHP) 和 MS COCO 数据集。\n\n**下载基础数据集：**\n```bash\n# 下载 CCP 数据集\ngit clone https:\u002F\u002Fgithub.com\u002Fbearpaw\u002Fclothing-co-parsing .\u002Fdatasets\u002Fclothing-co-parsing\n\n# 下载 MHP 数据集 (需手动从官网下载 LV-MHP-v1 并放入 .\u002Fdatasets 目录)\n# 链接：https:\u002F\u002Flv-mhp.github.io\u002F\n\n# 下载 COCO 数据集\n.\u002Fdatasets\u002Fdownload_coco.sh\n```\n\n**生成双域实验数据集：**\n运行以下脚本生成包含图像和对应实例掩码（masks）的数据集：\n```bash\n# 示例：生成 牛仔裤 \u003C-> 裙子 数据集\npython .\u002Fdatasets\u002Fgenerate_ccp_dataset.py --save_root .\u002Fdatasets\u002Fjeans2skirt_ccp --cat1 jeans --cat2 skirt\n\n# 示例：生成 裤子 \u003C-> 裙子 数据集 (MHP)\npython .\u002Fdatasets\u002Fgenerate_mhp_dataset.py --save_root .\u002Fdatasets\u002Fpants2skirt_mhp --cat1 pants --cat2 skirt\n\n# 示例：生成 羊 \u003C-> 长颈鹿 数据集 (COCO)\npython .\u002Fdatasets\u002Fgenerate_coco_dataset.py --save_root .\u002Fdatasets\u002Fshp2gir_coco --cat1 sheep --cat2 giraffe\n```\n\n## 3. 基本使用\n\n### 3.1 训练模型\n以下命令以“牛仔裤转裙子”任务为例启动训练。训练过程中可通过 Visdom 监控损失和结果。\n\n```bash\n# 启动训练\npython train.py --dataroot .\u002Fdatasets\u002Fjeans2skirt_ccp --model insta_gan --name jeans2skirt_ccp_instagan --loadSizeH 330 --loadSizeW 220 --fineSizeH 300 --fineSizeW 200 --niter 400 --niter_decay 200\n```\n\n**查看训练进度：**\n在新终端窗口运行：\n```bash\npython -m visdom.server\n```\n然后在浏览器访问 `http:\u002F\u002Flocalhost:8097`。\n\n**多 GPU 加速训练（可选）：**\n```bash\npython train.py --dataroot .\u002Fdatasets\u002Fshp2gir_coco --model insta_gan --name shp2gir_coco_instagan --loadSizeH 220 --loadSizeW 220 --fineSizeH 200 --fineSizeW 200 --batch_size 4 --gpu_ids 0,1,2,3\n```\n\n### 3.2 测试模型\n训练完成后，使用以下命令对测试集进行推理：\n\n```bash\npython test.py --dataroot .\u002Fdatasets\u002Fjeans2skirt_ccp --model insta_gan --name jeans2skirt_ccp_instagan --loadSizeH 300 --loadSizeW 200 --fineSizeH 300 --fineSizeW 200\n```\n测试结果将保存在 `.\u002Fresults\u002Fjeans2skirt_ccp_instagan\u002Flatest_test\u002Findex.html`。\n\n### 3.3 使用预训练模型\n如果您不想从头训练，可以下载官方提供的预训练模型（如 pants->skirt 或 sheep->giraffe）。\n\n1.  从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F10TfnuqZ4tIVAQP23cgHxJQKuVeJusu85?usp=sharing) 下载模型文件。\n2.  将下载的文件夹放入 `.\u002Fcheckpoints\u002F` 目录中。\n3.  运行测试命令（注意添加 `--phase sample` 和 `--epoch` 参数）：\n\n```bash\npython test.py --dataroot .\u002Fdatasets\u002Fpants2skirt_mhp --model insta_gan --name pants2skirt_mhp_instagan --loadSizeH 240 --loadSizeW 160 --fineSizeH 240 --fineSizeW 160 --ins_per 2 --ins_max 20 --phase sample --epoch 200\n```","某时尚电商平台的视觉团队需要批量将模特图库中的牛仔裤造型转换为短裙造型，以快速测试新季度的营销素材效果。\n\n### 没有 instagan 时\n- **实例感知缺失**：传统图像转换模型（如 CycleGAN）将整张图视为整体处理，无法区分“裤子”与背景或其他衣物，导致转换时背景扭曲或上衣纹理错乱。\n- **多目标处理失效**：当画面中出现多位模特或多条裤子时，模型无法独立识别每个实例，往往只转换最显著的目标或产生重影伪影。\n- **细节保留困难**：强制全局风格迁移会丢失模特的姿态细节和皮肤质感，生成的图片看起来像“换头”而非自然的服装替换。\n- **人工修图成本高**：设计师不得不手动逐张使用 Photoshop 进行抠图和合成，处理数百张测试图需耗费数天时间。\n\n### 使用 instagan 后\n- **精准实例定位**：instagan 利用分割掩码（Mask）精准锁定每一条牛仔裤实例，仅对目标区域进行风格迁移，完美保持背景和人物其他部位不变。\n- **支持多实例并发**：即使单张照片中有多位模特穿着牛仔裤，instagan 也能逐一识别并独立转换为短裙，互不干扰且逻辑清晰。\n- **几何结构保持**：通过实例感知的生成机制，转换后的短裙能自然贴合模特腿部曲线，保留了原有的光影、褶皱及皮肤质感。\n- **自动化流水线**：团队只需准备好带标注的数据集，运行训练脚本即可批量生成高质量对比图，将原本数天的工作量缩短至几小时。\n\ninstagan 的核心价值在于突破了传统图像翻译的全局限制，实现了对图中特定物体的精细化、多实例可控编辑。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsangwoomo_instagan_cf3a0519.png","sangwoomo","Sangwoo Mo","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsangwoomo_7d0f7e8d.png","AI Researcher","University of Michigan","Ann Arbor, MI","aiden.swmo@gmail.com","https:\u002F\u002Fsites.google.com\u002Fview\u002Fsangwoomo","https:\u002F\u002Fgithub.com\u002Fsangwoomo",[82,86,90,94],{"name":83,"color":84,"percentage":85},"Python","#3572A5",71.5,{"name":87,"color":88,"percentage":89},"HTML","#e34c26",25.1,{"name":91,"color":92,"percentage":93},"Shell","#89e051",2.2,{"name":95,"color":96,"percentage":97},"TeX","#3D6117",1.1,844,157,"2026-04-05T09:22:43","NOASSERTION","Linux, macOS","需要 NVIDIA GPU（基于 PyTorch CycleGAN 架构），具体型号和显存未说明，但支持多卡并行（--gpu_ids 0,1,2,3）","未说明",{"notes":106,"python":107,"dependencies":108},"该代码库基于较旧的 PyTorch 0.4+ 版本开发，现代环境可能需要调整兼容性。包含伦理警告：'jeans\u003C->skirt'（牛仔裤 \u003C-> 裙子）的任务被视为不良应用，不建议用于未来研究。提供 Conda 安装脚本 (.\u002Fscripts\u002Fconda_deps.sh)。训练和测试需要预先下载并处理特定数据集（如 CCP, MHP, COCO）。","未说明 (需配合 PyTorch 0.4+)",[109,110,111,112],"torch>=0.4","torchvision","visdom","dominate",[36,15],[115,116,117,118,119],"generative-models","generative-adversarial-network","image-to-image-translation","object-centric","gan",null,"2026-03-27T02:49:30.150509","2026-04-20T12:54:00.657166",[124,129,134,139,144,149,154],{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},44794,"训练时遇到 'CUDA out of memory' (显存不足) 错误怎么办？","可以通过调整图像尺寸参数来解决。尝试将 loadsize 和 finesize 设置为相同的较小值（例如都设为 128*128），以减少显存占用。","https:\u002F\u002Fgithub.com\u002Fsangwoomo\u002Finstagan\u002Fissues\u002F39",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},44795,"在进行特定任务（如发型迁移）时，生成的分割图（fake seg）全为 0 或全为 255，导致迁移失败，如何解决？","这可能是因为任务难度较大导致分割坍塌（segmentation collapse）。作者建议尝试添加额外的正则化项（regularizers）来避免这种情况。此外，确保数据集质量足够好，如果训练轮数过多（如 600 epoch）可能导致过拟合，可以尝试早停（early stopping）或在较少轮数（如 200 epoch）时保存模型。","https:\u002F\u002Fgithub.com\u002Fsangwoomo\u002Finstagan\u002Fissues\u002F45",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},44796,"运行 pix2pix 训练时报错 'AttributeError: object has no attribute loadSize' 或网络架构不匹配，如何处理？","这是因为代码中生成器（G）和判别器（D）的定义与原始 pix2pix 不完全兼容。解决方法有两种：1. 修改 `networks.py` 中的 `define_G` 函数以支持 UNet 等架构；2. 更简单的方法是直接使用原始的 CycleGAN\u002Fpix2pix 代码库进行 pix2pix 预训练，并确保高宽尺寸一致，然后再调整生成的掩码用于 InstaGAN。作者推荐使用 ResNet (basic) 生成器和 PatchGAN (basic) 判别器。","https:\u002F\u002Fgithub.com\u002Fsangwoomo\u002Finstagan\u002Fissues\u002F12",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},44797,"训练过程中出现 'list index out of range' 错误是什么原因？","这通常是因为数据集中部分测试图像（testB images）没有对应的掩码（masks）。代码假设每张图像至少有一个对应的掩码。请检查数据集，确保所有图像都有正确的掩码文件。","https:\u002F\u002Fgithub.com\u002Fsangwoomo\u002Finstagan\u002Fissues\u002F5",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},44798,"训练时遇到形状不匹配的 RuntimeError (output shape doesn't match broadcast shape)，特别是在 Mac 上运行时？","这通常是由于输入图像的通道数与预期不符（例如单通道掩码被当作三通道处理，或反之）。虽然具体修复代码在截断的评论中未完全显示，但此类错误通常需要通过检查数据加载部分的维度转换逻辑，确保输入张量的通道数（如 [1, H, W] vs [3, H, W]）与网络层定义的输入形状一致来解决。在非 GPU 环境（gpu_ids -1）下运行时也需特别注意数据预处理的一致性。","https:\u002F\u002Fgithub.com\u002Fsangwoomo\u002Finstagan\u002Fissues\u002F36",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},44799,"InstaGAN 模型训练多少轮次（epoch）比较合适？如何判断是否过拟合？","对于低分辨率图像，训练 600 个 epoch 可能过多从而导致过拟合。建议观察训练集上的结果，如果在较少的轮次（如 200 epoch）效果已经很好，而后续轮次效果变差，应使用早停策略（early stopping）并在效果最好的轮次保存模型。","https:\u002F\u002Fgithub.com\u002Fsangwoomo\u002Finstagan\u002Fissues\u002F15",{"id":155,"question_zh":156,"answer_zh":157,"source_url":153},44800,"如何在 InstaGAN 中结合多个掩码（如裙子和皮肤）进行训练以实现更好的迁移效果？","可以将多个相关的掩码（例如裙子掩码和腿部皮肤掩码）合并在一起，训练 InstaGAN 学习从裤子到裙子以及腿部皮肤的联合迁移。这种组合方式有助于模型理解更复杂的上下文关系，从而提升生成质量。",[]]