[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ZPdesu--SEAN":3,"tool-ZPdesu--SEAN":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":94,"env_deps":96,"category_tags":102,"github_topics":103,"view_count":10,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":110,"updated_at":111,"faqs":112,"releases":153},548,"ZPdesu\u002FSEAN","SEAN","SEAN: Image Synthesis with Semantic Region-Adaptive Normalization (CVPR 2020, Oral)","SEAN 是一款基于生成对抗网络的图像合成开源项目，核心成果发表于计算机视觉顶会 CVPR 2020。它致力于解决图像生成中难以对特定语义区域进行独立风格控制的难题。\n\n传统方法往往难以兼顾整体一致性与局部细节的多样性。SEAN 通过引入语义区域自适应归一化技术，允许用户为图像的每一个语义部分（如头发、眼睛、皮肤等）指定独立的风格参考图。这意味着你可以交互式地修改特定区域的样式，甚至在不同风格之间进行平滑插值，而不会影响其他区域。实验表明，SEAN 在重建质量、多样性和视觉逼真度上均优于当时的最先进方法。\n\nSEAN 非常适合计算机视觉领域的研究人员探索新的生成架构，也适合深度学习开发者尝试构建可控的图像编辑应用。对于追求高质量图像合成的设计师来说，SEAN 提供的细粒度控制能力也是很好的选择。虽然运行需要一定的计算资源，但其灵活的 API 和清晰的文档降低了使用门槛。","# SEAN: Image Synthesis with Semantic Region-Adaptive Normalization (CVPR 2020 Oral)\n\n![Python 3.7](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.7-green.svg?style=plastic)\n![pytorch 1.2.0](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpytorch-1.2.0-green.svg?style=plastic)\n![pyqt5 5.13.0](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpyqt5-5.13.0-green.svg?style=plastic)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZPdesu_SEAN_readme_3f18a96e991a.png)\n**Figure:** *Face image editing controlled via style images and segmentation masks with SEAN*\n\nWe propose semantic region-adaptive normalization (SEAN), a simple but effective building block for Generative Adversarial Networks conditioned on segmentation masks that describe the semantic regions in the desired output image. Using SEAN normalization, we can build a network architecture that can control the style of each semantic region individually, e.g., we can specify one style reference image per region. SEAN is better suited to encode, transfer, and synthesize style than the best previous method in terms of reconstruction quality, variability, and visual quality. We evaluate SEAN on multiple datasets and report better quantitative metrics (e.g. FID, PSNR) than the current state of the art. SEAN also pushes the frontier of interactive image editing. We can interactively edit images by changing segmentation masks or the style for any given region. We can also interpolate styles from two reference images per region.\n\n> **SEAN: Image Synthesis with Semantic Region-Adaptive Normalization** \u003Cbr>\n> Peihao Zhu, Rameen Abdal, Yipeng Qin, Peter Wonka \u003Cbr>\n> *Computer Vision and Pattern Recognition **CVPR 2020, Oral***\n\n\n[[Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.12861.pdf)]\n[[Project Page](https:\u002F\u002Fzpdesu.github.io\u002FSEAN\u002F)]\n[[Demo](https:\u002F\u002Fyoutu.be\u002F0Vbj9xFgoUw)]\n\n\n## Installation\n\nClone this repo.\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FZPdesu\u002FSEAN.git\ncd SEAN\u002F\n```\n\nThis code requires PyTorch, python 3+ and Pyqt5. Please install dependencies by\n```bash\npip install -r requirements.txt\n```\n\nThis model requires a lot of memory and time to train. To speed up the training, we recommend using 4 V100 GPUs\n\n\n## Dataset Preparation\n\nThis code uses [CelebA-HQ](https:\u002F\u002Fgithub.com\u002Ftkarras\u002Fprogressive_growing_of_gans) and [CelebAMask-HQ](https:\u002F\u002Fgithub.com\u002Fswitchablenorms\u002FCelebAMask-HQ) dataset. The prepared dataset can be directly downloaded [here](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1TKhN9kDvJEcpbIarwsd1_fsTR2vGx6LC\u002Fview?usp=sharing). After unzipping, put the entire CelebA-HQ folder in the datasets folder. The complete directory should look like `.\u002Fdatasets\u002FCelebA-HQ\u002Ftrain\u002F` and `.\u002Fdatasets\u002FCelebA-HQ\u002Ftest\u002F`.\n\n\n## Generating Images Using Pretrained Models\n\nOnce the dataset is prepared, the reconstruction results be got using pretrained models.\n\n\n1. Create `.\u002Fcheckpoints\u002F` in the main folder and download the tar of the pretrained models from the [Google Drive Folder](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1UMgKGdVqlulfgOBV4Z0ajEwPdgt3_EDK\u002Fview?usp=sharing). Save the tar in `.\u002Fcheckpoints\u002F`, then run\n\n    ```\n    cd checkpoints\n    tar CelebA-HQ_pretrained.tar.gz\n    cd ..\u002F\n    ```\n\n2. Generate the reconstruction results using the pretrained model.\n\t```bash\n   python test.py --name CelebA-HQ_pretrained --load_size 256 --crop_size 256 --dataset_mode custom --label_dir datasets\u002FCelebA-HQ\u002Ftest\u002Flabels --image_dir datasets\u002FCelebA-HQ\u002Ftest\u002Fimages --label_nc 19 --no_instance --gpu_ids 0\n    ```\n\n3. The reconstruction images are saved at `.\u002Fresults\u002FCelebA-HQ_pretrained\u002F` and the corresponding style codes are stored at `.\u002Fstyles_test\u002Fstyle_codes\u002F`.\n\n4. Pre-calculate the mean style codes for the UI mode. The mean style codes can be found at `.\u002Fstyles_test\u002Fmean_style_code\u002F`.\n\n\t```bash\n    python calculate_mean_style_code.py\n    ```\n\n\n## Training New Models\n\nTo train the new model, you need to specify the option `--dataset_mode custom`, along with `--label_dir [path_to_labels] --image_dir [path_to_images]`. You also need to specify options such as `--label_nc` for the number of label classes in the dataset, and `--no_instance` to denote the dataset doesn't have instance maps.\n\n\n```bash\npython train.py --name [experiment_name] --load_size 256 --crop_size 256 --dataset_mode custom --label_dir datasets\u002FCelebA-HQ\u002Ftrain\u002Flabels --image_dir datasets\u002FCelebA-HQ\u002Ftrain\u002Fimages --label_nc 19 --no_instance --batchSize 32 --gpu_ids 0,1,2,3\n```\n\nIf you only have single GPU with small memory, please use `--batchSize 2 --gpu_ids 0`.\n\n\n## UI Introduction\n\nWe provide a convenient UI for the users to do some extension works. To run the UI mode, you need to:\n\n1. run the step **Generating Images Using Pretrained Models** to save the style codes of the test images and the mean style codes. Or you can directly download the style codes from [here](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F153U5q_CfwPM0V4wRP199BhD9niUuVW95\u002Fview?usp=sharing). (Note: if you directly use the downloaded style codes, you have to use the pretrained model.\n\n2. Put the visualization images of the labels used for generating in `.\u002Fimgs\u002Fcolormaps\u002F` and the style images in `.\u002Fimgs\u002Fstyle_imgs_test\u002F`. Some example images are provided in these 2 folders. Note: the visualization image and the style image should be picked from `.\u002Fdatasets\u002FCelebAMask-HQ\u002Ftest\u002Fvis\u002F` and `.\u002Fdatasets\u002FCelebAMask-HQ\u002Ftest\u002Flabels\u002F`, because only the style codes of the test images are saved in `.\u002Fstyles_test\u002Fstyle_codes\u002F`. If you want to use your own images, please prepare the images, labels and visualization of the labels in `.\u002Fdatasets\u002FCelebAMask-HQ\u002Ftest\u002F` with the same format, and calculate the corresponding style codes.\n\n3. Run the UI mode\n\n    ```bash\n    python run_UI.py --name CelebA-HQ_pretrained --load_size 256 --crop_size 256 --dataset_mode custom --label_dir datasets\u002FCelebA-HQ\u002Ftest\u002Flabels --image_dir datasets\u002FCelebA-HQ\u002Ftest\u002Fimages --label_nc 19 --no_instance --gpu_ids 0\n    ```\n4. How to use the UI. Please check the detail usage of the UI from our [Video](https:\u002F\u002Fyoutu.be\u002F0Vbj9xFgoUw).\n\n\t[![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZPdesu_SEAN_readme_6be89e279bdd.png)](https:\u002F\u002Fyoutu.be\u002F0Vbj9xFgoUw)\n\n## Other Datasets\nWill be released soon.\n\n## License\n\nAll rights reserved. Licensed under the [CC BY-NC-SA 4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002Flegalcode) (**Attribution-NonCommercial-ShareAlike 4.0 International**) The code is released for academic research use only.\n\n## Citation\nIf you use this code for your research, please cite our papers.\n```\n@InProceedings{Zhu_2020_CVPR,\nauthor = {Zhu, Peihao and Abdal, Rameen and Qin, Yipeng and Wonka, Peter},\ntitle = {SEAN: Image Synthesis With Semantic Region-Adaptive Normalization},\nbooktitle = {IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition (CVPR)},\nmonth = {June},\nyear = {2020}\n}\n```\n\n## Acknowledgments\nWe thank Wamiq Reyaz Para for helpful comments. This code borrows heavily from SPADE. We thank Taesung Park for sharing his codes. This work was supported by the KAUST Office of Sponsored Research (OSR) under AwardNo. OSR-CRG2018-3730.\n","# SEAN：基于语义区域自适应归一化的图像合成（CVPR 2020 口头报告）\n\n![Python 3.7](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.7-green.svg?style=plastic)\n![pytorch 1.2.0](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpytorch-1.2.0-green.svg?style=plastic)\n![pyqt5 5.13.0](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpyqt5-5.13.0-green.svg?style=plastic)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZPdesu_SEAN_readme_3f18a96e991a.png)\n**图：** *使用 SEAN 通过风格图像和分割掩码控制人脸图像编辑*\n\n我们提出了语义区域自适应归一化（SEAN），这是一种简单但有效的构建模块，用于以描述期望输出图像中语义区域的分割掩码 (segmentation masks) 为条件的生成对抗网络 (Generative Adversarial Networks, GANs)。使用 SEAN 归一化，我们可以构建一种能够单独控制每个语义区域风格的网络架构，例如，我们可以为每个区域指定一个风格参考图像。在重建质量、多样性 (variability) 和视觉质量方面，SEAN 比之前的最佳方法更适合编码、转移和合成风格。我们在多个数据集上评估了 SEAN，并报告了优于当前最先进水平 (state of the art) 的定量指标（例如 FID、PSNR）。SEAN 也推动了交互式图像编辑的前沿。我们可以通过更改分割掩码或任何给定区域的方式来交互式地编辑图像。我们还可以对每个区域的两个参考图像进行风格插值。\n\n> **SEAN：基于语义区域自适应归一化的图像合成** \u003Cbr>\n> Peihao Zhu, Rameen Abdal, Yipeng Qin, Peter Wonka \u003Cbr>\n> *计算机视觉与模式识别 **CVPR 2020，口头报告***\n\n\n[[Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.12861.pdf)]\n[[Project Page](https:\u002F\u002Fzpdesu.github.io\u002FSEAN\u002F)]\n[[Demo](https:\u002F\u002Fyoutu.be\u002F0Vbj9xFgoUw)]\n\n\n## 安装\n\n克隆此仓库。\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FZPdesu\u002FSEAN.git\ncd SEAN\u002F\n```\n\n此代码需要 PyTorch、python 3+ 和 Pyqt5。请通过以下方式安装依赖项：\n```bash\npip install -r requirements.txt\n```\n\n此模型训练需要大量内存和时间。为了加快训练速度，我们建议使用 4 张 V100 GPU。\n\n\n## 数据集准备\n\n此代码使用 [CelebA-HQ](https:\u002F\u002Fgithub.com\u002Ftkarras\u002Fprogressive_growing_of_gans) 和 [CelebAMask-HQ](https:\u002F\u002Fgithub.com\u002Fswitchablenorms\u002FCelebAMask-HQ) 数据集。准备好的数据集可以直接在此处下载 [here](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1TKhN9kDvJEcpbIarwsd1_fsTR2vGx6LC\u002Fview?usp=sharing)。解压后，将整个 CelebA-HQ 文件夹放入 datasets 文件夹中。完整的目录结构应如下所示 `.\u002Fdatasets\u002FCelebA-HQ\u002Ftrain\u002F` 和 `.\u002Fdatasets\u002FCelebA-HQ\u002Ftest\u002F`。\n\n\n## 使用预训练模型生成图像\n\n准备好数据集后，可以使用预训练模型获得重建结果。\n\n\n1. 在主文件夹中创建 `.\u002Fcheckpoints\u002F` 并从 [Google Drive Folder](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1UMgKGdVqlulfgOBV4Z0ajEwPdgt3_EDK\u002Fview?usp=sharing) 下载预训练模型的 tar 包。将 tar 文件保存到 `.\u002Fcheckpoints\u002F`，然后运行\n\n    ```\n    cd checkpoints\n    tar CelebA-HQ_pretrained.tar.gz\n    cd ..\u002F\n    ```\n\n2. 使用预训练模型生成重建结果。\n\t```bash\n   python test.py --name CelebA-HQ_pretrained --load_size 256 --crop_size 256 --dataset_mode custom --label_dir datasets\u002FCelebA-HQ\u002Ftest\u002Flabels --image_dir datasets\u002FCelebA-HQ\u002Ftest\u002Fimages --label_nc 19 --no_instance --gpu_ids 0\n    ```\n\n3. 重建图像保存在 `.\u002Fresults\u002FCelebA-HQ_pretrained\u002F`，对应的风格代码存储在 `.\u002Fstyles_test\u002Fstyle_codes\u002F`。\n\n4. 预计算 UI 模式的平均风格代码。平均风格代码位于 `.\u002Fstyles_test\u002Fmean_style_code\u002F`。\n\n\t```bash\n    python calculate_mean_style_code.py\n    ```\n\n\n## 训练新模型\n\n要训练新模型，您需要指定选项 `--dataset_mode custom`，以及 `--label_dir [path_to_labels] --image_dir [path_to_images]`。您还需要指定诸如 `--label_nc`（数据集中标签类别的数量）和 `--no_instance`（表示数据集没有实例映射 (instance maps)）等选项。\n\n\n```bash\npython train.py --name [experiment_name] --load_size 256 --crop_size 256 --dataset_mode custom --label_dir datasets\u002FCelebA-HQ\u002Ftrain\u002Flabels --image_dir datasets\u002FCelebA-HQ\u002Ftrain\u002Fimages --label_nc 19 --no_instance --batchSize 32 --gpu_ids 0,1,2,3\n```\n\n如果您只有一张内存较小的 GPU，请使用 `--batchSize 2 --gpu_ids 0`。\n\n\n## UI 介绍\n\n我们提供了一个方便的 UI 供用户进行一些扩展工作。要运行 UI 模式，您需要：\n\n1. 运行步骤 **使用预训练模型生成图像** 以保存测试图像的风格代码和平均风格代码。或者您可以直接从此处下载风格代码 [here](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F153U5q_CfwPM0V4wRP199BhD9niUuVW95\u002Fview?usp=sharing)。（注意：如果您直接使用下载的风格代码，则必须使用预训练模型。）\n\n2. 将用于生成的标签可视化图像放在 `.\u002Fimgs\u002Fcolormaps\u002F`，风格图像放在 `.\u002Fimgs\u002Fstyle_imgs_test\u002F`。这些文件夹中提供了一些示例图像。注意：可视化图像和风格图像应从 `.\u002Fdatasets\u002FCelebAMask-HQ\u002Ftest\u002Fvis\u002F` 和 `.\u002Fdatasets\u002FCelebAMask-HQ\u002Ftest\u002Flabels\u002F` 中选择，因为 `.\u002Fstyles_test\u002Fstyle_codes\u002F` 中仅保存了测试图像的风格代码。如果您想使用自己的图像，请在 `.\u002Fdatasets\u002FCelebAMask-HQ\u002Ftest\u002F` 中准备格式相同的图像、标签和标签可视化，并计算相应的风格代码。\n\n3. 运行 UI 模式\n\n    ```bash\n    python run_UI.py --name CelebA-HQ_pretrained --load_size 256 --crop_size 256 --dataset_mode custom --label_dir datasets\u002FCelebA-HQ\u002Ftest\u002Flabels --image_dir datasets\u002FCelebA-HQ\u002Ftest\u002Fimages --label_nc 19 --no_instance --gpu_ids 0\n    ```\n4. 如何使用 UI。请从我们的 [视频](https:\u002F\u002Fyoutu.be\u002F0Vbj9xFgoUw) 查看 UI 的详细用法。\n\n\t[![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZPdesu_SEAN_readme_6be89e279bdd.png)](https:\u002F\u002Fyoutu.be\u002F0Vbj9xFgoUw)\n\n## 其他数据集\n即将发布。\n\n## 许可证\n\n保留所有权利。根据 [CC BY-NC-SA 4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002Flegalcode) (**Attribution-NonCommercial-ShareAlike 4.0 International**) 许可。代码仅供学术研究使用。\n\n## 引用\n如果您将此代码用于您的研究，请引用我们的论文。\n```\n@InProceedings{Zhu_2020_CVPR,\nauthor = {Zhu, Peihao and Abdal, Rameen and Qin, Yipeng and Wonka, Peter},\ntitle = {SEAN: Image Synthesis With Semantic Region-Adaptive Normalization},\nbooktitle = {IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition (CVPR)},\nmonth = {June},\nyear = {2020}\n}\n```\n\n## 致谢\n感谢 Wamiq Reyaz Para 提供的有益评论。本代码大量借鉴了 SPADE。感谢 Taesung Park 分享他的代码。这项工作得到了 KAUST 赞助研究办公室 (OSR) 的支持，项目编号 OSR-CRG2018-3730。","# SEAN 快速上手指南\n\n## 1. 环境准备\n- **系统要求**: 推荐使用 Linux 系统，配备 NVIDIA GPU。\n- **Python 版本**: 3.7+\n- **核心依赖**: PyTorch 1.2.0+, PyQt5 5.13.0+\n- **硬件建议**: 训练建议使用 4 张 V100 GPU；推理单卡即可。\n\n## 2. 安装步骤\n1. **克隆代码库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FZPdesu\u002FSEAN.git\n   cd SEAN\u002F\n   ```\n\n2. **安装依赖**\n   ```bash\n   pip install -r requirements.txt\n   ```\n\n3. **准备数据集**\n   - 下载 [CelebA-HQ & CelebAMask-HQ 数据集](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1TKhN9kDvJEcpbIarwsd1_fsTR2vGx6LC\u002Fview?usp=sharing)。\n   - 解压后请将整个 `CelebA-HQ` 文件夹放入 `.\u002Fdatasets\u002F` 目录下。\n   - 确保目录结构包含：`.\u002Fdatasets\u002FCelebA-HQ\u002Ftrain\u002F` 和 `.\u002Fdatasets\u002FCelebA-HQ\u002Ftest\u002F`。\n\n4. **下载预训练模型**\n   - 下载 [预训练模型包](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1UMgKGdVqlulfgOBV4Z0ajEwPdgt3_EDK\u002Fview?usp=sharing)。\n   - 将压缩包解压至主目录下的 `.\u002Fcheckpoints\u002F` 文件夹中。\n   ```bash\n   cd checkpoints\n   tar CelebA-HQ_pretrained.tar.gz\n   cd ..\u002F\n   ```\n\n## 3. 基本使用\n### 使用预训练模型生成图像\n这是最基础的使用方式，用于利用预训练模型进行图像重建。\n\n```bash\npython test.py --name CelebA-HQ_pretrained --load_size 256 --crop_size 256 --dataset_mode custom --label_dir datasets\u002FCelebA-HQ\u002Ftest\u002Flabels --image_dir datasets\u002FCelebA-HQ\u002Ftest\u002Fimages --label_nc 19 --no_instance --gpu_ids 0\n```\n\n- **输出结果**: 重建图像保存在 `.\u002Fresults\u002FCelebA-HQ_pretrained\u002F`，对应的风格代码保存在 `.\u002Fstyles_test\u002Fstyle_codes\u002F`。\n- **UI 模式前置处理**: 若需使用交互式界面，请先运行以下命令计算平均风格代码。\n  ```bash\n  python calculate_mean_style_code.py\n  ```\n\n### 交互式编辑 (UI 模式)\n完成上述步骤后，可启动图形界面进行交互式图像编辑。\n\n```bash\npython run_UI.py --name CelebA-HQ_pretrained --load_size 256 --crop_size 256 --dataset_mode custom --label_dir datasets\u002FCelebA-HQ\u002Ftest\u002Flabels --image_dir datasets\u002FCelebA-HQ\u002Ftest\u002Fimages --label_nc 19 --no_instance --gpu_ids 0\n```\n\n> **注意**: 本代码遵循 CC BY-NC-SA 4.0 协议，仅限学术研究使用。","一位电商设计师正在制作虚拟试衣间素材，需要将同一模特的照片快速更换多种服饰风格，同时严格保留面部特征不变。\n\n### 没有 SEAN 时\n- 修改衣服颜色或款式时，整体生成模型往往连带影响面部肤色和光影，导致人物表情失真\n- 想要单独调整发型，必须手动涂抹复杂蒙版并反复迭代，操作繁琐且效率极低\n- 缺乏统一框架，切换不同风格需重新训练模型或频繁切换多个修图软件\n- 生成的图像细节粗糙，无法实现从参考图中精准迁移纹理质感，边缘融合生硬\n\n### 使用 SEAN 后\n- 通过分割掩码直接指定区域，可独立控制头发、皮肤和衣物的风格迁移，互不干扰\n- 输入单张参考图即可让特定区域（如上衣）呈现目标纹理，无需破坏背景和其他部位\n- 支持在两个参考风格间进行平滑插值，轻松创造中间过渡效果，丰富设计可能性\n- 交互式编辑界面允许实时调整掩码，大幅缩短从构思到成图的周期，提升产出质量\n\nSEAN 实现了基于语义区域的精细化风格控制，让局部图像编辑变得既精准又高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZPdesu_SEAN_3f18a96e.png","ZPdesu","Peihao Zhu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FZPdesu_0464b7c6.png","CS PhD at KAUST,\r\n\r\nIntern at SNAP Research","KAUST\u002FSNAP","LA","peihao.zhu@kaust.edu.sa",null,"zpdesu.github.io","https:\u002F\u002Fgithub.com\u002FZPdesu",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,658,92,"2026-03-14T04:57:07","NOASSERTION","未说明","需要 NVIDIA GPU，推荐 4 张 V100，单卡小显存可用但需减小 batch_size",{"notes":97,"python":98,"dependencies":99},"训练需要大量时间和显存，建议使用 4 张 V100 加速；需下载并准备 CelebA-HQ 和 CelebAMask-HQ 数据集；UI 模式需预计算风格代码；仅限学术研究使用 (CC BY-NC-SA 4.0)","3.7",[100,101],"torch==1.2.0","pyqt5==5.13.0",[26,14],[104,105,106,107,108,109],"cvpr2020","image-translation","image-generation","gan","face-editing","face-manipulation","2026-03-27T02:49:30.150509","2026-04-06T06:45:33.901890",[113,118,123,128,133,138,143,148],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},2214,"为什么评估指标（如 SSIM、FID）结果与论文不符？","请检查您的训练图像是否保存为 PNG 格式，如果保存为 JPG 会导致结果大幅下降。此外，计算 FID 时确保是在测试集和生成图像之间比较，并且注意数据归一化处理。","https:\u002F\u002Fgithub.com\u002FZPdesu\u002FSEAN\u002Fissues\u002F5",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},2215,"在 ADE20K 数据集上训练时损失变为 NaN 怎么办？","这可能与区域卷积的实现有关。建议尝试使用 torch.nn.ModuleList 来管理每个区域的卷积。为了简化，可以尝试放松区域特定卷积的约束，将其替换为通用的 3x3 卷积。","https:\u002F\u002Fgithub.com\u002FZPdesu\u002FSEAN\u002Fissues\u002F13",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},2216,"如何计算论文中提到的指标（SSIM\u002FRMSE\u002FPSNR\u002FFID）？训练速度太慢如何解决？","FID 计算可以使用 pytorch-fid 仓库；SSIM\u002FRMSE\u002FPSNR 的实现可以在 scikit-image 包中找到。关于训练速度慢的问题，建议：1. 实现并行代码以加速训练；2. 使用性能更强的 GPU（如 V100）。","https:\u002F\u002Fgithub.com\u002FZPdesu\u002FSEAN\u002Fissues\u002F4",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},2217,"在哪里下载 Facades 数据集？","由于版权许可限制，我们无法直接发布这些图片。您可以参考 lsaa-dataset 仓库的说明，按照步骤获取下载脚本，然后自行从 Google Street View 获取这些图像。","https:\u002F\u002Fgithub.com\u002FZPdesu\u002FSEAN\u002Fissues\u002F9",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},2218,"如何获取 CelebA-HQ 的标签（labels\u002Fmasks）？","可以通过相关的教程生成 CelebAMaskHQ-mask。例如参考社区分享的博客文章（如 CSDN 上的 CelebAMaskHQ-mask 生成方法）来获取标签数据。","https:\u002F\u002Fgithub.com\u002FZPdesu\u002FSEAN\u002Fissues\u002F47",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},2219,"运行时报错 \"Could not load the Qt platform plugin 'xcb'\" 如何处理？","这是由于 OpenCV 引起的 Qt 平台插件加载错误。解决方法是安装无头版本的 OpenCV，请在终端执行命令：pip install opencv-python-headless","https:\u002F\u002Fgithub.com\u002FZPdesu\u002FSEAN\u002Fissues\u002F50",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},2220,"为什么 SEAN 的结果与 SPADE 论文中的结果不同？","这是因为这两个框架都拥有各自独立的风格编码器（style encoders）。即使使用了相同的数据集训练\u002F测试划分，由于架构差异，结果也会不同。","https:\u002F\u002Fgithub.com\u002FZPdesu\u002FSEAN\u002Fissues\u002F8",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},2221,"`run_UI.py` 无法正常显示或运行怎么办？","尝试修改代码中的输出处理部分，将生成的图像数据转换为字节流。具体操作是将 `generated_img.data` 改为 `generated_img.data.tobytes()`。","https:\u002F\u002Fgithub.com\u002FZPdesu\u002FSEAN\u002Fissues\u002F17",[]]