[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-yunjey--stargan":3,"tool-yunjey--stargan":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":76,"owner_twitter":76,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":94,"env_deps":96,"category_tags":102,"github_topics":103,"view_count":24,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":108,"updated_at":109,"faqs":110,"releases":146},10004,"yunjey\u002Fstargan","stargan","StarGAN - Official PyTorch Implementation (CVPR 2018)","StarGAN 是一个基于 PyTorch 开发的开源深度学习模型，源自 CVPR 2018 的获奖论文。它专注于解决图像到图像的转换问题，特别是能够在一个统一的模型中实现多个不同领域（Domain）之间的图像风格迁移。\n\n传统的图像转换方法通常只能处理两个特定领域，若要支持多种风格（如同时改变发色、性别、年龄或表情），往往需要为每一对组合单独训练一个模型，这不仅效率低下且难以扩展。StarGAN 创新性地提出了一种单一网络架构，只需训练一个模型，即可灵活地将输入图像转换为任意指定的目标领域。这种设计不仅大幅降低了计算和存储成本，还因能同时利用多数据集进行联合训练，显著提升了生成图像的质量和鲁棒性。\n\n该工具特别适合人工智能研究人员、计算机视觉开发者以及需要批量处理图像风格迁移任务的技术团队使用。通过简单的命令行配置，用户即可在 CelebA（人脸属性）或 RaFD（面部表情）等数据集上完成模型的训练与测试。其核心亮点在于“多域统一”与“灵活可控”，让用户能够轻松实现如将一张人脸同时调整为“金发、男性且年轻”等多种复杂属性的组合效果，是探索生成对抗网络（GAN）多任务学习能力的优秀参考","StarGAN 是一个基于 PyTorch 开发的开源深度学习模型，源自 CVPR 2018 的获奖论文。它专注于解决图像到图像的转换问题，特别是能够在一个统一的模型中实现多个不同领域（Domain）之间的图像风格迁移。\n\n传统的图像转换方法通常只能处理两个特定领域，若要支持多种风格（如同时改变发色、性别、年龄或表情），往往需要为每一对组合单独训练一个模型，这不仅效率低下且难以扩展。StarGAN 创新性地提出了一种单一网络架构，只需训练一个模型，即可灵活地将输入图像转换为任意指定的目标领域。这种设计不仅大幅降低了计算和存储成本，还因能同时利用多数据集进行联合训练，显著提升了生成图像的质量和鲁棒性。\n\n该工具特别适合人工智能研究人员、计算机视觉开发者以及需要批量处理图像风格迁移任务的技术团队使用。通过简单的命令行配置，用户即可在 CelebA（人脸属性）或 RaFD（面部表情）等数据集上完成模型的训练与测试。其核心亮点在于“多域统一”与“灵活可控”，让用户能够轻松实现如将一张人脸同时调整为“金发、男性且年轻”等多种复杂属性的组合效果，是探索生成对抗网络（GAN）多任务学习能力的优秀参考实现。","## StarGAN - Official PyTorch Implementation\n\n**\\*\\*\\*\\*\\* New: StarGAN v2 is available at https:\u002F\u002Fgithub.com\u002Fclovaai\u002Fstargan-v2 \\*\\*\\*\\*\\***\n\n\u003Cp align=\"center\">\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyunjey_stargan_readme_52786ddcee4a.jpg\" \u002F>\u003C\u002Fp>\n\nThis repository provides the official PyTorch implementation of the following paper:\n> **StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation**\u003Cbr>\n> [Yunjey Choi](https:\u002F\u002Fgithub.com\u002Fyunjey)\u003Csup>1,2\u003C\u002Fsup>, [Minje Choi](https:\u002F\u002Fgithub.com\u002Fmjc92)\u003Csup>1,2\u003C\u002Fsup>, [Munyoung Kim](https:\u002F\u002Fwww.facebook.com\u002Fmunyoung.kim.1291)\u003Csup>2,3\u003C\u002Fsup>, [Jung-Woo Ha](https:\u002F\u002Fwww.facebook.com\u002Fjungwoo.ha.921)\u003Csup>2\u003C\u002Fsup>, [Sung Kim](https:\u002F\u002Fwww.cse.ust.hk\u002F~hunkim\u002F)\u003Csup>2,4\u003C\u002Fsup>, [Jaegul Choo](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fjaegulchoo\u002F)\u003Csup>1,2\u003C\u002Fsup>    \u003Cbr\u002F>\n> \u003Csup>1\u003C\u002Fsup>Korea University, \u003Csup>2\u003C\u002Fsup>Clova AI Research, NAVER Corp. \u003Cbr>\n> \u003Csup>3\u003C\u002Fsup>The College of New Jersey, \u003Csup>4\u003C\u002Fsup>Hong Kong University of Science and Technology \u003Cbr\u002F>\n> https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.09020 \u003Cbr>\n>\n> **Abstract:** *Recent studies have shown remarkable success in image-to-image translation for two domains. However, existing approaches have limited scalability and robustness in handling more than two domains, since different models should be built independently for every pair of image domains. To address this limitation, we propose StarGAN, a novel and scalable approach that can perform image-to-image translations for multiple domains using only a single model. Such a unified model architecture of StarGAN allows simultaneous training of multiple datasets with different domains within a single network. This leads to StarGAN's superior quality of translated images compared to existing models as well as the novel capability of flexibly translating an input image to any desired target domain. We empirically demonstrate the effectiveness of our approach on a facial attribute transfer and a facial expression synthesis tasks.*\n\n## Dependencies\n* [Python 3.5+](https:\u002F\u002Fwww.continuum.io\u002Fdownloads)\n* [PyTorch 0.4.0+](http:\u002F\u002Fpytorch.org\u002F)\n* [TensorFlow 1.3+](https:\u002F\u002Fwww.tensorflow.org\u002F) (optional for tensorboard)\n\n\n## Downloading datasets\nTo download the CelebA dataset:\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fyunjey\u002FStarGAN.git\ncd StarGAN\u002F\nbash download.sh celeba\n```\n\nTo download the RaFD dataset, you must request access to the dataset from [the Radboud Faces Database website](http:\u002F\u002Fwww.socsci.ru.nl:8180\u002FRaFD2\u002FRaFD?p=main). Then, you need to create a folder structure as described [here](https:\u002F\u002Fgithub.com\u002Fyunjey\u002FStarGAN\u002Fblob\u002Fmaster\u002Fjpg\u002FRaFD.md).\n\n## Training networks\nTo train StarGAN on CelebA, run the training script below. See [here](https:\u002F\u002Fgithub.com\u002Fyunjey\u002FStarGAN\u002Fblob\u002Fmaster\u002Fjpg\u002FCelebA.md) for a list of selectable attributes in the CelebA dataset. If you change the `selected_attrs` argument, you should also change the `c_dim` argument accordingly.\n\n```bash\n# Train StarGAN using the CelebA dataset\npython main.py --mode train --dataset CelebA --image_size 128 --c_dim 5 \\\n               --sample_dir stargan_celeba\u002Fsamples --log_dir stargan_celeba\u002Flogs \\\n               --model_save_dir stargan_celeba\u002Fmodels --result_dir stargan_celeba\u002Fresults \\\n               --selected_attrs Black_Hair Blond_Hair Brown_Hair Male Young\n\n# Test StarGAN using the CelebA dataset\npython main.py --mode test --dataset CelebA --image_size 128 --c_dim 5 \\\n               --sample_dir stargan_celeba\u002Fsamples --log_dir stargan_celeba\u002Flogs \\\n               --model_save_dir stargan_celeba\u002Fmodels --result_dir stargan_celeba\u002Fresults \\\n               --selected_attrs Black_Hair Blond_Hair Brown_Hair Male Young\n```\n\nTo train StarGAN on RaFD:\n\n```bash\n# Train StarGAN using the RaFD dataset\npython main.py --mode train --dataset RaFD --image_size 128 \\\n               --c_dim 8 --rafd_image_dir data\u002FRaFD\u002Ftrain \\\n               --sample_dir stargan_rafd\u002Fsamples --log_dir stargan_rafd\u002Flogs \\\n               --model_save_dir stargan_rafd\u002Fmodels --result_dir stargan_rafd\u002Fresults\n\n# Test StarGAN using the RaFD dataset\npython main.py --mode test --dataset RaFD --image_size 128 \\\n               --c_dim 8 --rafd_image_dir data\u002FRaFD\u002Ftest \\\n               --sample_dir stargan_rafd\u002Fsamples --log_dir stargan_rafd\u002Flogs \\\n               --model_save_dir stargan_rafd\u002Fmodels --result_dir stargan_rafd\u002Fresults\n```\n\nTo train StarGAN on both CelebA and RafD:\n\n```bash\n# Train StarGAN using both CelebA and RaFD datasets\npython main.py --mode=train --dataset Both --image_size 256 --c_dim 5 --c2_dim 8 \\\n               --sample_dir stargan_both\u002Fsamples --log_dir stargan_both\u002Flogs \\\n               --model_save_dir stargan_both\u002Fmodels --result_dir stargan_both\u002Fresults\n\n# Test StarGAN using both CelebA and RaFD datasets\npython main.py --mode test --dataset Both --image_size 256 --c_dim 5 --c2_dim 8 \\\n               --sample_dir stargan_both\u002Fsamples --log_dir stargan_both\u002Flogs \\\n               --model_save_dir stargan_both\u002Fmodels --result_dir stargan_both\u002Fresults\n```\n\nTo train StarGAN on your own dataset, create a folder structure in the same format as [RaFD](https:\u002F\u002Fgithub.com\u002Fyunjey\u002FStarGAN\u002Fblob\u002Fmaster\u002Fjpg\u002FRaFD.md) and run the command:\n\n```bash\n# Train StarGAN on custom datasets\npython main.py --mode train --dataset RaFD --rafd_crop_size CROP_SIZE --image_size IMG_SIZE \\\n               --c_dim LABEL_DIM --rafd_image_dir TRAIN_IMG_DIR \\\n               --sample_dir stargan_custom\u002Fsamples --log_dir stargan_custom\u002Flogs \\\n               --model_save_dir stargan_custom\u002Fmodels --result_dir stargan_custom\u002Fresults\n\n# Test StarGAN on custom datasets\npython main.py --mode test --dataset RaFD --rafd_crop_size CROP_SIZE --image_size IMG_SIZE \\\n               --c_dim LABEL_DIM --rafd_image_dir TEST_IMG_DIR \\\n               --sample_dir stargan_custom\u002Fsamples --log_dir stargan_custom\u002Flogs \\\n               --model_save_dir stargan_custom\u002Fmodels --result_dir stargan_custom\u002Fresults\n```\n\n\n## Using pre-trained networks\nTo download a pre-trained model checkpoint, run the script below. The pre-trained model checkpoint will be downloaded and saved into `.\u002Fstargan_celeba_128\u002Fmodels` directory.\n\n```bash\n$ bash download.sh pretrained-celeba-128x128\n```\n\nTo translate images using the pre-trained model, run the evaluation script below. The translated images will be saved into `.\u002Fstargan_celeba_128\u002Fresults` directory.\n\n```bash\n$ python main.py --mode test --dataset CelebA --image_size 128 --c_dim 5 \\\n                 --selected_attrs Black_Hair Blond_Hair Brown_Hair Male Young \\\n                 --model_save_dir='stargan_celeba_128\u002Fmodels' \\\n                 --result_dir='stargan_celeba_128\u002Fresults'\n```\n\n## Citation\nIf you find this work useful for your research, please cite our [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.09020):\n```\n@inproceedings{choi2018stargan,\nauthor={Yunjey Choi and Minje Choi and Munyoung Kim and Jung-Woo Ha and Sunghun Kim and Jaegul Choo},\ntitle={StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation},\nbooktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition},\nyear={2018}\n}\n```\n\n## Acknowledgements\nThis work was mainly done while the first author did a research internship at [Clova AI Research, NAVER](https:\u002F\u002Fclova.ai\u002Fen\u002Fresearch\u002Fresearch-area-detail.html?id=0). We thank all the researchers at NAVER, especially Donghyun Kwak, for insightful discussions.\n","## StarGAN - 官方 PyTorch 实现\n\n**\\*\\*\\*\\*\\* 新：StarGAN v2 已在 https:\u002F\u002Fgithub.com\u002Fclovaai\u002Fstargan-v2 上发布 \\*\\*\\*\\*\\***\n\n\u003Cp align=\"center\">\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyunjey_stargan_readme_52786ddcee4a.jpg\" \u002F>\u003C\u002Fp>\n\n本仓库提供了以下论文的官方 PyTorch 实现：\n> **StarGAN：用于多域图像到图像转换的统一生成对抗网络**\u003Cbr>\n> [Yunjey Choi](https:\u002F\u002Fgithub.com\u002Fyunjey)\u003Csup>1,2\u003C\u002Fsup>, [Minje Choi](https:\u002F\u002Fgithub.com\u002Fmjc92)\u003Csup>1,2\u003C\u002Fsup>, [Munyoung Kim](https:\u002F\u002Fwww.facebook.com\u002Fmunyoung.kim.1291)\u003Csup>2,3\u003C\u002Fsup>, [Jung-Woo Ha](https:\u002F\u002Fwww.facebook.com\u002Fjungwoo.ha.921)\u003Csup>2\u003C\u002Fsup>, [Sung Kim](https:\u002F\u002Fwww.cse.ust.hk\u002F~hunkim\u002F)\u003Csup>2,4\u003C\u002Fsup>, [Jaegul Choo](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fjaegulchoo\u002F)\u003Csup>1,2\u003C\u002Fsup>    \u003Cbr\u002F>\n> \u003Csup>1\u003C\u002Fsup>高丽大学，\u003Csup>2\u003C\u002Fsup>Clova AI Research, NAVER Corp. \u003Cbr>\n> \u003Csup>3\u003C\u002Fsup>新泽西学院，\u003Csup>4\u003C\u002Fsup>香港科技大学 \u003Cbr\u002F>\n> https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.09020 \u003Cbr>\n>\n> **摘要：** *近期研究在两个领域的图像到图像转换任务中取得了显著成果。然而，现有方法在处理超过两个领域时，其可扩展性和鲁棒性有限，因为每对图像领域都需要独立构建不同的模型。为了解决这一局限性，我们提出了 StarGAN，这是一种新颖且可扩展的方法，仅需一个模型即可实现多个领域的图像到图像转换。StarGAN 的统一模型架构允许在一个网络中同时训练来自不同领域的多个数据集。这使得 StarGAN 在翻译图像的质量上优于现有模型，并具备将输入图像灵活地转换为任何目标领域的全新能力。我们在面部属性迁移和面部表情合成任务上通过实验证明了我们方法的有效性。*\n\n## 依赖项\n* [Python 3.5+](https:\u002F\u002Fwww.continuum.io\u002Fdownloads)\n* [PyTorch 0.4.0+](http:\u002F\u002Fpytorch.org\u002F)\n* [TensorFlow 1.3+](https:\u002F\u002Fwww.tensorflow.org\u002F)（可选，用于 tensorboard）\n\n\n## 下载数据集\n下载 CelebA 数据集：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fyunjey\u002FStarGAN.git\ncd StarGAN\u002F\nbash download.sh celeba\n```\n\n要下载 RaFD 数据集，您需要从 [Radboud Faces Database 网站](http:\u002F\u002Fwww.socsci.ru.nl:8180\u002FRaFD2\u002FRaFD?p=main) 申请访问权限。然后，您需要按照 [此处](https:\u002F\u002Fgithub.com\u002Fyunjey\u002FStarGAN\u002Fblob\u002Fmaster\u002Fjpg\u002FRaFD.md) 的说明创建文件夹结构。\n\n## 训练网络\n要在 CelebA 数据集上训练 StarGAN，请运行以下训练脚本。CelebA 数据集中的可选属性列表请参见 [此处](https:\u002F\u002Fgithub.com\u002Fyunjey\u002FStarGAN\u002Fblob\u002Fmaster\u002Fjpg\u002FCelebA.md)。如果您更改 `selected_attrs` 参数，则应相应地调整 `c_dim` 参数。\n\n```bash\n# 使用 CelebA 数据集训练 StarGAN\npython main.py --mode train --dataset CelebA --image_size 128 --c_dim 5 \\\n               --sample_dir stargan_celeba\u002Fsamples --log_dir stargan_celeba\u002Flogs \\\n               --model_save_dir stargan_celeba\u002Fmodels --result_dir stargan_celeba\u002Fresults \\\n               --selected_attrs Black_Hair Blond_Hair Brown_Hair Male Young\n\n# 使用 CelebA 数据集测试 StarGAN\npython main.py --mode test --dataset CelebA --image_size 128 --c_dim 5 \\\n               --sample_dir stargan_celeba\u002Fsamples --log_dir stargan_celeba\u002Flogs \\\n               --model_save_dir stargan_celeba\u002Fmodels --result_dir stargan_celeba\u002Fresults \\\n               --selected_attrs Black_Hair Blond_Hair Brown_Hair Male Young\n```\n\n要在 RaFD 数据集上训练 StarGAN：\n\n```bash\n# 使用 RaFD 数据集训练 StarGAN\npython main.py --mode train --dataset RaFD --image_size 128 \\\n               --c_dim 8 --rafd_image_dir data\u002FRaFD\u002Ftrain \\\n               --sample_dir stargan_rafd\u002Fsamples --log_dir stargan_rafd\u002Flogs \\\n               --model_save_dir stargan_rafd\u002Fmodels --result_dir stargan_rafd\u002Fresults\n\n# 使用 RaFD 数据集测试 StarGAN\npython main.py --mode test --dataset RaFD --image_size 128 \\\n               --c_dim 8 --rafd_image_dir data\u002FRaFD\u002Ftest \\\n               --sample_dir stargan_rafd\u002Fsamples --log_dir stargan_rafd\u002Flogs \\\n               --model_save_dir stargan_rafd\u002Fmodels --result_dir stargan_rafd\u002Fresults\n```\n\n要在 CelebA 和 RaFD 数据集上同时训练 StarGAN：\n\n```bash\n# 使用 CelebA 和 RaFD 数据集训练 StarGAN\npython main.py --mode=train --dataset Both --image_size 256 --c_dim 5 --c2_dim 8 \\\n               --sample_dir stargan_both\u002Fsamples --log_dir stargan_both\u002Flogs \\\n               --model_save_dir stargan_both\u002Fmodels --result_dir stargan_both\u002Fresults\n\n# 使用 CelebA 和 RaFD 数据集测试 StarGAN\npython main.py --mode test --dataset Both --image_size 256 --c_dim 5 --c2_dim 8 \\\n               --sample_dir stargan_both\u002Fsamples --log_dir stargan_both\u002Flogs \\\n               --model_save_dir stargan_both\u002Fmodels --result_dir stargan_both\u002Fresults\n```\n\n要在您自己的数据集上训练 StarGAN，请按照与 [RaFD](https:\u002F\u002Fgithub.com\u002Fyunjey\u002FStarGAN\u002Fblob\u002Fmaster\u002Fjpg\u002FRaFD.md) 相同的格式创建文件夹结构，然后运行以下命令：\n\n```bash\n# 使用自定义数据集训练 StarGAN\npython main.py --mode train --dataset RaFD --rafd_crop_size CROP_SIZE --image_size IMG_SIZE \\\n               --c_dim LABEL_DIM --rafd_image_dir TRAIN_IMG_DIR \\\n               --sample_dir stargan_custom\u002Fsamples --log_dir stargan_custom\u002Flogs \\\n               --model_save_dir stargan_custom\u002Fmodels --result_dir stargan_custom\u002Fresults\n\n# 使用自定义数据集测试 StarGAN\npython main.py --mode test --dataset RaFD --rafd_crop_size CROP_SIZE --image_size IMG_SIZE \\\n               --c_dim LABEL_DIM --rafd_image_dir TEST_IMG_DIR \\\n               --sample_dir stargan_custom\u002Fsamples --log_dir stargan_custom\u002Flogs \\\n               --model_save_dir stargan_custom\u002Fmodels --result_dir stargan_custom\u002Fresults\n```\n\n\n## 使用预训练网络\n要下载预训练模型检查点，请运行以下脚本。预训练模型检查点将被下载并保存到 `.\u002Fstargan_celeba_128\u002Fmodels` 目录。\n\n```bash\n$ bash download.sh pretrained-celeba-128x128\n```\n\n要使用预训练模型进行图像转换，请运行以下评估脚本。转换后的图像将被保存到 `.\u002Fstargan_celeba_128\u002Fresults` 目录。\n\n```bash\n$ python main.py --mode test --dataset CelebA --image_size 128 --c_dim 5 \\\n                 --selected_attrs Black_Hair Blond_Hair Brown_Hair Male Young \\\n                 --model_save_dir='stargan_celeba_128\u002Fmodels' \\\n                 --result_dir='stargan_celeba_128\u002Fresults'\n```\n\n## 引用\n如果您认为这项工作对您的研究有帮助，请引用我们的[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.09020)：\n```\n@inproceedings{choi2018stargan,\nauthor={Yunjey Choi and Minje Choi and Munyoung Kim and Jung-Woo Ha and Sunghun Kim and Jaegul Choo},\ntitle={StarGAN: 面向多域图像到图像转换的统一生成对抗网络},\nbooktitle={IEEE 计算机视觉与模式识别会议论文集},\nyear={2018}\n}\n```\n\n## 致谢\n本工作主要完成于第一作者在[Naver Clova AI 研究院](https:\u002F\u002Fclova.ai\u002Fen\u002Fresearch\u002Fresearch-area-detail.html?id=0)进行研究实习期间。我们感谢 Naver 的所有研究人员，尤其是 Kwak Donghyun，感谢他们富有洞见的讨论。","# StarGAN 快速上手指南\n\nStarGAN 是一个统一的生成对抗网络，能够使用单个模型实现多领域的图像到图像转换（如人脸属性编辑、表情合成等）。本指南基于官方 PyTorch 实现，帮助开发者快速部署和运行。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux \u002F macOS \u002F Windows\n*   **Python**: 3.5 或更高版本\n*   **深度学习框架**: PyTorch 0.4.0 或更高版本\n*   **可选依赖**: TensorFlow 1.3+（仅用于 TensorBoard 可视化）\n\n建议创建独立的虚拟环境以避免依赖冲突：\n\n```bash\npython -m venv stargan_env\nsource stargan_env\u002Fbin\u002Factivate  # Windows 用户使用: stargan_env\\Scripts\\activate\n```\n\n安装核心依赖：\n\n```bash\npip install torch torchvision\n# 如需使用 TensorBoard 可视化工具\npip install tensorflow==1.15\n```\n\n> **提示**：国内用户推荐使用清华源或阿里源加速安装：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple torch torchvision`\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    从 GitHub 获取官方源码：\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fyunjey\u002FStarGAN.git\n    cd StarGAN\u002F\n    ```\n\n2.  **下载数据集**\n    本项目支持 CelebA 和 RaFD 数据集。以下以常用的 **CelebA** 人脸属性数据集为例：\n\n    ```bash\n    bash download.sh celeba\n    ```\n\n    *注：若需使用 RaFD 数据集，需先在 [Radboud Faces Database](http:\u002F\u002Fwww.socsci.ru.nl:8180\u002FRaFD2\u002FRaFD?p=main) 申请访问权限，并手动按照项目说明构建文件夹结构。*\n\n3.  **下载预训练模型（可选）**\n    如果您不想从头训练，可以直接下载在 CelebA (128x128) 上预训练好的模型：\n\n    ```bash\n    bash download.sh pretrained-celeba-128x128\n    ```\n\n## 基本使用\n\n### 场景一：直接使用预训练模型进行图像转换\n\n这是最简单的使用方式，无需训练即可体验效果。该命令将读取默认测试图片，并根据指定属性（黑发、金发、棕发、男性、年轻）生成转换后的图像。\n\n```bash\npython main.py --mode test --dataset CelebA --image_size 128 --c_dim 5 \\\n               --selected_attrs Black_Hair Blond_Hair Brown_Hair Male Young \\\n               --model_save_dir='stargan_celeba_128\u002Fmodels' \\\n               --result_dir='stargan_celeba_128\u002Fresults'\n```\n\n生成的结果图片将保存在 `stargan_celeba_128\u002Fresults` 目录下。\n\n### 场景二：从头开始训练模型\n\n若您希望在自己的数据或特定属性组合上训练模型，可执行以下命令（以 CelebA 为例）：\n\n```bash\npython main.py --mode train --dataset CelebA --image_size 128 --c_dim 5 \\\n               --sample_dir stargan_celeba\u002Fsamples --log_dir stargan_celeba\u002Flogs \\\n               --model_save_dir stargan_celeba\u002Fmodels --result_dir stargan_celeba\u002Fresults \\\n               --selected_attrs Black_Hair Blond_Hair Brown_Hair Male Young\n```\n\n*   `--selected_attrs`: 定义要学习的属性标签，修改此参数时请同步调整 `--c_dim`（属性数量）。\n*   训练完成后，使用与“场景一”类似的 `--mode test` 命令配合生成的模型进行检查。\n\n### 场景三：使用自定义数据集\n\n若使用自己的数据集，请参照 RaFD 的文件夹结构整理图片，然后运行：\n\n```bash\npython main.py --mode train --dataset RaFD --rafd_crop_size CROP_SIZE --image_size IMG_SIZE \\\n               --c_dim LABEL_DIM --rafd_image_dir TRAIN_IMG_DIR \\\n               --sample_dir stargan_custom\u002Fsamples --log_dir stargan_custom\u002Flogs \\\n               --model_save_dir stargan_custom\u002Fmodels --result_dir stargan_custom\u002Fresults\n```\n\n请将 `CROP_SIZE`, `IMG_SIZE`, `LABEL_DIM`, `TRAIN_IMG_DIR` 替换为您的实际参数。","某影视后期团队需要为一款角色扮演游戏快速生成大量具有不同发型、性别和年龄特征的角色面部素材，以丰富游戏内的自定义选项。\n\n### 没有 stargan 时\n- **模型冗余严重**：每增加一种属性变换（如黑发变金发、青年变老年），就需要单独训练一个独立的 GAN 模型，导致需要维护数十个不同的模型文件。\n- **训练成本高昂**：无法利用多数据集联合训练，每次新需求都要从头开始采集数据并耗费数天时间重新训练，算力资源浪费极大。\n- **风格不一致**：由于不同模型独立训练，生成的图像在光照、肤色和背景细节上存在细微差异，导致最终素材库风格割裂，后期修图工作量巨大。\n- **扩展性极差**：若想新增“添加胡须”或“改变表情”等功能，必须重新构建整套流水线，开发周期长且难以灵活响应当下需求。\n\n### 使用 stargan 后\n- **单一模型统管全局**：仅需训练一个 StarGAN 模型，即可通过调整标签参数同时实现黑发、金发、男性化、年轻化等五种以上属性的自由切换，大幅简化部署架构。\n- **多域联合高效训练**：支持在同一网络中同时学习多个数据集（如 CelebA 和 RaFD），显著缩短训练时间，并能利用不同域的数据互补提升生成质量。\n- **输出风格高度统一**：统一的生成器确保了所有变换结果在纹理、光影和背景上保持高度一致，直接可用的素材比例提升至 90% 以上。\n- **灵活按需即时转换**：开发人员可随时指定任意目标域进行推理，无需重新训练即可瞬间生成“老年金发女性”或“年轻黑发男性”等复杂组合，极大提升了内容迭代速度。\n\nStarGAN 通过“单模型多域”的创新架构，将原本繁琐破碎的图像属性编辑流程整合为高效、统一且可扩展的自动化生产线。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyunjey_stargan_52786ddc.jpg","yunjey","Yunjey Choi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fyunjey_633f6baf.jpg",null,"NAVER AI Lab","South Korea","yunjey.github.io","https:\u002F\u002Fgithub.com\u002Fyunjey",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",96.9,{"name":87,"color":88,"percentage":89},"Shell","#89e051",3.1,5286,964,"2026-04-13T23:30:54","MIT","未说明","未说明 (基于 PyTorch 0.4.0+，通常建议配备支持 CUDA 的 NVIDIA GPU)",{"notes":97,"python":98,"dependencies":99},"该工具为较早期的实现（依赖 PyTorch 0.4.0），在现代环境中运行可能需要调整代码以适配新版 PyTorch。支持 CelebA 和 RaFD 数据集，也可用于自定义数据集（需遵循特定文件夹结构）。可选安装 TensorFlow 仅用于可视化日志（TensorBoard），非模型运行必需。","3.5+",[100,101],"PyTorch>=0.4.0","TensorFlow>=1.3 (可选，用于 TensorBoard)",[14,15,36],[64,104,105,106,107],"pytorch","image-to-image-translation","generative-models","cvpr2018","2026-03-27T02:49:30.150509","2026-04-20T12:55:29.161144",[111,116,121,126,131,136,141],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},44932,"遇到 'AttributeError: module 'tensorboard.summary._tf.summary' has no attribute 'FileWriter'' 错误如何解决？","这是 TensorBoard 版本兼容性问题。将 TensorBoard 的版本更改为 1.14.0 可以解决此问题。可以尝试使用命令 `pip install tensorboard==1.14.0` 进行安装或降级。","https:\u002F\u002Fgithub.com\u002Fyunjey\u002Fstargan\u002Fissues\u002F109",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},44931,"如何使用预训练模型测试不在训练集中的新图片（自定义数据集）？","可以通过修改代码并包含头部变换（header transforms）来实现。有用户分享了修改后的代码库（参考 solver2.py 第 525 行）。此外，为了获得更好的结果，建议对输入图像进行适当的裁剪（例如去除黑色背景）并将其调整大小至 256x256。也可以创建自定义的属性列表文件 `list_attr_celeba_custom.txt` 放在 `data\u002F` 文件夹中，并将自定义图像放入 `data\u002Fcustom\u002Fimages`，然后使用以下命令运行测试：\npython main.py --mode test --dataset CelebA --image_size 256 --selected_attrs Black_Hair Blond_Hair Brown_Hair Male Young --c_dim 5 --celeba_image_dir data\u002Fcustom\u002Fimages --attr_path data\u002Flist_attr_celeba_custom.txt --model_save_dir stargan_celeba_256\u002Fmodels --result_dir stargan_celeba_256_custom\u002Fresults","https:\u002F\u002Fgithub.com\u002Fyunjey\u002Fstargan\u002Fissues\u002F108",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},44933,"如何在自己的图像上使用预训练模型？","首先，适当裁剪输入图像以提高转换结果的视觉质量（例如去除黑色背景并将图像调整为 256x256）。其次，可以在 `data\u002F` 文件夹中创建一个自定义的 `list_attr_celeba_custom.txt` 文件，其中包含图像列表，并确保自定义图像位于 `data\u002Fcustom\u002Fimages` 中以匹配文件名。最后，运行测试命令时指定自定义图像目录和属性路径：\npython main.py --mode test --dataset CelebA --image_size 256 --selected_attrs Black_Hair Blond_Hair Brown_Hair Male Young --c_dim 5 --celeba_image_dir data\u002Fcustom\u002Fimages --attr_path data\u002Flist_attr_celeba_custom.txt --model_save_dir stargan_celeba_256\u002Fmodels --result_dir stargan_celeba_256_custom\u002Fresults","https:\u002F\u002Fgithub.com\u002Fyunjey\u002Fstargan\u002Fissues\u002F46",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},44934,"训练时遇到 'RuntimeError: dimension out of range' 或显存不足（CUDA memory error）怎么办？","对于维度错误，请确保已正确准备数据集。如果是 RaFD 数据集，请参考 README.md 中的步骤获取数据（链接：http:\u002F\u002Fwww.socsci.ru.nl:8180\u002FRaFD2\u002FRaFD?p=main）。对于显存不足的问题（如只有 8GB 显存），可以尝试减小 batch_size。如果是因为 PyTorch 未完全安装导致的内存异常增长，请确保安装了 cffi、magma 和对应的 cuda 版本（如 cuda80）。","https:\u002F\u002Fgithub.com\u002Fyunjey\u002Fstargan\u002Fissues\u002F24",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},44935,"在 Titan X GPU 上运行时出现 'Out of memory' 错误，必须使用 24GB 显存的 GPU 吗？","不一定需要 24GB 显存的 GPU。该问题可能是由于 PyTorch 未完全安装导致的。尝试安装缺失的依赖项，如 cffi、magma 和对应版本的 CUDA（例如 cuda80），通常可以解决问题。另外，也有用户反馈使用默认参数设置即可成功运行，无需大幅调整 batch_size。","https:\u002F\u002Fgithub.com\u002Fyunjey\u002Fstargan\u002Fissues\u002F8",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},44936,"运行时遇到类型错误或张量数据类型问题（如 \u003Cclass 'torch.FloatTensor'> 相关报错）如何处理？","建议打印出张量的数据类型以进行排查。维护者推荐使用 Python 3.6 版本来运行该项目，以确保兼容性。如果问题依旧，请检查输入数据的预处理流程是否符合模型要求。","https:\u002F\u002Fgithub.com\u002Fyunjey\u002Fstargan\u002Fissues\u002F7",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},44937,"是否提供 RaFD 数据集的预训练模型？","官方仓库并未直接在 Release 中提供 RaFD 的预训练模型下载链接。许多用户在 Issue 中请求通过邮件获取用于面部表情合成的 RaFD 预训练模型。建议查看项目 README 或尝试自行训练，或者在社区中寻找其他用户分享的模型资源。","https:\u002F\u002Fgithub.com\u002Fyunjey\u002Fstargan\u002Fissues\u002F59",[]]