[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-GANs-in-Action--gans-in-action":3,"tool-GANs-in-Action--gans-in-action":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":104,"github_topics":105,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":118,"updated_at":119,"faqs":120,"releases":150},3301,"GANs-in-Action\u002Fgans-in-action","gans-in-action","Companion repository to GANs in Action: Deep learning with Generative Adversarial Networks","gans-in-action 是畅销书《GANs in Action》的官方配套代码库，旨在帮助开发者从零开始掌握生成对抗网络（GAN）。它解决了 GAN 学习中“理论易懂、复现困难”的痛点，提供了从基础 Vanilla GAN 到进阶 CycleGAN、Progressive GAN 等主流架构的完整 Jupyter Notebook 示例。\n\n通过基于 Keras 和 TensorFlow 的可运行代码，用户不仅能重现书中案例，还能深入理解对抗训练的核心机制、调试技巧及稳定性优化策略。项目结构清晰，按章节对应不同模型变体，并附带经典论文索引，方便对照学习原始研究。\n\n这套资源特别适合有一定 Python 基础的深度学习开发者、AI 研究人员以及希望将生成式模型应用于图像合成、风格迁移等场景的技术人员。无论是想系统构建知识体系，还是寻找可靠的代码参考进行二次开发，gans-in-action 都能提供扎实的工程实践支持，让复杂的生成模型变得触手可及。","# GANs in Action — Code Companion\n\n\u003Cp align=\"left\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.6+-blue.svg\" alt=\"Python 3.6+\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTensorFlow-1.8.0+-orange.svg\" alt=\"TensorFlow 1.8.0+\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FKeras-2.1.6+-red.svg\" alt=\"Keras 2.1.6+\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-green.svg\" alt=\"License MIT\">\n\u003C\u002Fp>\n\nThis is the official companion repository to the book **[GANs in Action: Deep Learning with Generative Adversarial Networks](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fgans-in-action)** by Jakub Langr and Vladimir Bok, published by Manning Publications.\n\nThis repo lets you reproduce, study, and extend every hands‑on example from the book.\nThe notebooks walk through every major variant in the GAN family, from the original **vanilla GAN** to **CycleGAN**, using Keras\u002FTensorFlow.  \n\n## 📚 Table of Contents\n\n- [Overview](#overview)\n- [Repository Structure](#repository-structure)\n- [Canonical GAN Papers](#canonical-gan-papers)\n- [Getting Started](#getting-started)\n- [Chapter Implementations](#chapter-implementations)\n- [Educational Resources](#educational-resources)\n- [Best Practices](#best-practices)\n- [Community Resources](#community-resources)\n- [Citation](#citation)\n- [License](#license)\n\n## 🎯 Overview\n\nThis repository contains practical implementations of various Generative Adversarial Network architectures discussed in the book \"GANs in Action\". Each chapter includes Jupyter notebooks with fully functional code examples that demonstrate key concepts and techniques in GAN development.\n\n### What You'll Learn\n\n- Fundamental concepts of generative modeling and adversarial training\n- Implementation of various GAN architectures from scratch\n- Best practices for training stable GANs\n- Real-world applications of GANs\n- Advanced techniques for improving GAN performance\n\n## 📂 Repository Structure\n\n```\ngans-in-action\u002F\n├── chapter-2\u002F          # Autoencoders\n├── chapter-3\u002F          # Vanilla GAN\n├── chapter-4\u002F          # Deep Convolutional GAN (DCGAN)\n├── chapter-6\u002F          # Progressive GAN\n├── chapter-7\u002F          # Semi-Supervised GAN\n├── chapter-8\u002F          # Conditional GAN\n├── chapter-9\u002F          # CycleGAN\n├── chapter-10\u002F         # Adversarial examples\n└── requirements.txt    # Python dependencies\n```\n\n## 📄 Canonical GAN Papers\n\nEach implementation in this repository is based on groundbreaking research. Here are the canonical papers for each GAN architecture covered:\n\n### Original GAN (Chapter 3)\n**Paper:** [Generative Adversarial Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1406.2661)  \n**Authors:** Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio  \n**Year:** 2014  \n**Key Contribution:** Introduced the foundational GAN framework with adversarial training between generator and discriminator networks.\n\n### Deep Convolutional GAN - DCGAN (Chapter 4)\n**Paper:** [Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1511.06434)  \n**Authors:** Alec Radford, Luke Metz, Soumith Chintala  \n**Year:** 2015  \n**Key Contribution:** Established architectural guidelines for stable GAN training using convolutional networks.\n\n### Progressive GAN (Chapter 6)\n**Paper:** [Progressive Growing of GANs for Improved Quality, Stability, and Variation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.10196)  \n**Authors:** Tero Karras, Timo Aila, Samuli Laine, Jaakko Lehtinen  \n**Year:** 2017  \n**Key Contribution:** Introduced progressive training methodology for generating high-resolution images.\n\n### Semi-Supervised GAN (Chapter 7)\n**Paper:** [Semi-Supervised Learning with Generative Adversarial Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.01583)  \n**Authors:** Augustus Odena  \n**Year:** 2016  \n**Key Contribution:** Extended GANs for semi-supervised learning by modifying the discriminator to output class labels.\n\n### Conditional GAN - CGAN (Chapter 8)\n**Paper:** [Conditional Generative Adversarial Nets](https:\u002F\u002Farxiv.org\u002Fabs\u002F1411.1784)  \n**Authors:** Mehdi Mirza, Simon Osindero  \n**Year:** 2014  \n**Key Contribution:** Enabled conditional generation by incorporating label information into both generator and discriminator.\n\n### CycleGAN (Chapter 9)\n**Paper:** [Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.10593)  \n**Authors:** Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros  \n**Year:** 2017  \n**Key Contribution:** Enabled image-to-image translation without paired training data using cycle consistency loss.\n\n## 🚀 Getting Started\n\n### Prerequisites\n\n- Python 3.6 or higher\n- CUDA-capable GPU (recommended for faster training)\n- 8GB+ RAM\n\n### Installation\n\n1. Clone this repository:\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FGANs-in-Action\u002Fgans-in-action.git\ncd gans-in-action\n```\n\n2. Create a virtual environment:\n```bash\npython -m venv gan_env\nsource gan_env\u002Fbin\u002Factivate  # On Windows: gan_env\\Scripts\\activate\n```\n\n3. Install dependencies:\n```bash\npip install -r requirements.txt\n```\n\n### Running the Examples\n\nNavigate to any chapter directory and launch Jupyter Notebook:\n```bash\ncd chapter-3\njupyter notebook\n```\n\nOpen the notebook file (e.g., `Chapter_3_GAN.ipynb`) and run the cells sequentially.\n\n## 📖 Chapter Implementations\n\n### Chapter 3: Your First GAN\n- **Implementation:** Basic GAN for MNIST digit generation\n- **Key Concepts:** Generator and discriminator networks, adversarial loss, training dynamics\n- **Dataset:** MNIST handwritten digits\n\n### Chapter 4: Deep Convolutional GAN (DCGAN)\n- **Implementation:** DCGAN for generating realistic images\n- **Key Concepts:** Convolutional architectures, batch normalization, architectural guidelines\n- **Dataset:** MNIST, CelebA (optional)\n\n### Chapter 5: Training and Common Challenges\n- **Implementation:** Various training techniques and solutions\n- **Key Concepts:** Mode collapse, vanishing gradients, training stability\n- **Techniques:** Label smoothing, feature matching, minibatch discrimination\n\n### Chapter 6: Progressive GAN\n- **Implementation:** Progressive growing for high-resolution generation\n- **Key Concepts:** Progressive training, smooth fade-in, minibatch standard deviation\n- **Dataset:** CelebA-HQ\n\n### Chapter 7: Semi-Supervised GAN\n- **Implementation:** SGAN for improved classification with limited labels\n- **Key Concepts:** Semi-supervised learning, modified discriminator architecture\n- **Dataset:** MNIST with limited labels\n\n### Chapter 8: Conditional GAN\n- **Implementation:** CGAN for controlled generation\n- **Key Concepts:** Conditional generation, label embedding, targeted synthesis\n- **Dataset:** MNIST with class conditions\n\n### Chapter 9: CycleGAN\n- **Implementation:** Unpaired image-to-image translation\n- **Key Concepts:** Cycle consistency loss, unpaired translation, domain adaptation\n- **Dataset:** Horse2Zebra, Apple2Orange\n\n## 📚 Educational Resources\n\n### Online Courses and Tutorials\n\n1. **[NIPS 2016 Tutorial: Generative Adversarial Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1701.00160)** by Ian Goodfellow\n2. **[MIT Deep Learning Course](http:\u002F\u002Fintrotodeeplearning.com\u002F)** - Includes comprehensive GAN coverage\n3. **[Stanford CS231n](http:\u002F\u002Fcs231n.stanford.edu\u002F)** - Convolutional Neural Networks for Visual Recognition\n4. **[Fast.ai Practical Deep Learning](https:\u002F\u002Fwww.fast.ai\u002F)** - Practical approach to deep learning including GANs\n\n### Video Lectures\n\n1. **[Ian Goodfellow: Generative Adversarial Networks (NIPS 2016)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=HGYYEUSm-0Q)**\n2. **[Two Minute Papers: GAN Series](https:\u002F\u002Fwww.youtube.com\u002Fuser\u002Fkeeroyz)** - Accessible explanations of latest GAN research\n3. **[Lex Fridman Podcast with Ian Goodfellow](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Z6rxFNMGdn0)**\n\n### Books and Reading Materials\n\n1. **[Deep Learning](https:\u002F\u002Fwww.deeplearningbook.org\u002F)** by Ian Goodfellow, Yoshua Bengio, and Aaron Courville\n   - Chapter 20: Deep Generative Models\n2. **[Pattern Recognition and Machine Learning](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fuploads\u002Fprod\u002F2006\u002F01\u002FBishop-Pattern-Recognition-and-Machine-Learning-2006.pdf)** by Christopher Bishop\n3. **[Generative Deep Learning](https:\u002F\u002Fwww.oreilly.com\u002Flibrary\u002Fview\u002Fgenerative-deep-learning\u002F9781492041931\u002F)** by David Foster\n\n### Research Papers - Essential Reading\n\n1. **[Improved Techniques for Training GANs](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.03498)** (2016) - Salimans et al.\n2. **[Wasserstein GAN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1701.07875)** (2017) - Arjovsky et al.\n3. **[Spectral Normalization for GANs](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.05957)** (2018) - Miyato et al.\n4. **[Self-Attention Generative Adversarial Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.08318)** (2018) - Zhang et al.\n5. **[StyleGAN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.04948)** (2018) - Karras et al.\n\n### Interactive Resources\n\n1. **[GAN Lab](https:\u002F\u002Fpoloclub.github.io\u002Fganlab\u002F)** - Interactive visualization of GAN training\n2. **[TensorFlow GAN Playground](https:\u002F\u002Fwww.tensorflow.org\u002Ftutorials\u002Fgenerative\u002Fdcgan)** - Hands-on DCGAN tutorial\n3. **[PyTorch GAN Zoo](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch_GAN_zoo)** - Collection of GAN implementations\n\n## 🏆 Best Practices\n\n### Training Tips\n\n1. **Normalize inputs** to `[-1, 1]` range\n2. **Use different learning rates** for generator and discriminator (typically `D_lr > G_lr`)\n3. **Monitor training metrics** carefully - `D_loss` and `G_loss` should be balanced\n4. **Use gradient penalties** (WGAN-GP) for improved stability\n5. **Apply spectral normalization** in discriminator for Lipschitz constraint\n\n### Architecture Guidelines\n\n1. **Replace pooling with strided convolutions** (discriminator) and fractional-strided convolutions (generator)\n2. **Use BatchNorm in generator** and `LayerNorm`\u002F`InstanceNorm` in discriminator\n3. **Use LeakyReLU in discriminator** (`0.2` slope) and `ReLU` in generator\n4. **Avoid fully connected layers** for deeper architectures\n\n### Common Pitfalls to Avoid\n\n1. **Mode collapse** - Generator produces limited variety\n2. **Vanishing gradients** - Discriminator becomes too strong\n3. **Oscillating losses** - Unstable training dynamics\n4. **Memory issues** - Use gradient checkpointing for large models\n\n### Evaluation Metrics\n\n1. **Inception Score (IS)** - Measures quality and diversity\n2. **Fréchet Inception Distance (FID)** - Compares feature distributions\n3. **Precision and Recall** - Measures quality vs diversity trade-off\n4. **Human evaluation** - Still the gold standard for many applications\n\n## 🌐 Community Resources\n\n### Forums and Discussion\n\n- **[r\u002FMachineLearning](https:\u002F\u002Fwww.reddit.com\u002Fr\u002FMachineLearning\u002F)** - Active discussions on latest GAN research\n- **[GAN Discord Server](https:\u002F\u002Fdiscord.gg\u002Fgan)** - Community of GAN researchers and practitioners\n- **[Stack Overflow - GAN Tag](https:\u002F\u002Fstackoverflow.com\u002Fquestions\u002Ftagged\u002Fgan)** - Technical Q&A\n\n### Tools and Frameworks\n\n- **[TensorFlow GAN (TF-GAN)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgan)** - TensorFlow GAN library\n- **[PyTorch-GAN](https:\u002F\u002Fgithub.com\u002Feriklindernoren\u002FPyTorch-GAN)** - Collection of PyTorch implementations\n- **[Keras-GAN](https:\u002F\u002Fgithub.com\u002Feriklindernoren\u002FKeras-GAN)** - Keras implementations\n\n### Datasets\n\n- **[CelebA](http:\u002F\u002Fmmlab.ie.cuhk.edu.hk\u002Fprojects\u002FCelebA.html)** - Celebrity faces dataset\n- **[LSUN](https:\u002F\u002Fwww.yf.io\u002Fp\u002Flsun)** - Large-scale scene understanding\n- **[FFHQ](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fffhq-dataset)** - Flickr-Faces-HQ dataset\n- **[ImageNet](http:\u002F\u002Fwww.image-net.org\u002F)** - Large-scale image database\n\n## 📝 Citation\n\nIf you use this code in your research, please cite the book:\n\n```bibtex\n@book{langr2019gans,\n  title={GANs in Action: Deep Learning with Generative Adversarial Networks},\n  author={Langr, Jakub and Bok, Vladimir},\n  year={2019},\n  publisher={Manning Publications}\n}\n```\n\n## 📄 License\n\nThis code is provided under the MIT License. See the `LICENSE` file for details.\n\n## 🤝 Contributing\n\nWe welcome contributions to improve this repository! If you find any issues, have suggestions for improvements, or want to add more comprehensive examples, please feel free to open an issue or submit a pull request.\n\n## 💬 Contact\n\n- **Book Website:** [https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fgans-in-action](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fgans-in-action)\n- **Authors:** Jakub Langr & Vladimir Bok\n- **Issues:** Please use the [GitHub issue tracker](https:\u002F\u002Fgithub.com\u002FGANs-in-Action\u002Fgans-in-action\u002Fissues)\n\n---\n\n\u003Cp align=\"center\">\n  Made with ❤️ by the GANs in Action team\n\u003C\u002Fp>\n","# GANs 实战 — 代码配套\n\n\u003Cp align=\"left\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.6+-blue.svg\" alt=\"Python 3.6+\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTensorFlow-1.8.0+-orange.svg\" alt=\"TensorFlow 1.8.0+\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FKeras-2.1.6+-red.svg\" alt=\"Keras 2.1.6+\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-green.svg\" alt=\"License MIT\">\n\u003C\u002Fp>\n\n这是由 Jakub Langr 和 Vladimir Bok 撰写的、Manning 出版社出版的书籍 **[GANs 实战：使用生成对抗网络进行深度学习](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fgans-in-action)** 的官方配套仓库。\n\n该仓库允许您复现、研究并扩展书中每一个动手示例。这些笔记本将带您逐步了解 GAN 家族中的每一种主要变体，从最初的 **vanilla GAN** 到 **CycleGAN**，全部基于 Keras\u002FTensorFlow 实现。\n\n## 📚 目录\n\n- [概述](#overview)\n- [仓库结构](#repository-structure)\n- [经典 GAN 论文](#canonical-gan-papers)\n- [快速入门](#getting-started)\n- [各章实现](#chapter-implementations)\n- [教育资源](#educational-resources)\n- [最佳实践](#best-practices)\n- [社区资源](#community-resources)\n- [引用](#citation)\n- [许可证](#license)\n\n## 🎯 概述\n\n本仓库包含了《GANs 实战》一书中讨论的各种生成对抗网络架构的实用实现。每一章都包含 Jupyter 笔记本，其中提供了可完全运行的代码示例，用于演示 GAN 开发中的关键概念和技术。\n\n### 您将学到的内容\n\n- 生成式建模和对抗训练的基本概念\n- 从头开始实现各种 GAN 架构\n- 训练稳定 GAN 的最佳实践\n- GAN 的实际应用\n- 提升 GAN 性能的高级技术\n\n## 📂 仓库结构\n\n```\ngans-in-action\u002F\n├── chapter-2\u002F          # 自编码器\n├── chapter-3\u002F          # 原始 GAN\n├── chapter-4\u002F          # 深度卷积 GAN (DCGAN)\n├── chapter-6\u002F          # 渐进式 GAN\n├── chapter-7\u002F          # 半监督 GAN\n├── chapter-8\u002F          # 条件 GAN\n├── chapter-9\u002F          # CycleGAN\n├── chapter-10\u002F         # 对抗样本\n└── requirements.txt    # Python 依赖项\n```\n\n## 📄 经典 GAN 论文\n\n本仓库中的每个实现都基于开创性的研究成果。以下是所涵盖的每种 GAN 架构的经典论文：\n\n### 原始 GAN（第 3 章）\n**论文:** [生成对抗网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1406.2661)  \n**作者:** Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio  \n**年份:** 2014  \n**主要贡献:** 提出了生成器和判别器网络之间对抗训练的基础性 GAN 框架。\n\n### 深度卷积 GAN - DCGAN（第 4 章）\n**论文:** [无监督表示学习与深度卷积生成对抗网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1511.06434)  \n**作者:** Alec Radford, Luke Metz, Soumith Chintala  \n**年份:** 2015  \n**主要贡献:** 提出了使用卷积网络进行稳定 GAN 训练的架构指南。\n\n### 渐进式 GAN（第 6 章）\n**论文:** [为提升质量、稳定性和多样性而渐进式增长的 GAN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.10196)  \n**作者:** Tero Karras, Timo Aila, Samuli Laine, Jaakko Lehtinen  \n**年份:** 2017  \n**主要贡献:** 引入了渐进式训练方法，用于生成高分辨率图像。\n\n### 半监督 GAN（第 7 章）\n**论文:** [使用生成对抗网络的半监督学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.01583)  \n**作者:** Augustus Odena  \n**年份:** 2016  \n**主要贡献:** 通过修改判别器以输出类别标签，将 GAN 扩展到半监督学习领域。\n\n### 条件 GAN - CGAN（第 8 章）\n**论文:** [条件生成对抗网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1411.1784)  \n**作者:** Mehdi Mirza, Simon Osindero  \n**年份:** 2014  \n**主要贡献:** 通过在生成器和判别器中引入标签信息，实现了条件生成。\n\n### CycleGAN（第 9 章）\n**论文:** [使用循环一致性对抗网络的非配对图像到图像转换](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.10593)  \n**作者:** Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros  \n**年份:** 2017  \n**主要贡献:** 使用循环一致性损失，在没有配对训练数据的情况下实现了图像到图像的转换。\n\n## 🚀 快速入门\n\n### 先决条件\n\n- Python 3.6 或更高版本\n- 支持 CUDA 的 GPU（推荐以加快训练速度）\n- 8GB 或以上内存\n\n### 安装步骤\n\n1. 克隆本仓库：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FGANs-in-Action\u002Fgans-in-action.git\ncd gans-in-action\n```\n\n2. 创建虚拟环境：\n```bash\npython -m venv gan_env\nsource gan_env\u002Fbin\u002Factivate  # Windows 上：gan_env\\\\Scripts\\\\activate\n```\n\n3. 安装依赖项：\n```bash\npip install -r requirements.txt\n```\n\n### 运行示例\n\n进入任意章节目录并启动 Jupyter Notebook：\n```bash\ncd chapter-3\njupyter notebook\n```\n\n打开笔记本文件（例如 `Chapter_3_GAN.ipynb`），然后按顺序运行各个单元格。\n\n## 📖 各章实现\n\n### 第 3 章：您的第一个 GAN\n- **实现:** 用于生成 MNIST 数字的基本 GAN\n- **关键概念:** 生成器和判别器网络、对抗损失、训练动态\n- **数据集:** MNIST 手写数字\n\n### 第 4 章：深度卷积 GAN (DCGAN)\n- **实现:** 用于生成逼真图像的 DCGAN\n- **关键概念:** 卷积架构、批量归一化、架构指导原则\n- **数据集:** MNIST，可选 CelebA 数据集\n\n### 第 5 章：训练与常见挑战\n- **实现:** 多种训练技巧及解决方案\n- **关键概念:** 模式坍塌、梯度消失、训练稳定性\n- **技巧:** 标签平滑、特征匹配、小批量鉴别\n\n### 第 6 章：渐进式 GAN\n- **实现:** 用于高分辨率生成的渐进式增长\n- **关键概念:** 渐进式训练、平滑淡入、小批量标准差\n- **数据集:** CelebA-HQ 数据集\n\n### 第 7 章：半监督 GAN\n- **实现:** SGAN 用于在有限标签下提升分类性能\n- **关键概念:** 半监督学习、修改后的判别器架构\n- **数据集:** MNIST 数据集，仅提供部分标签\n\n### 第 8 章：条件 GAN\n- **实现:** 用于受控生成的 CGAN\n- **关键概念:** 条件生成、标签嵌入、目标合成\n- **数据集:** MNIST 数据集，附带类别条件\n\n### 第 9 章：CycleGAN\n- **实现:** 非配对图像到图像的转换\n- **关键概念:** 环路一致性损失、非配对转换、领域适应\n- **数据集:** Horse2Zebra、Apple2Orange 数据集\n\n## 📚 教育资源\n\n### 在线课程与教程\n\n1. **[NIPS 2016 教程：生成对抗网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1701.00160)**，作者：伊恩·古德费洛\n2. **[MIT 深度学习课程](http:\u002F\u002Fintrotodeeplearning.com\u002F)** - 包含全面的 GAN 内容\n3. **[斯坦福 CS231n](http:\u002F\u002Fcs231n.stanford.edu\u002F)** - 用于视觉识别的卷积神经网络\n4. **[Fast.ai 实用深度学习](https:\u002F\u002Fwww.fast.ai\u002F)** - 包括 GAN 在内的实用深度学习方法\n\n### 视频讲座\n\n1. **[伊恩·古德费洛：生成对抗网络（NIPS 2016）](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=HGYYEUSm-0Q)**\n2. **[Two Minute Papers: GAN 系列](https:\u002F\u002Fwww.youtube.com\u002Fuser\u002Fkeeroyz)** - 易懂地解释最新的 GAN 研究\n3. **[莱克斯·弗里德曼播客：伊恩·古德费洛](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Z6rxFNMGdn0)**\n\n### 图书与阅读材料\n\n1. **[深度学习](https:\u002F\u002Fwww.deeplearningbook.org\u002F)**，作者：伊恩·古德费洛、约书亚·本吉奥和阿伦·库维尔\n   - 第 20 章：深度生成模型\n2. **[模式识别与机器学习](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fuploads\u002Fprod\u002F2006\u002F01\u002FBishop-Pattern-Recognition-and-Machine-Learning-2006.pdf)**，作者：克里斯托弗·毕晓普\n3. **[生成式深度学习](https:\u002F\u002Fwww.oreilly.com\u002Flibrary\u002Fview\u002Fgenerative-deep-learning\u002F9781492041931)**，作者：大卫·福斯特\n\n### 研究论文——必读文献\n\n1. **[GAN 训练技术的改进](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.03498)**（2016年）- 萨利曼斯等人\n2. **[Wasserstein GAN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1701.07875)**（2017年）- 阿尔乔夫斯基等人\n3. **[GAN 的谱归一化](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.05957)**（2018年）- 宫藤等人\n4. **[自注意力生成对抗网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.08318)**（2018年）- 张等人\n5. **[StyleGAN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.04948)**（2018年）- 卡拉斯等人\n\n### 交互式资源\n\n1. **[GAN Lab](https:\u002F\u002Fpoloclub.github.io\u002Fganlab\u002F)** - GAN 训练的交互式可视化\n2. **[TensorFlow GAN 演示平台](https:\u002F\u002Fwww.tensorflow.org\u002Ftutorials\u002Fgenerative\u002Fdcgan)** - 实践型 DCGAN 教程\n3. **[PyTorch GAN Zoo](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch_GAN_zoo)** - GAN 实现集合\n\n## 🏆 最佳实践\n\n### 训练技巧\n\n1. 将输入归一化到 `[-1, 1]` 范围\n2. 为生成器和判别器使用不同的学习率（通常 `D_lr > G_lr`）\n3. 仔细监控训练指标——`D_loss` 和 `G_loss` 应保持平衡\n4. 使用梯度惩罚（WGAN-GP）以提高稳定性\n5. 在判别器中应用谱归一化以满足李普希茨约束\n\n### 架构指南\n\n1. 用步进卷积替换池化操作（判别器），并使用分数步进卷积（生成器）\n2. 在生成器中使用批归一化，在判别器中使用层归一化或实例归一化\n3. 在判别器中使用 LeakyReLU（斜率为 0.2），在生成器中使用 ReLU\n4. 对于较深的架构，避免使用全连接层\n\n### 常见陷阱及规避方法\n\n1. **模式坍塌** - 生成器输出多样性不足\n2. **梯度消失** - 判别器过于强大\n3. **损失震荡** - 训练动态不稳定\n4. **内存问题** - 对大型模型使用梯度检查点\n\n### 评估指标\n\n1. **Inception Score (IS)** - 衡量图像质量和多样性\n2. **Fréchet Inception Distance (FID)** - 比较特征分布\n3. **精确率与召回率** - 衡量质量与多样性之间的权衡\n4. **人工评估** - 对许多应用而言仍是黄金标准\n\n## 🌐 社区资源\n\n### 论坛与讨论\n\n- **[r\u002FMachineLearning](https:\u002F\u002Fwww.reddit.com\u002Fr\u002FMachineLearning\u002F)** - 关于最新 GAN 研究的活跃讨论\n- **[GAN Discord 服务器](https:\u002F\u002Fdiscord.gg\u002Fgan)** - GAN 研究者和从业者的社区\n- **[Stack Overflow - GAN 标签](https:\u002F\u002Fstackoverflow.com\u002Fquestions\u002Ftagged\u002Fgan)** - 技术问答\n\n### 工具与框架\n\n- **[TensorFlow GAN (TF-GAN)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgan)** - TensorFlow GAN 库\n- **[PyTorch-GAN](https:\u002F\u002Fgithub.com\u002Feriklindernoren\u002FPyTorch-GAN)** - PyTorch 实现集合\n- **[Keras-GAN](https:\u002F\u002Fgithub.com\u002Feriklindernoren\u002FKeras-GAN)** - Keras 实现\n\n### 数据集\n\n- **[CelebA](http:\u002F\u002Fmmlab.ie.cuhk.edu.hk\u002Fprojects\u002FCelebA.html)** - 名人面部数据集\n- **[LSUN](https:\u002F\u002Fwww.yf.io\u002Fp\u002Flsun)** - 大规模场景理解数据集\n- **[FFHQ](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fffhq-dataset)** - Flickr-Faces-HQ 数据集\n- **[ImageNet](http:\u002F\u002Fwww.image-net.org\u002F)** - 大规模图像数据库\n\n## 📝 引用\n\n如果您在研究中使用了此代码，请引用以下书籍：\n\n```bibtex\n@book{langr2019gans,\n  title={GANs in Action: Deep Learning with Generative Adversarial Networks},\n  author={Langr, Jakub and Bok, Vladimir},\n  year={2019},\n  publisher={Manning Publications}\n}\n```\n\n## 📄 许可证\n\n本代码根据 MIT 许可证提供。详情请参阅 `LICENSE` 文件。\n\n## 🤝 贡献\n\n我们欢迎对本仓库的改进贡献！如果您发现任何问题、有改进建议，或希望添加更全面的示例，请随时提交问题或拉取请求。\n\n## 💬 联系方式\n\n- **书籍官网:** [https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fgans-in-action](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fgans-in-action)\n- **作者:** 雅库布·朗格和弗拉基米尔·博克\n- **问题:** 请使用 [GitHub 问题追踪器](https:\u002F\u002Fgithub.com\u002FGANs-in-Action\u002Fgans-in-action\u002Fissues)\n\n---\n\n\u003Cp align=\"center\">\n  由 GANs in Action 团队用心制作\n\u003C\u002Fp>","# GANs in Action 快速上手指南\n\n本指南基于《GANs in Action》官方代码库，帮助开发者快速复现书中从基础 Vanilla GAN 到 CycleGAN 等各类生成对抗网络实例。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：3.6 或更高\n*   **硬件建议**：推荐使用支持 CUDA 的 GPU 以加速训练（显存建议 4GB+），至少 8GB 内存\n*   **核心依赖**：\n    *   TensorFlow 1.8.0+\n    *   Keras 2.1.6+\n    *   Jupyter Notebook\n\n> **国内加速提示**：由于原项目依赖较老版本的 TensorFlow (1.x)，若在国内下载依赖较慢，建议在安装步骤中使用清华或阿里镜像源。\n\n## 安装步骤\n\n### 1. 克隆项目\n打开终端，执行以下命令获取源代码：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FGANs-in-Action\u002Fgans-in-action.git\ncd gans-in-action\n```\n\n### 2. 创建虚拟环境\n为避免依赖冲突，建议创建独立的虚拟环境：\n\n```bash\npython -m venv gan_env\n```\n\n激活环境：\n*   **Linux\u002FmacOS**:\n    ```bash\n    source gan_env\u002Fbin\u002Factivate\n    ```\n*   **Windows**:\n    ```bash\n    gan_env\\Scripts\\activate\n    ```\n\n### 3. 安装依赖\n使用国内镜像源加速安装 Python 依赖包：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n*(注：如果 `requirements.txt` 中指定的 TensorFlow 1.x 版本在安装时遇到兼容性问题，可能需要根据本地 CUDA 版本手动调整安装命令)*\n\n## 基本使用\n\n项目按书籍章节组织，每个章节包含独立的 Jupyter Notebook 示例。以下以**第 3 章：你的第一个 GAN (Vanilla GAN)** 为例：\n\n### 1. 进入章节目录\n```bash\ncd chapter-3\n```\n\n### 2. 启动 Jupyter Notebook\n```bash\njupyter notebook\n```\n\n### 3. 运行示例\n浏览器会自动打开 Jupyter 界面，点击名为 `Chapter_3_GAN.ipynb` 的文件。\n*   按顺序执行单元格（Cell），代码将自动下载 MNIST 数据集。\n*   等待训练完成后，即可看到生成的手写数字图像。\n\n### 其他章节示例\n您可以切换至其他目录体验更高级的模型：\n*   `cd ..\u002Fchapter-4` : 体验 **DCGAN** (卷积生成对抗网络)\n*   `cd ..\u002Fchapter-9` : 体验 **CycleGAN** (无配对图像转换，如马变斑马)\n\n所有笔记本均包含完整的数据加载、模型构建、训练循环及结果可视化代码，可直接运行学习。","一家初创游戏公司的技术美术团队正急需为独立游戏生成大量风格统一的复古像素资产，但面临美术人手不足且训练生成模型门槛过高的困境。\n\n### 没有 gans-in-action 时\n- 团队成员需从零阅读晦涩的原始论文推导数学公式，难以将理论转化为可运行的 TensorFlow\u002FKeras 代码。\n- 在尝试复现 DCGAN 或 CycleGAN 等经典架构时，因缺乏稳定的超参数配置和最佳实践，导致模型训练频繁崩溃或模式坍塌。\n- 想要对比不同变体（如从 Vanilla GAN 升级到 Progressive GAN）的效果，必须手动重写大量底层逻辑，开发周期长达数周。\n- 遇到梯度消失或判别器过早收敛等常见陷阱时，只能盲目调试，缺乏系统性的排查指南和参考实现。\n\n### 使用 gans-in-action 后\n- 直接调用书中配套的 Jupyter Notebook，立即获得基于 Keras\u002FTensorFlow 的完整可运行代码，无需从头造轮子。\n- 依托仓库提供的经过验证的最佳实践和稳定架构，快速训练出高质量的像素画生成模型，显著减少试错成本。\n- 通过章节化的清晰结构，轻松切换并实验从基础 GAN 到条件生成（Conditional GAN）等多种变体，几天内即可完成迭代。\n- 参考仓库中针对各类训练难题的解决方案，迅速定位并修复模型不收敛问题，确保项目按时交付。\n\ngans-in-action 将高深的对抗生成网络理论转化为触手可及的工程代码，让开发者能专注于创意落地而非底层算法的重复构建。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGANs-in-Action_gans-in-action_5126c8da.png","GANs-in-Action","GANs in Action","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FGANs-in-Action_ffef1268.jpg","Deep learning with Generative Adversarial Networks by Jakub Langr and Vladimir Bok",null,"https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fgans-in-action","https:\u002F\u002Fgithub.com\u002FGANs-in-Action",[83,87],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",100,{"name":88,"color":89,"percentage":90},"Python","#3572A5",0,1034,422,"2026-03-28T04:24:46","MIT","Linux, macOS, Windows","推荐配备支持 CUDA 的 GPU（非必需，但可加速训练），具体型号和显存大小未说明","8GB+",{"notes":99,"python":100,"dependencies":101},"该项目是书籍《GANs in Action》的配套代码库，主要使用 TensorFlow 1.x 和 Keras。虽然现代 GPU 通常兼容旧版 CUDA，但需注意 TensorFlow 1.8.0 对 CUDA 版本有特定要求（通常对应 CUDA 9.0）。建议使用虚拟环境（venv）安装依赖。部分高级章节（如 Progressive GAN）可能需要更大的内存或显存。","3.6+",[102,103],"TensorFlow>=1.8.0","Keras>=2.1.6",[15,13,14],[106,107,108,109,110,111,112,113,114,115,116,117],"gan","gans","generative-adversarial-network","artificial-intelligence","ai","deep-learning","deep-neural-networks","artificial-intelligence-algorithms","semi-supervised-learning","dcgan","conditional-gan","cycle-gan","2026-03-27T02:49:30.150509","2026-04-06T07:14:58.781026",[121,126,131,136,141,146],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},15164,"第 7 章 SGAN 训练生成器时，标签应该用 0（fake）还是 1（real）？","代码中使用 `np.ones((batch_size, 1))`（即标签为 1）是正确的。虽然在训练生成器时它生成的是假图像，但我们的目标是“欺骗”判别器，让判别器认为这些假图像是真实的，因此需要告诉生成器其目标是让判别器输出“真实”（1）的预测结果。","https:\u002F\u002Fgithub.com\u002FGANs-in-Action\u002Fgans-in-action\u002Fissues\u002F6",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},15162,"第 4 章训练时出现模式崩溃（Mode Collapse），判别器准确率 100% 且生成图像全是噪声，如何解决？","这通常是因为生成器找到了少数能欺骗判别器的样本，导致无法生成多样化图像。解决方案包括：1. 检查数据权重差异，如果过大应在生成器和判别器中使用 BatchNormalization 层以避免梯度爆炸；2. 调整批次大小（batch size），过小的批次估算不准确；3. 如果使用 tf.keras 遇到此问题，尝试移除 BatchNormalization 层，因为某些版本或配置下它可能导致网络无法正常工作；4. 注意工具新版本可能不保证向后兼容，可能需要调整源代码。","https:\u002F\u002Fgithub.com\u002FGANs-in-Action\u002Fgans-in-action\u002Fissues\u002F16",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},15163,"书中第 51 页关于转置卷积的输入张量尺寸描述有误，正确的维度变化流程是什么？","书中确实存在错误。正确的维度变化流程应为：噪声向量 → 7x7x256 层 → 14x14x128 层 → 14x14x64 层 → 28x28x1 输出。即转置卷积是将 14x14x64 的张量转换为 28x28x1 的输出图像尺寸，而非书中误写的 28x28x64。该修正将在后续的 MEAP 更新中反映。","https:\u002F\u002Fgithub.com\u002FGANs-in-Action\u002Fgans-in-action\u002Fissues\u002F1",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},15165,"在 Google Colab 上运行第 9 章 CycleGAN 代码时出现 FileNotFoundError 错误，如何修复？","这是因为代码试图保存图像到不存在的目录。解决方法是在 `sample_images()` 函数中添加以下代码以创建必要的目录：`os.makedirs('images\u002F%s' % self.dataset_name, exist_ok=True)`。","https:\u002F\u002Fgithub.com\u002FGANs-in-Action\u002Fgans-in-action\u002Fissues\u002F22",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},15166,"如何提前获取尚未正式发布的章节（如第 9 章 CycleGAN）内容？","在线出版（MEAP）由出版社协调，作者无法直接控制发布节奏。章节需经过编辑反馈和修订等步骤才能上线。通常随着书籍印刷日期临近，发布速度会加快。建议关注 Manning 网站更新，例如第 9 章预计在 2 月底前发布。","https:\u002F\u002Fgithub.com\u002FGANs-in-Action\u002Fgans-in-action\u002Fissues\u002F2",{"id":147,"question_zh":148,"answer_zh":149,"source_url":135},15167,"后续章节（如第 5 章及以后）的发布计划是怎样的？","包含第 5 章的 MEAP 更新预计最迟在下周三上线，可能更早。随后的新章节将按月陆续添加。",[]]