[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-gapeng000--PyTorch-progressive_growing_of_gans":3,"tool-gapeng000--PyTorch-progressive_growing_of_gans":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":78,"difficulty_score":88,"env_os":89,"env_gpu":90,"env_ram":91,"env_deps":92,"category_tags":102,"github_topics":103,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":106,"updated_at":107,"faqs":108,"releases":129},3921,"gapeng000\u002FPyTorch-progressive_growing_of_gans","PyTorch-progressive_growing_of_gans","PyTorch implementation of Progressive Growing of GANs for Improved Quality, Stability, and Variation.","PyTorch-progressive_growing_of_gans 是基于 PyTorch 框架复现的“渐进式生长生成对抗网络”开源项目。它核心解决了传统 GAN 在训练高分辨率图像时容易出现的模型崩溃、训练不稳定以及生成样本多样性不足等难题。\n\n该工具通过独特的“渐进式生长”策略，让神经网络从低分辨率图像开始训练，随后逐步增加网络层数以提升生成图像的清晰度。这种由粗到细的训练方式显著提高了生成质量与过程稳定性。项目中还包含针对 CelebA-HQ 数据集的处理脚本，并引入了实时的加权混合技巧，进一步增强了模型在分辨率过渡阶段的平滑度。\n\n需要注意的是，该项目主要面向具备一定深度学习基础的 AI 研究人员和开发者。由于官方代码库的主分支可能存在不稳定性，且部分算子实现曾存在瑕疵，使用者在复现结果时可能需要参考特定的历史版本或调整学习率等超参数。如果你希望深入研究高分辨率人脸生成技术，或需要在 PyTorch 环境中实验先进的 GAN 架构，这是一个极具参考价值的起点，但建议在使用前仔细阅读其更新日志以规避潜在的训练陷阱。","PyTorch implementation of [Progressive Growing of GANs for Improved Quality, Stability, and Variation](http:\u002F\u002Farxiv.org\u002Fabs\u002F1710.10196). \n\n**Warning**: the master branch might collapse. To obtain similar result in README, you can fall back to this [commit](https:\u002F\u002Fgithub.com\u002Fgithub-pengge\u002FPyTorch-progressive_growing_of_gans\u002Ftree\u002F2c04be1d9ee76f9c83335547785c6559c1164a29), but remembered that some ops were not correctly implemented under that commit. Besides, you'd better use a lower learning rate, 1e-4 would be fine.\n\n## How to create CelebA-HQ dataset\nI borrowed `h5tool.py` from [official code](https:\u002F\u002Fgithub.com\u002Ftkarras\u002Fprogressive_growing_of_gans). To create CelebA-HQ dataset, we have to download the original CelebA dataset, and the additional deltas files from [here](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B4qLcYyJmiz0TXY1NG02bzZVRGs). After that, run\n```\npython2 h5tool.py create_celeba_hq file_name_to_save \u002Fpath\u002Fto\u002Fceleba_dataset\u002F \u002Fpath\u002Fto\u002Fceleba_hq_deltas\n```\nThis is what I used on my laptop\n```\npython2 h5tool.py create_celeba_hq \u002FUsers\u002Fyuan\u002FDownloads\u002FCelebA-HQ \u002FUsers\u002Fyuan\u002FDownloads\u002FCelebA\u002FOriginal\\ CelebA\u002F \u002FUsers\u002Fyuan\u002FDownloads\u002FCelebA\u002FCelebA-HQ-Deltas\n```\nI found that MD5 checking were always failed, so I just commented out the MD5 checking part([LN 568](https:\u002F\u002Fgithub.com\u002Fgithub-pengge\u002FPyTorch-progressive_growing_of_gans\u002Fblob\u002Fmaster\u002Fh5tool#L568) and [LN 589](https:\u002F\u002Fgithub.com\u002Fgithub-pengge\u002FPyTorch-progressive_growing_of_gans\u002Fblob\u002Fmaster\u002Fh5tool#L589))\n\nWith default setting, it took 1 day on my server. You can specific `num_threads` and `num_tasks` for accleration.\n\n## Training from scratch\nYou have to create CelebA-HQ dataset first, please follow the instructions above. \n\nTo obtain the similar results in `samples` directory, see `train_no_tanh.py` or `train.py` scipt for details(with default options). Both should work well. For example, you could run\n```\nconda create -n pytorch_p36 python=3.6 h5py matplotlib\nsource activate pytorch_p36\nconda install pytorch torchvision -c pytorch\nconda install scipy\npip install tensorflow\n\n#0=first gpu, 1=2nd gpu ,2=3rd gpu etc...\npython train.py --gpu 0,1,2 --train_kimg 600 --transition_kimg 600 --beta1 0 --beta2 0.99 --gan lsgan --first_resol 4 --target_resol 256 --no_tanh\n```\n\n`train_kimg`(`transition_kimg`) means after seeing `train_kimg * 1000`(`transition_kimg * 1000`) real images, switching to fade in(stabilize) phase. Currently only support LSGAN and GAN with `--no_noise` option, since WGAN-GP is unavailable, `--drift` option does not affect the result. `--no_tanh` means do not use `tanh` at generator's output layer.\n\nIf you are Python 2 user, You'd better add this to the top of `train.py` since I use print('something...', file=f) to write experiment settings to file.\n```\nfrom __future__ import print_function\n```\n\n\nTensorboard\n```\ntensorboard --logdir='.\u002Flogs'\n```\n## Update history\n\n* **Update(20171213)**: Update `data.py`, now when fading in, real images are weighted combination of current resolution images and 0.5x resolution images. This weighting trick is similar to the one used in Generator's outputs or Discriminator's inputs. This helps stabilize when fading in.\n\n* **Update(20171129)**: Add restoration mode. Basides, after many trying, I failed to combine BEGAN and PG-GAN. It's removed from the repository.\n\n* **Update(20171124)**: Now training with CelebA-HQ dataset. Besides, still failing to introduce progressive growing to BEGAN, even with many modifications.\n\n* **Update(20171121)**: Introduced progressive growing to [BEGAN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.10717), see `train_began.py` script. However, experiments showed that it did not work at this moment. Finding bugs and tuning network structure...\n\n* **Update(20171119)**: Unstable came from `resize_activation` function, after replacing `repeat` by `torch.nn.functional.upsample`, problem solved. **And now I believe that both `train.py` and `train_no_tanh` should be stable**. Restored from 128x128 stabilize, and continued training, currently at 256x256, phase = fade in, temporary results(first 2 columns on the left were generated, and the other 2 columns were taken from dataset):\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_readme_2aabf2a15df7.png\">\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_readme_942a78fa0abb.png\">\n\u003C\u002Fp>\n\n* **Update(20171118)**: Making mistake in `resize activation` function(`repeat` is not a right in this function), though it's wrong, it's still effective when resolution\u003C256, but collapsed at resolution>=256. Changing it now, scripts will be updated tomorrow. Sorry for this mistake.\n\n* **Update(20171117)**: 128x128 fade in results(first 2 columns on the left were generated, and the other 2 columns were taken from dataset):\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_readme_6fe10a4f2e37.png\">\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_readme_976fa7ceb592.png\">\n\u003C\u002Fp>\n\n* **Update(20171116)**: Adding noise only to RGB images might still collapse. Switching to the same trick as the paper suggested. Besides, the paper used `linear` as activation of G's output layer, which is reasonable, as I observed in the experiments. Temporary results: 64x64, phase=fade in, the left 4 columns are Generated, and the right 4 columns are from real samples(when fading in, instability might occur, for example, the following results is not so promising, however, as the training goes, it gets better), higher resolution will be available soon.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_readme_69fd96302da4.png\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_readme_8ff7d1e70ef9.png\">\n\u003C\u002Fp>\n\n* **Update(20171115)**: Mode collapse happened when fading in, debugging... => It turns out that unstable seems to be normal when fading in, after some more iterations, it gets better. Now I'm not using the same noise adding trick as the paper suggested, however, it had been implemented, I will test it and plug it into the network.\n\n* **Update(20171114)**: First version, seems that the generator tends to generate white image. Debugging now. => Fixed some bugs. Now seems normal, training... => There are some unknown problems when fading in, debugging...\n\n* **Update(20171113)**: Generator and Discriminator: ok, simple test passed.\n\n* **Update(20171112)**: It's now under reimplementation.\n\n* **Update(20171111)**: It's still under implementation. I did not care design the structure, and now I had to reimplement(phase='fade in' is hard to implement under current structure). I also fixed some bugs, since reimplementation is needed, I do not plan to pull requests at this moment.\n\n# Reference implementation\n* https:\u002F\u002Fgithub.com\u002Fgithub-pengge\u002FPyTorch-progressive_growing_of_gans\n\n\n","[Progressive Growing of GANs for Improved Quality, Stability, and Variation](http:\u002F\u002Farxiv.org\u002Fabs\u002F1710.10196) 的 PyTorch 实现。\n\n**警告**：主分支可能会崩溃。若想在 README 中获得类似结果，可以回退到这个 [commit](https:\u002F\u002Fgithub.com\u002Fgithub-pengge\u002FPyTorch-progressive_growing_of_gans\u002Ftree\u002F2c04be1d9ee76f9c83335547785c6559c1164a29)，但请注意，在该 commit 下某些操作并未正确实现。此外，建议使用较低的学习率，例如 1e-4 即可。\n\n## 如何创建 CelebA-HQ 数据集\n我借用了 [官方代码](https:\u002F\u002Fgithub.com\u002Ftkarras\u002Fprogressive_growing_of_gans) 中的 `h5tool.py`。要创建 CelebA-HQ 数据集，首先需要下载原始 CelebA 数据集，以及额外的 deltas 文件，可以从 [这里](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B4qLcYyJmiz0TXY1NG02bzZVRGs) 获取。下载完成后，运行以下命令：\n```\npython2 h5tool.py create_celeba_hq file_name_to_save \u002Fpath\u002Fto\u002Fceleba_dataset\u002F \u002Fpath\u002Fto\u002Fceleba_hq_deltas\n```\n我在笔记本上使用的命令如下：\n```\npython2 h5tool.py create_celeba_hq \u002FUsers\u002Fyuan\u002FDownloads\u002FCelebA-HQ \u002FUsers\u002Fyuan\u002FDownloads\u002FCelebA\u002FOriginal\\ CelebA\u002F \u002FUsers\u002Fyuan\u002FDownloads\u002FCelebA\u002FCelebA-HQ-Deltas\n```\n我发现 MD5 校验总是失败，因此直接注释掉了 MD5 校验的部分（[第 568 行](https:\u002F\u002Fgithub.com\u002Fgithub-pengge\u002FPyTorch-progressive_growing_of_gans\u002Fblob\u002Fmaster\u002Fh5tool#L568) 和 [第 589 行](https:\u002F\u002Fgithub.com\u002Fgithub-pengge\u002FPyTorch-progressive_growing_of_gans\u002Fblob\u002Fmaster\u002Fh5tool#L589)）。\n\n在默认设置下，我的服务器上大约需要 1 天时间完成。可以通过指定 `num_threads` 和 `num_tasks` 来加速处理。\n\n## 从头开始训练\n首先需要创建 CelebA-HQ 数据集，请按照上述说明操作。\n\n若想在 `samples` 目录中获得类似的结果，可以查看 `train_no_tanh.py` 或 `train.py` 脚本以获取详细信息（使用默认选项即可）。两者都应能正常工作。例如，可以运行以下命令：\n```\nconda create -n pytorch_p36 python=3.6 h5py matplotlib\nsource activate pytorch_p36\nconda install pytorch torchvision -c pytorch\nconda install scipy\npip install tensorflow\n\n#0=第一块显卡，1=第二块显卡，2=第三块显卡等...\npython train.py --gpu 0,1,2 --train_kimg 600 --transition_kimg 600 --beta1 0 --beta2 0.99 --gan lsgan --first_resol 4 --target_resol 256 --no_tanh\n```\n\n`train_kimg`（`transition_kimg`）表示在看到 `train_kimg * 1000`（`transition_kimg * 1000`）张真实图像后，切换到渐入（稳定）阶段。目前仅支持 LSGAN 和带有 `--no_noise` 选项的 GAN，因为 WGAN-GP 尚不可用，`--drift` 选项对结果并无影响。`--no_tanh` 表示在生成器的输出层不使用 `tanh` 函数。\n\n如果你使用的是 Python 2，建议在 `train.py` 的顶部添加以下代码，因为我使用 `print('something...', file=f)` 将实验设置写入文件。\n```\nfrom __future__ import print_function\n```\n\nTensorBoard：\n```\ntensorboard --logdir='.\u002Flogs'\n```\n\n## 更新历史\n\n* **更新（20171213）**：更新了 `data.py`，现在在渐入阶段，真实图像会由当前分辨率图像和 0.5 倍分辨率图像加权组合而成。这种加权技巧与生成器输出或判别器输入中的做法类似，有助于在渐入时保持稳定。\n  \n* **更新（20171129）**：增加了恢复模式。此外，经过多次尝试，我未能成功将 BEGAN 与 PG-GAN 结合，现已从仓库中移除。\n\n* **更新（20171124）**：现在开始使用 CelebA-HQ 数据集进行训练。不过，尽管进行了大量修改，仍然无法将渐进式增长引入 BEGAN。\n\n* **更新（20171121）**：将渐进式增长引入 [BEGAN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.10717)，详见 `train_began.py` 脚本。然而，实验表明目前仍无法实现。正在寻找 bug 并调整网络结构……\n\n* **更新（20171119）**：不稳定问题源于 `resize_activation` 函数。将 `repeat` 替换为 `torch.nn.functional.upsample` 后，问题得以解决。**现在我认为 `train.py` 和 `train_no_tanh` 都应该是稳定的**。已从 128x128 的稳定状态恢复，并继续训练，目前处于 256x256 阶段，处于渐入阶段，临时结果（左起前两列是生成的，后两列来自数据集）：\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_readme_2aabf2a15df7.png\">\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_readme_942a78fa0abb.png\">\n\u003C\u002Fp>\n\n* **更新（20171118）**：在 `resize activation` 函数中犯了一个错误（在此函数中使用 `repeat` 是不正确的），虽然错误，但在分辨率低于 256 时仍有效，但当分辨率达到或超过 256 时就会崩溃。目前正在修复，脚本将于明天更新。对此错误深表歉意。\n\n* **更新（20171117）**：128x128 渐入阶段的结果（左起前两列是生成的，后两列来自数据集）：\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_readme_6fe10a4f2e37.png\">\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_readme_976fa7ceb592.png\">\n\u003C\u002Fp>\n\n* **更新（20171116）**：仅向 RGB 图像添加噪声仍可能导致崩溃。改用论文中建议的相同技巧。此外，论文中将 G 的输出层激活函数设为 `linear`，这在实验观察中是合理的。临时结果：64x64，处于渐入阶段，左起四列为生成图像，右起四列为真实样本（渐入时可能会出现不稳定现象，例如以下结果并不理想，但随着训练的进行会逐渐改善），更高分辨率的结果即将呈现。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_readme_69fd96302da4.png\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_readme_8ff7d1e70ef9.png\">\n\u003C\u002Fp>\n\n* **更新（20171115）**：渐入时发生了模式坍塌，正在调试……结果发现，渐入阶段出现不稳定似乎是正常现象，经过几次迭代后情况会有所改善。目前我没有采用论文中建议的相同加噪技巧，但之前已经实现了，我会对其进行测试并将其整合到网络中。\n\n* **更新（20171114）**：第一个版本，似乎生成器倾向于生成白色图像。正在调试中。=> 修复了一些 bug。现在看起来正常，正在训练……=> 渐入阶段仍存在一些未知问题，正在调试中……\n\n* **更新（20171113）**：生成器和判别器：没问题，简单测试通过。\n\n* **更新（20171112）**：目前正处于重新实现阶段。\n\n* **更新（20171111）**：仍在实现过程中。最初并未仔细设计网络结构，现在不得不重新实现（当前结构难以实现“渐入”阶段）。同时修复了一些 bug，由于需要重新实现，暂时不计划提交 Pull Request。\n\n# 参考实现\n* https:\u002F\u002Fgithub.com\u002Fgithub-pengge\u002FPyTorch-progressive_growing_of_gans","# PyTorch 渐进式生长 GAN 快速上手指南\n\n本指南基于 `PyTorch-progressive_growing_of_gans` 项目，帮助开发者快速复现论文《Progressive Growing of GANs for Improved Quality, Stability, and Variation》中的效果。\n\n> **⚠️ 重要提示**：主分支（master）可能存在不稳定性。若需获得与 README 示例相似的结果，建议回退至特定提交版本 [2c04be1](https:\u002F\u002Fgithub.com\u002Fgithub-pengge\u002FPyTorch-progressive_growing_of_gans\u002Ftree\u002F2c04be1d9ee76f9c83335547785c6559c1164a29)，并将学习率设置为 `1e-4`。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: Linux \u002F macOS (Windows 未明确测试，建议 Linux)\n- **Python 版本**: 推荐 Python 3.6 (部分脚本依赖 Python 2 处理数据集，但训练支持 Py3)\n- **GPU**: 支持 CUDA 的 NVIDIA 显卡（多卡训练效果更佳）\n\n### 前置依赖\n需要安装以下核心库：\n- PyTorch\n- torchvision\n- h5py\n- matplotlib\n- scipy\n- tensorflow (仅用于部分依赖检查，非核心训练)\n\n## 2. 安装步骤\n\n### 2.1 创建虚拟环境并安装依赖\n推荐使用 Conda 进行环境管理。以下命令基于 Python 3.6 环境：\n\n```bash\n# 创建名为 pytorch_p36 的环境\nconda create -n pytorch_p36 python=3.6 h5py matplotlib\n\n# 激活环境\nsource activate pytorch_p36\n\n# 安装 PyTorch 和 torchvision (国内用户可使用清华源加速)\n# 官方源: conda install pytorch torchvision -c pytorch\n# 清华源加速:\nconda install pytorch torchvision -c pytorch --override-channels -c https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fcloud\u002Fpytorch\u002F\n\n# 安装其他科学计算库\nconda install scipy\n\n# 安装 tensorflow (pip 方式)\npip install tensorflow\n```\n\n### 2.2 克隆项目代码\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fgithub-pengge\u002FPyTorch-progressive_growing_of_gans.git\ncd PyTorch-progressive_growing_of_gans\n\n# 【可选】回退到稳定版本 commit (推荐)\ngit checkout 2c04be1d9ee76f9c83335547785c6559c1164a29\n```\n\n## 3. 基本使用\n\n### 3.1 准备 CelebA-HQ 数据集\n在训练前，必须先将原始 CelebA 数据集转换为 CelebA-HQ 格式。\n\n1. **下载数据**：\n   - 原始 [CelebA 数据集](http:\u002F\u002Fmmlab.ie.cuhk.edu.hk\u002Fprojects\u002FCelebA.html)\n   - [CelebA-HQ Deltas 文件](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B4qLcYyJmiz0TXY1NG02bzZVRGs)\n\n2. **执行转换脚本**：\n   注意：此步骤可能需要 Python 2 环境。如果 MD5 校验失败，请手动注释掉 `h5tool.py` 第 568 行和 589 行的校验代码。\n\n```bash\n# 语法: python2 h5tool.py create_celeba_hq \u003C保存路径> \u003C原始数据集路径> \u003CDeltas 文件路径>\npython2 h5tool.py create_celeba_hq \u002Fpath\u002Fto\u002Fsave\u002FCelebA-HQ \u002Fpath\u002Fto\u002Fceleba_dataset\u002F \u002Fpath\u002Fto\u002Fceleba_hq_deltas\n```\n*注：默认单线程处理耗时较长，可通过修改脚本增加 `num_threads` 加速。*\n\n### 3.2 开始训练\n确保数据集准备完毕后，运行训练脚本。以下示例展示如何使用多卡训练生成 256x256 分辨率图像。\n\n```bash\n# 参数说明:\n# --gpu 0,1,2 : 使用第 0, 1, 2 号 GPU\n# --train_kimg 600 : 每看到 600,000 张图进入下一阶段\n# --transition_kimg 600 : 过渡阶段持续时间\n# --gan lsgan : 使用 LSGAN 损失函数\n# --first_resol 4 --target_resol 256 : 从 4x4 渐进生长至 256x256\n# --no_tanh : 生成器输出层不使用 tanh 激活\n\npython train.py --gpu 0,1,2 --train_kimg 600 --transition_kimg 600 --beta1 0 --beta2 0.99 --gan lsgan --first_resol 4 --target_resol 256 --no_tanh\n```\n\n**Python 2 用户注意**：\n如果您在 Python 2 环境下运行 `train.py`，请在文件顶部添加以下代码以兼容打印语法：\n```python\nfrom __future__ import print_function\n```\n\n### 3.3 查看训练日志\n项目支持 TensorBoard 可视化，启动命令如下：\n\n```bash\ntensorboard --logdir='.\u002Flogs'\n```\n随后在浏览器访问 `http:\u002F\u002Flocalhost:6006` 即可监控训练过程。","某初创游戏公司的美术团队急需批量生成高分辨率（256x256）的 NPC 人脸素材，以填充开放世界游戏中的路人角色，但受限于标注数据稀缺和训练算力不足。\n\n### 没有 PyTorch-progressive_growing_of_gans 时\n- **训练极易崩溃**：直接训练高分辨率 GAN 模型时，生成器与判别器难以同步收敛，导致训练过程频繁发散或产生模式坍塌，无法输出可用图像。\n- **图像质量低下**：生成的面部特征模糊、伪影严重，缺乏皮肤纹理等高频细节，完全无法满足游戏美术的生产标准。\n- **调试成本高昂**：由于缺乏渐进式增长机制，一旦训练失败，开发人员难以定位是分辨率跳跃过大还是网络结构问题，排查周期长达数周。\n- **多样性匮乏**：模型倾向于重复生成几张相似的“平均脸”，无法覆盖不同年龄、性别和神态的角色需求。\n\n### 使用 PyTorch-progressive_growing_of_gans 后\n- **训练稳定可控**：利用从 4x4 低分辨率逐步过渡到 256x256 高分辨率的策略，有效平滑了训练曲线，即使在单卡或多卡环境下也能稳定收敛。\n- **细节清晰逼真**：生成的 CelebA-HQ 级别人脸拥有清晰的五官轮廓和自然的皮肤质感，可直接用于游戏资产制作或作为高质量底图。\n- **开发效率提升**：通过内置的 fade-in（淡入）和 stabilize（稳定）阶段切换机制，大幅减少了超参数调优时间，让团队能快速验证不同风格。\n- **样本丰富多变**：成功解决了模式坍塌问题，生成的数千张人脸在发型、表情和光照上均具有高度多样性，满足了大规模场景填充需求。\n\nPyTorch-progressive_growing_of_gans 通过渐进式生长策略，将原本不可控的高分辨率图像生成任务转化为稳定、高效且高质量的生产流程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgapeng000_PyTorch-progressive_growing_of_gans_2aabf2a1.png","gapeng000","gapeng","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgapeng000_70c8dc1d.png",null,"https:\u002F\u002Fgithub.com\u002Fgapeng000",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,584,98,"2025-11-14T15:48:13",4,"Linux, macOS","必需 NVIDIA GPU，支持多卡训练（示例命令使用了 --gpu 0,1,2），具体显存大小和 CUDA 版本未说明，但需支持 PyTorch 的 CUDA 后端","未说明（创建数据集过程耗时较长，建议具备充足内存）",{"notes":93,"python":94,"dependencies":95},"1. 主分支可能存在不稳定导致训练崩溃的风险，建议回退到特定 commit (2c04be1) 以获得类似结果，但该版本下部分算子实现不正确且建议使用较低学习率 (1e-4)。\n2. 必须预先准备 CelebA-HQ 数据集，需下载原始 CelebA 数据集及增量文件，并使用 Python 2 运行 h5tool.py 进行转换（因脚本中 MD5 校验常失败，可能需要手动注释相关代码）。\n3. 目前仅支持 LSGAN 和普通 GAN（配合 --no_noise 选项），WGAN-GP 不可用。\n4. 创建数据集在默认设置下服务器端耗时约 1 天，可通过调整线程数加速。","3.6 (README 明确演示了 python=3.6 的环境创建，同时提到 Python 2 用户需修改代码)",[96,97,98,99,100,101],"pytorch","torchvision","h5py","matplotlib","scipy","tensorflow",[14,13],[96,104,105],"gan","pggan","2026-03-27T02:49:30.150509","2026-04-06T05:35:29.316653",[109,114,119,124],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},17913,"遇到 'salt must be bytes' 错误该如何解决？","该错误通常是因为传入的 salt 参数是字符串而非字节。解决方法是对导致问题的字符串调用 `.encode()` 方法将其转换为字节，例如：`str.encode()`。","https:\u002F\u002Fgithub.com\u002Fgapeng000\u002FPyTorch-progressive_growing_of_gans\u002Fissues\u002F24",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},17914,"训练时出现 'Expected object of type torch.FloatTensor but found type torch.cuda.FloatTensor' 类型不匹配错误怎么办？","这是因为部分变量在 CPU 上而另一部分在 GPU 上导致的类型冲突。解决方案是将相关变量（如代码中的 `scale`）显式移动到 CUDA 设备上运行，确保所有参与运算的张量都在同一设备（GPU）上。","https:\u002F\u002Fgithub.com\u002Fgapeng000\u002FPyTorch-progressive_growing_of_gans\u002Fissues\u002F23",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},17915,"当前版本是否为最终版本？与论文实现是否有差异？","目前版本与论文的做法基本一致。由于实验非常耗时，作者暂时没有继续进行额外的调整或更新。","https:\u002F\u002Fgithub.com\u002Fgapeng000\u002FPyTorch-progressive_growing_of_gans\u002Fissues\u002F18",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},17916,"如何在 Python 2 环境下修复兼容性问题？","Python 2 中存在以下不兼容问题及修复方案：\n1. `shape.copy()` 在 Python 2 中不可用，请改用切片操作 `target_shape = shape[:]`。\n2. 导入模块需要 `__init__.py` 文件或手动添加路径。建议在代码中添加 `sys.path.append('utils')` 和 `sys.path.append('models')`，然后直接使用 `from data import ...` 和 `from model import ...` 进行导入。","https:\u002F\u002Fgithub.com\u002Fgapeng000\u002FPyTorch-progressive_growing_of_gans\u002Fissues\u002F17",[]]