[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-akanimax--pro_gan_pytorch":3,"tool-akanimax--pro_gan_pytorch":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":77,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":10,"env_os":88,"env_gpu":89,"env_ram":90,"env_deps":91,"category_tags":97,"github_topics":98,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":104,"updated_at":105,"faqs":106,"releases":136},4977,"akanimax\u002Fpro_gan_pytorch","pro_gan_pytorch","Unofficial PyTorch implementation of the paper titled \"Progressive growing of GANs for improved Quality, Stability, and Variation\"","pro_gan_pytorch 是经典论文《Progressive growing of GANs for improved Quality, Stability, and Variation》的非官方 PyTorch 实现版本。它核心解决了传统生成对抗网络（GAN）在训练高分辨率图像时容易出现的模型不稳定、难以收敛以及生成质量不佳等难题。\n\n该工具采用了“渐进式生长”的独特技术策略：从低分辨率图像开始训练，随着模型逐渐稳定，逐步增加网络层数以生成更高分辨率的图像。这种由粗到细的生长方式显著提升了训练的稳定性，并能生成细节丰富、多样性高的高质量图像。此外，它还集成了均衡学习率（Equalized Learning Rate）和指数移动平均（EMA）等优化技巧，进一步保障训练效果。\n\npro_gan_pytorch 主要面向 AI 研究人员、深度学习开发者以及对图像生成技术有深入探索需求的技术人员。它提供了完善的命令行工具（如 progan_train），支持多 GPU 并行加速训练，并允许用户灵活调整网络深度、潜变量维度等关键参数。虽然部署需要一定的 Linux 环境与 Nvidia ","pro_gan_pytorch 是经典论文《Progressive growing of GANs for improved Quality, Stability, and Variation》的非官方 PyTorch 实现版本。它核心解决了传统生成对抗网络（GAN）在训练高分辨率图像时容易出现的模型不稳定、难以收敛以及生成质量不佳等难题。\n\n该工具采用了“渐进式生长”的独特技术策略：从低分辨率图像开始训练，随着模型逐渐稳定，逐步增加网络层数以生成更高分辨率的图像。这种由粗到细的生长方式显著提升了训练的稳定性，并能生成细节丰富、多样性高的高质量图像。此外，它还集成了均衡学习率（Equalized Learning Rate）和指数移动平均（EMA）等优化技巧，进一步保障训练效果。\n\npro_gan_pytorch 主要面向 AI 研究人员、深度学习开发者以及对图像生成技术有深入探索需求的技术人员。它提供了完善的命令行工具（如 progan_train），支持多 GPU 并行加速训练，并允许用户灵活调整网络深度、潜变量维度等关键参数。虽然部署需要一定的 Linux 环境与 Nvidia GPU 硬件基础，但其模块化的设计使得复现前沿算法和进行自定义实验变得更加便捷高效，是探索高质量图像生成领域的有力助手。","# pro_gan_pytorch\n**Unofficial PyTorch** implementation of Paper titled \"Progressive growing of GANs for improved \nQuality, Stability, and Variation\". \u003Cbr>\nFor the official TensorFlow code, please refer to \n[this repo](https:\u002F\u002Fgithub.com\u002Ftkarras\u002Fprogressive_growing_of_gans) \u003Cbr>\n\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fakanimax\u002Fpro_gan_pytorch)\n![PyPi](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpip--pro--gan--pth-3.4-brightgreen)\n\n# How to use:\n### Using the package\n**Requirements (aka. we tested for):**\n1. **Ubuntu** `20.04.3` or above\n2. Python `3.8.3`\n3. Nvidia GPU `GeForce 1080 Ti or above` min GPU-mem `8GB`\n4. Nvidia drivers >= `470.86`\n5. Nvidia cuda `11.3` | can be skipped since  pytorch ships with cuda, cudnn etc.\n\n**Installing the package**\n1. Easiest way is to create a new virtual-env \nso that your global python env doesn't get corrupted\n2. Create and switch to your new virtual environment\n```\n    (your-machine):~$ python3 -m venv \u003Cenv-store-path>\u002Fpro_gan_pth_env \n    (pro_gan_pth_env)(your-machine):~$ source \u003Cenv-store-path>\u002Fpro_gan_pth_env\u002Fbin\u002Factivate\n```\n3. Install the `pro-gan-pth` package from pypi, if you meet \nall the above dependencies\n```\n    (pro_gan_pth_env)(your-machine):~$ pip install pro-gan-pth \n```    \n4. Once installed, you can either use the installed commandline tools\n`progan_train`, `progan_lsid` and `progan_fid`.\nNote that the `progan_train` can be used with multiple gpus \n(If you have many :smile:). Just ensure that the gpus visible in the \n`CUDA_VISIBLE_DEVICES=0,1,2` environment variable. The other two tools only use a \nsingle GPU.\n\n\n```\n    (your-machine):~$ progan_train --help\nusage: Train Progressively grown GAN\n       [-h]\n       [--retrain RETRAIN]\n       [--generator_path GENERATOR_PATH]\n       [--discriminator_path DISCRIMINATOR_PATH]\n       [--rec_dir REC_DIR]\n       [--flip_horizontal FLIP_HORIZONTAL]\n       [--depth DEPTH]\n       [--num_channels NUM_CHANNELS]\n       [--latent_size LATENT_SIZE]\n       [--use_eql USE_EQL]\n       [--use_ema USE_EMA]\n       [--ema_beta EMA_BETA]\n       [--epochs EPOCHS [EPOCHS ...]]\n       [--batch_sizes BATCH_SIZES [BATCH_SIZES ...]]\n       [--batch_repeats BATCH_REPEATS]\n       [--fade_in_percentages FADE_IN_PERCENTAGES [FADE_IN_PERCENTAGES ...]]\n       [--loss_fn LOSS_FN]\n       [--g_lrate G_LRATE]\n       [--d_lrate D_LRATE]\n       [--num_feedback_samples NUM_FEEDBACK_SAMPLES]\n       [--start_depth START_DEPTH]\n       [--num_workers NUM_WORKERS]\n       [--feedback_factor FEEDBACK_FACTOR]\n       [--checkpoint_factor CHECKPOINT_FACTOR]\n       train_path\n       output_dir\n\n    positional arguments:\n      train_path            Path to the images folder for training the ProGAN\n      output_dir            Path to the directory for saving the logs and models\n\n    optional arguments:\n      -h, --help            show this help message and exit\n      --retrain RETRAIN     whenever you want to resume training from saved models (default: False)\n      --generator_path GENERATOR_PATH\n                            Path to the generator model for retraining the ProGAN (default: None)\n      --discriminator_path DISCRIMINATOR_PATH \n                            Path to the discriminat or model for retraining the ProGAN (default: None)\n      --rec_dir REC_DIR     whether images stored under one folder or has a recursive dir structure (default: True)\n      --flip_horizontal FLIP_HORIZONTAL\n                            whether to apply mirror augmentation (default: True)\n      --depth DEPTH         depth of the generator and the discriminator (default: 10)\n      --num_channels NUM_CHANNELS\n                            number of channels of in the image data (default: 3)\n      --latent_size LATENT_SIZE\n                            latent size of the generator and the discriminator (default: 512)\n      --use_eql USE_EQL     whether to use the equalized learning rate (default: True)\n      --use_ema USE_EMA     whether to use the exponential moving averages (default: True)\n      --ema_beta EMA_BETA   value of the ema beta (default: 0.999)\n      --epochs EPOCHS [EPOCHS ...]\n                            number of epochs over the training dataset per stage (default: [42, 42, 42, 42, 42, 42, 42, 42, 42])\n      --batch_sizes BATCH_SIZES [BATCH_SIZES ...]\n                            batch size used for training the model per stage (default: [32, 32, 32, 32, 16, 16, 8, 4, 2])\n      --batch_repeats BATCH_REPEATS\n                            number of G and D steps executed per training iteration (default: 4)\n      --fade_in_percentages FADE_IN_PERCENTAGES [FADE_IN_PERCENTAGES ...]\n                            number of iterations for which fading of new layer happens. Measured in percentage (default: [50, 50, 50, 50, 50, 50, 50, 50, 50])\n      --loss_fn LOSS_FN     loss function used for training the GAN. Current options: [wgan_gp, standard_gan] (default: wgan_gp)\n      --g_lrate G_LRATE     learning rate used by the generator (default: 0.003)\n      --d_lrate D_LRATE     learning rate used by the discriminator (default: 0.003)\n      --num_feedback_samples NUM_FEEDBACK_SAMPLES\n                            number of samples used for fixed seed gan feedback (default: 4)\n      --start_depth START_DEPTH\n                            resolution to start the training from. Example 2 --> (4x4) | 3 --> (8x8) ... | 10 --> (1024x1024)Note that this is not a way to restart a partial training. Resuming is not\n                            supported currently. But will be soon. (default: 2)\n      --num_workers NUM_WORKERS\n                            number of dataloader subprocesses. It's a pytorch thing, you can ignore it ;). Leave it to the default value unless things are weirdly slow for you. (default: 4)\n      --feedback_factor FEEDBACK_FACTOR\n                            number of feedback logs written per epoch (default: 10)\n      --checkpoint_factor CHECKPOINT_FACTOR\n                            number of epochs after which a model snapshot is saved per training stage (default: 10)\n\n------------------------------------------------------------------------------------------------------------------------------------------------------------------\n\n    (your-machine):~$ progan_lsid --help\n    usage: ProGAN latent-space walk demo video creation tool [-h] [--output_path OUTPUT_PATH] [--generation_depth GENERATION_DEPTH] [--time TIME] [--fps FPS] [--smoothing SMOOTHING] model_path\n\n    positional arguments:\n      model_path            path to the trained_model.bin file\n\n    optional arguments:\n      -h, --help            show this help message and exit\n      --output_path OUTPUT_PATH\n                            path to the output video file location. Please only use mp4 format with this tool (.mp4 extension). I have banged my head too much to get anything else to work :(. (default:\n                            .\u002Flatent_space_walk.mp4)\n      --generation_depth GENERATION_DEPTH\n                            depth at which the images should be generated. Starts from 2 --> (4x4) | 3 --> (8x8) etc. (default: None)\n      --time TIME           number of seconds in the video (default: 30)\n      --fps FPS             fps of the generated video (default: 60)\n      --smoothing SMOOTHING\n                            smoothness of walking in the latent-space. High values corresponds to more smoothing. (default: 0.75)\n\n------------------------------------------------------------------------------------------------------------------------------------------------------------------\n\n    (your-machine):~$ progan_fid --help\n    usage: ProGAN fid_score computation tool [-h] [--generated_images_path GENERATED_IMAGES_PATH] [--batch_size BATCH_SIZE] [--num_generated_images NUM_GENERATED_IMAGES] model_path dataset_path\n\n    positional arguments:\n      model_path            path to the trained_model.bin file\n      dataset_path          path to the directory containing the images from the dataset. Note that this needs to be a flat directory\n\n    optional arguments:\n      -h, --help            show this help message and exit\n      --generated_images_path GENERATED_IMAGES_PATH\n                            path to the directory where the generated images are to be written. Uses a temporary directory by default. Provide this path if you'd like to see the generated images yourself\n                            :). (default: None)\n      --batch_size BATCH_SIZE\n                            batch size used for generating random images (default: 4)\n      --num_generated_images NUM_GENERATED_IMAGES\n                            number of generated images used for computing the FID (default: 50000)\n```\n    \n5. Or, you could import this as a python package in your code \nfor more advanced use-cases:\n``` \n    import pro_gan_pytorch as pg \n```\nYou can use all the modules in the package such as: `pg.networks.Generator`, \n`pg.networks.Discriminator`, `pg.gan.ProGAN` etc. Mostly, you'll only need \nthe `pg.gan.ProGAN` module for training. For inference, you will probably only \nneed the `pg.networks.Generator`. Please refer to the scripts for the tools as \nin 4. under `pro_gan_pytorch_scripts\u002F` for examples on how to use the package. \nBesides, please feel free to just read the code. It's really easy to follow\n(or at least I hope so :sweat_smile: :grimacing:).\n\n### Developing the package\nFor more advanced use-cases in your project, or if you'd like to contribute new\nfeatures to this project, the following steps would help you get this project setup \nfor developing. There are no standard set of rules for contributing here \n(no `CONTRIBUTING.md`) but let's try to maintain the overall ethos of the \ncodebase :smile:.  \n\n1. clone this repository\n```\n    (your-machine):~$ cd \u003Cpath to project>\n    (your-machine):\u003Cpath to project>$ git clone https:\u002F\u002Fgithub.com\u002Fakanimax\u002Fpro_gan_pytorch.git\n```\n2. Apologies in advance since the step 1. will take a while. I ended up \npushing gifs and other large binary assets to git back then. \nI didn't know better :sad:. I'll see if this can be sorted out somehow. \nBut once done setup a development virtual env, \n```\n    (your-machine):\u003Cpath to project>$ python3 -m venv pro-gan-pth-dev-env\n    (your-machine):\u003Cpath to project>$ source pro-gan-pth-dev-env\u002Fsource\u002Factivate\n```\n3. Install the package in development mode:\n```\n    (pro-gan-pth-dev-env)(your-machine):\u003Cpath to project>$ pip install -e .\n```\n4. Also install the dev requirements:\n```\n    (pro-gan-pth-dev-env)(your-machine):\u003Cpath to project>$ pip install -r requirements-dev.txt\n```\n5. Now open the project in the editor of your choice, and you are good to go. \nI use `pytest` for testing and `black` for code formatting. Check out \n[this_link](https:\u002F\u002Fblack.readthedocs.io\u002Fen\u002Fstable\u002Fintegrations\u002Feditors.html) for \nhow to setup `black` with various IDEs.\n\n6. There is no fancy CI, or automated testing, or docs building since this is a \nfairly tiny project. But we are open to considering these tools if more features\nkeep getting added to this project.\n\n# Trained Models\nWe will be training models using this package on different datasets over the time.\nAlso, please feel free to open PRs for the following table if you end up training \nmodels for your own datasets. If you are contributing, then please setup \na file hosting solution for serving the trained models. \n\n| Courtesy | Dataset        | Size  |Resolution  | GPUs used   | #Epochs per stage | Training time | FID score        | Link            | Qualitative samples | \n| :---     | :---           | :---  |:---        | :---        | :---              | :---          | :---             | :---            | :---                |\n| @owang   | Metfaces       | ~1.3K |1024 x 1024 | 1 V100-32GB | 42                | 24 hrs        | 101.624          | [model_link](http:\u002F\u002Fgeometry.cs.ucl.ac.uk\u002Fprojects\u002F2021\u002Fpro_gan_pytorch\u002Fmodel_metfaces.bin) | ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakanimax_pro_gan_pytorch_readme_9bd86e7ce555.png)\n    \n\n**Note that we compute the FID using the clean_fid version from \n[Parmar et. al.](https:\u002F\u002Fwww.cs.cmu.edu\u002F~clean-fid\u002F)**\n\n# General cool stuff :smile: \n### Training timelapse (fixed latent points):\nThe training timelapse created from the images logged during the training \nlooks really cool. \n\u003Cp align=\"center\">\n\u003Cimg align=\"center\" src =\"https:\u002F\u002Fgithub.com\u002Fakanimax\u002Fpro_gan_pytorch\u002Fblob\u002Fmaster\u002Fsamples\u002FcelebA-HQ.gif\"\n     height=80% width=80%\u002F>\n\u003C\u002Fp>\n\u003Cbr>\n\nCheckout this [YT video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=lzTm6Lq76Mo) for a \n4K version :smile:.\n\nIf interested please feel free to check out this \n[medium blog]( https:\u002F\u002Fmedium.com\u002F@animeshsk3\u002Fthe-unprecedented-effectiveness-of-progressive-growing-of-gans-37475c88afa3)\nI wrote explaining the progressive growing technique.\n\n# References\n\n    1. Tero Karras, Timo Aila, Samuli Laine, & Jaakko Lehtinen (2018). \n    Progressive Growing of GANs for Improved Quality, Stability, and Variation. \n    In International Conference on Learning Representations.\n\n    2. Parmar, Gaurav, Richard Zhang, and Jun-Yan Zhu. \n    \"On Buggy Resizing Libraries and Surprising Subtleties in FID Calculation.\" \n    arXiv preprint arXiv:2104.11222 (2021).\n\n# Feature requests\n- [ ] Conditional GAN support\n- [ ] Tool for generating time-lapse video from the log images\n- [ ] Integrating fid-metric computation as a training-logging\n\n# Thanks\nAs always, \u003Cbr>\nplease feel free to open PRs\u002Fissues\u002Fsuggestions here. \nHope this work is useful in your project :smile:. \n\ncheers :beers:! \u003Cbr>\n@akanimax :sunglasses:\n","# pro_gan_pytorch\n**非官方 PyTorch** 实现，基于论文《用于提升质量、稳定性和多样性的渐进式生成对抗网络》。\u003Cbr>\n官方 TensorFlow 代码请参考 \n[这个仓库](https:\u002F\u002Fgithub.com\u002Ftkarras\u002Fprogressive_growing_of_gans) \u003Cbr>\n\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fakanimax\u002Fpro_gan_pytorch)\n![PyPi](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpip--pro--gan--pth-3.4-brightgreen)\n\n# 使用方法：\n### 使用该包\n**要求（即我们测试过的环境）：**\n1. **Ubuntu** `20.04.3` 或更高版本\n2. Python `3.8.3`\n3. Nvidia GPU `GeForce 1080 Ti 或更高`，显存至少 `8GB`\n4. Nvidia 驱动程序 ≥ `470.86`\n5. Nvidia CUDA `11.3` | 可以跳过，因为 PyTorch 自带 CUDA、cuDNN 等。\n\n**安装包**\n1. 最简单的方式是创建一个新的虚拟环境，以避免污染你的全局 Python 环境。\n2. 创建并切换到新虚拟环境：\n```\n    (your-machine):~$ python3 -m venv \u003Cenv-store-path>\u002Fpro_gan_pth_env \n    (pro_gan_pth_env)(your-machine):~$ source \u003Cenv-store-path>\u002Fpro_gan_pth_env\u002Fbin\u002Factivate\n```\n3. 如果满足上述所有依赖条件，即可从 PyPI 安装 `pro-gan-pth` 包：\n```\n    (pro_gan_pth_env)(your-machine):~$ pip install pro-gan-pth \n```    \n4. 安装完成后，你可以使用已安装的命令行工具 `progan_train`、`progan_lsid` 和 `progan_fid`。  \n注意，`progan_train` 支持多 GPU 训练（如果你有多块 GPU :smile:）。只需确保在 `CUDA_VISIBLE_DEVICES=0,1,2` 环境变量中正确设置可见的 GPU 即可。另外两个工具则仅使用单个 GPU。\n\n\n```\n    (your-machine):~$ progan_train --help\n用法：训练渐进式生成对抗网络\n       [-h]\n       [--retrain RETRAIN]\n       [--generator_path GENERATOR_PATH]\n       [--discriminator_path DISCRIMINATOR_PATH]\n       [--rec_dir REC_DIR]\n       [--flip_horizontal FLIP_HORIZONTAL]\n       [--depth DEPTH]\n       [--num_channels NUM_CHANNELS]\n       [--latent_size LATENT_SIZE]\n       [--use_eql USE_EQL]\n       [--use_ema USE_EMA]\n       [--ema_beta EMA_BETA]\n       [--epochs EPOCHS [EPOCHS ...]]\n       [--batch_sizes BATCH_SIZES [BATCH_SIZES ...]]\n       [--batch_repeats BATCH_REPEATS]\n       [--fade_in_percentages FADE_IN_PERCENTAGES [FADE_IN_PERCENTAGES ...]]\n       [--loss_fn LOSS_FN]\n       [--g_lrate G_LRATE]\n       [--d_lrate D_LRATE]\n       [--num_feedback_samples NUM_FEEDBACK_SAMPLES]\n       [--start_depth START_DEPTH]\n       [--num_workers NUM_WORKERS]\n       [--feedback_factor FEEDBACK_FACTOR]\n       [--checkpoint_factor CHECKPOINT_FACTOR]\n       train_path\n       output_dir\n\n    位置性参数：\n      train_path            用于训练 ProGAN 的图像文件夹路径\n      output_dir            用于保存日志和模型的目录路径\n\n    可选参数：\n      -h, --help            显示此帮助信息并退出\n      --retrain RETRAIN     当需要从已保存的模型继续训练时启用（默认：False）\n      --generator_path GENERATOR_PATH\n                            用于重新训练 ProGAN 的生成器模型路径（默认：无）\n      --discriminator_path DISCRIMINATOR_PATH \n                            用于重新训练 ProGAN 的判别器模型路径（默认：无）\n      --rec_dir REC_DIR     指定图像是否存储在一个文件夹下，或采用递归目录结构（默认：True）\n      --flip_horizontal FLIP_HORIZONTAL\n                            是否应用水平翻转增强（默认：True）\n      --depth DEPTH         生成器和判别器的深度（默认：10）\n      --num_channels NUM_CHANNELS\n                            图像数据的通道数（默认：3）\n      --latent_size LATENT_SIZE\n                            生成器和判别器的潜在空间大小（默认：512）\n      --use_eql USE_EQL     是否使用等化学习率（默认：True）\n      --use_ema USE_EMA     是否使用指数移动平均（默认：True）\n      --ema_beta EMA_BETA   移动平均的权重值（默认：0.999）\n      --epochs EPOCHS [EPOCHS ...]\n                            每个阶段在训练数据集上运行的轮数（默认：[42, 42, 42, 42, 42, 42, 42, 42, 42]）\n      --batch_sizes BATCH_SIZES [BATCH_SIZES ...]\n                            每个阶段用于训练模型的批量大小（默认：[32, 32, 32, 32, 16, 16, 8, 4, 2]）\n      --batch_repeats BATCH_REPEATS\n                            每次训练迭代中执行的 G 和 D 步骤次数（默认：4）\n      --fade_in_percentages FADE_IN_PERCENTAGES [FADE_IN_PERCENTAGES ...]\n                            新层渐变过渡的迭代次数，以百分比表示（默认：[50, 50, 50, 50, 50, 50, 50, 50, 50]）\n      --loss_fn LOSS_FN     用于训练 GAN 的损失函数。当前选项：[wgan_gp, standard_gan]（默认：wgan_gp）\n      --g_lrate G_LRATE     生成器的学习率（默认：0.003）\n      --d_lrate D_LRATE     判别器的学习率（默认：0.003）\n      --num_feedback_samples NUM_FEEDBACK_SAMPLES\n                            用于固定种子 GAN 反馈的样本数量（默认：4）\n      --start_depth START_DEPTH\n                            开始训练的分辨率。例如，2 表示 (4x4) | 3 表示 (8x8) ... | 10 表示 (1024x1024)。请注意，这不是重启部分训练的方法。目前暂不支持恢复训练，但很快就会支持。（默认：2）\n      --num_workers NUM_WORKERS\n                            数据加载器的子进程数量。这是 PyTorch 的特性，你也可以忽略它；除非你觉得速度异常缓慢，否则保持默认值即可。（默认：4）\n      --feedback_factor FEEDBACK_FACTOR\n                            每个 epoch 写入的反馈日志数量（默认：10）\n      --checkpoint_factor CHECKPOINT_FACTOR\n                            每个训练阶段每隔多少个 epoch 保存一次模型快照（默认：10）\n\n------------------------------------------------------------------------------------------------------------------------------------------------------------------\n\n    (your-machine):~$ progan_lsid --help\n    用法：ProGAN 潜在空间漫步演示视频制作工具 [-h] [--output_path OUTPUT_PATH] [--generation_depth GENERATION_DEPTH] [--time TIME] [--fps FPS] [--smoothing SMOOTHING] model_path\n\n    位置性参数：\n      model_path            已训练模型文件 trained_model.bin 的路径\n\n可选参数：\n      -h, --help            显示此帮助消息并退出\n      --output_path OUTPUT_PATH\n                            输出视频文件的保存路径。请仅使用 mp4 格式（.mp4 扩展名）。我已经为此折腾了很久，其他格式都无法正常工作 :(。（默认：.\u002Flatent_space_walk.mp4）\n      --generation_depth GENERATION_DEPTH\n                            生成图像的深度级别。从 2 开始 --> (4x4) | 3 --> (8x8) 等。（默认：无）\n      --time TIME           视频时长（秒）。（默认：30）\n      --fps FPS             生成视频的帧率。（默认：60）\n      --smoothing SMOOTHING\n                            隐空间行走的平滑度。值越高，平滑效果越好。（默认：0.75）\n\n------------------------------------------------------------------------------------------------------------------------------------------------------------------\n\n    （你的机器）：~$ progan_fid --help\n    使用方法：ProGAN fid_score 计算工具 [-h] [--generated_images_path GENERATED_IMAGES_PATH] [--batch_size BATCH_SIZE] [--num_generated_images NUM_GENERATED_IMAGES] 模型路径 数据集路径\n\n    位置参数：\n      model_path            训练好的 model.bin 文件路径\n      dataset_path          包含数据集图像的目录路径。请注意，该目录必须是扁平结构\n\n    取消参数：\n      -h, --help            显示此帮助消息并退出\n      --generated_images_path GENERATED_IMAGES_PATH\n                            用于存放生成图像的目录路径。默认使用临时目录。如果您想亲自查看生成的图像，请提供此路径 :)。（默认：无）\n      --batch_size BATCH_SIZE\n                            用于生成随机图像的批量大小。（默认：4）\n      --num_generated_images NUM_GENERATED_IMAGES\n                            用于计算 FID 的生成图像数量。（默认：50000）\n```\n    \n5. 或者，您也可以在代码中将其作为 Python 包导入 \n以用于更高级的用例：\n``` \n    import pro_gan_pytorch as pg \n```\n您可以使用包中的所有模块，例如：`pg.networks.Generator`, \n`pg.networks.Discriminator`, `pg.gan.ProGAN` 等。通常，您只需要 \n`pg.gan.ProGAN` 模块来进行训练。而在推理阶段，您可能只需要 \n`pg.networks.Generator`。请参考第 4 条中 `pro_gan_pytorch_scripts\u002F` \n下的工具脚本，以获取有关如何使用该包的示例。此外，您也可以直接阅读代码。它非常容易理解\n（至少我希望如此 :sweat_smile: :grimacing:)。\n\n\n\n### 包的开发\n对于项目中更高级的用例，或者如果您希望为该项目贡献新功能，以下步骤将帮助您设置开发环境。目前这里没有标准的贡献规范（没有 `CONTRIBUTING.md`），但我们仍会尽量保持代码库的整体风格 :smile:。\n\n1. 克隆此仓库\n```\n    （你的机器）：~$ cd \u003C项目路径>\n    （你的机器）：\u003C项目路径>$ git clone https:\u002F\u002Fgithub.com\u002Fakanimax\u002Fpro_gan_pytorch.git\n```\n2. 提前致歉，因为第 1 步可能会花费一些时间。当时我把一些 GIF 和其他大文件资产上传到了 Git 仓库。那时我还不太了解最佳实践 :sad:。我会尝试解决这个问题。完成克隆后，设置一个开发虚拟环境，\n```\n    （你的机器）：\u003C项目路径>$ python3 -m venv pro-gan-pth-dev-env\n    （你的机器）：\u003C项目路径>$ source pro-gan-pth-dev-env\u002Fsource\u002Factivate\n```\n3. 以开发模式安装包：\n```\n    （pro-gan-pth-dev-env）（你的机器）：\u003C项目路径>$ pip install -e .\n```\n4. 同时安装开发依赖：\n```\n    （pro-gan-pth-dev-env）（你的机器）：\u003C项目路径>$ pip install -r requirements-dev.txt\n```\n5. 现在，您可以在自己选择的编辑器中打开项目，就可以开始了。我使用 `pytest` 进行测试，使用 `black` 进行代码格式化。请参阅 \n[this_link](https:\u002F\u002Fblack.readthedocs.io\u002Fen\u002Fstable\u002Fintegrations\u002Feditors.html) 以了解如何将 `black` 配置到各种 IDE 中。\n\n6. 由于这是一个规模较小的项目，因此没有复杂的 CI、自动化测试或文档构建流程。不过，如果未来有更多功能加入，我们愿意考虑引入这些工具。\n\n# 训练好的模型\n我们将使用此包在不同的数据集上持续训练模型。同时，如果您为自己的数据集训练了模型，请随时为下表提交 PR。如果您参与贡献，请设置一个文件托管方案来发布训练好的模型。\n\n| 出处       | 数据集        | 大小  |分辨率  | 使用的 GPU   | 每个阶段的轮数 | 训练时长 | FID 分数        | 链接            | 定性样本 | \n| :---     | :---           | :---  |:---        | :---        | :---              | :---          | :---             | :---            | :---                |\n| @owang   | Metfaces       | ~1.3K |1024 x 1024 | 1 V100-32GB | 42                | 24 小时        | 101.624          | [model_link](http:\u002F\u002Fgeometry.cs.ucl.ac.uk\u002Fprojects\u002F2021\u002Fpro_gan_pytorch\u002Fmodel_metfaces.bin) | ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakanimax_pro_gan_pytorch_readme_9bd86e7ce555.png)\n    \n\n**请注意，我们使用来自 \n[Parmar 等人](https:\u002F\u002Fwww.cs.cmu.edu\u002F~clean-fid\u002F) 的 clean_fid 版本来计算 FID。**\n\n# 有趣的内容 :smile: \n### 训练延时摄影（固定隐变量点）：\n根据训练过程中记录的图像制作的训练延时摄影看起来非常酷。\n\u003Cp align=\"center\">\n\u003Cimg align=\"center\" src =\"https:\u002F\u002Fgithub.com\u002Fakanimax\u002Fpro_gan_pytorch\u002Fblob\u002Fmaster\u002Fsamples\u002FcelebA-HQ.gif\"\n     height=80% width=80%\u002F>\n\u003C\u002Fp>\n\u003Cbr>\n\n请观看这个 [YT 视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=lzTm6Lq76Mo) 以获取 4K 版本 :smile:。\n\n如果您感兴趣，可以查看我撰写的这篇 \n[medium 博客]( https:\u002F\u002Fmedium.com\u002F@animeshsk3\u002Fthe-unprecedented-effectiveness-of-progressive-growing-of-gans-37475c88afa3)\n，其中解释了渐进式增长技术。\n\n# 参考文献\n\n    1. Tero Karras, Timo Aila, Samuli Laine, & Jaakko Lehtinen (2018). \n    用于提升质量、稳定性和多样性的 GAN 渐进式增长。 \n    国际表示学习大会论文集。\n\n    2. Parmar, Gaurav, Richard Zhang, and Jun-Yan Zhu. \n    “关于有缺陷的缩放库以及 FID 计算中的意外微妙之处。” \n    arXiv 预印本 arXiv:2104.11222 (2021)。\n\n# 功能需求\n- [ ] 条件 GAN 支持\n- [ ] 从日志图像生成延时视频的工具\n- [ ] 将 fid 指标计算集成到训练日志中\n\n# 感谢\n一如既往，\u003Cbr>\n欢迎在此处提交 PR\u002F问题\u002F建议。希望这项工作对您的项目有所帮助 :smile:. \n\n干杯 :beers:! \u003Cbr>\n@akanimax :sunglasses:","# pro_gan_pytorch 快速上手指南\n\n`pro_gan_pytorch` 是论文《Progressive growing of GANs for improved Quality, Stability, and Variation》的非官方 PyTorch 实现，支持渐进式生成对抗网络训练、潜空间游走视频生成及 FID 分数计算。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下最低要求：\n\n*   **操作系统**: Ubuntu 20.04.3 或更高版本\n*   **Python 版本**: 3.8.3\n*   **GPU 硬件**: Nvidia GeForce 1080 Ti 或更高型号（显存至少 8GB）\n*   **显卡驱动**: Nvidia drivers >= 470.86\n*   **CUDA 版本**: 11.3（通常 PyTorch 会自带相关依赖，可跳过手动安装）\n\n> **提示**：国内用户建议使用清华源或阿里源加速 pip 下载。\n\n## 安装步骤\n\n推荐通过虚拟环境进行安装，以避免污染全局 Python 环境。\n\n1.  **创建并激活虚拟环境**\n    ```bash\n    python3 -m venv \u003Cenv-store-path>\u002Fpro_gan_pth_env \n    source \u003Cenv-store-path>\u002Fpro_gan_pth_env\u002Fbin\u002Factivate\n    ```\n\n2.  **安装核心包**\n    激活环境后，直接从 PyPI 安装（国内用户可添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`）：\n    ```bash\n    pip install pro-gan-pth \n    ```\n\n3.  **验证安装**\n    安装完成后，系统将提供三个命令行工具：\n    *   `progan_train`: 模型训练（支持多 GPU）\n    *   `progan_lsid`: 生成潜空间游走视频\n    *   `progan_fid`: 计算 FID 分数\n\n## 基本使用\n\n### 1. 训练模型 (progan_train)\n\n这是最常用的功能。以下是一个最简单的训练示例，假设你的训练图片位于 `.\u002Fdata\u002Fimages`，输出目录为 `.\u002Foutput`：\n\n```bash\n# 设置可见的 GPU (例如使用 0 号和 1 号卡)\nexport CUDA_VISIBLE_DEVICES=0,1\n\n# 开始训练\nprogan_train .\u002Fdata\u002Fimages .\u002Foutput\n```\n\n**常用参数说明：**\n*   `--depth`: 生成器和判别器的深度（默认 10，对应 1024x1024 分辨率）。\n*   `--batch_sizes`: 每个阶段的批量大小，例如 `[32, 32, 16, 8]`。\n*   `--retrain`: 设为 `True` 可从保存的模型恢复训练。\n*   `--loss_fn`: 损失函数类型，可选 `wgan_gp` (默认) 或 `standard_gan`。\n\n查看完整帮助信息：\n```bash\nprogan_train --help\n```\n\n### 2. 生成潜空间游走视频 (progan_lsid)\n\n使用训练好的模型生成展示潜在空间变化的 MP4 视频：\n\n```bash\nprogan_lsid .\u002Foutput\u002Ftrained_model.bin --output_path .\u002Fwalk.mp4 --time 30 --fps 60\n```\n\n*   `model_path`: 指向训练生成的 `.bin` 模型文件。\n*   `--generation_depth`: 指定生成图像的分辨率深度（2 代表 4x4, 10 代表 1024x1024）。\n\n### 3. 计算 FID 分数 (progan_fid)\n\n评估生成图像的质量：\n\n```bash\nprogan_fid .\u002Foutput\u002Ftrained_model.bin .\u002Fdataset_real_images --num_generated_images 50000\n```\n\n*   `dataset_path`: 包含真实数据集图像的扁平化目录路径。\n*   `--num_generated_images`: 用于计算 FID 的生成图像数量（默认 50000）。\n\n### 4. Python 代码调用 (进阶)\n\n你也可以直接在 Python 脚本中导入模块进行更灵活的开发：\n\n```python\nimport pro_gan_pytorch as pg \n\n# 主要使用的模块\n# 训练: pg.gan.ProGAN\n# 推理: pg.networks.Generator\n```\n\n具体用法可参考安装包内的 `pro_gan_pytorch_scripts\u002F` 目录下的示例脚本。","某时尚电商公司的算法团队需要为即将上线的虚拟模特项目生成大量高分辨率、多样化的人脸素材，以解决实拍成本高昂且风格单一的问题。\n\n### 没有 pro_gan_pytorch 时\n- **训练极不稳定**：直接训练高分辨率 GAN 模型时，常因梯度消失或模式崩溃导致生成图像模糊、重复，难以收敛。\n- **硬件门槛过高**：传统方法往往需要多张顶级显卡并行才能勉强跑通高分辨率训练，中小团队难以承担算力成本。\n- **调参如“开盲盒”**：缺乏渐进式生长机制，开发者需手动反复调整学习率和网络深度，耗费数周时间仍难获得清晰细节。\n- **工程落地困难**：从零复现论文代码复杂度高，缺乏成熟的命令行工具支持，导致从实验到部署的周期漫长。\n\n### 使用 pro_gan_pytorch 后\n- **生成质量显著提升**：利用渐进式生长策略，模型从低分辨率逐步细化至高清，有效避免了训练崩溃，生成的虚拟模特皮肤纹理清晰自然。\n- **单卡即可启动**：依托优化的 PyTorch 实现，仅需一张显存 8GB 以上的显卡（如 1080 Ti）即可完成训练，大幅降低了硬件投入。\n- **自动化超参管理**：内置均衡学习率（EQL）和指数移动平均（EMA）等机制，通过简单的命令行参数即可控制训练流程，减少了人工干预。\n- **快速迭代部署**：提供 `progan_train` 等开箱即用的 CLI 工具，支持断点续训和多 GPU 扩展，将原本数周的调试周期缩短至几天。\n\npro_gan_pytorch 通过渐进式生长机制与工程化封装，让中小团队也能以低成本稳定地生成高质量图像，彻底打破了高分辨率 GAN 的训练壁垒。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakanimax_pro_gan_pytorch_9bd86e7c.png","akanimax","Akanimax","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fakanimax_d34e155d.jpg","...",null,"https:\u002F\u002Fgithub.com\u002Fakanimax",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,540,99,"2025-12-10T17:09:01","MIT","Linux (Ubuntu 20.04.3 或更高版本)","必需 NVIDIA GPU，型号 GeForce 1080 Ti 或更高，显存最低 8GB，驱动版本 >= 470.86，CUDA 11.3（PyTorch 自带可跳过）","未说明",{"notes":92,"python":93,"dependencies":94},"该项目为非官方的 PyTorch 实现。建议使用虚拟环境（venv）安装以避免污染全局环境。训练工具支持多 GPU（需设置 CUDA_VISIBLE_DEVICES），但潜空间漫步和 FID 计算工具仅支持单 GPU。目前不支持断点续训（部分训练恢复）。开发模式下需额外安装 pytest 和 black。","3.8.3",[95,96],"torch (PyTorch)","pro-gan-pth",[14,15],[99,100,101,102,103],"gan","pytorch","convolutional-neural-network","adversarial-machine-learning","progressive-growing-of-gans","2026-03-27T02:49:30.150509","2026-04-11T18:33:05.644389",[107,112,117,122,127,132],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},22604,"如何从中断处恢复训练（Resuming from snapshot）？需要加载哪些文件？","恢复训练的过程取决于中断时的状态：\n1. 如果是在稳定化迭代（stabilization iterations）期间中断，只需更改配置文件中的 epoch 数量并直接恢复。\n2. 如果是在淡入迭代（fade-in iterations）期间中断，需从之前已稳定的深度（分辨率）重新开始。\n\n关键是要提供全部 5 个权重文件才能正确恢复：GAN_GEN, GAN_GEN_SHADOW, GAN_DIS, GAN_GEN_OPTIM, GAN_DIS_OPTIM。仅加载生成器是不够的，必须同时加载判别器及其优化器状态，否则会导致结果退化为噪声或不稳定。","https:\u002F\u002Fgithub.com\u002Fakanimax\u002Fpro_gan_pytorch\u002Fissues\u002F15",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},22605,"为什么在多个 GPU 上运行条件式 ProGAN (Conditional ProGAN) 时会报错？","在 PyTorch 1.4+ 版本中，如果在 `nn.Embedding` 层中设置了 `max_norm=1`，在多 GPU 训练时可能会引发 `RuntimeError: diff_view_meta->output_nr_ == 0 INTERNAL ASSERT FAILED` 错误。\n\n解决方案：移除 `nn.Embedding` 中的 `max_norm=1` 参数。此外，维护者指出条件式 ProGAN 在当前版本中存在 Bug，计划在 v3.0 重构前暂时移除此功能或回退到论文中的 ACGAN 条件版本。","https:\u002F\u002Fgithub.com\u002Fakanimax\u002Fpro_gan_pytorch\u002Fissues\u002F21",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},22606,"使用自定义数据集训练时遇到 'EasyDict' object has no attribute 'folder_distributed' 错误怎么办？","该错误是因为配置文件中缺少 `folder_distributed` 属性。解决方法是在你的配置文件（例如 `configs\u002Fmnist.conf` 或自定义的 .conf 文件）中添加以下行：\n\n```python\nfolder_distributed: False  # 是否图像分布在不同的文件夹中\n```\n\n根据你的数据存放结构，将其设置为 `True` 或 `False` 即可解决此属性缺失问题。","https:\u002F\u002Fgithub.com\u002Fakanimax\u002Fpro_gan_pytorch\u002Fissues\u002F23",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},22607,"是否可以使用在大数据集上训练好的模型作为预训练权重来训练新数据集？","可以。项目支持加载预训练权重作为初始步骤来训练新的数据集。社区贡献者已通过 Pull Request (#69) 实现了相关功能。用户可以通过加载已有的生成器和判别器权重文件，在此基础上继续微调或训练新数据，从而加速收敛或利用已有特征。","https:\u002F\u002Fgithub.com\u002Fakanimax\u002Fpro_gan_pytorch\u002Fissues\u002F68",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},22608,"为什么代码中要手动定义 bias 项而不是直接使用 nn.Conv2d 的 bias 参数？","这是为了实现“均衡学习率”（Equalized Learning Rate）技术，该技术源自 NVIDIA 的 Progressive GAN 论文。手动定义 bias 并结合特定的权重缩放（wscale）操作，可以确保在训练初期所有层的权重具有相同的动态范围。\n\n虽然 PyTorch 的 `nn.Conv2d` 支持 `bias=True\u002FFalse`，但为了精确控制权重的初始化方式和前向传播时的缩放逻辑（即在每次卷积操作时将权重乘以常数参数），代码选择了手动管理偏置和权重变量，这与原始 TensorFlow 实现中的 `tf.get_variable` 逻辑保持一致。","https:\u002F\u002Fgithub.com\u002Fakanimax\u002Fpro_gan_pytorch\u002Fissues\u002F7",{"id":133,"question_zh":134,"answer_zh":135,"source_url":111},22609,"恢复训练时应该加载哪个深度的模型文件？是中断时的深度还是下一个深度？","这取决于你希望如何继续训练：\n1. 如果你想从中断的确切位置继续（且中断发生在稳定阶段），应加载当前深度的模型文件（例如深度 3 中断则加载 `GAN_GEN_3.pth`），并设置 `--start_depth=3`。\n2. 如果中断发生在过渡阶段（fade-in），或者你发现直接从断点恢复导致不稳定，建议回退到上一个完全稳定的深度（即加载深度 3 的文件但从深度 3 重新开始稳定过程，或者在某些策略下加载深度 4 的文件但跳过深度 3 的训练）。\n\n维护者建议：为了避免丢失 epoch 或覆盖训练进度，最好在一个深度完全训练结束（稳定化完成）后再进行中断和重启。如果在深度 3 训练到一半（如 epoch 30\u002F64）停止，直接恢复可能不如重新从该深度的起始点开始稳健，具体需观察训练损失是否异常。",[137],{"id":138,"version":139,"summary_zh":140,"released_at":141},136317,"v_1.2.0","# 发布 v_1.2.0:\n\u003Cb>新特性：\u003C\u002Fb> \u003Cbr>\n1. 支持其他损失函数：“LSGAN”、“LSGAN-WITH-SIGMOID”，以及“WGAN”和“WGAN-GP”。 \u003Cbr>\n2. MinibatchStd 层在数值上更加稳定。 \u003Cbr>\n3. 损失接口可扩展，以创建自定义损失。 \u003Cbr>\n\n## 下一版本待办事项\n1. 增加对相对论 GAN 损失和切片 Wasserstein 损失的支持。 \u003Cbr>\n\n## 未来版本待办事项\n1. 添加样本\n2. 支持条件生成对抗网络","2018-07-17T07:29:14"]