[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-autonomousvision--projected-gan":3,"tool-autonomousvision--projected-gan":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":75,"languages":76,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":93,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":104,"github_topics":74,"view_count":24,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":105,"updated_at":106,"faqs":107,"releases":136},10096,"autonomousvision\u002Fprojected-gan","projected-gan","[NeurIPS'21] Projected GANs Converge Faster","Projected GAN 是一款专注于提升生成对抗网络（GAN）训练效率的开源项目，其核心成果发表于 NeurIPS 2021。它主要解决了传统 GAN 在数据量较少或计算资源有限时收敛速度慢、训练不稳定的难题。通过引入独特的“投影判别器”技术，Projected GAN 能够将高维图像特征映射到低维空间进行更高效的判别，从而显著加快模型收敛速度，尤其在少样本学习场景下表现卓越。\n\n这款工具非常适合人工智能研究人员、深度学习开发者以及需要快速验证原型的技术团队使用。对于希望在小数据集上高质量生成图像，或者受限于显卡数量想要缩短实验周期的用户来说，Projected GAN 提供了极佳的解决方案。项目不仅提供了完整的训练代码和预训练模型，还配备了易于上手的 Colab 教程，支持从数据预处理到模型训练的全流程。无论是探索学术前沿，还是进行实际开发，Projected GAN 都能帮助用户以更低的成本获得更快的迭代结果，让高质量的图像生成变得更加触手可及。","\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_projected-gan_readme_a6fcfc45d458.png\">\n\n#### [[Project]](https:\u002F\u002Fsites.google.com\u002Fview\u002Fprojected-gan\u002F) [[PDF]](http:\u002F\u002Fwww.cvlibs.net\u002Fpublications\u002FSauer2021NEURIPS.pdf) [[Supplementary]](http:\u002F\u002Fwww.cvlibs.net\u002Fpublications\u002FSauer2021NEURIPS_supplementary.pdf) [[Talk]](https:\u002F\u002Frecorder-v3.slideslive.com\u002F#\u002Fshare?share=50538&s=bf7a6393-410c-49d9-8edf-c61fa486c354) [[CGP Summary]](https:\u002F\u002Fwww.casualganpapers.com\u002Fdata-efficient-fast-gan-training-small-datasets\u002FProjectedGAN-explained.html) [[Replicate Demo]](https:\u002F\u002Freplicate.com\u002Fxl-sr\u002Fprojected_gan) [[Hugging Face Spaces Demo]](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fautonomousvision\u002Fprojected_gan)\n\nFor a quick start, try the Colab: &nbsp; [![Projected GAN Quickstart](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgist\u002Fxl-sr\u002F757757ff8709ad1721c6d9462efdc347\u002Fprojected_gan.ipynb)\n\nThis repository contains the code for our NeurIPS 2021 paper \"Projected GANs Converge Faster\"\n\nby [Axel Sauer](https:\u002F\u002Faxelsauer.com\u002F), [Kashyap Chitta](https:\u002F\u002Fkashyap7x.github.io\u002F), [Jens Müller](https:\u002F\u002Fhci.iwr.uni-heidelberg.de\u002Fusers\u002Fjmueller), and [Andreas Geiger](http:\u002F\u002Fwww.cvlibs.net\u002F).\n\nIf you find our code or paper useful, please cite\n```bibtex\n@InProceedings{Sauer2021NEURIPS,\n  author         = {Axel Sauer and Kashyap Chitta and Jens M{\\\"{u}}ller and Andreas Geiger},\n  title          = {Projected GANs Converge Faster},\n  booktitle      = {Advances in Neural Information Processing Systems (NeurIPS)},\n  year           = {2021},\n}\n```\n## Related Projects ##\n- [StyleGAN-XL: Scaling StyleGAN to Large Diverse Datasets](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fstylegan_xl)\n\n## ToDos\n- [x] Initial code release\n- [x] Easy-to-use colab\n- [x] StyleGAN3 support (moved  to https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fstylegan_xl)\n- [x] Providing pretrained models\n\n## Requirements ##\n- 64-bit Python 3.8 and PyTorch 1.9.0 (or later). See https:\u002F\u002Fpytorch.org for PyTorch install instructions.\n- Use the following commands with Miniconda3 to create and activate your PG Python environment:\n  - ```conda env create -f environment.yml```\n  - ```conda activate pg```\n- The StyleGAN2 generator relies on custom CUDA kernels, which are compiled on the fly. Hence you need:\n  - CUDA toolkit 11.1 or later.\n  - GCC 7 or later compilers. Recommended GCC version depends on CUDA version, see for example CUDA 11.4 system requirements.\n  - If you run into problems when setting up for the custom CUDA kernels, we refer to the [Troubleshooting docs](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3\u002Fblob\u002Fmain\u002Fdocs\u002Ftroubleshooting.md#why-is-cuda-toolkit-installation-necessary) of the original StyleGAN repo. When using the FastGAN generator you will not need the custom kernels.\n\n## Data Preparation ##\nFor a quick start, you can download the few-shot datasets provided by the authors of [FastGAN](https:\u002F\u002Fgithub.com\u002Fodegeasslbc\u002FFastGAN-pytorch). You can download them [here](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1aAJCZbXNHyraJ6Mi13dSbe7pTyfPXha0\u002Fview). To prepare the dataset at the respective resolution, run for example\n```\npython dataset_tool.py --source=.\u002Fdata\u002Fpokemon --dest=.\u002Fdata\u002Fpokemon256.zip \\\n  --resolution=256x256 --transform=center-crop\n```\nYou can get the datasets we used in our paper at their respective websites: \n\n[CLEVR](https:\u002F\u002Fcs.stanford.edu\u002Fpeople\u002Fjcjohns\u002Fclevr\u002F), [FFHQ](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fffhq-dataset), [Cityscapes](https:\u002F\u002Fwww.cityscapes-dataset.com\u002F), [LSUN](https:\u002F\u002Fgithub.com\u002Ffyu\u002Flsun), [AFHQ](https:\u002F\u002Fgithub.com\u002Fclovaai\u002Fstargan-v2), [Landscape](https:\u002F\u002Fwww.kaggle.com\u002Farnaud58\u002Flandscape-pictures).\n\n## Training ##\n\nTraining your own PG on LSUN church using 8 GPUs:\n```\npython train.py --outdir=.\u002Ftraining-runs\u002F --cfg=fastgan --data=.\u002Fdata\u002Fpokemon256.zip \\\n  --gpus=8 --batch=64 --mirror=1 --snap=50 --batch-gpu=8 --kimg=10000\n```\n```--batch``` specifies the overall batch size, ```--batch-gpu``` specifies the batch size per GPU.  If you use fewer GPUs, the training loop will automatically accumulate gradients, until the overall batch size is reached.\n\nIf you want to use the StyleGAN2 generator, pass ```--cfg=stylegan2```.\nWe also added a lightweight version of FastGAN (```--cfg=fastgan_lite```). This backbone trains fast regarding wallclock\ntime and yields better results on small datasets like Pokemon.\nSamples and metrics are saved in ```outdir```. To monitor the training progress, you can inspect fid50k_full.json or run tensorboard in training-runs.\n\n## Generating Samples & Interpolations ##\n\nTo generate samples and interpolation videos, run\n```\npython gen_images.py --outdir=out --trunc=1.0 --seeds=10-15 \\\n  --network=PATH_TO_NETWORK_PKL\n```\nand\n```\npython gen_video.py --output=lerp.mp4 --trunc=1.0 --seeds=0-31 --grid=4x2 \\\n  --network=PATH_TO_NETWORK_PKL\n```\n\nWe provide the following pretrained models (pass the url as `PATH_TO_NETWORK_PKL`):\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fart_painting.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fchurch.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fbedroom.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fcityscapes.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fclevr.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fffhq.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fflowers.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Flandscape.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fpokemon.pkl`\u003C\u002Fsub>\u003Cbr>\n  \n## Quality Metrics ##\nPer default, ```train.py``` tracks FID50k during training. To calculate metrics for a specific network snapshot, run\n\n```\npython calc_metrics.py --metrics=fid50k_full --network=PATH_TO_NETWORK_PKL\n```\n\nTo see the available metrics, run\n```\npython calc_metrics.py --help\n```\n\n## Using PG in your own project ##\n\nOur implementation is modular, so it is straightforward to use PG in your own codebase. Simply copy the ```pg_modules``` folder to your project.\nThen, to get the projected multi-scale discriminator, run\n```\nfrom pg_modules.discriminator import ProjectedDiscriminator\nD = ProjectedDiscriminator()\n```\nThe only thing you still need to do is to make sure that the feature network is not trained, i.e., explicitly set\n```\nD.feature_network.requires_grad_(False)\n```\nin your training loop.\n\n## Acknowledgments ##\nOur codebase build and extends the awesome [StyleGAN2-ADA repo](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan2-ada-pytorch) and [StyleGAN3 repo](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3), both by Karras et al.\n\nFurthermore, we use parts of the code of [FastGAN](https:\u002F\u002Fgithub.com\u002Fodegeasslbc\u002FFastGAN-pytorch) and [MiDas](https:\u002F\u002Fgithub.com\u002Fisl-org\u002FMiDaS).\n","\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_projected-gan_readme_a6fcfc45d458.png\">\n\n#### [[项目]](https:\u002F\u002Fsites.google.com\u002Fview\u002Fprojected-gan\u002F) [[PDF]](http:\u002F\u002Fwww.cvlibs.net\u002Fpublications\u002FSauer2021NEURIPS.pdf) [[补充材料]](http:\u002F\u002Fwww.cvlibs.net\u002Fpublications\u002FSauer2021NEURIPS_supplementary.pdf) [[演讲]](https:\u002F\u002Frecorder-v3.slideslive.com\u002F#\u002Fshare?share=50538&s=bf7a6393-410c-49d9-8edf-c61fa486c354) [[CGP 摘要]](https:\u002F\u002Fwww.casualganpapers.com\u002Fdata-efficient-fast-gan-training-small-datasets\u002FProjectedGAN-explained.html) [[复现演示]](https:\u002F\u002Freplicate.com\u002Fxl-sr\u002Fprojected_gan) [[Hugging Face Spaces 演示]](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fautonomousvision\u002Fprojected_gan)\n\n快速入门，请尝试 Colab：&nbsp; [![Projected GAN 快速入门](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgist\u002Fxl-sr\u002F757757ff8709ad1721c6d9462efdc347\u002Fprojected_gan.ipynb)\n\n本仓库包含我们 NeurIPS 2021 论文《Projected GANs Converge Faster》的代码。\n\n作者：[Axel Sauer](https:\u002F\u002Faxelsauer.com\u002F)、[Kashyap Chitta](https:\u002F\u002Fkashyap7x.github.io\u002F)、[Jens Müller](https:\u002F\u002Fhci.iwr.uni-heidelberg.de\u002Fusers\u002Fjmueller) 和 [Andreas Geiger](http:\u002F\u002Fwww.cvlibs.net\u002F)。\n\n如果您觉得我们的代码或论文有用，请引用以下文献：\n```bibtex\n@InProceedings{Sauer2021NEURIPS,\n  author         = {Axel Sauer and Kashyap Chitta and Jens M{\\\"{u}}ller and Andreas Geiger},\n  title          = {Projected GANs Converge Faster},\n  booktitle      = {Advances in Neural Information Processing Systems (NeurIPS)},\n  year           = {2021},\n}\n```\n\n## 相关项目 ##\n- [StyleGAN-XL: 将 StyleGAN 扩展到大型多样化数据集](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fstylegan_xl)\n\n## 待办事项 ##\n- [x] 初始代码发布\n- [x] 易用的 Colab 笔记本\n- [x] 支持 StyleGAN3（已移至 https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fstylegan_xl）\n- [x] 提供预训练模型\n\n## 环境要求 ##\n- 64位 Python 3.8 和 PyTorch 1.9.0（或更高版本）。PyTorch 的安装说明请参见 https:\u002F\u002Fpytorch.org。\n- 使用 Miniconda3 创建并激活 PG Python 环境，命令如下：\n  - ```conda env create -f environment.yml```\n  - ```conda activate pg```\n- StyleGAN2 生成器依赖于自定义 CUDA 内核，这些内核会在运行时编译。因此您需要：\n  - CUDA 工具包 11.1 或更高版本。\n  - GCC 7 或更高版本的编译器。推荐的 GCC 版本取决于 CUDA 版本，例如 CUDA 11.4 的系统要求。\n  - 如果在设置自定义 CUDA 内核时遇到问题，您可以参考原始 StyleGAN 仓库的[故障排除文档](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3\u002Fblob\u002Fmain\u002Fdocs\u002Ftroubleshooting.md#why-is-cuda-toolkit-installation-necessary)。使用 FastGAN 生成器时，则无需自定义内核。\n\n## 数据准备 ##\n为了快速上手，您可以下载 [FastGAN](https:\u002F\u002Fgithub.com\u002Fodegeasslbc\u002FFastGAN-pytorch) 作者提供的少量样本数据集。您可以在[这里](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1aAJCZbXNHyraJ6Mi13dSbe7pTyfPXha0\u002Fview)下载。要将数据集准备为相应分辨率，可以运行如下命令：\n```\npython dataset_tool.py --source=.\u002Fdata\u002Fpokemon --dest=.\u002Fdata\u002Fpokemon256.zip \\\n  --resolution=256x256 --transform=center-crop\n```\n\n我们论文中使用的数据集可在其各自官网获取：\n\n[CLEVR](https:\u002F\u002Fcs.stanford.edu\u002Fpeople\u002Fjcjohns\u002Fclevr\u002F)、[FFHQ](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fffhq-dataset)、[Cityscapes](https:\u002F\u002Fwww.cityscapes-dataset.com\u002F)、[LSUN](https:\u002F\u002Fgithub.com\u002Ffyu\u002Flsun)、[AFHQ](https:\u002F\u002Fgithub.com\u002Fclovaai\u002Fstargan-v2)、[Landscape](https:\u002F\u002Fwww.kaggle.com\u002Farnaud58\u002Flandscape-pictures)。\n\n## 训练 ##\n使用 8 张 GPU 卡在 LSUN church 数据集上训练您自己的 PG：\n```\npython train.py --outdir=.\u002Ftraining-runs\u002F --cfg=fastgan --data=.\u002Fdata\u002Fpokemon256.zip \\\n  --gpus=8 --batch=64 --mirror=1 --snap=50 --batch-gpu=8 --kimg=10000\n```\n`--batch` 指定总批量大小，`--batch-gpu` 指定每张 GPU 的批量大小。如果您使用的 GPU 数量较少，训练循环会自动累积梯度，直到达到总批量大小。\n\n如果想使用 StyleGAN2 生成器，只需添加 `--cfg=stylegan2` 参数即可。\n\n我们还提供了一个轻量级的 FastGAN 版本（`--cfg=fastgan_lite`）。该架构在实际时间上训练速度更快，并且在像 Pokemon 这样的小数据集上表现更好。\n\n样本和指标会保存在 `outdir` 中。您可以查看 fid50k_full.json 文件，或在 training-runs 目录下运行 tensorboard 来监控训练进度。\n\n## 生成样本与插值 ##\n要生成样本和插值视频，可以运行：\n```\npython gen_images.py --outdir=out --trunc=1.0 --seeds=10-15 \\\n  --network=PATH_TO_NETWORK_PKL\n```\n以及\n```\npython gen_video.py --output=lerp.mp4 --trunc=1.0 --seeds=0-31 --grid=4x2 \\\n  --network=PATH_TO_NETWORK_PKL\n```\n\n我们提供了以下预训练模型（将 URL 替换为 `PATH_TO_NETWORK_PKL`）：\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fart_painting.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fchurch.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fbedroom.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fcityscapes.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fclevr.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fffhq.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fflowers.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Flandscape.pkl`\u003C\u002Fsub>\u003Cbr>\n  > \u003Csub>`https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fpokemon.pkl`\u003C\u002Fsub>\u003Cbr>\n\n## 质量指标 ##\n默认情况下，`train.py` 会在训练过程中跟踪 FID50k 指标。要计算特定网络快照的指标，可以运行：\n```\npython calc_metrics.py --metrics=fid50k_full --network=PATH_TO_NETWORK_PKL\n```\n\n要查看可用的指标，可以运行：\n```\npython calc_metrics.py --help\n```\n\n## 在您自己的项目中使用 PG ##\n我们的实现是模块化的，因此很容易将其集成到您自己的代码库中。只需将 `pg_modules` 文件夹复制到您的项目中即可。\n\n然后，要获取投影式多尺度判别器，可以运行：\n```\nfrom pg_modules.discriminator import ProjectedDiscriminator\nD = ProjectedDiscriminator()\n```\n\n您唯一需要做的就是确保特征网络不参与训练，即在训练循环中显式设置：\n```\nD.feature_network.requires_grad_(False)\n```\n\n## 致谢 ##\n我们的代码基于并扩展了 Karras 等人开发的优秀 [StyleGAN2-ADA 仓库](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan2-ada-pytorch) 和 [StyleGAN3 仓库](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3)。\n\n此外，我们还使用了 [FastGAN](https:\u002F\u002Fgithub.com\u002Fodegeasslbc\u002FFastGAN-pytorch) 和 [MiDas](https:\u002F\u002Fgithub.com\u002Fisl-org\u002FMiDaS) 的部分代码。","# Projected GAN 快速上手指南\n\nProjected GAN 是一种收敛速度更快的生成对抗网络，特别适合小数据集训练。本指南将帮助您快速搭建环境并运行模型。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: 64-bit Linux (推荐) 或 Windows\n*   **Python**: 3.8 或更高版本\n*   **PyTorch**: 1.9.0 或更高版本\n*   **GPU**: NVIDIA 显卡，需安装 **CUDA Toolkit 11.1** 或更高版本\n*   **编译器**: GCC 7 或更高版本（用于编译自定义 CUDA 内核）\n\n> **注意**: 如果您计划使用 `FastGAN` 生成器而非 `StyleGAN2` 生成器，则不需要配置复杂的 CUDA 编译环境。\n\n## 安装步骤\n\n推荐使用 **Miniconda3** 创建独立的虚拟环境以避免依赖冲突。\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fprojected_gan.git\n    cd projected_gan\n    ```\n\n2.  **创建并激活 Conda 环境**\n    使用项目提供的配置文件一键安装依赖：\n    ```bash\n    conda env create -f environment.yml\n    conda activate pg\n    ```\n\n3.  **验证 CUDA 环境**\n    确保 `nvcc --version` 和 `gcc --version` 输出版本符合要求。如果遇到自定义 CUDA 内核编译错误，请参考 StyleGAN3 的故障排除文档。\n\n## 基本使用\n\n### 1. 准备数据\n\n您可以下载作者提供的少样本数据集（如 Pokemon）进行快速测试，或使用自己的图片文件夹。\n\n**示例：处理 Pokemon 数据集为 256x256 分辨率**\n```bash\npython dataset_tool.py --source=.\u002Fdata\u002Fpokemon --dest=.\u002Fdata\u002Fpokemon256.zip \\\n  --resolution=256x256 --transform=center-crop\n```\n\n### 2. 开始训练\n\n以下命令演示如何在 8 张 GPU 上使用 `fastgan_lite` 配置（轻量级，适合小数据集）训练模型：\n\n```bash\npython train.py --outdir=.\u002Ftraining-runs\u002F --cfg=fastgan_lite --data=.\u002Fdata\u002Fpokemon256.zip \\\n  --gpus=8 --batch=64 --mirror=1 --snap=50 --batch-gpu=8 --kimg=10000\n```\n\n*   `--cfg`: 可选 `fastgan`, `fastgan_lite`, 或 `stylegan2`。\n*   `--batch`: 总批次大小。\n*   `--batch-gpu`: 单卡批次大小（若显卡较少，程序会自动累积梯度）。\n*   训练进度和样本保存在 `--outdir` 指定目录，可使用 TensorBoard 监控。\n\n### 3. 生成图像与视频\n\n使用预训练模型或训练好的快照生成样本。\n\n**生成静态图像：**\n```bash\npython gen_images.py --outdir=out --trunc=1.0 --seeds=10-15 \\\n  --network=https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fpokemon.pkl\n```\n\n**生成插值视频：**\n```bash\npython gen_video.py --output=lerp.mp4 --trunc=1.0 --seeds=0-31 --grid=4x2 \\\n  --network=https:\u002F\u002Fs3.eu-central-1.amazonaws.com\u002Favg-projects\u002Fprojected_gan\u002Fmodels\u002Fpokemon.pkl\n```\n\n> **预训练模型链接**:\n> 项目提供了多个领域的预训练模型，可直接作为 `--network` 参数传入：\n> *   Art Painting: `...\u002Fmodels\u002Fart_painting.pkl`\n> *   Church: `...\u002Fmodels\u002Fchurch.pkl`\n> *   Bedroom: `...\u002Fmodels\u002Fbedroom.pkl`\n> *   Cityscapes: `...\u002Fmodels\u002Fcityscapes.pkl`\n> *   CLEVR: `...\u002Fmodels\u002Fclevr.pkl`\n> *   FFHQ: `...\u002Fmodels\u002Fffhq.pkl`\n> *   Flowers: `...\u002Fmodels\u002Fflowers.pkl`\n> *   Landscape: `...\u002Fmodels\u002Flandscape.pkl`\n> *   Pokemon: `...\u002Fmodels\u002Fpokemon.pkl`\n\n### 4. 在自有项目中集成\n\nProjected GAN 采用模块化设计，只需将 `pg_modules` 文件夹复制到您的项目中即可调用判别器：\n\n```python\nfrom pg_modules.discriminator import ProjectedDiscriminator\n\n# 初始化投影多尺度判别器\nD = ProjectedDiscriminator()\n\n# 重要：确保特征网络不参与训练\nD.feature_network.requires_grad_(False)\n```","一家初创游戏公司的美术团队急需为独立游戏生成大量高质量的“宝可梦风格”怪物素材，但手头仅有几十张参考图，且必须在三天内完成模型训练以赶上演示节点。\n\n### 没有 projected-gan 时\n- **训练收敛极慢**：在小样本数据下，传统 GAN 模型需要数天甚至数周才能勉强收敛，严重拖慢开发进度。\n- **生成质量不稳定**：由于数据稀缺，模型极易过拟合或崩溃，生成的图像往往模糊不清或出现奇怪的伪影。\n- **算力成本高昂**：为了加速训练，团队不得不租用昂贵的多卡 GPU 集群，大幅增加了项目预算。\n- **调参难度极大**：工程师需花费大量时间手动调整超参数来防止模式坍塌，却仍难以保证最终效果。\n\n### 使用 projected-gan 后\n- **收敛速度显著提升**：借助投影判别器技术，projected-gan 在极少迭代次数（如几千 kimg）内即可快速收敛，三天任务半天完成。\n- **小样本表现卓越**：即使在只有几十张图片的“少样本”场景下，生成的怪物纹理清晰、结构合理，多样性远超预期。\n- **硬件门槛降低**：高效的训练机制使得单卡或少量 GPU 即可胜任工作，无需依赖大规模集群，节省了 80% 的算力成本。\n- **流程自动化程度高**：默认配置即可在各类数据集上取得优异结果，工程师无需反复调参，可将精力集中于游戏逻辑开发。\n\nprojected-gan 通过突破性的加速算法，让小样本生成任务从“高成本赌注”变成了“高效可控”的标准生产流程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_projected-gan_a6fcfc45.png","autonomousvision","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fautonomousvision_e0fa4bb2.png",null,"https:\u002F\u002Fgithub.com\u002Fautonomousvision",[77,81,85],{"name":78,"color":79,"percentage":80},"Python","#3572A5",71.2,{"name":82,"color":83,"percentage":84},"Cuda","#3A4E3A",21.8,{"name":86,"color":87,"percentage":88},"C++","#f34b7d",7,901,100,"2026-04-15T21:21:25","MIT",4,"Linux","需要 NVIDIA GPU（用于编译自定义 CUDA 内核），需安装 CUDA Toolkit 11.1 或更高版本。具体显存需求未说明，但训练示例建议使用 8 张 GPU。","未说明",{"notes":98,"python":99,"dependencies":100},"StyleGAN2 生成器依赖即时编译的自定义 CUDA 内核，因此必须安装匹配的 CUDA Toolkit 和 GCC 编译器（推荐版本需参考 CUDA 系统要求）。若使用 FastGAN 生成器则不需要自定义内核。官方推荐使用 Miniconda3 通过 environment.yml 创建环境。代码基于 StyleGAN2-ADA 和 StyleGAN3 构建。","3.8",[101,102,103],"PyTorch>=1.9.0","CUDA Toolkit>=11.1","GCC>=7",[15,14],"2026-03-27T02:49:30.150509","2026-04-20T19:22:56.391019",[108,113,118,123,128,132],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},45330,"如何在小型复杂数据集（如人脸）上改善 Projected GAN 的生成质量？","对于人脸等特定领域的小数据集，建议使用针对该领域训练的特征网络（face\u002Fbody-specific feature network）。此外，可以尝试结合使用专门的人脸修复模型（如 GPEN 或 TencentARC\u002FGFPGAN）来后处理生成结果，以弥补生成器在面部细节上的不足。注意，传统的 FID\u002FKID 指标在人脸数据集上可能与视觉质量不一致，需结合人工评估。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fprojected-gan\u002Fissues\u002F25",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},45331,"如何将 Projected GAN 应用于图像到图像的翻译任务（如图像修复）？","Projected GAN 在此类任务中容易早期出现模式崩溃（mode collapse），导致生成多样性不足。解决方案包括：1. 在前 N 次迭代（测试范围为 20 万到 100 万张图像）中对判别器输入图像进行模糊处理；2. 尝试开启或关闭可分离判别器（separable discriminator）或 patch discriminator；3. 调整特征网络，因为某些网络比其他网络更不稳定。尽管这些方法能略微改善多样性，但可能仍低于基线模型。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fprojected-gan\u002Fissues\u002F71",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},45332,"运行 StyleGAN2 配置时生成随机色块（color splats）怎么办？","这通常发生在小数据集上。解决方法是调整学习率，例如将生成器学习率（glr）和判别器学习率（dlr）设置为 0.0007。如果在大型数据集（如 LSUN）上训练，Projected StyleGAN2 表现会更好；若在小数据集上，可能需要手动微调超参数，如适应学习率或添加 R1 正则化。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fprojected-gan\u002Fissues\u002F27",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},45333,"是否有 Projected GAN 的在线 Web 演示可供试用？","是的，项目已在 Huggingface Spaces 上部署了 Web 演示。你可以直接访问 Huggingface 上的 Projected GAN 空间进行体验，其中包括了 Pokemon 等预训练模型的演示。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fprojected-gan\u002Fissues\u002F51",{"id":129,"question_zh":130,"answer_zh":131,"source_url":112},45334,"为什么 Projected GAN 的评估指标（FID\u002FKID）很低，但生成的图像质量看起来不错？","这是因为 Projected GAN 通常在样本多样性上获得增益，而 FID\u002FKID 指标倾向于 favor 多样性而非高保真度。此外，在人脸数据集上，指标与样本质量之间存在脱节现象（例如 PG 可能生成扭曲的脸，而其他模型生成漂浮的脸，KID 对这些伪影的惩罚方式不同）。论文的限制部分已对此进行了讨论，建议不要完全依赖指标，应结合视觉检查。",{"id":133,"question_zh":134,"answer_zh":135,"source_url":122},45335,"在小型数据集上训练 Projected StyleGAN2 失败或效果不佳时该如何调整？","在小型数据集上，默认参数可能不适用。建议尝试以下调整：1. 降低学习率（例如设为 0.0007）；2. 添加 R1 正则化以防止过拟合；3. 确保数据集足够多样化，或者考虑使用针对小数据集优化的配置。维护者指出在小数据集上的测试较少，通常需要用户自行进行超参数微调。",[]]