[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-PeterouZh--CIPS-3D":3,"tool-PeterouZh--CIPS-3D":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":79,"owner_email":81,"owner_twitter":79,"owner_website":79,"owner_url":82,"languages":83,"stars":100,"forks":101,"last_commit_at":102,"license":103,"difficulty_score":10,"env_os":104,"env_gpu":105,"env_ram":106,"env_deps":107,"category_tags":121,"github_topics":122,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":126,"updated_at":127,"faqs":128,"releases":164},2430,"PeterouZh\u002FCIPS-3D","CIPS-3D","3D-aware GANs based on NeRF (arXiv). ","CIPS-3D 是一款基于神经辐射场（NeRF）技术的 3D 感知生成对抗网络（GAN）开源项目。简单来说，它能够从零开始生成具有真实三维几何结构的图像，而不仅仅是平面的二维图片。这意味着用户不仅可以生成高质量的人脸或物体图像，还能自由调整视角，观察对象在不同角度下的形态，甚至实现平滑的 3D 模型插值效果。\n\n在传统的 2D GAN 生成中，往往缺乏真实的三维一致性，导致旋转视角时出现结构扭曲。CIPS-3D 通过引入“条件独立像素合成”机制，有效解决了这一难题，确保了生成内容在三维空间中的连贯性与真实性。此外，针对 3D 生成中常见的“镜像对称问题”（例如人物刘海方向在特定角度突然反转），该项目创新性地引入了辅助判别器，并通过渐进式训练策略稳定地消除了这一瑕疵，显著提升了生成结果的鲁棒性。\n\nCIPS-3D 主要面向人工智能研究人员、计算机视觉开发者以及对 3D 内容生成感兴趣的技术爱好者。对于希望深入研究 3D GAN 架构、NeRF 应用或进行相关算法改进的专业人士而言，它提供了完整的训练代码、配置文件及预训练模型，极具参考价值。虽然普通用户无法直接将其作为简单的修图软件使用，","CIPS-3D 是一款基于神经辐射场（NeRF）技术的 3D 感知生成对抗网络（GAN）开源项目。简单来说，它能够从零开始生成具有真实三维几何结构的图像，而不仅仅是平面的二维图片。这意味着用户不仅可以生成高质量的人脸或物体图像，还能自由调整视角，观察对象在不同角度下的形态，甚至实现平滑的 3D 模型插值效果。\n\n在传统的 2D GAN 生成中，往往缺乏真实的三维一致性，导致旋转视角时出现结构扭曲。CIPS-3D 通过引入“条件独立像素合成”机制，有效解决了这一难题，确保了生成内容在三维空间中的连贯性与真实性。此外，针对 3D 生成中常见的“镜像对称问题”（例如人物刘海方向在特定角度突然反转），该项目创新性地引入了辅助判别器，并通过渐进式训练策略稳定地消除了这一瑕疵，显著提升了生成结果的鲁棒性。\n\nCIPS-3D 主要面向人工智能研究人员、计算机视觉开发者以及对 3D 内容生成感兴趣的技术爱好者。对于希望深入研究 3D GAN 架构、NeRF 应用或进行相关算法改进的专业人士而言，它提供了完整的训练代码、配置文件及预训练模型，极具参考价值。虽然普通用户无法直接将其作为简单的修图软件使用，但可以通过其提供的 Web 演示界面，直观体验模型插值和 3D 视角变换的乐趣，感受前沿 AI 技术在三维视觉领域的潜力。","\u003Cp float=\"left\">\n\t\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPeterouZh_CIPS-3D_readme_9289b1c5193a.png\" width=\"330\">\n\u003C\u002Fp>\n\n\nThis repository contains the code of the paper [CIPS-3D: A 3D-Aware Generator of GANs Based on Conditionally-Independent Pixel Synthesis](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.09788). For 3D GAN inversion and editing of real images, please refer to this repository: [https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3Dplusplus](https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3Dplusplus) (CIPS-3D++).\n\n## Updates\n\n:heavy_check_mark: (2022-1-5) The code has been refactored. Please refer to the scripts in `exp\u002Fcips3d\u002Fbash`. Please upgrade the `tl2` package with `pip install -I tl2`.\n\n:heavy_check_mark: (2021-11-26) The configuration files (yaml files) for training are being released.\n\n:heavy_check_mark: (2021-10-27) All the code files have been released. The configuration files (yaml files) for training will be released next. Now I have provided a GUI script and models to facilitate the experiment of network interpolation (see below). If you find any problems, please open an issue. Have fun with it. \n\u003Cimg src=\".github\u002Fweb_demo1.jpg\" height=\"400\" width=\"700\">\n\n:heavy_check_mark: (2021-10-25) Thank you for your kind attention. The github star has reached two hundred. I will open source the training code in the near future. \n\n:heavy_check_mark: (2021-10-20)  We are planning to publish the training code here in December. But if the github star reaches two hundred, I will advance the date. Stay tuned :clock10:.\n\n\n## Demo videos\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26176709\u002F137924071-26f700b1-46dc-4c1d-bb2d-189e6cc09116.mp4\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26176709\u002F137924277-751c342b-87c0-4539-8ab9-96b795d257ab.mp4\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26176709\u002F137924346-dd628c97-64e5-4cf7-9e34-ac6c42a98d3d.mp4\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26176709\u002F137924529-c38fa07c-9673-42ab-8a27-8e510d4c65ca.mp4\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26176709\u002F137924557-1aa23be9-d079-472e-8a9f-0e08f78fdce8.mp4\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26176709\u002F137924581-f5dbf759-1c8c-4dc3-9b85-26f215f0fde0.mp4\n\n\u003Cdetails>\n\u003Csummary>Mirror symmetry problem\u003C\u002Fsummary>\n\n\u003Cimg src=\".\u002F.github\u002Fmirror_symm.png\" width=\"800\">\n\nThe problem of mirror symmetry refers to the sudden change of the direction of the bangs near the yaw angle of pi\u002F2. We propose to use an auxiliary discriminator to solve this problem (please see the paper).\n\nNote that in the initial stage of training, the auxiliary discriminator must dominate the generator more than the main discriminator does. Otherwise, if the main discriminator dominates the generator, the mirror symmetry problem will still occur. In practice, progressive training is able to guarantee this. We have trained many times from scratch. Adding an auxiliary discriminator stably solves the mirror symmetry problem. If you find any problems with this idea, please open an issue. \n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Prepare environment\u003C\u002Fsummary>\n\n```bash\n\ngit clone --recursive https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D.git\ncd CIPS-3D\n\n# Create virtual environment\nconda create -y --name cips3d python=3.6.7\nconda activate cips3d\n\npip install torch==1.8.2+cu102 torchvision==0.9.2+cu102 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Flts\u002F1.8\u002Ftorch_lts.html\n\npip install --no-cache-dir -r requirements.txt\npip install -I tl2\n\npip install -e torch_fidelity_lib\npip install -e pytorch_ema_lib\n\n```\n\n\u003C\u002Fdetails>\n\n## Model interpolation (web demo) \n\nDownload the [pre-trained checkpoints](#pre-trained-checkpoints).\n\nExecute this command:\n```bash\nstreamlit run --server.port 8650 -- scripts\u002Fweb_demo.py  \\\n  --outdir results\u002Fmodel_interpolation \\\n  --cfg_file configs\u002Fweb_demo.yaml \\\n  --command model_interpolation\n\n```\nThen open the browser: `http:\u002F\u002Fyour_ip_address:8650`.\n\nYou can debug this script with this command:\n```bash\npython scripts\u002Fweb_demo.py  \\\n  --outdir results\u002Fmodel_interpolation \\\n  --cfg_file configs\u002Fweb_demo.yaml \\\n  --command model_interpolation \\\n  --debug True\n\n```\n## Pre-trained checkpoints \n\n|   | ffhq_exp |\n|:---:|:---:|\n| FFHQ_r256  | [train_ffhq_high-20220105_143314_190](https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Freleases\u002Fdownload\u002Fv0.0.2\u002Ftrain_ffhq_high-20220105_143314_190.zip)  |\n| AFHQ_r256 | [finetune_afhq-20220124_193407_473](https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Freleases\u002Fdownload\u002Fv0.0.3\u002Ffinetune_afhq-20220124_193407_473_r256.zip) |\n| CartoonFaces_r256 | [finetune_photo2cartoon-20220107_172255_454](https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Freleases\u002Fdownload\u002Fv0.0.3\u002Ffinetune_photo2cartoon-20220107_172255_454_r256.zip) |\n\n\n\u003Cdetails>\n\u003Csummary>Prepare dataset\u003C\u002Fsummary>\n\n**FFHQ:** Download FFHQ dataset [images1024x1024](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fffhq-dataset) (89.1 GB)\n```bash\n# Downsampling images in advance to speed up training\npython scripts\u002Fdataset_tool.py \\\n    --source=datasets\u002Fffhq\u002Fimages1024x1024 \\\n    --dest=datasets\u002Fffhq\u002Fdownsample_ffhq_256x256.zip \\\n    --width=256 --height=256\n```\n\n**CartoonFaces** Download [photo2cartoon](https:\u002F\u002Fwww.kaggle.com\u002Farnaud58\u002Fphoto2cartoon) dataset\n```bash\n# Prepare training dataset.\npython scripts\u002Fdataset_tool.py \\\n    --source=datasets\u002Fphoto2cartoon\u002Fphoto2cartoon \\\n    --dest=datasets\u002Fphoto2cartoon\u002Fphoto2cartoon_stylegan2.zip \n    \n```\n\n**AFHQ** Download [afhq](https:\u002F\u002Fgithub.com\u002Fclovaai\u002Fstargan-v2#animal-faces-hq-dataset-afhq) dataset\n```bash\n# Prepare training dataset.\npython scripts\u002Fdataset_tool.py \\\n    --source=datasets\u002FAFHQv2\u002FAFHQv2 \\\n    --dest=datasets\u002FAFHQv2\u002FAFHQv2_stylegan2.zip \n    \n```\n\n\u003C\u002Fdetails>\n\n## Training \n\nPlease refer to the scripts in `exp\u002Fcips3d\u002Fbash`.\nI will release all the pre-trained models when the reproducing is over.\n\n**running order:**\n\n- `exp\u002Fcips3d\u002Fbash\u002Fffhq_exp:`\n    - `train_ffhq_r32.sh` -> `train_ffhq_r64.sh` -> `train_ffhq_r128.sh` -> `train_ffhq_r256.sh`\n    - `eval_fid.sh`\n\n- `exp\u002Fcips3d\u002Fbash\u002Ffinetuning_exp:` (require pre-trained models from the above step)\n    - `finetune_photo2cartoon.sh` \n\n**developing:**\n\n- `exp\u002Fcips3d\u002Fbash\u002Fffhq_exp_v1:`\n\n- `exp\u002Fcips3d\u002Fbash\u002Fafhq_exp:`\n\n\n## Bug fixed\n\n- If the training process is blocked when training with multi GPUs, please upgrade the tl2 via `pip install -I tl2`\n\n\n\u003Cdetails>\n\u003Csummary>Old readme\u003C\u002Fsummary>\n\n\n**Note**: \n- In order to ensure that this code is consistent with my original dirty code, please follow me to reproduce the results using this code step by step. \n- The training script `train_v16.py` is dirty, but I'm not going to refactor it. After all, it still works stably. \n\n### Start training at 64x64\n\nTraining:\n```bash\nexport CUDA_HOME=\u002Fusr\u002Flocal\u002Fcuda-10.2\u002F\nexport CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7\nexport PYTHONPATH=.\npython exp\u002Fdev\u002Fnerf_inr\u002Fscripts\u002Ftrain_v16.py \\\n    --port 8888 \\\n    --tl_config_file configs\u002Ftrain_ffhq.yaml \\\n    --tl_command train_ffhq \\\n    --tl_outdir results\u002Ftrain_ffhq \\\n    --tl_opts curriculum.new_attrs.image_list_file datasets\u002Fffhq\u002Fimages256x256_image_list.txt \\\n      D_first_layer_warmup True\n\n```\n\nDummy training (for debug):\n```bash\nexport CUDA_HOME=\u002Fusr\u002Flocal\u002Fcuda-10.2\u002F\nexport CUDA_VISIBLE_DEVICES=1\npython exp\u002Fdev\u002Fnerf_inr\u002Fscripts\u002Ftrain_v16.py \\\n    --port 8888 \\ \n    --tl_config_file configs\u002Ftrain_ffhq.yaml \\\n    --tl_command train_ffhq \\\n    --tl_outdir results\u002Ftrain_ffhq_debug \\ \n    --tl_debug \\\n    --tl_opts curriculum.new_attrs.image_list_file datasets\u002Fffhq\u002Fimages256x256_image_list.txt \\\n      num_workers 0 num_images_real_eval 10 num_images_gen_eval 2 \n\n```\n\nWhen the FID of the 64x64 model reaches about 16, we start the next step: resume training at 128x128. \nLet's wait for the training (about 2 days or less). \n\nReproduced results: best_FID=15.27\n\n\u003Cimg src=\".github\u002Fffhq_r64.png\" height=\"220\" width=\"320\">\n\n\n### Resume training at 128x128 from the 64x64 models\n\nTraining:\n```bash\nexport CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7\nexport PYTHONPATH=.\npython exp\u002Fdev\u002Fnerf_inr\u002Fscripts\u002Ftrain_v16.py \\\n    --port 8888 \\\n    --tl_config_file configs\u002Ftrain_ffhq.yaml \\\n    --tl_command train_ffhq_r128 \\\n    --tl_outdir results\u002Ftrain_ffhq \\\n    --tl_resume \\\n    --tl_resumedir results\u002Ftrain_ffhq \\\n    --tl_opts curriculum.new_attrs.image_list_file datasets\u002Fffhq\u002Fimages256x256_image_list.txt \\\n      D_first_layer_warmup True reset_best_fid True update_aux_every 16 d_reg_every 1 train_aux_img True\n\n```\n\nDummy training (for debug):\n```bash\nexport CUDA_HOME=\u002Fusr\u002Flocal\u002Fcuda-10.2\u002F\nexport CUDA_VISIBLE_DEVICES=1\npython exp\u002Fdev\u002Fnerf_inr\u002Fscripts\u002Ftrain_v16.py \\\n    --port 8888 \\ \n    --tl_config_file configs\u002Ftrain_ffhq.yaml \\\n    --tl_command train_ffhq_r128 \\\n    --tl_outdir results\u002Ftrain_ffhq \\ \n    --tl_resume \\\n    --tl_resumedir results\u002Ftrain_ffhq \\\n    --tl_debug \\\n    --tl_opts curriculum.new_attrs.image_list_file datasets\u002Fffhq\u002Fimages256x256_image_list.txt \\\n      num_workers 0 num_images_real_eval 10 num_images_gen_eval 2 reset_best_fid True\n\n```\n\nWhen the FID of the 128x128 model reaches about 16, we start the next step.\n\nSome hyperparameters may be different from the original experiment. Hope it works normally. \nLet's wait for the training (maybe longer). \n\n\n### Resume training at 256x256 from the 128x128 models\n\n```bash\n\n```\n\n## Finetune INR Net\n\n```bash\n\n```\n\n\u003C\u002Fdetails>\n\n## Citation\n\nIf you find our work useful in your research, please cite:\n```\n\n@article{zhou2021CIPS3D,\n  title = {{{CIPS}}-{{3D}}: A {{3D}}-{{Aware Generator}} of {{GANs Based}} on {{Conditionally}}-{{Independent Pixel Synthesis}}},\n  shorttitle = {{{CIPS}}-{{3D}}},\n  author = {Zhou, Peng and Xie, Lingxi and Ni, Bingbing and Tian, Qi},\n  year = {2021},\n  eprint = {2110.09788},\n  eprinttype = {arxiv},\n}\n\n```\n\n## Acknowledgments\n\n- pi-GAN from [https:\u002F\u002Fgithub.com\u002Fmarcoamonteiro\u002Fpi-GAN](https:\u002F\u002Fgithub.com\u002Fmarcoamonteiro\u002Fpi-GAN)\n- CIPS from [https:\u002F\u002Fgithub.com\u002Fsaic-mdal\u002FCIPS](https:\u002F\u002Fgithub.com\u002Fsaic-mdal\u002FCIPS)\n- StyleGAN2 from [https:\u002F\u002Fgithub.com\u002Frosinality\u002Fstylegan2-pytorch](https:\u002F\u002Fgithub.com\u002Frosinality\u002Fstylegan2-pytorch)\n- torch-fidelity from [https:\u002F\u002Fgithub.com\u002Ftoshas\u002Ftorch-fidelity](https:\u002F\u002Fgithub.com\u002Ftoshas\u002Ftorch-fidelity)\n- StudioGAN from [https:\u002F\u002Fgithub.com\u002FPOSTECH-CVLab\u002FPyTorch-StudioGAN](https:\u002F\u002Fgithub.com\u002FPOSTECH-CVLab\u002FPyTorch-StudioGAN)\n- DiffAug from [https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Fdata-efficient-gans](https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Fdata-efficient-gans)\n- stylegan2-ada from [https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan2-ada-pytorch](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan2-ada-pytorch)\n","\u003Cp float=\"left\">\n\t\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPeterouZh_CIPS-3D_readme_9289b1c5193a.png\" width=\"330\">\n\u003C\u002Fp>\n\n\n本仓库包含论文[CIPS-3D: 基于条件独立像素合成的3D感知GAN生成器](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.09788)的代码。如需对真实图像进行3D GAN反演与编辑，请参考此仓库：[https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3Dplusplus](https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3Dplusplus)（CIPS-3D++）。\n\n## 更新\n\n:heavy_check_mark: (2022-1-5) 代码已完成重构。请参考`exp\u002Fcips3d\u002Fbash`中的脚本。请使用`pip install -I tl2`升级`tl2`包。\n\n:heavy_check_mark: (2021-11-26) 训练用的配置文件（yaml文件）正在发布中。\n\n:heavy_check_mark: (2021-10-27) 所有代码文件已全部发布。训练用的配置文件（yaml文件）将在后续发布。目前我已提供了一个GUI脚本和模型，以方便进行网络插值实验（见下文）。如果您发现任何问题，请提交issue。祝您玩得开心！\n\u003Cimg src=\".github\u002Fweb_demo1.jpg\" height=\"400\" width=\"700\">\n\n:heavy_check_mark: (2021-10-25) 感谢您的关注，GitHub星标已达两百颗。我将在近期开源训练代码。\n\n:heavy_check_mark: (2021-10-20) 我们计划在十二月在此处发布训练代码。但如果GitHub星标达到两百颗，我会提前发布。敬请期待 :clock10:.\n\n\n## 演示视频\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26176709\u002F137924071-26f700b1-46dc-4c1d-bb2d-189e6cc09116.mp4\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26176709\u002F137924277-751c342b-87c0-4539-8ab9-96b795d257ab.mp4\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26176709\u002F137924346-dd628c97-64e5-4cf7-9e34-ac6c42a98d3d.mp4\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26176709\u002F137924529-c38fa07c-9673-42ab-8a27-8e510d4c65ca.mp4\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26176709\u002F137924557-1aa23be9-d079-472e-8a9f-0e08f78fdce8.mp4\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26176709\u002F137924581-f5dbf759-1c8c-4dc3-9b85-26f215f0fde0.mp4\n\n\u003Cdetails>\n\u003Csummary>镜像对称性问题\u003C\u002Fsummary>\n\n\u003Cimg src=\".\u002F.github\u002Fmirror_symm.png\" width=\"800\">\n\n镜像对称性问题指的是在偏航角接近π\u002F2时，刘海方向会突然发生改变。我们提出使用辅助判别器来解决这一问题（详见论文）。\n\n需要注意的是，在训练初期，辅助判别器必须比主判别器更主导生成器。否则，如果主判别器主导生成器，镜像对称性问题仍然会出现。实际上，渐进式训练能够保证这一点。我们已经多次从头开始训练，加入辅助判别器后，镜像对称性问题得到了稳定解决。如果您对这一想法有任何疑问或问题，请提交issue。\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>环境准备\u003C\u002Fsummary>\n\n```bash\n\ngit clone --recursive https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D.git\ncd CIPS-3D\n\n# 创建虚拟环境\nconda create -y --name cips3d python=3.6.7\nconda activate cips3d\n\npip install torch==1.8.2+cu102 torchvision==0.9.2+cu102 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Flts\u002F1.8\u002Ftorch_lts.html\n\npip install --no-cache-dir -r requirements.txt\npip install -I tl2\n\npip install -e torch_fidelity_lib\npip install -e pytorch_ema_lib\n\n```\n\n\u003C\u002Fdetails>\n\n## 模型插值（Web演示） \n\n下载[预训练检查点](#pre-trained-checkpoints)。\n\n执行以下命令：\n```bash\nstreamlit run --server.port 8650 -- scripts\u002Fweb_demo.py  \\\n  --outdir results\u002Fmodel_interpolation \\\n  --cfg_file configs\u002Fweb_demo.yaml \\\n  --command model_interpolation\n\n```\n然后打开浏览器：`http:\u002F\u002Fyour_ip_address:8650`。\n\n您也可以通过以下命令调试该脚本：\n```bash\npython scripts\u002Fweb_demo.py  \\\n  --outdir results\u002Fmodel_interpolation \\\n  --cfg_file configs\u002Fweb_demo.yaml \\\n  --command model_interpolation \\\n  --debug True\n\n```\n## 预训练检查点 \n\n|   | ffhq_exp |\n|:---:|:---:|\n| FFHQ_r256  | [train_ffhq_high-20220105_143314_190](https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Freleases\u002Fdownload\u002Fv0.0.2\u002Ftrain_ffhq_high-20220105_143314_190.zip)  |\n| AFHQ_r256 | [finetune_afhq-20220124_193407_473](https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Freleases\u002Fdownload\u002Fv0.0.3\u002Ffinetune_afhq-20220124_193407_473_r256.zip) |\n| CartoonFaces_r256 | [finetune_photo2cartoon-20220107_172255_454](https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Freleases\u002Fdownload\u002Fv0.0.3\u002Ffinetune_photo2cartoon-20220107_172255_454_r256.zip) |\n\n\n\u003Cdetails>\n\u003Csummary>数据集准备\u003C\u002Fsummary>\n\n**FFHQ:** 下载FFHQ数据集[images1024x1024](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fffhq-dataset)（89.1 GB）\n```bash\n# 为加快训练速度，提前对图像进行下采样\npython scripts\u002Fdataset_tool.py \\\n    --source=datasets\u002Fffhq\u002Fimages1024x1024 \\\n    --dest=datasets\u002Fffhq\u002Fdownsample_ffhq_256x256.zip \\\n    --width=256 --height=256\n```\n\n**CartoonFaces** 下载[photo2cartoon](https:\u002F\u002Fwww.kaggle.com\u002Farnaud58\u002Fphoto2cartoon)数据集\n```bash\n# 准备训练数据集。\npython scripts\u002Fdataset_tool.py \\\n    --source=datasets\u002Fphoto2cartoon\u002Fphoto2cartoon \\\n    --dest=datasets\u002Fphoto2cartoon\u002Fphoto2cartoon_stylegan2.zip \n    \n```\n\n**AFHQ** 下载[afhq](https:\u002F\u002Fgithub.com\u002Fclovaai\u002Fstargan-v2#animal-faces-hq-dataset-afhq)数据集\n```bash\n# 准备训练数据集。\npython scripts\u002Fdataset_tool.py \\\n    --source=datasets\u002FAFHQv2\u002FAFHQv2 \\\n    --dest=datasets\u002FAFHQv2\u002FAFHQv2_stylegan2.zip \n    \n```\n\n\u003C\u002Fdetails>\n\n## 训练 \n\n请参考`exp\u002Fcips3d\u002Fbash`中的脚本。待复现工作完成后，我将发布所有预训练模型。\n\n**训练顺序：**\n\n- `exp\u002Fcips3d\u002Fbash\u002Fffhq_exp:`\n    - `train_ffhq_r32.sh` -> `train_ffhq_r64.sh` -> `train_ffhq_r128.sh` -> `train_ffhq_r256.sh`\n    - `eval_fid.sh`\n\n- `exp\u002Fcips3d\u002Fbash\u002Ffinetuning_exp:`（需要上一步的预训练模型）\n    - `finetune_photo2cartoon.sh` \n\n**开发中：**\n\n- `exp\u002Fcips3d\u002Fbash\u002Fffhq_exp_v1:`\n\n- `exp\u002Fcips3d\u002Fbash\u002Fafhq_exp:`\n\n\n## 已修复的Bug\n\n- 如果在多GPU环境下训练时出现卡顿，请通过`pip install -I tl2`升级tl2。\n\n\n\u003Cdetails>\n\u003Csummary>旧版README\u003C\u002Fsummary>\n\n\n**注意**：\n- 为了确保本代码与我最初的原始代码一致，请按照步骤逐步使用本代码复现结果。\n- 训练脚本`train_v16.py`较为粗糙，但我不会对其进行重构。毕竟它仍然能稳定运行。\n\n### 在 64×64 分辨率下开始训练\n\n训练命令：\n```bash\nexport CUDA_HOME=\u002Fusr\u002Flocal\u002Fcuda-10.2\u002F\nexport CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7\nexport PYTHONPATH=.\npython exp\u002Fdev\u002Fnerf_inr\u002Fscripts\u002Ftrain_v16.py \\\n    --port 8888 \\\n    --tl_config_file configs\u002Ftrain_ffhq.yaml \\\n    --tl_command train_ffhq \\\n    --tl_outdir results\u002Ftrain_ffhq \\\n    --tl_opts curriculum.new_attrs.image_list_file datasets\u002Fffhq\u002Fimages256x256_image_list.txt \\\n      D_first_layer_warmup True\n\n```\n\n调试用的空训练：\n```bash\nexport CUDA_HOME=\u002Fusr\u002Flocal\u002Fcuda-10.2\u002F\nexport CUDA_VISIBLE_DEVICES=1\npython exp\u002Fdev\u002Fnerf_inr\u002Fscripts\u002Ftrain_v16.py \\\n    --port 8888 \\ \n    --tl_config_file configs\u002Ftrain_ffhq.yaml \\\n    --tl_command train_ffhq \\\n    --tl_outdir results\u002Ftrain_ffhq_debug \\ \n    --tl_debug \\\n    --tl_opts curriculum.new_attrs.image_list_file datasets\u002Fffhq\u002Fimages256x256_image_list.txt \\\n      num_workers 0 num_images_real_eval 10 num_images_gen_eval 2 \n\n```\n\n当 64×64 模型的 FID 达到约 16 时，我们开始下一步：在 128×128 分辨率下继续训练。请等待训练完成（大约 2 天或更短）。\n\n复现结果：best_FID=15.27\n\n\u003Cimg src=\".github\u002Fffhq_r64.png\" height=\"220\" width=\"320\">\n\n\n### 从 64×64 模型恢复 128×128 分辨率下的训练\n\n训练命令：\n```bash\nexport CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7\nexport PYTHONPATH=.\npython exp\u002Fdev\u002Fnerf_inr\u002Fscripts\u002Ftrain_v16.py \\\n    --port 8888 \\\n    --tl_config_file configs\u002Ftrain_ffhq.yaml \\\n    --tl_command train_ffhq_r128 \\\n    --tl_outdir results\u002Ftrain_ffhq \\\n    --tl_resume \\\n    --tl_resumedir results\u002Ftrain_ffhq \\\n    --tl_opts curriculum.new_attrs.image_list_file datasets\u002Fffhq\u002Fimages256x256_image_list.txt \\\n      D_first_layer_warmup True reset_best_fid True update_aux_every 16 d_reg_every 1 train_aux_img True\n\n```\n\n调试用的空训练：\n```bash\nexport CUDA_HOME=\u002Fusr\u002Flocal\u002Fcuda-10.2\u002F\nexport CUDA_VISIBLE_DEVICES=1\npython exp\u002Fdev\u002Fnerf_inr\u002Fscripts\u002Ftrain_v16.py \\\n    --port 8888 \\ \n    --tl_config_file configs\u002Ftrain_ffhq.yaml \\\n    --tl_command train_ffhq_r128 \\\n    --tl_outdir results\u002Ftrain_ffhq \\ \n    --tl_resume \\\n    --tl_resumedir results\u002Ftrain_ffhq \\\n    --tl_debug \\\n    --tl_opts curriculum.new_attrs.image_list_file datasets\u002Fffhq\u002Fimages256x256_image_list.txt \\\n      num_workers 0 num_images_real_eval 10 num_images_gen_eval 2 reset_best_fid True\n\n```\n\n当 128×128 模型的 FID 达到约 16 时，我们开始下一步。\n\n部分超参数可能与原始实验有所不同。希望一切顺利。请等待训练完成（可能需要更长时间）。\n\n\n### 从 128×128 模型恢复 256×256 分辨率下的训练\n\n```bash\n\n```\n\n## 微调 INR 网络\n\n```bash\n\n```\n\n\u003C\u002Fdetails>\n\n## 引用\n\n如果您在研究中使用了我们的工作，请引用以下内容：\n```\n\n@article{zhou2021CIPS3D,\n  title = {{{CIPS}}-{{3D}}: A {{3D}}-{{Aware Generator}} of {{GANs Based}} on {{Conditionally}}-{{Independent Pixel Synthesis}}},\n  shorttitle = {{{CIPS}}-{{3D}}},\n  author = {Zhou, Peng and Xie, Lingxi and Ni, Bingbing and Tian, Qi},\n  year = {2021},\n  eprint = {2110.09788},\n  eprinttype = {arxiv},\n}\n\n```\n\n## 致谢\n\n- pi-GAN 来自 [https:\u002F\u002Fgithub.com\u002Fmarcoamonteiro\u002Fpi-GAN](https:\u002F\u002Fgithub.com\u002Fmarcoamonteiro\u002Fpi-GAN)\n- CIPS 来自 [https:\u002F\u002Fgithub.com\u002Fsaic-mdal\u002FCIPS](https:\u002F\u002Fgithub.com\u002Fsaic-mdal\u002FCIPS)\n- StyleGAN2 来自 [https:\u002F\u002Fgithub.com\u002Frosinality\u002Fstylegan2-pytorch](https:\u002F\u002Fgithub.com\u002Frosinality\u002Fstylegan2-pytorch)\n- torch-fidelity 来自 [https:\u002F\u002Fgithub.com\u002Ftoshas\u002Ftorch-fidelity](https:\u002F\u002Fgithub.com\u002Ftoshas\u002Ftorch-fidelity)\n- StudioGAN 来自 [https:\u002F\u002Fgithub.com\u002FPOSTECH-CVLab\u002FPyTorch-StudioGAN](https:\u002F\u002Fgithub.com\u002FPOSTECH-CVLab\u002FPyTorch-StudioGAN)\n- DiffAug 来自 [https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Fdata-efficient-gans](https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Fdata-efficient-gans)\n- stylegan2-ada 来自 [https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan2-ada-pytorch](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan2-ada-pytorch)","# CIPS-3D 快速上手指南\n\nCIPS-3D 是一个基于条件独立像素合成的 3D 感知 GAN 生成器。本指南将帮助你快速配置环境并运行模型插值演示。\n\n> **注意**：如果你需要对真实图像进行 3D GAN 反转和编辑，请参考 [CIPS-3D++](https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3Dplusplus) 仓库。\n\n## 1. 环境准备\n\n*   **操作系统**: Linux (推荐)\n*   **Python**: 3.6.7\n*   **CUDA**: 10.2 (对应 PyTorch 1.8.2+cu102)\n*   **依赖管理**: Conda\n\n## 2. 安装步骤\n\n请依次执行以下命令来克隆代码库、创建虚拟环境并安装依赖。\n\n```bash\n# 1. 克隆仓库（包含子模块）\ngit clone --recursive https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D.git\ncd CIPS-3D\n\n# 2. 创建并激活 Conda 虚拟环境\nconda create -y --name cips3d python=3.6.7\nconda activate cips3d\n\n# 3. 安装 PyTorch (指定版本以匹配 CUDA 10.2)\npip install torch==1.8.2+cu102 torchvision==0.9.2+cu102 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Flts\u002F1.8\u002Ftorch_lts.html\n\n# 4. 安装其他 Python 依赖\npip install --no-cache-dir -r requirements.txt\n\n# 5. 强制重新安装 tl2 包（确保最新版本以修复多GPU训练阻塞问题）\npip install -I tl2\n\n# 6. 安装本地库\npip install -e torch_fidelity_lib\npip install -e pytorch_ema_lib\n```\n\n## 3. 基本使用：模型插值 Web 演示\n\n这是最简单的使用方式，无需训练即可体验 CIPS-3D 的效果。\n\n### 第一步：下载预训练模型\n\n根据你的需求下载对应的预训练 checkpoints 并解压到合适的位置（通常脚本会自动查找或需在配置文件中指定路径，建议先下载 FFHQ 模型进行测试）：\n\n| 数据集 | 分辨率 | 下载链接 |\n| :--- | :---: | :--- |\n| **FFHQ** (人脸) | 256x256 | [train_ffhq_high-20220105_143314_190.zip](https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Freleases\u002Fdownload\u002Fv0.0.2\u002Ftrain_ffhq_high-20220105_143314_190.zip) |\n| **AFHQ** (动物脸) | 256x256 | [finetune_afhq-20220124_193407_473_r256.zip](https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Freleases\u002Fdownload\u002Fv0.0.3\u002Ffinetune_afhq-20220124_193407_473_r256.zip) |\n| **CartoonFaces** (卡通) | 256x256 | [finetune_photo2cartoon-20220107_172255_454_r256.zip](https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Freleases\u002Fdownload\u002Fv0.0.3\u002Ffinetune_photo2cartoon-20220107_172255_454_r256.zip) |\n\n### 第二步：启动 Web 服务\n\n执行以下命令启动 Streamlit 演示界面：\n\n```bash\nstreamlit run --server.port 8650 -- scripts\u002Fweb_demo.py  \\\n  --outdir results\u002Fmodel_interpolation \\\n  --cfg_file configs\u002Fweb_demo.yaml \\\n  --command model_interpolation\n```\n\n### 第三步：访问界面\n\n打开浏览器，访问以下地址（将 `your_ip_address` 替换为你的服务器 IP 或 `localhost`）：\n\n`http:\u002F\u002Fyour_ip_address:8650`\n\n你可以在网页中调整参数，观察不同潜向量之间的平滑过渡及 3D 视角变化。\n\n---\n\n**进阶提示**：\n*   **调试模式**：如果需要调试脚本，可以添加 `--debug True` 参数运行 python 命令而非 streamlit。\n*   **训练数据准备**：如需从头训练，请参考 README 中的 `Prepare dataset` 部分，使用 `scripts\u002Fdataset_tool.py` 处理 FFHQ、AFHQ 或 CartoonFaces 数据集。\n*   **训练脚本**：训练脚本位于 `exp\u002Fcips3d\u002Fbash` 目录下，建议按照分辨率从低到高（32->64->128->256）的顺序依次执行训练脚本。","某独立游戏工作室的美术团队正在开发一款赛博朋克风格的开放世界游戏，需要快速生成大量风格统一且具备三维一致性的NPC头像资源，以填充庞大的城市人口。\n\n### 没有 CIPS-3D 时\n- **视角一致性差**：传统2D GAN生成的图像在旋转视角时会出现严重的伪影或结构崩坏，无法直接用于需要多角度展示的角色创建系统。\n- **制作成本高昂**：美术师必须手动为每个角色绘制正面、侧面及半侧面图，或通过昂贵的3D建模流程逐个雕刻，耗时极长且难以批量生产。\n- **编辑灵活性低**：若需调整角色发型或面部特征，往往需要重新绘制或重新建模，难以实现平滑的属性插值和实时预览。\n- **几何结构混乱**：缺乏显式的3D意识导致生成的人脸在极端角度下出现“镜像对称”错误或五官扭曲，后期修复工作量巨大。\n\n### 使用 CIPS-3D 后\n- **真3D一致性生成**：基于NeRF的架构确保了生成头像在不同yaw（偏航角）和pitch（俯仰角）下的几何连贯性，彻底解决了视角切换时的撕裂感。\n- **自动化批量生产**：只需训练一次模型，即可通过潜在空间采样瞬间生成成千上万个风格统一但细节各异的3D感知头像，效率提升百倍。\n- **平滑属性编辑**：利用其支持的网络插值功能，开发者可以在Web Demo中实时调整角色属性（如年龄、表情），并获得自然过渡的3D视图，极大加速了原型设计。\n- **稳定的几何结构**：通过引入辅助判别器，CIPS-3D有效克服了镜像对称问题，即使在侧脸等大角度视图下，也能保持头发和面部结构的合理性与真实感。\n\nCIPS-3D 将原本依赖手工堆砌的3D资产生产流程转化为高效的算法生成管线，在保证视觉质量的同时显著降低了内容创作门槛与成本。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPeterouZh_CIPS-3D_9289b1c5.png","PeterouZh","Peterou","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FPeterouZh_d337ab8d.png",null,"Nanjing University of Aeronautics and Astronautics","zhoupengcv@outlook.com","https:\u002F\u002Fgithub.com\u002FPeterouZh",[84,88,92,96],{"name":85,"color":86,"percentage":87},"Python","#3572A5",96.8,{"name":89,"color":90,"percentage":91},"Shell","#89e051",2.7,{"name":93,"color":94,"percentage":95},"Cuda","#3A4E3A",0.5,{"name":97,"color":98,"percentage":99},"C++","#f34b7d",0.1,611,60,"2025-11-14T15:47:25","MIT","Linux","需要 NVIDIA GPU，支持 CUDA 10.2，建议多卡训练（README示例使用8卡），显存需求未明确说明但通常3D GAN训练需要较大显存","未说明",{"notes":108,"python":109,"dependencies":110},"1. 必须使用 conda 创建虚拟环境并指定 Python 3.6.7。2. PyTorch 版本严格绑定为 1.8.2 且需配合 CUDA 10.2。3. 需要安装特定的内部库 tl2 (pip install -I tl2) 以及本地库 torch_fidelity_lib 和 pytorch_ema_lib。4. 训练采用渐进式策略（从32x32到256x256），需按顺序执行 bash 脚本。5. 若多GPU训练阻塞，请升级 tl2 包。","3.6.7",[111,112,113,114,115,116,117,118,119,120],"torch==1.8.2+cu102","torchvision==0.9.2+cu102","tl2","streamlit","pyyaml","numpy","pillow","tqdm","scipy","ninja",[13],[123,124,125],"generative-adversarial-network","nerf","pytorch","2026-03-27T02:49:30.150509","2026-04-06T07:12:45.236390",[129,134,139,144,149,154,159],{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},11184,"如何提升 FFHQ 预训练模型生成图像的质量？","可以通过调整截断参数（truncation）来改善生成质量。在代码或配置中，将 `psi` 参数设置为 0.45 可以获得更好的效果。注意：`truncation` 对应于 `psi` 参数。","https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Fissues\u002F31",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},11185,"如何在自己的图片数据集上进行测试或推理？","目前程序不直接支持对任意真实图片进行测试。若要在真实图片上测试，首先需要进行 GAN 反演（GAN inversion）将图片投影到 w 空间。但需要注意的是，3D GAN 的反演方法尚不成熟，对于未知姿态的侧脸等效果较差。如果有带姿态数据的图片序列，步骤如下：\n1. 参考 StyleGAN 的方式对齐图片（可使用 align_images.py 脚本）。\n2. 将对齐后的图片投影到 W 空间（GAN 反演）。与常见的 2D 反演不同，最好为 CIPS-3D 生成器设置合适的 yaw\u002Fpitch\u002Ffov，使 G(w) 的初始姿态与待反演图片一致。\n3. 获得图片的 w 后，可以使用 G'(w) 重建不同风格的图片。G' 可以通过插值不同域的生成器获得。","https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Fissues\u002F7",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},11186,"如何生成分辨率大于 256x256 的图像（如 512x512）？","流程是正确的：你需要再次通过 `dataset_tool.py` 脚本转换原始 FFHQ 数据集，并在其中指定 resize 为 512。之后运行训练管道时，可能需要调整一些超参数，例如降低生成器和判别器的学习率。具体的训练命令和配置可以参考 `exp\u002Fcips3d\u002Fbash\u002Fffhq_exp` 中的脚本。","https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Fissues\u002F14",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},11187,"遇到 CUDA error: out of memory 错误怎么办？","如果在 V100 (32GB) 等大显存 GPU 上即使 batch size=1 仍报显存不足，建议先检查 GPU 硬件状态，尝试更换另一块 GPU 看是否正常工作。此外，可以尝试设置环境变量 `CUDA_LAUNCH_BLOCKING=1` 来辅助调试定位问题。","https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Fissues\u002F19",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},11188,"该代码支持在 CPU 上运行吗？","不支持。代码编写时未考虑在 CPU 上运行。如果需要在 CPU 上运行，可能需要用 NumPy 重写部分函数。维护者目前没有实现 CPU 支持功能的计划。","https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Fissues\u002F10",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},11189,"如何将生成的结果转换为 3D 网格（Mesh）？","由于 CIPS-3D 的代码基于 pi-GAN，理论上 pi-GAN 中的 `shape_extraction.py` 脚本也适用于此方法。你可以尝试使用该脚本进行形状提取。","https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Fissues\u002F12",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},11190,"为什么复现的结果 FID 分数不如论文中描述的好？","高分辨率（如 128x128 或更高）的实验可能未达到预期效果，维护者表示正在调试中。此外，确保遵循正确的训练脚本和超参数设置。如果在使用特定云平台（如 moxing）时遇到问题，需注意平台差异可能带来的影响。建议参考 README 中最新的运行指令。","https:\u002F\u002Fgithub.com\u002FPeterouZh\u002FCIPS-3D\u002Fissues\u002F13",[165,169,174],{"id":166,"version":167,"summary_zh":79,"released_at":168},61647,"v0.0.3","2022-03-21T09:22:58",{"id":170,"version":171,"summary_zh":172,"released_at":173},61648,"v0.0.2","训练_ffhq_high-20220105_143314_190","2022-01-19T04:01:02",{"id":175,"version":176,"summary_zh":79,"released_at":177},61649,"v0.0.1","2021-10-27T07:14:41"]