[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-elliottwu--unsup3d":3,"tool-elliottwu--unsup3d":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":73,"owner_company":73,"owner_location":73,"owner_email":73,"owner_twitter":73,"owner_website":75,"owner_url":76,"languages":77,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":90,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":108,"github_topics":110,"view_count":32,"oss_zip_url":73,"oss_zip_packed_at":73,"status":17,"created_at":120,"updated_at":121,"faqs":122,"releases":158},8228,"elliottwu\u002Funsup3d","unsup3d","(CVPR'20 Oral) Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images in the Wild","unsup3d 是一款由牛津大学视觉几何组研发并荣获 CVPR 2020 最佳论文奖的开源项目，旨在从普通的单张二维图片中，自动重建出具有弱对称性的可变形 3D 物体模型。它主要解决了传统 3D 重建严重依赖昂贵标注数据（如真实 3D 模型、多视角图像或关键点标记）的痛点，实现了完全无监督的学习方式。这意味着用户无需任何先验形状模型或额外监督信号，仅凭“野生”环境下的单视图图像即可训练模型。\n\n该工具的核心技术亮点在于其独特的算法设计，能够同时推断物体的三维几何结构、纹理以及相机姿态，特别适用于人脸、猫脸及汽车等具有近似对称特征的类别。unsup3d 非常适合计算机视觉领域的研究人员和开发者使用，尤其是那些希望探索无监督学习潜力、进行 3D 生成研究或需要在缺乏标注数据环境下构建原型的技术人员。虽然普通用户可通过演示体验其效果，但要充分发挥其价值，使用者需具备 Python 编程基础及 PyTorch 深度学习框架的使用经验。通过 unsup3d，复杂的 3D 建模过程变得更加自动化且易于获取，为相关领域的创新研究提供了强有力的支持。","# Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images in the Wild\n#### [Demo](http:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Fblog\u002Funsupervised-learning-of-probably-symmetric-deformable-3d-objects-from-images-in-the-wild.html) | [Project Page](https:\u002F\u002Felliottwu.com\u002Fprojects\u002Funsup3d\u002F) | [Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=5rPJyrU-WE4) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.11130)\n[Shangzhe Wu](https:\u002F\u002Felliottwu.com\u002F), [Christian Rupprecht](https:\u002F\u002Fchrirupp.github.io\u002F), [Andrea Vedaldi](http:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vedaldi\u002F), Visual Geometry Group, University of Oxford. In CVPR 2020 (Best Paper Award).\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Felliottwu_unsup3d_readme_5258103cc24d.jpg\" width=\"800\">\n\nWe propose a method to learn weakly symmetric deformable 3D object categories from raw single-view images, without ground-truth 3D, multiple views, 2D\u002F3D keypoints, prior shape models or any other supervision.\n\n\n## Setup (with [Anaconda](https:\u002F\u002Fwww.anaconda.com\u002F))\n\n### 1. Install dependencies:\n```\nconda env create -f environment.yml\n```\nOR manually:\n```\nconda install -c conda-forge scikit-image matplotlib opencv moviepy pyyaml tensorboardX\n```\n\n\n### 2. Install [PyTorch](https:\u002F\u002Fpytorch.org\u002F):\n```\nconda install pytorch==1.2.0 torchvision==0.4.0 cudatoolkit=9.2 -c pytorch\n```\n*Note*: The code is tested with PyTorch 1.2.0 and CUDA 9.2 on CentOS 7. A GPU version is required for training and testing, since the [neural_renderer](https:\u002F\u002Fgithub.com\u002Fdaniilidis-group\u002Fneural_renderer) package only has GPU implementation. You are still able to run the demo without GPU.\n\n\n### 3. Install [neural_renderer](https:\u002F\u002Fgithub.com\u002Fdaniilidis-group\u002Fneural_renderer):\nThis package is required for training and testing, and optional for the demo. It requires a GPU device and GPU-enabled PyTorch.\n```\npip install neural_renderer_pytorch\n```\n\n*Note*: It may fail if you have a GCC version below 5. If you do not want to upgrade your GCC, one alternative solution is to use conda's GCC and compile the package from source. For example:\n```\nconda install gxx_linux-64=7.3\ngit clone https:\u002F\u002Fgithub.com\u002Fdaniilidis-group\u002Fneural_renderer.git\ncd neural_renderer\npython setup.py install\n```\n\n\n### 4. (For demo only) Install [facenet-pytorch](https:\u002F\u002Fgithub.com\u002Ftimesler\u002Ffacenet-pytorch):\nThis package is optional for the demo. It allows automatic human face detection.\n```\npip install facenet-pytorch\n```\n\n\n## Datasets\n1. [CelebA](http:\u002F\u002Fmmlab.ie.cuhk.edu.hk\u002Fprojects\u002FCelebA.html) face dataset. Please download the original images (`img_celeba.7z`) from their [website](http:\u002F\u002Fmmlab.ie.cuhk.edu.hk\u002Fprojects\u002FCelebA.html) and run `celeba_crop.py` in `data\u002F` to crop the images.\n2. Synthetic face dataset generated using [Basel Face Model](https:\u002F\u002Ffaces.dmi.unibas.ch\u002Fbfm\u002F). This can be downloaded using the script `download_synface.sh` provided in `data\u002F`.\n3. Cat face dataset composed of [Cat Head Dataset](http:\u002F\u002Facademictorrents.com\u002Fdetails\u002Fc501571c29d16d7f41d159d699d0e7fb37092cbd) and [Oxford-IIIT Pet Dataset](http:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Fdata\u002Fpets\u002F) ([license](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-sa\u002F4.0\u002F)). This can be downloaded using the script `download_cat.sh` provided in `data\u002F`.\n4. Synthetic car dataset generated from [ShapeNet](https:\u002F\u002Fshapenet.org\u002F) cars. The images are rendered from with random viewpoints from the top, where the cars are primarily oriented vertically. This can be downloaded using the script `download_syncar.sh` provided in `data\u002F`.\n\nPlease remember to cite the corresponding papers if you use these datasets.\n\n\n## Pretrained Models\nDownload pretrained models using the scripts provided in `pretrained\u002F`, eg:\n```\ncd pretrained && sh download_pretrained_celeba.sh\n```\n\n\n## Demo\n```\npython -m demo.demo --input demo\u002Fimages\u002Fhuman_face --result demo\u002Fresults\u002Fhuman_face --checkpoint pretrained\u002Fpretrained_celeba\u002Fcheckpoint030.pth\n```\n\n*Options*:\n- `--gpu`: enable GPU\n- `--detect_human_face`: enable automatic human face detection and cropping using [MTCNN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.02878) provided in [facenet-pytorch](https:\u002F\u002Fgithub.com\u002Ftimesler\u002Ffacenet-pytorch). This only works on human face images. You will need to manually crop the images for other objects.\n- `--render_video`: render 3D animations using [neural_renderer](https:\u002F\u002Fgithub.com\u002Fdaniilidis-group\u002Fneural_renderer) (GPU is required)\n\n\n## Training and Testing\nCheck the configuration files in `experiments\u002F` and run experiments, eg:\n```\npython run.py --config experiments\u002Ftrain_celeba.yml --gpu 0 --num_workers 4\n```\n\n\n## Citation\n```\n@InProceedings{Wu_2020_CVPR,\n  author = {Shangzhe Wu and Christian Rupprecht and Andrea Vedaldi},\n  title = {Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images in the Wild},\n  booktitle = {CVPR},\n  year = {2020}\n}\n```\n","# 从野外图像中无监督学习可能对称的可变形3D物体\n#### [演示](http:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Fblog\u002Funsupervised-learning-of-probably-symmetric-deformable-3d-objects-from-images-in-the-wild.html) | [项目页面](https:\u002F\u002Felliottwu.com\u002Fprojects\u002Funsup3d\u002F) | [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=5rPJyrU-WE4) | [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.11130)\n[Shangzhe Wu](https:\u002F\u002Felliottwu.com\u002F)、[Christian Rupprecht](https:\u002F\u002Fchrirupp.github.io\u002F)、[Andrea Vedaldi](http:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vedaldi\u002F)，牛津大学视觉几何组。发表于CVPR 2020（最佳论文奖）。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Felliottwu_unsup3d_readme_5258103cc24d.jpg\" width=\"800\">\n\n我们提出了一种方法，可以从原始的单视角图像中学习弱对称的可变形3D物体类别，而无需3D真值、多视角图像、2D\u002F3D关键点、先验形状模型或其他任何监督信息。\n\n\n## 环境搭建（使用[Anaconda](https:\u002F\u002Fwww.anaconda.com\u002F)）\n\n### 1. 安装依赖：\n```\nconda env create -f environment.yml\n```\n或者手动安装：\n```\nconda install -c conda-forge scikit-image matplotlib opencv moviepy pyyaml tensorboardX\n```\n\n\n### 2. 安装[PyTorch](https:\u002F\u002Fpytorch.org\u002F)：\n```\nconda install pytorch==1.2.0 torchvision==0.4.0 cudatoolkit=9.2 -c pytorch\n```\n*注意*：代码已在CentOS 7上使用PyTorch 1.2.0和CUDA 9.2进行了测试。训练和测试需要GPU版本，因为[neural_renderer](https:\u002F\u002Fgithub.com\u002Fdaniilidis-group\u002Fneural_renderer)包仅提供GPU实现。不过，即使没有GPU，您仍然可以运行演示。\n\n### 3. 安装[neural_renderer](https:\u002F\u002Fgithub.com\u002Fdaniilidis-group\u002Fneural_renderer)：\n该包是训练和测试所必需的，但对于演示来说是可选的。它需要一个GPU设备以及支持GPU的PyTorch。\n```\npip install neural_renderer_pytorch\n```\n\n*注意*：如果您的GCC版本低于5.0，可能会安装失败。如果您不想升级GCC，另一种解决方案是使用conda提供的GCC，并从源代码编译该包。例如：\n```\nconda install gxx_linux-64=7.3\ngit clone https:\u002F\u002Fgithub.com\u002Fdaniilidis-group\u002Fneural_renderer.git\ncd neural_renderer\npython setup.py install\n```\n\n\n### 4. （仅限演示）安装[facenet-pytorch](https:\u002F\u002Fgithub.com\u002Ftimesler\u002Ffacenet-pytorch)：\n该包对于演示来说是可选的，它可以实现自动人脸检测。\n```\npip install facenet-pytorch\n```\n\n\n## 数据集\n1. [CelebA](http:\u002F\u002Fmmlab.ie.cuhk.edu.hk\u002Fprojects\u002FCelebA.html)人脸数据集。请从其[官网](http:\u002F\u002Fmmlab.ie.cuhk.edu.hk\u002Fprojects\u002FCelebA.html)下载原始图像（`img_celeba.7z`），并在`data\u002F`目录下运行`celeba_crop.py`以裁剪图像。\n2. 使用[Basel Face Model](https:\u002F\u002Ffaces.dmi.unibas.ch\u002Fbfm\u002F)生成的合成人脸数据集。可以使用`data\u002F`目录下的脚本`download_synface.sh`下载。\n3. 猫脸数据集由[Cat Head Dataset](http:\u002F\u002Facademictorrents.com\u002Fdetails\u002Fc501571c29d16d7f41d159d699d0e7fb37092cbd)和[Oxford-IIIT Pet Dataset](http:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Fdata\u002Fpets\u002F)（[许可证](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-sa\u002F4.0\u002F)）组成。可以使用`data\u002F`目录下的脚本`download_cat.sh`下载。\n4. 基于[ShapeNet](https:\u002F\u002Fshapenet.org\u002F)汽车生成的合成汽车数据集。这些图像是从顶部随机视角渲染的，汽车主要呈垂直方向。可以使用`data\u002F`目录下的脚本`download_syncar.sh`下载。\n\n请注意，如果您使用这些数据集，请务必引用相应的论文。\n\n\n## 预训练模型\n使用`pretrained\u002F`目录下的脚本下载预训练模型，例如：\n```\ncd pretrained && sh download_pretrained_celeba.sh\n```\n\n\n## 演示\n```\npython -m demo.demo --input demo\u002Fimages\u002Fhuman_face --result demo\u002Fresults\u002Fhuman_face --checkpoint pretrained\u002Fpretrained_celeba\u002Fcheckpoint030.pth\n```\n\n*选项*：\n- `--gpu`：启用GPU\n- `--detect_human_face`：启用自动人脸检测和裁剪功能，使用[facenet-pytorch](https:\u002F\u002Fgithub.com\u002Ftimesler\u002Ffacenet-pytorch)中提供的[MTCNN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.02878)。此功能仅适用于人脸图像。对于其他对象，您需要手动裁剪图像。\n- `--render_video`：使用[neural_renderer](https:\u002F\u002Fgithub.com\u002Fdaniilidis-group\u002Fneural_renderer)渲染3D动画（需要GPU）\n\n\n## 训练与测试\n检查`experiments\u002F`目录下的配置文件并运行实验，例如：\n```\npython run.py --config experiments\u002Ftrain_celeba.yml --gpu 0 --num_workers 4\n```\n\n\n## 引用\n```\n@InProceedings{Wu_2020_CVPR,\n  author = {Shangzhe Wu and Christian Rupprecht and Andrea Vedaldi},\n  title = {Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images in the Wild},\n  booktitle = {CVPR},\n  year = {2020}\n}\n```","# unsup3d 快速上手指南\n\nunsup3d 是一个用于从单张野生图像中无监督学习弱对称可变形 3D 物体类别的工具。该项目荣获 CVPR 2020 最佳论文奖，无需 3D 真值、多视图或关键点标注即可训练。\n\n## 环境准备\n\n*   **操作系统**: 推荐 Linux (代码在 CentOS 7 上测试通过)。\n*   **硬件要求**:\n    *   **训练与测试**: 必须使用支持 CUDA 的 GPU。\n    *   **演示 (Demo)**: 可在无 GPU 环境下运行基础功能，但渲染 3D 动画需要 GPU。\n*   **软件依赖**:\n    *   Anaconda (推荐)\n    *   Python 环境\n    *   GCC 版本建议 >= 5.0 (若版本过低需特殊处理，见安装步骤)\n\n## 安装步骤\n\n### 1. 创建 Conda 环境并安装基础依赖\n推荐使用 `environment.yml` 一键安装，或手动安装核心库。\n\n```bash\nconda env create -f environment.yml\n```\n\n**或者手动安装：**\n```bash\nconda install -c conda-forge scikit-image matplotlib opencv moviepy pyyaml tensorboardX\n```\n\n### 2. 安装 PyTorch\n注意：原代码基于 **PyTorch 1.2.0** 和 **CUDA 9.2** 测试。请确保版本匹配以避免兼容性问题。\n\n```bash\nconda install pytorch==1.2.0 torchvision==0.4.0 cudatoolkit=9.2 -c pytorch\n```\n> **国内加速提示**: 若下载缓慢，可使用清华源替换 `-c pytorch` 部分，例如添加 `-c https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fcloud\u002Fpytorch\u002F`。\n\n### 3. 安装 neural_renderer (核心组件)\n该组件用于渲染，必须依赖 GPU 版本的 PyTorch。\n\n**方式 A：直接 pip 安装 (需 GCC >= 5)**\n```bash\npip install neural_renderer_pytorch\n```\n\n**方式 B：源码编译 (适用于 GCC \u003C 5 的情况)**\n如果直接安装失败，请使用 Conda 提供的高版本 GCC 进行源码编译：\n```bash\nconda install gxx_linux-64=7.3\ngit clone https:\u002F\u002Fgithub.com\u002Fdaniilidis-group\u002Fneural_renderer.git\ncd neural_renderer\npython setup.py install\n```\n\n### 4. (可选) 安装人脸检测组件\n仅当您需要运行自动人脸检测演示时安装。\n\n```bash\npip install facenet-pytorch\n```\n\n## 基本使用\n\n### 1. 准备预训练模型\n下载针对 CelebA 数据集的预训练模型：\n\n```bash\ncd pretrained && sh download_pretrained_celeba.sh\n```\n\n### 2. 运行演示 (Demo)\n以下命令将对指定目录下的人脸图像进行 3D 重建演示：\n\n```bash\npython -m demo.demo --input demo\u002Fimages\u002Fhuman_face --result demo\u002Fresults\u002Fhuman_face --checkpoint pretrained\u002Fpretrained_celeba\u002Fcheckpoint030.pth\n```\n\n**常用参数说明：**\n*   `--gpu`: 启用 GPU 加速。\n*   `--detect_human_face`: 启用自动人脸检测与裁剪（需安装 `facenet-pytorch`，仅适用于人脸图像）。\n*   `--render_video`: 生成 3D 旋转动画视频（必须启用 GPU 且已安装 `neural_renderer`）。\n\n### 3. 训练与测试\n修改 `experiments\u002F` 目录下的配置文件后，使用以下命令启动训练：\n\n```bash\npython run.py --config experiments\u002Ftrain_celeba.yml --gpu 0 --num_workers 4\n```","一家专注于虚拟偶像生成的初创公司，希望从互联网海量单张人物照片中自动构建可驱动的 3D 面部模型，以快速丰富其角色库。\n\n### 没有 unsup3d 时\n- **数据标注成本极高**：团队必须人工采集同一人物的多角度照片或录制视频，甚至需要昂贵的专业 3D 扫描设备来获取真值数据。\n- **模型泛化能力受限**：传统监督学习严重依赖预定义的 3D 形变模型（如 3DMM），导致生成的角色表情僵硬，难以还原独特的个人特征。\n- **开发周期漫长**：为每个新角色准备训练数据和调整参数往往需要数周时间，无法应对快速迭代的内容需求。\n- **对称性处理困难**：面对非正面或遮挡的单张图像，算法难以推断被遮挡部分的几何结构，导致重建模型出现明显空洞或畸变。\n\n### 使用 unsup3d 后\n- **实现零样本训练**：unsup3d 直接利用网络爬取的单张“野生”图片进行无监督学习，完全无需 3D 真值、多视角图像或关键点标注。\n- **捕捉细腻个性特征**：通过概率对称形变机制，工具能自动从单图中恢复出具有高度对称性且细节丰富的 3D 形状，保留人物独特神态。\n- **大幅缩短上线时间**：从原始图片到可渲染的 3D 资产流程缩短至小时级，支持批量处理互联网公开数据集，显著提升产能。\n- **鲁棒的重建效果**：即使输入图像存在侧脸或轻微遮挡，unsup3d 也能基于对称先验智能补全几何结构，输出完整平滑的 3D 网格。\n\nunsup3d 的核心价值在于打破了 3D 重建对昂贵标注数据和复杂采集环境的依赖，让从单张普通照片生成高质量 3D 资产变得低成本且规模化。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Felliottwu_unsup3d_5258103c.jpg","elliottwu",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Felliottwu_50798d34.png","https:\u002F\u002Felliottwu.com","https:\u002F\u002Fgithub.com\u002Felliottwu",[78,82],{"name":79,"color":80,"percentage":81},"Python","#3572A5",97.9,{"name":83,"color":84,"percentage":85},"Shell","#89e051",2.1,1195,191,"2026-02-28T09:55:23","MIT",4,"Linux","训练和测试必需 NVIDIA GPU（因 neural_renderer 仅支持 GPU）；演示模式可不使用 GPU。官方测试环境为 CUDA 9.2。若自行编译 neural_renderer，需 GCC 5.0+ 或使用 conda 提供的 gxx_linux-64=7.3。","未说明",{"notes":95,"python":96,"dependencies":97},"1. 该代码在 CentOS 7、PyTorch 1.2.0 和 CUDA 9.2 环境下经过测试。2. 安装 neural_renderer 时，如果系统 GCC 版本低于 5.0 可能会失败，建议使用 conda 安装 gxx_linux-64=7.3 并从源码编译。3. 需要手动下载 CelebA、合成人脸、猫脸及合成汽车数据集，并运行脚本进行预处理。4. facenet-pytorch 为可选依赖，仅用于演示模式中的人脸自动检测与裁剪。","未说明 (通过 environment.yml 配置)",[98,99,100,101,102,103,104,105,106,107],"pytorch==1.2.0","torchvision==0.4.0","neural_renderer_pytorch","scikit-image","matplotlib","opencv","moviepy","pyyaml","tensorboardX","facenet-pytorch",[15,109,14],"其他",[111,112,113,114,115,116,117,118,119],"3d-objects","3d","3d-reconstuction","unsupervised","unsupervised-learning","cvpr","cvpr-2020","cvpr2020","pytorch","2026-03-27T02:49:30.150509","2026-04-17T09:54:53.009994",[123,128,133,138,143,148,153],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},36824,"训练结果与论文数据不符（SIDE\u002FMAD 指标较差），可能是什么原因？","这通常是由于 CUDA 版本不兼容导致的。作者和维护者确认该代码在 CUDA 11 下无法正常工作，存在函数精度问题。解决方案是将 CUDA 版本降级至 10.2。降级后，训练过程即可正常收敛并达到预期效果。","https:\u002F\u002Fgithub.com\u002Felliottwu\u002Funsup3d\u002Fissues\u002F15",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},36825,"如何获取汽车（Car）数据集的配置和预训练模型？","作者已发布合成汽车数据集（synthetic cars）的数据集和实验配置文件。如果您之前找不到相关代码或数据，请检查仓库的最新更新，因为这部分内容已经开源释放。","https:\u002F\u002Fgithub.com\u002Felliottwu\u002Funsup3d\u002Fissues\u002F8",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},36826,"在 512x512 高分辨率下渲染速度极慢（约 60 秒\u002F次），如何解决？","速度慢的原因是当前的深度图渲染方式是将深度图转换为网格（mesh），每四个相邻像素创建两个三角形。512x512 的分辨率会产生超过 50 万个三角形，效率极低。建议切换到更紧凑的表示方法（如直接使用网格），或者寻找方法来修剪（prune）三角形数量以适应高分辨率。","https:\u002F\u002Fgithub.com\u002Felliottwu\u002Funsup3d\u002Fissues\u002F37",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},36827,"下载 Syncar 数据集时遇到 403 Forbidden (Permission denied) 错误怎么办？","这是一个服务器端的权限配置问题。维护者已收到反馈并修复了该权限问题。如果遇到此错误，请稍后重试下载链接，现在应该可以正常访问。","https:\u002F\u002Fgithub.com\u002Felliottwu\u002Funsup3d\u002Fissues\u002F35",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},36828,"如何修改代码以支持更大的输入图像尺寸（如 128x128）？","直接修改配置文件中的 image_size 会导致张量维度不匹配错误（RuntimeError）。需要在 `unsup3d\u002Fnetwork.py` 的 Encoder 类中增加卷积层来适配更大的输入。例如，当 input_size=128 时，需在现有的卷积层基础上扩展网络结构，增加一层 `nn.Conv2d(nf*8, nf*8, kernel_size=4, stride=2, padding=1, bias=False)` 以正确处理从 128 到 1 的下采样过程。","https:\u002F\u002Fgithub.com\u002Felliottwu\u002Funsup3d\u002Fissues\u002F26",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},36829,"如何在没有 GPU 的环境（如 CPU 或 Mac）上运行演示代码？","原始的神经渲染器（neural_renderer）没有 CPU 实现，因此训练和测试代码通常需要 GPU。但是，推理过程在 CPU 上是实时的（25+ fps）。作者计划并发布了一个不使用 neural_renderer 的演示代码版本，该版本可以在 CPU 上运行。请查找仓库中专门用于 CPU 运行的 demo 代码。","https:\u002F\u002Fgithub.com\u002Felliottwu\u002Funsup3d\u002Fissues\u002F1",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},36830,"如何将神经渲染器（Neural Mesh Renderer）替换为 PyTorch3D？","用户已成功将渲染器替换为 PyTorch3D 的 MeshRenderer。关键步骤包括：重写 PyTorch3D 中的 `_PerspectiveCameras_` 类以消除 NMR 和 PyTorch3D 之间坐标系的不一致。如果在替换后遇到形状噪声过大导致网络无法学习合理人脸形状的问题，可以参考相关 Issue 中关于添加深度图平滑损失（smoothing loss）的讨论来解决。","https:\u002F\u002Fgithub.com\u002Felliottwu\u002Funsup3d\u002Fissues\u002F38",[]]