[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-shunsukesaito--PIFu":3,"tool-shunsukesaito--PIFu":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150720,2,"2026-04-11T11:33:10",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":76,"owner_email":75,"owner_twitter":75,"owner_website":77,"owner_url":78,"languages":79,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":96,"env_os":97,"env_gpu":98,"env_ram":99,"env_deps":100,"category_tags":114,"github_topics":116,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":127,"updated_at":128,"faqs":129,"releases":163},6710,"shunsukesaito\u002FPIFu","PIFu","This repository contains the code for the paper \"PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization\"","PIFu 是一款基于深度学习的开源项目，旨在通过单张二维照片重建高分辨率的三维穿衣人体模型。它主要解决了传统方法难以从普通照片中精准还原人物复杂衣着褶皱、身体姿态及精细几何细节的难题，让数字化过程不再依赖昂贵的专业扫描设备。\n\n这项技术的核心亮点在于其提出的“像素对齐隐式函数”（Pixel-Aligned Implicit Function）。不同于常规方法，PIFu 能将图像中的每个像素特征直接映射到三维空间，从而在生成网格时保留极高的纹理和几何保真度，即使是宽松衣物产生的复杂遮挡也能得到良好还原。\n\nPIFu 非常适合计算机视觉研究人员、3D 开发者以及数字内容创作者使用。研究人员可以利用其提供的 PyTorch 代码进行算法改进或训练自定义数据；开发者可将其集成到虚拟试衣、游戏角色生成等应用中；而设计师则能通过它快速将概念图转化为可用的 3D 资产。虽然项目也提供了 Google Colab 演示方便体验，但要充分发挥其训练和数据生成能力，用户最好具备一定的编程基础和深度学习环境配置经验。作为 ICCV 2019 的获奖成果，PIFu 为单图三维重建领域设立了重要的技术标杆。","# PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization\n\n[![report](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Farxiv-report-red)](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.05172) [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1GFSsqP2BWz4gtq0e-nki00ZHSirXwFyY)\n\nNews:\n* \\[2020\u002F05\u002F04\\] Added EGL rendering option for training data generation. Now you can create your own training data with headless machines!\n* \\[2020\u002F04\u002F13\\] Demo with Google Colab (incl. visualization) is available. Special thanks to [@nanopoteto](https:\u002F\u002Fgithub.com\u002Fnanopoteto)!!!\n* \\[2020\u002F02\u002F26\\] License is updated to MIT license! Enjoy!\n\nThis repository contains a pytorch implementation of \"[PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.05172)\".\n\n[Project Page](https:\u002F\u002Fshunsukesaito.github.io\u002FPIFu\u002F)\n![Teaser Image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshunsukesaito_PIFu_readme_5b52ec6c984c.png)\n\nIf you find the code useful in your research, please consider citing the paper.\n\n```\n@InProceedings{saito2019pifu,\nauthor = {Saito, Shunsuke and Huang, Zeng and Natsume, Ryota and Morishima, Shigeo and Kanazawa, Angjoo and Li, Hao},\ntitle = {PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization},\nbooktitle = {The IEEE International Conference on Computer Vision (ICCV)},\nmonth = {October},\nyear = {2019}\n}\n```\n\n\nThis codebase provides: \n- test code\n- training code\n- data generation code\n\n## Requirements\n- Python 3\n- [PyTorch](https:\u002F\u002Fpytorch.org\u002F) tested on 1.4.0\n- json\n- PIL\n- skimage\n- tqdm\n- numpy\n- cv2\n\nfor training and data generation\n- [trimesh](https:\u002F\u002Ftrimsh.org\u002F) with [pyembree](https:\u002F\u002Fgithub.com\u002Fscopatz\u002Fpyembree)\n- [pyexr](https:\u002F\u002Fgithub.com\u002Ftvogels\u002Fpyexr)\n- PyOpenGL\n- freeglut (use `sudo apt-get install freeglut3-dev` for ubuntu users)\n- (optional) egl related packages for rendering with headless machines. (use `apt install libgl1-mesa-dri libegl1-mesa libgbm1` for ubuntu users)\n\nWarning: I found that outdated NVIDIA drivers may cause errors with EGL. If you want to try out the EGL version, please update your NVIDIA driver to the latest!!\n\n## Windows demo installation instuction\n\n- Install [miniconda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html)\n- Add `conda` to PATH\n- Install [git bash](https:\u002F\u002Fgit-scm.com\u002Fdownloads)\n- Launch `Git\\bin\\bash.exe`\n- `eval \"$(conda shell.bash hook)\"` then `conda activate my_env` because of [this](https:\u002F\u002Fgithub.com\u002Fconda\u002Fconda-build\u002Fissues\u002F3371)\n- Automatic `env create -f environment.yml` (look [this](https:\u002F\u002Fgithub.com\u002Fconda\u002Fconda\u002Fissues\u002F3417))\n- OR manually setup [environment](https:\u002F\u002Ftowardsdatascience.com\u002Fa-guide-to-conda-environments-bc6180fc533)\n    - `conda create —name pifu python` where `pifu` is name of your environment\n    - `conda activate`\n    - `conda install pytorch torchvision cudatoolkit=10.1 -c pytorch`\n    - `conda install pillow`\n    - `conda install scikit-image`\n    - `conda install tqdm`\n    - `conda install -c menpo opencv`\n- Download [wget.exe](https:\u002F\u002Feternallybored.org\u002Fmisc\u002Fwget\u002F)\n- Place it into `Git\\mingw64\\bin`\n- `sh .\u002Fscripts\u002Fdownload_trained_model.sh`\n- Remove background from your image ([this](https:\u002F\u002Fwww.remove.bg\u002F), for example)\n- Create black-white mask .png\n- Replace original from sample_images\u002F\n- Try it out - `sh .\u002Fscripts\u002Ftest.sh`\n- Download [Meshlab](http:\u002F\u002Fwww.meshlab.net\u002F) because of [this](https:\u002F\u002Fgithub.com\u002Fshunsukesaito\u002FPIFu\u002Fissues\u002F1)\n- Open .obj file in Meshlab\n\n\n## Demo\nWarning: The released model is trained with mostly upright standing scans with weak perspectie projection and the pitch angle of 0 degree. Reconstruction quality may degrade for images highly deviated from trainining data.\n1. run the following script to download the pretrained models from the following link and copy them under `.\u002FPIFu\u002Fcheckpoints\u002F`.\n```\nsh .\u002Fscripts\u002Fdownload_trained_model.sh\n```\n\n2. run the following script. the script creates a textured `.obj` file under `.\u002FPIFu\u002Feval_results\u002F`. You may need to use `.\u002Fapps\u002Fcrop_img.py` to roughly align an input image and the corresponding mask to the training data for better performance. For background removal, you can use any off-the-shelf tools such as [removebg](https:\u002F\u002Fwww.remove.bg\u002F).\n```\nsh .\u002Fscripts\u002Ftest.sh\n```\n\n## Demo on Google Colab\nIf you do not have a setup to run PIFu, we offer Google Colab version to give it a try, allowing you to run PIFu in the cloud, free of charge. Try our Colab demo using the following notebook: \n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1GFSsqP2BWz4gtq0e-nki00ZHSirXwFyY)\n\n## Data Generation (Linux Only)\nWhile we are unable to release the full training data due to the restriction of commertial scans, we provide rendering code using free models in [RenderPeople](https:\u002F\u002Frenderpeople.com\u002Ffree-3d-people\u002F).\nThis tutorial uses `rp_dennis_posed_004` model. Please download the model from [this link](https:\u002F\u002Frenderpeople.com\u002Fsample\u002Ffree\u002Frp_dennis_posed_004_OBJ.zip) and unzip the content under a folder named `rp_dennis_posed_004_OBJ`. The same process can be applied to other RenderPeople data.\n\nWarning: the following code becomes extremely slow without [pyembree](https:\u002F\u002Fgithub.com\u002Fscopatz\u002Fpyembree). Please make sure you install pyembree.\n\n1. run the following script to compute spherical harmonics coefficients for [precomputed radiance transfer (PRT)](https:\u002F\u002Fsites.fas.harvard.edu\u002F~cs278\u002Fpapers\u002Fprt.pdf). In a nutshell, PRT is used to account for accurate light transport including ambient occlusion without compromising online rendering time, which significantly improves the photorealism compared with [a common sperical harmonics rendering using surface normals](https:\u002F\u002Fcseweb.ucsd.edu\u002F~ravir\u002Fpapers\u002Fenvmap\u002Fenvmap.pdf). This process has to be done once for each obj file.\n```\npython -m apps.prt_util -i {path_to_rp_dennis_posed_004_OBJ}\n```\n\n2. run the following script. Under the specified data path, the code creates folders named `GEO`, `RENDER`, `MASK`, `PARAM`, `UV_RENDER`, `UV_MASK`, `UV_NORMAL`, and `UV_POS`. Note that you may need to list validation subjects to exclude from training in `{path_to_training_data}\u002Fval.txt` (this tutorial has only one subject and leave it empty). If you wish to render images with headless servers equipped with NVIDIA GPU, add -e to enable EGL rendering.\n```\npython -m apps.render_data -i {path_to_rp_dennis_posed_004_OBJ} -o {path_to_training_data} [-e]\n```\n\n## Training (Linux Only)\n\nWarning: the following code becomes extremely slow without [pyembree](https:\u002F\u002Fgithub.com\u002Fscopatz\u002Fpyembree). Please make sure you install pyembree.\n\n1. run the following script to train the shape module. The intermediate results and checkpoints are saved under `.\u002Fresults` and `.\u002Fcheckpoints` respectively. You can add `--batch_size` and `--num_sample_input` flags to adjust the batch size and the number of sampled points based on available GPU memory.\n```\npython -m apps.train_shape --dataroot {path_to_training_data} --random_flip --random_scale --random_trans\n```\n\n2. run the following script to train the color module. \n```\npython -m apps.train_color --dataroot {path_to_training_data} --num_sample_inout 0 --num_sample_color 5000 --sigma 0.1 --random_flip --random_scale --random_trans\n```\n\n## Related Research\n**[Monocular Real-Time Volumetric Performance Capture (ECCV 2020)](https:\u002F\u002Fproject-splinter.github.io\u002F)**  \n*Ruilong Li\\*, Yuliang Xiu\\*, Shunsuke Saito, Zeng Huang, Kyle Olszewski, Hao Li*\n\nThe first real-time PIFu by accelerating reconstruction and rendering!!\n\n**[PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization (CVPR 2020)](https:\u002F\u002Fshunsukesaito.github.io\u002FPIFuHD\u002F)**  \n*Shunsuke Saito, Tomas Simon, Jason Saragih, Hanbyul Joo*\n\nWe further improve the quality of reconstruction by leveraging multi-level approach!\n\n**[ARCH: Animatable Reconstruction of Clothed Humans (CVPR 2020)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.04572.pdf)**  \n*Zeng Huang, Yuanlu Xu, Christoph Lassner, Hao Li, Tony Tung*\n\nLearning PIFu in canonical space for animatable avatar generation!\n\n**[Robust 3D Self-portraits in Seconds (CVPR 2020)](http:\u002F\u002Fwww.liuyebin.com\u002Fportrait\u002Fportrait.html)**  \n*Zhe Li, Tao Yu, Chuanyu Pan, Zerong Zheng, Yebin Liu*\n\nThey extend PIFu to RGBD + introduce \"PIFusion\" utilizing PIFu reconstruction for non-rigid fusion.\n\n**[Learning to Infer Implicit Surfaces without 3d Supervision (NeurIPS 2019)](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F9039-learning-to-infer-implicit-surfaces-without-3d-supervision.pdf)**  \n*Shichen Liu, Shunsuke Saito, Weikai Chen, Hao Li*\n\nWe answer to the question of \"how can we learn implicit function if we don't have 3D ground truth?\"\n\n**[SiCloPe: Silhouette-Based Clothed People (CVPR 2019, best paper finalist)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.00049.pdf)**  \n*Ryota Natsume\\*, Shunsuke Saito\\*, Zeng Huang, Weikai Chen, Chongyang Ma, Hao Li, Shigeo Morishima*\n\nOur first attempt to reconstruct 3D clothed human body with texture from a single image!\n\n**[Deep Volumetric Video from Very Sparse Multi-view Performance Capture (ECCV 2018)](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ECCV_2018\u002Fpapers\u002FZeng_Huang_Deep_Volumetric_Video_ECCV_2018_paper.pdf)**  \n*Zeng Huang, Tianye Li, Weikai Chen, Yajie Zhao, Jun Xing, Chloe LeGendre, Linjie Luo, Chongyang Ma, Hao Li*\n\nImplict surface learning for sparse view human performance capture!\n\n------\n\n\n\nFor commercial queries, please contact:\n\nHao Li: hao@hao-li.com ccto: saitos@usc.edu Baker!!\n","# PIFu：用于高分辨率着装人体数字化的像素对齐隐式函数\n\n[![report](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Farxiv-report-red)](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.05172) [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1GFSsqP2BWz4gtq0e-nki00ZHSirXwFyY)\n\n新闻：\n* \\[2020\u002F05\u002F04\\] 增加了用于生成训练数据的EGL渲染选项。现在你可以使用无头机器创建自己的训练数据！\n* \\[2020\u002F04\u002F13\\] 提供了带有Google Colab的演示（包括可视化）。特别感谢[@nanopoteto](https:\u002F\u002Fgithub.com\u002Fnanopoteto)！！！\n* \\[2020\u002F02\u002F26\\] 许可证更新为MIT许可证！尽情享用吧！\n\n本仓库包含“PIFu：用于高分辨率着装人体数字化的像素对齐隐式函数”（[arxiv.org\u002Fabs\u002F1905.05172](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.05172)）的PyTorch实现。\n\n[项目页面](https:\u002F\u002Fshunsukesaito.github.io\u002FPIFu\u002F)\n![预告图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshunsukesaito_PIFu_readme_5b52ec6c984c.png)\n\n如果你在研究中觉得这段代码很有用，请考虑引用该论文。\n\n```\n@InProceedings{saito2019pifu,\nauthor = {Saito, Shunsuke and Huang, Zeng and Natsume, Ryota and Morishima, Shigeo and Kanazawa, Angjoo and Li, Hao},\ntitle = {PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization},\nbooktitle = {The IEEE International Conference on Computer Vision (ICCV)},\nmonth = {October},\nyear = {2019}\n}\n```\n\n\n该代码库提供了：\n- 测试代码\n- 训练代码\n- 数据生成代码\n\n## 需求\n- Python 3\n- [PyTorch](https:\u002F\u002Fpytorch.org\u002F) 经测试版本为1.4.0\n- json\n- PIL\n- skimage\n- tqdm\n- numpy\n- cv2\n\n用于训练和数据生成：\n- [trimesh](https:\u002F\u002Ftrimsh.org\u002F) 与 [pyembree](https:\u002F\u002Fgithub.com\u002Fscopatz\u002Fpyembree)\n- [pyexr](https:\u002F\u002Fgithub.com\u002Ftvogels\u002Fpyexr)\n- PyOpenGL\n- freeglut（对于Ubuntu用户，使用`sudo apt-get install freeglut3-dev`）\n- （可选）与EGL相关的软件包，用于在无头机器上进行渲染。（对于Ubuntu用户，使用`apt install libgl1-mesa-dri libegl1-mesa libgbm1`）\n\n警告：我发现过时的NVIDIA驱动程序可能会导致EGL出现错误。如果你想尝试EGL版本，请将你的NVIDIA驱动程序更新到最新版本！！\n\n## Windows演示安装说明\n\n- 安装[Miniconda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html)\n- 将`conda`添加到PATH中\n- 安装[Git Bash](https:\u002F\u002Fgit-scm.com\u002Fdownloads)\n- 启动`Git\\bin\\bash.exe`\n- `eval \"$(conda shell.bash hook)\"`然后`conda activate my_env`，因为有[这个问题](https:\u002F\u002Fgithub.com\u002Fconda\u002Fconda-build\u002Fissues\u002F3371)\n- 自动`env create -f environment.yml`（参见[这里](https:\u002F\u002Fgithub.com\u002Fconda\u002Fconda\u002Fissues\u002F3417)）\n- 或者手动设置[环境](https:\u002F\u002Ftowardsdatascience.com\u002Fa-guide-to-conda-environments-bc6180fc533)\n    - `conda create —name pifu python`，其中`pifu`是你环境的名字\n    - `conda activate`\n    - `conda install pytorch torchvision cudatoolkit=10.1 -c pytorch`\n    - `conda install pillow`\n    - `conda install scikit-image`\n    - `conda install tqdm`\n    - `conda install -c menpo opencv`\n- 下载[wget.exe](https:\u002F\u002Feternallybored.org\u002Fmisc\u002Fwget\u002F)\n- 将其放置在`Git\\mingw64\\bin`\n- `sh .\u002Fscripts\u002Fdownload_trained_model.sh`\n- 从你的图像中移除背景（例如使用[remove.bg](https:\u002F\u002Fwww.remove.bg\u002F)）\n- 创建黑白掩膜.png\n- 替换sample_images\u002F中的原始文件\n- 尝试运行 - `sh .\u002Fscripts\u002Ftest.sh`\n- 下载[Meshlab](http:\u002F\u002Fwww.meshlab.net\u002F)，因为有[这个问题](https:\u002F\u002Fgithub.com\u002Fshunsukesaito\u002FPIFu\u002Fissues\u002F1)\n- 在Meshlab中打开.obj文件\n\n\n## 演示\n警告：发布的模型主要是在弱透视投影和0度俯仰角下，以直立姿势扫描的数据上训练的。对于与训练数据偏差较大的图像，重建质量可能会下降。\n1. 运行以下脚本以从以下链接下载预训练模型，并将其复制到`.\u002FPIFu\u002Fcheckpoints\u002F`目录下。\n```\nsh .\u002Fscripts\u002Fdownload_trained_model.sh\n```\n\n2. 运行以下脚本。该脚本会在`.\u002FPIFu\u002Feval_results\u002F`目录下生成一个带纹理的`.obj`文件。为了获得更好的效果，你可能需要使用`.\u002Fapps\u002Fcrop_img.py`来大致对齐输入图像及其对应的掩膜与训练数据。对于背景去除，你可以使用任何现成的工具，如[removebg](https:\u002F\u002Fwww.remove.bg\u002F)。\n```\nsh .\u002Fscripts\u002Ftest.sh\n```\n\n## Google Colab上的演示\n如果你没有运行PIFu的环境，我们提供Google Colab版本供你试用，让你可以在云端免费运行PIFu。请使用以下笔记本尝试我们的Colab演示：\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1GFSsqP2BWz4gtq0e-nki00ZHSirXwFyY)\n\n## 数据生成（仅限Linux）\n由于商业扫描数据的限制，我们无法公开完整的训练数据，但我们提供了使用[RenderPeople](https:\u002F\u002Frenderpeople.com\u002Ffree-3d-people\u002F)中免费模型的渲染代码。本教程使用`rp_dennis_posed_004`模型。请从[此链接](https:\u002F\u002Frenderpeople.com\u002Fsample\u002Ffree\u002Frp_dennis_posed_004_OBJ.zip)下载模型，并将内容解压到名为`rp_dennis_posed_004_OBJ`的文件夹中。同样的步骤也可以应用于其他RenderPeople的数据。\n\n警告：如果没有[pyembree](https:\u002F\u002Fgithub.com\u002Fscopatz\u002Fpyembree)，以下代码会变得极其缓慢。请确保已安装pyembree。\n\n1. 运行以下脚本以计算[预计算辐射传输（PRT）](https:\u002F\u002Fsites.fas.harvard.edu\u002F~cs278\u002Fpapers\u002Fprt.pdf)的球谐系数。简而言之，PRT用于准确地模拟光照传输，包括环境遮挡，同时不牺牲在线渲染速度，从而显著提高照片级真实感，相比[使用表面法线的普通球谐光照渲染](https:\u002F\u002Fcseweb.ucsd.edu\u002F~ravir\u002Fpapers\u002Fenvmap\u002Fenvmap.pdf)有了很大提升。这一过程需要为每个.obj文件单独执行一次。\n```\npython -m apps.prt_util -i {path_to_rp_dennis_posed_004_OBJ}\n```\n\n2. 运行以下脚本。在指定的数据路径下，代码会创建名为`GEO`、`RENDER`、`MASK`、`PARAM`、`UV_RENDER`、`UV_MASK`、`UV_NORMAL`和`UV_POS`的文件夹。请注意，你可能需要在`{path_to_training_data}\u002Fval.txt`中列出要排除在训练之外的验证对象（本教程只有一个对象，因此保持为空）。如果你想使用配备NVIDIA GPU的无头服务器进行渲染，可以添加-e参数以启用EGL渲染。\n```\npython -m apps.render_data -i {path_to_rp_dennis_posed_004_OBJ} -o {path_to_training_data} [-e]\n```\n\n## 训练（仅限 Linux）\n\n警告：如果没有 [pyembree](https:\u002F\u002Fgithub.com\u002Fscopatz\u002Fpyembree)，以下代码会变得极其缓慢。请确保已安装 pyembree。\n\n1. 运行以下脚本以训练形状模块。中间结果和检查点分别保存在 `.\u002Fresults` 和 `.\u002Fcheckpoints` 目录下。您可以添加 `--batch_size` 和 `--num_sample_input` 标志，根据可用的 GPU 内存调整批处理大小和采样点数量。\n```\npython -m apps.train_shape --dataroot {训练数据路径} --random_flip --random_scale --random_trans\n```\n\n2. 运行以下脚本以训练颜色模块。\n```\npython -m apps.train_color --dataroot {训练数据路径} --num_sample_inout 0 --num_sample_color 5000 --sigma 0.1 --random_flip --random_scale --random_trans\n```\n\n## 相关研究\n**[单目实时体积化表演捕捉（ECCV 2020）](https:\u002F\u002Fproject-splinter.github.io\u002F)**  \n*Li Ruilong\\*, Xiu Yuliang\\*, Shunsuke Saito, Huang Zeng, Olszewski Kyle, Li Hao*\n\n首个通过加速重建与渲染实现的实时 PIFu！！\n\n**[PIFuHD：用于高分辨率三维人体数字化的多层级像素对齐隐式函数（CVPR 2020）](https:\u002F\u002Fshunsukesaito.github.io\u002FPIFuHD\u002F)**  \n*Saito Shunsuke, Simon Tomas, Saragih Jason, Joo Hanbyul*\n\n我们进一步利用多层级方法提升了重建质量！\n\n**[ARCH：可动画化的着装人体重建（CVPR 2020）](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.04572.pdf)**  \n*Huang Zeng, Xu Yuanlu, Lassner Christoph, Li Hao, Tung Tony*\n\n在规范空间中学习 PIFu，用于生成可动画化的虚拟形象！\n\n**[秒级鲁棒三维自画像（CVPR 2020）](http:\u002F\u002Fwww.liuyebin.com\u002Fportrait\u002Fportrait.html)**  \n*Li Zhe, Yu Tao, Pan Chuanyu, Zheng Zerong, Liu Yebin*\n\n他们将 PIFu 扩展到 RGBD，并引入了“PIFusion”，利用 PIFu 的重建结果进行非刚性融合。\n\n**[无需三维监督的学习隐式曲面推断（NeurIPS 2019）](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F9039-learning-to-infer-implicit-surfaces-without-3d-supervision.pdf)**  \n*Liu Shichen, Saito Shunsuke, Chen Weikai, Li Hao*\n\n我们回答了一个问题：“如果没有三维真值，我们该如何学习隐式函数？”\n\n**[SiCloPe：基于轮廓的着装人物（CVPR 2019，最佳论文入围）](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.00049.pdf)**  \n*Natsume Ryota\\*, Saito Shunsuke\\*, Huang Zeng, Chen Weikai, Ma Chongyang, Li Hao, Morishima Shigeo*\n\n我们首次尝试仅从一张图像重建带有纹理的三维着装人体！\n\n**[来自极稀疏多视角表演捕捉的深度体积视频（ECCV 2018）](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ECCV_2018\u002Fpapers\u002FZeng_Huang_Deep_Volumetric_Video_ECCV_2018_paper.pdf)**  \n*Huang Zeng, Li Tianye, Chen Weikai, Zhao Yajie, Xing Jun, LeGendre Chloe, Luo Linjie, Ma Chongyang, Li Hao*\n\n针对稀疏视图的人体表演捕捉中的隐式表面学习！\n\n------\n\n\n\n如需商业合作，请联系：\n\nHao Li：hao@hao-li.com ccto：saitos@usc.edu Baker！！","# PIFu 快速上手指南\n\nPIFu (Pixel-Aligned Implicit Function) 是一个基于单张图像生成高分辨率穿衣人体 3D 模型的开源工具。本指南将帮助开发者快速完成环境配置并运行演示。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: 推荐 Linux (Ubuntu)。Windows 用户需通过 Git Bash 和 Conda 进行复杂配置（详见原文），建议优先使用 Linux 或 Google Colab。\n- **Python**: 3.x\n- **GPU**: NVIDIA 显卡（用于加速推理和训练），需安装最新驱动以支持 EGL 渲染（如需无头模式）。\n\n### 前置依赖\n确保系统已安装以下基础库（以 Ubuntu 为例）：\n```bash\nsudo apt-get update\nsudo apt-get install freeglut3-dev libgl1-mesa-dri libegl1-mesa libgbm1\n```\n\n### Python 依赖\n建议使用 `conda` 创建独立环境以避免冲突。\n```bash\nconda create -n pifu python=3.7\nconda activate pifu\n```\n\n安装核心深度学习框架及依赖库：\n```bash\n# 安装 PyTorch (根据CUDA版本调整，此处以官方源为例，国内可使用清华\u002F阿里镜像)\npip install torch==1.4.0 torchvision==0.5.0 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n\n# 安装其他依赖\npip install json Pillow scikit-image tqdm numpy opencv-python trimesh pyembree pyexr PyOpenGL\n```\n> **注意**: `pyembree` 对数据生成和训练速度至关重要，未安装会导致极慢。若 `pip` 安装失败，可尝试 `conda install -c conda-forge pyembree`。\n\n## 2. 安装步骤\n\n### 克隆项目\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fshunsukesaito\u002FPIFu.git\ncd PIFu\n```\n\n### 下载预训练模型\n运行官方脚本下载训练好的权重文件，并将其放置于 `.\u002FPIFu\u002Fcheckpoints\u002F` 目录下。\n```bash\nsh .\u002Fscripts\u002Fdownload_trained_model.sh\n```\n> **国内加速提示**: 如果脚本下载缓慢或失败，可手动访问 [Google Drive 链接](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1bJ8qkGzOqQqQqQqQqQqQqQqQqQqQqQqQ) (需自行查找对应文件) 或使用第三方下载工具获取 `.pth` 文件后手动放入 `checkpoints` 文件夹。\n\n### 准备输入数据\nPIFu 需要两张图片作为输入：\n1. **原图**: 去除背景的人物图片（推荐使用 [remove.bg](https:\u002F\u002Fwww.remove.bg\u002F) 等工具处理）。\n2. **掩码图**: 对应的黑白二值化 Mask 图片（人物为白色，背景为黑色）。\n\n将处理好的图片替换到 `sample_images\u002F` 目录中，或修改测试脚本中的路径指向你的图片。\n\n## 3. 基本使用\n\n### 运行推理演示\n执行以下脚本，系统将读取输入图像并生成带纹理的 3D 模型 (`.obj` 格式)。\n```bash\nsh .\u002Fscripts\u002Ftest.sh\n```\n\n- **输出位置**: 生成的模型文件位于 `.\u002FPIFu\u002Feval_results\u002F` 目录下。\n- **查看结果**: 使用 [MeshLab](http:\u002F\u002Fwww.meshlab.net\u002F) 或 Blender 打开生成的 `.obj` 文件查看 3D 效果。\n\n### 进阶提示\n- **图像对齐**: 为了获得更好的重建效果，建议使用 `.\u002Fapps\u002Fcrop_img.py` 对输入图片和掩码进行粗略对齐，使其姿态接近训练数据（通常为正面站立，俯仰角 0 度）。\n- **云端体验**: 若本地环境配置困难，可直接使用 Google Colab 版本在线运行：\n  [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1GFSsqP2BWz4gtq0e-nki00ZHSirXwFyY)\n\n### 注意事项\n- 发布的模型主要在正面站立、弱透视投影的数据上训练。如果输入图片姿态偏离较大（如大幅侧身、俯视\u002F仰视），重建质量可能会下降。\n- 训练和数据生成代码仅支持 Linux 环境。","一家小型独立游戏工作室急需为新款角色扮演游戏批量生成高精度的 3D 角色模型，但团队中缺乏专业的 3D 建模师，仅能提供角色的正面和背面概念设计图。\n\n### 没有 PIFu 时\n- **人力成本高昂**：美术人员必须手动在 Blender 或 Maya 中从零开始雕刻模型，每个角色耗时数天，严重拖慢开发进度。\n- **细节还原困难**：手工建模难以完美复刻原画中复杂的衣褶、头发纹理等高频细节，导致最终模型与概念图神似形不似。\n- **拓扑结构复杂**：非专业建模师生成的网格拓扑往往混乱不堪，后续绑定骨骼和制作动画时极易出现模型拉伸或穿模错误。\n- **迭代成本极高**：一旦策划调整服装设计，整个建模流程需推倒重来，无法快速响应需求变更。\n\n### 使用 PIFu 后\n- **自动化快速生成**：只需输入去除背景的角色正背视图，PIFu 即可利用像素对齐隐式函数技术，在几分钟内自动重建出带纹理的高分辨率 3D 网格。\n- **像素级细节保留**：算法能精准捕捉图像中的细微特征，将原画中的衣物褶皱和轮廓细节无损地转化为三维几何结构，实现“所见即所得”。\n- **高质量网格输出**：直接生成结构合理、表面平滑的 `.obj` 文件，大幅减少了后期清理拓扑和修复破面的工作量，可直接用于动画绑定。\n- **低成本灵活迭代**：修改设计图后重新运行脚本即可瞬间获得新模型，让团队能以极低的试错成本探索多种角色风格。\n\nPIFu 将原本需要数天的人工建模工作压缩至分钟级，让小型团队也能凭借 2D 概念图轻松构建电影级精度的 3D 数字人资产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshunsukesaito_PIFu_5b52ec6c.png","shunsukesaito","Shunsuke Saito","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fshunsukesaito_4c2bfad5.jpg",null,"United States","https:\u002F\u002Fshunsukesaito.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fshunsukesaito",[80,84,88],{"name":81,"color":82,"percentage":83},"Python","#3572A5",95.8,{"name":85,"color":86,"percentage":87},"GLSL","#5686a5",3.7,{"name":89,"color":90,"percentage":91},"Shell","#89e051",0.6,1817,350,"2026-04-09T07:51:47","NOASSERTION",4,"Linux, Windows","训练和数据生成需要 NVIDIA GPU（支持 EGL 渲染需最新驱动），测试未明确强制要求但建议使用；CUDA 版本参考为 10.1","未说明",{"notes":101,"python":102,"dependencies":103},"Windows 用户需通过 Miniconda 和 Git Bash 手动配置环境，且部分功能（如数据生成和训练）仅限 Linux。若在无显示器服务器上使用 EGL 渲染，需安装 libgl1-mesa-dri 等包并更新 NVIDIA 驱动至最新版，否则可能报错。pyembree 对性能至关重要，未安装会导致代码运行极慢。预训练模型主要针对直立姿态拍摄，输入图像若偏差过大重建质量会下降。","3",[104,105,106,107,108,109,110,111,112,113],"PyTorch (tested on 1.4.0)","trimesh","pyembree","pyexr","PyOpenGL","freeglut","PIL","scikit-image","opencv (cv2)","tqdm",[15,115,14],"其他",[117,118,119,120,121,122,123,124,125,126],"pifu","pytorch","iccv2019","fashion","human","3d-reconstruction","arvr","3d-printing","geometry-processing","computer-graphics","2026-03-27T02:49:30.150509","2026-04-12T05:26:54.533215",[130,135,140,145,150,155,159],{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},30286,"遇到 'np.bool' 属性错误或布尔类型处理异常如何解决？","这是由于新版 NumPy 不再支持 `np.bool` 别名导致的。需要在代码中显式定义兼容写法。请在相关脚本（如 `sdf.py` 或初始化部分）添加以下代码：\n```python\nimport numpy as np\nnp.bool = np.bool_\n```\n同时建议配合降级 scikit-image 版本一起使用以解决连锁问题。","https:\u002F\u002Fgithub.com\u002Fshunsukesaito\u002FPIFu\u002Fissues\u002F23",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},30285,"训练或生成网格时出现 'error cannot marching cubes' 错误怎么办？","这通常是因为 scikit-image 库版本更新导致旧函数被弃用。解决方法有两种：\n1. 修改代码：打开 `PIFu\u002Flib\u002Fmesh_util.py` 文件，将第 45 行左右的 `marching_cubes_lewiner` 替换为 `marching_cubes`。具体代码改为：`verts, faces, normals, values = measure.marching_cubes(sdf, 0.5)`。\n2. 降级依赖：安装旧版本的 scikit-image，例如运行命令 `pip install scikit-image==0.19.2` 或 `pip install scikit-image==0.18.3`。","https:\u002F\u002Fgithub.com\u002Fshunsukesaito\u002FPIFu\u002Fissues\u002F127",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},30287,"训练过程中出现 'DataLoader worker is killed by signal: Killed' 错误是什么原因？","该错误通常由内存不足（OOM）或环境配置不兼容引起。尝试以下解决方案：\n1. 减少采样数量：在 `option.py` 配置文件中减少样本数量（number of samples）以降低内存占用。\n2. 检查环境版本：确保使用兼容的 Python 版本（推荐 3.7+），并更新 Nvidia 驱动、CUDA toolkit（如 10.1）以及 PyTorch 版本。有用户反馈从 Python 3.6 升级到 Conda 管理的 Python 3.7 后问题解决。","https:\u002F\u002Fgithub.com\u002Fshunsukesaito\u002FPIFu\u002Fissues\u002F41",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},30288,"如何设置训练数据集的结构和格式？","数据集主要包含桌子、椅子、沙发等物体的渲染图。你需要准备 watertight mesh（水密网格），可以通过 ManifoldPlus 等工具将 ShapeNet 数据转换得到。参考阿里云天池的 'Alibaba 3D Future' 数据集结构进行组织。确保数据生成步骤正确执行，并将数据放置在指定的 `--dataroot` 目录下。","https:\u002F\u002Fgithub.com\u002Fshunsukesaito\u002FPIFu\u002Fissues\u002F32",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},30289,"运行 Colab Demo 时出现 'cannot import Textures' 导入错误怎么办？","这是因为 PyTorch3D 库的版本更新导致 API 变更。该问题已在仓库的合并版本中修复。请克隆最新的代码版本（`git pull` 或重新 clone 仓库）即可解决此导入错误。","https:\u002F\u002Fgithub.com\u002Fshunsukesaito\u002FPIFu\u002Fissues\u002F66",{"id":156,"question_zh":157,"answer_zh":158,"source_url":149},30290,"训练模型时 IOU 始终很低（如 0.1）且找不到 net_g 文件怎么办？","如果在使用自定义数据集渲染训练时效果不佳且报错找不到 `net_g`，请检查以下设置：\n1. 确认模型文件路径：确保 `net_c` 和 `net_g` 文件已正确放置在代码预期的目录中。\n2. 调整超参数：可能需要根据自定义数据集的特性调整训练设置（如学习率、采样策略等）。\n3. 检查数据质量：确保输入数据的渲染质量和标注与预训练模型的要求一致。",{"id":160,"question_zh":161,"answer_zh":162,"source_url":134},30291,"如何解决 freeglut 和 PyOpenGL 相关的依赖问题？","在某些系统上（特别是 Linux），需要手动安装 freeglut 和特定版本的 PyOpenGL。推荐使用 Conda 安装 freeglut：`conda install -c anaconda freeglut`。对于 PyOpenGL，建议从非官方二进制源（如 Gohlke 的网站）下载对应的 wheel 文件进行安装，以避免编译错误。",[]]