[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-menyifang--En3D":3,"tool-menyifang--En3D":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":107,"forks":108,"last_commit_at":109,"license":110,"difficulty_score":111,"env_os":112,"env_gpu":113,"env_ram":114,"env_deps":115,"category_tags":122,"github_topics":123,"view_count":10,"oss_zip_url":83,"oss_zip_packed_at":83,"status":22,"created_at":129,"updated_at":130,"faqs":131,"releases":132},3237,"menyifang\u002FEn3D","En3D","Official implementation of \"En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D Synthetic Data\", CVPR 2024; 3D Avatar Generation and Animation","En3D 是一款专为生成高质量 3D 人类角色而设计的开源人工智能模型，曾发表于计算机视觉顶级会议 CVPR 2024。它核心解决了传统 3D 角色制作门槛高、依赖昂贵动作捕捉设备或现有资产库的难题。En3D 的独特之处在于，它完全基于数百万合成的 2D 数据进行训练，无需任何预先存在的 3D 模型或真实 2D 素材，即可从零开始“雕刻”出逼真的 3D 数字人。\n\n用户只需输入简单的文本描述、一张参考图片，甚至是一个随机种子，En3D 就能自动生成结构完整、纹理细腻的 3D 虚拟形象（Avatar），并支持自动绑定骨骼和生成动画，直接输出兼容主流图形工作流的 FBX 格式文件。这一流程极大地简化了从创意到成品的路径。\n\n这款工具非常适合游戏开发者、影视特效师、3D 设计师以及从事数字人研究的科研人员使用，能帮助他们快速构建多样化的角色库；同时，其提供的在线演示和简易部署方式，也让对 3D 内容创作感兴趣的普通爱好者能够轻松体验前沿的生成式 AI 魅力。无论是需要批量生产资产的专业团队，还是希望探索个性化虚拟形象的创作者，En3D 都提供了一个高效且灵活的解决方案。","# En3D - Official PyTorch Implementation\n\n### [Project page](https:\u002F\u002Fmenyifang.github.io\u002Fprojects\u002FEn3D\u002Findex.html) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.01173) | [Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=YxMjaKgGdCc&t=5s) | [Online Demo](https:\u002F\u002Fmodelscope.cn\u002Fstudios\u002Falibaba_openvision_3dgen\u002FEn3D\u002Fsummary)\n\n**En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D Synthetic Data**\u003Cbr>\n[Yifang Men](https:\u002F\u002Fmenyifang.github.io\u002F), \n[Biwen Lei](mailto:biwen.lbw@alibaba-inc.com), \n[Yuan Yao](mailto:yaoy92@gmail.com), \n[Miaomiao Cui](mailto:miaomiao.cmm@alibaba-inc.com),\n[Zhouhui Lian](https:\u002F\u002Fwww.icst.pku.edu.cn\u002Fzlian\u002F),\n[Xuansong Xie](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=M0Ei1zkAAAAJ&hl=en)\u003Cbr>\nIn: CVPR 2024\n\n\nEn3D is a large 3D human generative model trained on millions of synthetic 2D data, independently of any pre-existing 3D or 2D assets. \nThis repo contains an implementation of En3D and provides a series of applications built upon it. In addition, this repo aims to be a useful creative tool to produce realistic 3D avatars from seeds, text prompts or images, and support automatic character animation FBX production. \nAll outputs are compatible with the modern graphics workflows. \n\n\n\n**Generative 3D humans**\u003Cbr> \n\nhttps:\u002F\u002Fgithub.com\u002Fmenyifang\u002FEn3D\u002Fassets\u002F47292223\u002F8b57a74d-6270-4b37-ae1e-ee2c0baad51d\n\n\n**Text guided synthesis**\u003Cbr> \n\n![demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmenyifang_En3D_readme_b86e25c34779.gif)\n\n\n**Image guided synthesis**\u003Cbr> \n\n![demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmenyifang_En3D_readme_b864f80eb0f8.gif)\n\nMore results can be found in [project page](https:\u002F\u002Fmenyifang.github.io\u002Fprojects\u002FEn3D\u002Findex.html).\n\n\n## Updates\n\n(2024-10-29) The code of avatar generation & animation are available.\n\n(2024-10-29) The pretrained weights are available from [Modelscope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Falibaba_openvision_3dgen\u002Fcv_en3d_3d_human_generation).\n\n(2024-01-15) ModelScope and HuggingFace Online demo is available! Try out [![ModelScope Spaces](\nhttps:\u002F\u002Fimg.shields.io\u002Fbadge\u002FModelScope-Spaces-blue)](https:\u002F\u002Fmodelscope.cn\u002Fstudios\u002Falibaba_openvision_3dgen\u002FEn3D\u002Fsummary) [![Hugging Face Spaces](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Spaces-blue)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fmenyifang\u002FEn3D). \n\n(2024-01-15) A Rigged & Animated 3D Human library (3DHuman-Syn) is released, containing ~1000 avatars produced by En3D for quick experience. Infinite avatars and actions support will be coming soon!\n\n(2024-01-03) The paper and video are released.\n\n\n## Web Demo\n\n- Integrated an online demo into [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fstudios\u002Falibaba_openvision_3dgen\u002FEn3D\u002Fsummary). Try out and have fun!\n\n- Integrated an online demo into [Huggingface Spaces 🤗](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fmenyifang\u002FEn3D). Try out and have fun!\n\n\n## Requirements\n\n* We recommend Linux for performance and compatibility reasons.\n* 1&ndash;8 high-end NVIDIA GPUs. We have done all testing and development using V100, RTX3090, and A100 GPUs.\n* 64-bit Python 3.8 and PyTorch 1.11.0 (or later). See https:\u002F\u002Fpytorch.org for PyTorch install instructions.\n* CUDA toolkit 11.3 or later. We used the custom CUDA extensions from the StyleGAN3 repo. Please see [Troubleshooting](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3\u002Fblob\u002Fmain\u002Fdocs\u002Ftroubleshooting.md#why-is-cuda-toolkit-installation-necessary)\n* Python libraries: see [requirements.txt](.\u002Frequirements.txt) for exact library dependencies.  You can use the following commands with Anaconda to create and activate your Python environment:\n  - `cd En3d`\n  - `conda create -n en3d python=3.8`\n  - `conda activate eg3d`\n  - `pip install -r requirements.txt`\n\n\n\n## Quick Start\n\n### WebUI usage\n[Recommended] A deployed [Online Demo](https:\u002F\u002Fmodelscope.cn\u002Fstudios\u002Falibaba_openvision_3dgen\u002FEn3D\u002Fsummary)\n\n![app](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmenyifang_En3D_readme_04e8e3c9c2fc.png)\n\n\nWith own machine, you can also deploy our demo as below, which provides flexible user interface. Both CPU\u002FGPU are supported for avatar animation, only GPU (>24G memory) is supported for avatar generation and render.\n\n```bash\npython app.py\n```\n\n### Synthetic avatar library\n\nWe released a Rigged & Animated 3D Human library (3DHuman-Syn), containing ~1000 characters produced by En3D, and 1000+ actions are provided for animation.\n\n- Avatar download and rendering\n```bash\npython render.py\n```\n\n- Avatar animation\n```bash\npython animation.py\n```\n\n\n- AR application \u003Ca href=\"https:\u002F\u002F3d-studio123.github.io\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOpen in-iphone-blue\" alt=\"google colab logo\">\u003C\u002Fa> \n\n\nConvert the generated animation file (.glb) to .usdz format using Sketchfab (upload glb and download usdz) or other tools, and insert the animated avatar to web with [model-viewer](https:\u002F\u002Fmodelviewer.dev\u002F).\n\n```bash\n\u003C!-- Import the component -->\n\u003Cscript type=\"module\" src=\"https:\u002F\u002Fajax.googleapis.com\u002Fajax\u002Flibs\u002Fmodel-viewer\u002F3.3.0\u002Fmodel-viewer.min.js\">\u003C\u002Fscript>\n\n\u003C!-- Use it like any other HTML element -->\n\u003Cmodel-viewer src=\"assets\u002Fhuman.glb\" camera-controls ar shadow-intensity=\"1\" ios-src=\"assets\u002Fhuman.usdz\">\u003C\u002Fmodel-viewer>\n\n```\nAR function is only supported with iPhone, try the [AR example](https:\u002F\u002F3d-studio123.github.io\u002F) in the phone browser and click the right-down icon for AR experience.\n\n\n\n## Avatar Generation\n\n### Download\n- Download the whole `models` folder from the [link](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Falibaba_openvision_3dgen\u002Fcv_en3d_3d_human_generation\u002Ffiles) and put it under the root dir.\n\n```bash\npython download_models.py\n```\n\n### Generate 360 renderings\n    \n```bash\nbash run_seed_pretrained.sh\n```\n\n### Text guided synthesis\n```bash\nbash run_text_synthesis.sh\n```\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7ca89be8-9f5c-410d-9168-9f241778a197\n\n\n### Image guided synthesis\nRepose the human image to canonical A-pose first, and then using the following command to generate the 3D avatar.\n```bash\nbash run_img_synthesis.sh\n```\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F10ddc739-3ed5-4875-a6d0-908c8dbfcb31\n\n\n## Avatar Animation\nAuto-rig and animation for the generated 3D avatar\n```bash\nbash run_animate.sh\n```\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F581089a4-971d-4431-a272-e9663fe5bad5\n\n\n\n## Acknowledgments\n\nHere are some great resources we benefit from:\n\n- [Multiview-Avatar](https:\u002F\u002Fgithub.com\u002FArcherFMY\u002FMultiview-Avatar) for 2D avatar synthesis\n- [EG3D](https:\u002F\u002Fnvlabs.github.io\u002Feg3d\u002F) for the general 3D GAN structure and 3D representation\n- [Fantasia3D](https:\u002F\u002Fgithub.com\u002FGorilla-Lab-SCUT\u002FFantasia3D) for DMTET optimization \n- [ICON](https:\u002F\u002Fgithub.com\u002FYuliangXiu\u002FICON) for normal estimation\n\n\n## Citation\n\nIf you find this code useful for your research, please use the following BibTeX entry.\n\n```bibtex\n@inproceedings{men2024en3d,\n  title={En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D Synthetic Data},\n  author={Men, Yifang and Lei, Biwen and Yao, Yuan and Cui, Miaomiao and Lian, Zhouhui and Xie, Xuansong},\n  journal={arXiv preprint arXiv:2401.01173},\n  website={https:\u002F\u002Fmenyifang.github.io\u002Fprojects\u002FEn3D\u002Findex.html},\n  year={2024}}\n```\n","# En3D - 官方 PyTorch 实现\n\n### [项目页面](https:\u002F\u002Fmenyifang.github.io\u002Fprojects\u002FEn3D\u002Findex.html) | [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.01173) | [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=YxMjaKgGdCc&t=5s) | [在线演示](https:\u002F\u002Fmodelscope.cn\u002Fstudios\u002Falibaba_openvision_3dgen\u002FEn3D\u002Fsummary)\n\n**En3D：一种基于 2D 合成数据生成 3D 人体的增强型生成模型**\u003Cbr>\n[门一芳](https:\u002F\u002Fmenyifang.github.io\u002F)、\n[雷碧雯](mailto:biwen.lbw@alibaba-inc.com)、\n[姚远](mailto:yaoy92@gmail.com)、\n[崔妙妙](mailto:miaomiao.cmm@alibaba-inc.com)、\n[连周辉](https:\u002F\u002Fwww.icst.pku.edu.cn\u002Fzlian\u002F)、\n[谢宣松](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=M0Ei1zkAAAAJ&hl=en)\u003Cbr>\n收录于：CVPR 2024\n\n\nEn3D 是一个大型 3D 人体生成模型，基于数百万张合成 2D 数据进行训练，完全不依赖任何现有的 3D 或 2D 资产。  \n本仓库包含 En3D 的实现，并提供了一系列基于该模型的应用。此外，本仓库旨在成为一个实用的创作工具，能够根据种子、文本提示或图像生成逼真的 3D 头像，并支持自动生成角色动画的 FBX 文件。所有输出均兼容现代图形工作流程。\n\n\n\n**生成式 3D 人像**\u003Cbr> \n\nhttps:\u002F\u002Fgithub.com\u002Fmenyifang\u002FEn3D\u002Fassets\u002F47292223\u002F8b57a74d-6270-4b37-ae1e-ee2c0baad51d\n\n\n**文本引导合成**\u003Cbr> \n\n![demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmenyifang_En3D_readme_b86e25c34779.gif)\n\n\n**图像引导合成**\u003Cbr> \n\n![demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmenyifang_En3D_readme_b864f80eb0f8.gif)\n\n更多结果请参见 [项目页面](https:\u002F\u002Fmenyifang.github.io\u002Fprojects\u002FEn3D\u002Findex.html)。\n\n\n## 更新\n\n(2024-10-29) 头像生成与动画代码现已开放。\n\n(2024-10-29) 预训练权重已通过 [Modelscope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Falibaba_openvision_3dgen\u002Fcv_en3d_3d_human_generation) 提供。\n\n(2024-01-15) ModelScope 和 HuggingFace 在线演示已上线！快来体验吧！[![ModelScope Spaces](\nhttps:\u002F\u002Fimg.shields.io\u002Fbadge\u002FModelScope-Spaces-blue)](https:\u002F\u002Fmodelscope.cn\u002Fstudios\u002Falibaba_openvision_3dgen\u002FEn3D\u002Fsummary) [![Hugging Face Spaces](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Spaces-blue)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fmenyifang\u002FEn3D)。\n\n(2024-01-15) 我们发布了一个带绑定和动画的 3D 人类库 (3DHuman-Syn)，其中包含约 1000 个由 En3D 生成的头像，供用户快速体验。未来还将提供更多无限的头像和动作！\n\n(2024-01-03) 论文和视频正式发布。\n\n\n## 网页演示\n\n- 已将在线演示集成到 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fstudios\u002Falibaba_openvision_3dgen\u002FEn3D\u002Fsummary) 中。快来试用并享受乐趣吧！\n\n- 已将在线演示集成到 [Huggingface Spaces 🤗](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fmenyifang\u002FEn3D) 中。快来试用并享受乐趣吧！\n\n\n## 环境要求\n\n* 为获得最佳性能和兼容性，我们建议使用 Linux 系统。\n* 1–8 张高端 NVIDIA 显卡。我们的所有测试和开发均在 V100、RTX3090 和 A100 显卡上完成。\n* 64 位 Python 3.8 和 PyTorch 1.11.0（或更高版本）。PyTorch 的安装说明请参阅 https:\u002F\u002Fpytorch.org。\n* CUDA 工具包 11.3 或更高版本。我们使用了 StyleGAN3 仓库中的自定义 CUDA 扩展。详情请参阅 [故障排除](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3\u002Fblob\u002Fmain\u002Fdocs\u002Ftroubleshooting.md#why-is-cuda-toolkit-installation-necessary)。\n* Python 库：具体依赖库请参阅 [requirements.txt](.\u002Frequirements.txt)。您可以使用以下命令通过 Anaconda 创建并激活您的 Python 环境：\n  - `cd En3d`\n  - `conda create -n en3d python=3.8`\n  - `conda activate eg3d`\n  - `pip install -r requirements.txt`\n\n\n\n## 快速入门\n\n### WebUI 使用\n[推荐] 部署好的 [在线演示](https:\u002F\u002Fmodelscope.cn\u002Fstudios\u002Falibaba_openvision_3dgen\u002FEn3D\u002Fsummary)\n\n![app](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmenyifang_En3D_readme_04e8e3c9c2fc.png)\n\n\n如果您有自己的机器，也可以按照以下方式部署我们的演示程序，它提供了灵活的用户界面。头像动画支持 CPU\u002FGPU，而头像生成和渲染仅支持 GPU（显存需大于 24GB）。\n\n```bash\npython app.py\n```\n\n### 合成头像库\n\n我们发布了一个带绑定和动画的 3D 人类库 (3DHuman-Syn)，其中包含约 1000 个由 En3D 生成的角色，并提供了 1000 多种动作用于动画制作。\n\n- 头像下载与渲染\n```bash\npython render.py\n```\n\n- 头像动画\n```bash\npython animation.py\n```\n\n\n- AR 应用 \u003Ca href=\"https:\u002F\u002F3d-studio123.github.io\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOpen in-iphone-blue\" alt=\"google colab logo\">\u003C\u002Fa> \n\n\n将生成的动画文件 (.glb) 使用 Sketchfab（上传 glb 并下载 usdz）或其他工具转换为 .usdz 格式，然后使用 [model-viewer](https:\u002F\u002Fmodelviewer.dev\u002F) 将动画头像插入网页中。\n\n```bash\n\u003C!-- 导入组件 -->\n\u003Cscript type=\"module\" src=\"https:\u002F\u002Fajax.googleapis.com\u002Fajax\u002Flibs\u002Fmodel-viewer\u002F3.3.0\u002Fmodel-viewer.min.js\">\u003C\u002Fscript>\n\n\u003C!-- 像其他 HTML 元素一样使用 -->\n\u003Cmodel-viewer src=\"assets\u002Fhuman.glb\" camera-controls ar shadow-intensity=\"1\" ios-src=\"assets\u002Fhuman.usdz\">\u003C\u002Fmodel-viewer>\n\n```\nAR 功能仅支持 iPhone，请在手机浏览器中打开 [AR 示例](https:\u002F\u002F3d-studio123.github.io\u002F)，点击右下角图标即可体验 AR 效果。\n\n\n\n## 头像生成\n\n### 下载\n- 从 [链接](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Falibaba_openvision_3dgen\u002Fcv_en3d_3d_human_generation\u002Ffiles) 下载完整的 `models` 文件夹，并将其放置在根目录下。\n\n```bash\npython download_models.py\n```\n\n### 生成 360° 渲染图\n    \n```bash\nbash run_seed_pretrained.sh\n```\n\n### 文本引导合成\n```bash\nbash run_text_synthesis.sh\n```\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7ca89be8-9f5c-410d-9168-9f241778a197\n\n\n### 图像引导合成\n首先将人物图像调整为标准的 A 字形姿势，然后使用以下命令生成 3D 头像。\n```bash\nbash run_img_synthesis.sh\n```\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F10ddc739-3ed5-4875-a6d0-908c8dbfcb31\n\n\n## 头像动画\n为生成的 3D 头像自动绑定骨骼并制作动画\n```bash\nbash run_animate.sh\n```\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F581089a4-971d-4431-a272-e9663fe5bad5\n\n\n\n## 致谢\n\n我们受益匪浅的优秀资源包括：\n\n- [Multiview-Avatar](https:\u002F\u002Fgithub.com\u002FArcherFMY\u002FMultiview-Avatar) 用于 2D 头像合成\n- [EG3D](https:\u002F\u002Fnvlabs.github.io\u002Feg3d\u002F) 提供通用的 3D GAN 结构和 3D 表示方法\n- [Fantasia3D](https:\u002F\u002Fgithub.com\u002FGorilla-Lab-SCUT\u002FFantasia3D) 用于 DMTET 优化\n- [ICON](https:\u002F\u002Fgithub.com\u002FYuliangXiu\u002FICON) 用于法线估计\n\n\n## 引用\n\n如果您觉得此代码对您的研究有所帮助，请使用以下 BibTeX 条目。\n\n```bibtex\n@inproceedings{men2024en3d,\n  title={En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D Synthetic Data},\n  author={Men, Yifang and Lei, Biwen and Yao, Yuan and Cui, Miaomiao and Lian, Zhouhui and Xie, Xuansong},\n  journal={arXiv preprint arXiv:2401.01173},\n  website={https:\u002F\u002Fmenyifang.github.io\u002Fprojects\u002FEn3D\u002Findex.html},\n  year={2024}}\n```","# En3D 快速上手指南\n\nEn3D 是一个基于数百万合成 2D 数据训练的大型 3D 人生成模型，支持从种子、文本提示或图像生成逼真的 3D 虚拟人，并自动产出可动画化的 FBX 文件。\n\n## 环境准备\n\n**系统要求：**\n*   **操作系统**：推荐 Linux（以获得最佳性能和兼容性）。\n*   **GPU**：1-8 张高端 NVIDIA 显卡（已在 V100, RTX3090, A100 上测试）。\n    *   *注意*：虚拟人生成和渲染仅支持显存 >24G 的 GPU；虚拟人动画支持 CPU\u002FGPU。\n*   **Python**：64-bit Python 3.8。\n*   **PyTorch**：1.11.0 或更高版本。\n*   **CUDA**：CUDA Toolkit 11.3 或更高版本。\n\n**前置依赖：**\n请确保已安装 Anaconda 以便管理环境。\n\n## 安装步骤\n\n1.  **克隆仓库并进入目录**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fmenyifang\u002FEn3D.git\n    cd En3D\n    ```\n\n2.  **创建并激活 Conda 环境**\n    ```bash\n    conda create -n en3d python=3.8\n    conda activate en3d\n    ```\n    *(注：原文 README 中激活命令误写为 `eg3d`，此处已修正为 `en3d` 以匹配创建的环境名)*\n\n3.  **安装依赖库**\n    ```bash\n    pip install -r requirements.txt\n    ```\n    *(国内用户建议使用清华源加速安装：`pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`)*\n\n4.  **下载预训练模型**\n    项目权重托管在 ModelScope（魔搭社区），国内访问速度更快。\n    \n    方式一：使用脚本自动下载\n    ```bash\n    python download_models.py\n    ```\n    \n    方式二：手动下载\n    从 [ModelScope 模型页](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Falibaba_openvision_3dgen\u002Fcv_en3d_3d_human_generation\u002Ffiles) 下载整个 `models` 文件夹，并将其放置在项目根目录下。\n\n## 基本使用\n\n### 方式一：使用 WebUI（推荐新手）\n本地部署交互式界面，支持虚拟人生成与动画制作。\n```bash\npython app.py\n```\n启动后在浏览器访问显示的地址即可操作。\n\n### 方式二：命令行快速生成\n\n**1. 基于随机种子生成 360 度渲染图**\n```bash\nbash run_seed_pretrained.sh\n```\n\n**2. 基于文本提示生成 (Text-guided)**\n```bash\nbash run_text_synthesis.sh\n```\n\n**3. 基于图像生成 (Image-guided)**\n*注意：输入图像需先调整为标准的 A-pose（双臂平举）姿态。*\n```bash\nbash run_img_synthesis.sh\n```\n\n**4. 生成带动画的虚拟人**\n对生成的 3D 模型进行自动绑定骨骼并制作动画。\n```bash\nbash run_animate.sh\n```\n\n### 进阶：使用预设虚拟人库\n项目发布了包含约 1000 个角色和 1000+ 动作的 `3DHuman-Syn` 库。\n\n*   **渲染预设角色**：\n    ```bash\n    python render.py\n    ```\n*   **制作预设角色动画**：\n    ```bash\n    python animation.py\n    ```\n\n生成的 `.glb` 文件可直接用于现代图形工作流。若需在 iOS AR 中使用，可将其转换为 `.usdz` 格式并通过 `\u003Cmodel-viewer>` 标签嵌入网页。","某独立游戏开发团队正在为一款奇幻 RPG 制作大量具有独特外观的 NPC 角色，并需要它们具备标准的骨骼动画以适配游戏引擎。\n\n### 没有 En3D 时\n- **建模成本高昂**：美术人员需使用 Blender 或 Maya 从零雕刻每个角色的 3D 模型，单个高保真人类角色耗时数天。\n- **绑定流程繁琐**：模型完成后需手动进行骨骼绑定（Rigging）和权重绘制，极易出现关节变形错误，反复调试耗费大量精力。\n- **风格难以统一**：不同美术师制作的角色在拓扑结构和画风上存在差异，导致游戏内角色群体视觉不一致。\n- **动画资源匮乏**：缺乏现成的动作库，需单独购买或制作动画片段，再逐一匹配到新角色上，工作流断裂且低效。\n- **创意迭代缓慢**：策划提出“增加 50 个不同外貌的村民”需求时，团队因产能限制只能大幅简化模型精度，牺牲视觉效果。\n\n### 使用 En3D 后\n- **生成效率飞跃**：通过输入文本提示词（如“穿着破旧斗篷的老法师”），En3D 能在几分钟内直接生成高质量、拓扑规范的 3D 人类模型。\n- **自动绑定动画**：工具内置自动化流程，生成的模型自带标准骨骼绑定，并可直接输出带动画的 FBX 文件，无需人工干预。\n- **数据驱动一致性**：基于数百万合成数据训练，En3D 生成的所有角色天然保持统一的几何标准和画风，完美契合项目需求。\n- **工作流无缝衔接**：输出的资产完全兼容现代图形工作流，可直接导入 Unity 或 Unreal 引擎，实现了从创意到可玩资产的闭环。\n- **无限创意扩展**：面对批量角色需求，团队只需调整种子或提示词即可快速产出数百个差异化角色，让策划的创意得以完整落地。\n\nEn3D 将原本需要数周的传统 3D 角色生产流程压缩至小时级，真正实现了低成本、高质量的 3D 人类资产规模化生成。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmenyifang_En3D_b864f80e.gif","menyifang","Men Yifang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmenyifang_47836576.jpg","Research @ Alibaba TongYi Lab","Alibaba Group","Beijing","yifangmen@pku.edu.cn",null,"https:\u002F\u002Fmenyifang.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fmenyifang",[87,91,95,99,103],{"name":88,"color":89,"percentage":90},"Python","#3572A5",75.2,{"name":92,"color":93,"percentage":94},"Cuda","#3A4E3A",15.4,{"name":96,"color":97,"percentage":98},"C++","#f34b7d",7.5,{"name":100,"color":101,"percentage":102},"C","#555555",1.5,{"name":104,"color":105,"percentage":106},"Shell","#89e051",0.5,536,42,"2026-03-29T06:24:24","Apache-2.0",4,"Linux","必需，1-8 张高端 NVIDIA GPU（测试使用 V100, RTX3090, A100）；生成和渲染需显存>24GB，动画支持 CPU\u002FGPU","未说明",{"notes":116,"python":117,"dependencies":118},"推荐使用 Linux 系统以获得最佳性能和兼容性。需要安装 CUDA Toolkit 11.3 或更高版本以支持自定义 CUDA 扩展（源自 StyleGAN3）。Avatar 生成和渲染必须使用显存大于 24GB 的 GPU，而 Avatar 动画功能支持 CPU 或 GPU 运行。建议使用 Conda 创建虚拟环境并安装依赖。","3.8",[119,120,121],"torch>=1.11.0","cuda-toolkit>=11.3","requirements.txt 中列出的库",[15,18],[124,125,126,127,128],"3d-aigc","3d-generation","avatar-generation","character-animation","metavase","2026-03-27T02:49:30.150509","2026-04-06T08:40:43.622436",[],[]]