[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-USTC3DV--NDR-code":3,"tool-USTC3DV--NDR-code":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75666,"2026-04-15T23:15:07",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":106,"env_os":107,"env_gpu":108,"env_ram":109,"env_deps":110,"category_tags":120,"github_topics":82,"view_count":10,"oss_zip_url":82,"oss_zip_packed_at":82,"status":22,"created_at":121,"updated_at":122,"faqs":123,"releases":164},7883,"USTC3DV\u002FNDR-code","NDR-code","【NeurIPS 2022 Spotlight】Neural Surface Reconstruction of Dynamic Scenes with Monocular RGB-D Camera","NDR-code 是一款基于神经网络的动态场景三维重建工具，曾入选 NeurIPS 2022 Spotlight。它旨在解决传统方法难以从单目 RGB-D 相机数据中高质量还原动态物体几何结构、运动轨迹及外观纹理的难题。与依赖预定义模板的技术不同，NDR-code 采用“无模板”策略，能够灵活处理各类非刚性形变场景，如人体动作或变形物体，从而恢复出高保真的三维模型。\n\n该工具主要面向计算机视觉领域的研究人员、算法开发者以及从事三维内容生成的工程师。用户只需提供单目相机拍摄的彩色图像与深度图序列，即可通过训练神经网络生成精确的动态三维场景。其核心技术亮点在于巧妙结合了神经隐式表面表示与动态形变建模，无需预先知道物体的拓扑结构即可实现端到端的重建。此外，项目提供了完整的数据预处理、训练评估及几何渲染代码，并兼容 KillingFusion 等主流数据集，便于学术界复现论文成果或进行二次开发。对于希望探索动态场景理解与重建技术的专业人士而言，NDR-code 是一个极具参考价值的开源基线。","\u003Cp align=\"center\">\n\n  \u003Ch1 align=\"center\">Neural Surface Reconstruction of Dynamic Scenes with Monocular RGB-D Camera\u003C\u002Fh1>\n  \u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Frainbowrui.github.io\u002F\">Hongrui Cai\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fwanquanf.github.io\u002F\">Wanquan Feng\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=5G-2EFcAAAAJ\">Xuetao Feng\u003C\u002Fa>\n    ·\n    Yan Wang\n    ·\n    \u003Ca href=\"http:\u002F\u002Fstaff.ustc.edu.cn\u002F~juyong\u002F\">Juyong Zhang\u003C\u002Fa>\n\n  \u003C\u002Fp>\n  \u003Ch2 align=\"center\">NeurIPS 2022 (Spotlight)\u003C\u002Fh2>\n  \u003Ch3 align=\"center\">\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2206.15258.pdf\">Paper\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fustc3dv.github.io\u002Fndr\u002F\">Project Page\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fopenreview.net\u002Fforum?id=8RKJj1YDBJT\">OpenReview\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Frainbowrui.github.io\u002Fdata\u002FNDR_poster.pdf\">Poster\u003C\u002Fa>\u003C\u002Fh3>\n  \u003Cdiv align=\"center\">\u003C\u002Fdiv>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUSTC3DV_NDR-code_readme_4fb1db622b1d.gif\" alt=\"Logo\" width=\"90%\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUSTC3DV_NDR-code_readme_0c33a1aceb1a.png\" alt=\"Logo\" width=\"80%\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\nWe propose Neural-DynamicReconstruction (NDR), a \u003Cb>template-free\u003C\u002Fb> method to recover high-fidelity geometry, motions and appearance of a \u003Cb>dynamic\u003C\u002Fb> scene from a \u003Cb>monocular\u003C\u002Fb> RGB-D camera.\n\u003C\u002Fp>\n\u003Cbr>\n\n\n\n## Usage\n\n### Data Convention\nThe data is organized as [NeuS](https:\u002F\u002Fgithub.com\u002FTotoro97\u002FNeuS#data-convention)\n\n```\n\u003Ccase_name>\n|-- cameras_sphere.npz    # camera parameters\n|-- depth\n    |-- # target depth for each view\n    ...\n|-- image\n    |-- # target RGB each view\n    ...\n|-- mask\n    |-- # target mask each view (For unmasked setting, set all pixels as 255)\n    ...\n```\n\nHere `cameras_sphere.npz` follows the data format in [IDR](https:\u002F\u002Fgithub.com\u002Flioryariv\u002Fidr\u002Fblob\u002Fmain\u002FDATA_CONVENTION.md), where `world_mat_xx` denotes the world-to-image projection matrix, and `scale_mat_xx` denotes the normalization matrix.\n\n### Pre-processed Data\nYou can download a part of pre-processed [KillingFusion](https:\u002F\u002Fcampar.in.tum.de\u002Fpersonal\u002Fslavcheva\u002Fdeformable-dataset\u002Findex.html) data [here](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1wQ4yB7r-a8sFkwB6bEJIDp14AhjG8g_B\u002Fview?usp=sharing) and unzip it into `.\u002F`.\n\n\u003Cb>\u003Ci>Important Tips:\u003C\u002Fi>\u003C\u002Fb> If the pre-processed data is useful, please cite the related paper(s) and strictly abide by related open-source license(s).\n\n### Setup\nClone this repository and create the environment (please notice CUDA version)\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002FUSTC3DV\u002FNDR-code.git\ncd NDR-code\nconda env create -f environment.yml\nconda activate ndr\n```\n\n\u003Cdetails>\n  \u003Csummary> Dependencies (click to expand) \u003C\u002Fsummary>\n\n  - torch==1.8.0\n  - opencv_python==4.5.2.52\n  - trimesh==3.9.8 \n  - numpy==1.21.2\n  - scipy==1.7.0\n  - PyMCubes==0.1.2\n\n\u003C\u002Fdetails>\n\n### Running\n- **Training**\n```shell\npython train_eval.py\n```\n\n- **Evaluating pre-trained model**\n```shell\npython pretrained_eval.py\n```\n\n### Data Pre-processing\nTo prepare your own data for experiments, please refer to [pose initialization](.\u002Fpose_initialization\u002FREADME.md).\n\n### Geometric Projection\n- **Compiling renderer**\n```shell\ncd renderer && bash build.sh && cd ..\n```\n\n- **Rendering meshes**\n\nInput path of original data, path of results, and iteration number, e.g.\n```shell\npython geo_render.py .\u002Fdatasets\u002Fkfusion_frog\u002F .\u002Fexp\u002Fkfusion_frog\u002Fresult\u002F 120000\n```\nThe rendered results will be put in dir ```[path_of_results]\u002Fvalidations_geo\u002F```\n\n\n## Todo List\n- [x] Configure Files for [DeepDeform](https:\u002F\u002Fgithub.com\u002FAljazBozic\u002FDeepDeform) Human Sequences and [KillingFusion](https:\u002F\u002Fcampar.in.tum.de\u002Fpersonal\u002Fslavcheva\u002Fdeformable-dataset\u002Findex.html)\n- [x] Code of Data Pre-processing\n- [x] Code of Geometric Projection\n- [x] Pre-trained Models and Evaluation Code\n- [x] Training Code\n\n\n\n## Acknowledgements\nThis project is built upon [NeuS](https:\u002F\u002Fgithub.com\u002FTotoro97\u002FNeuS). Some code snippets are also borrowed from [IDR](https:\u002F\u002Fgithub.com\u002Flioryariv\u002Fidr) and [NeRF-pytorch](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch). The pre-processing code for camera pose initialization is borrowed from [Fast-Robust-ICP](https:\u002F\u002Fgithub.com\u002Fyaoyx689\u002FFast-Robust-ICP). The evaluation code for geometry rendering is borrowed from [StereoPIFu_Code](https:\u002F\u002Fgithub.com\u002FCrisHY1995\u002FStereoPIFu_Code). Thanks for these great projects. We thank all the authors for their great work and repos.\n\n\n## Contact\nIf you have questions, please contact [Hongrui Cai](https:\u002F\u002Frainbowrui.github.io\u002F).\n\n\n\n## Citation\nIf you find our code or paper useful, please cite\n```bibtex\n@inproceedings{Cai2022NDR,\n  author    = {Hongrui Cai and Wanquan Feng and Xuetao Feng and Yan Wang and Juyong Zhang},\n  title     = {Neural Surface Reconstruction of Dynamic Scenes with Monocular RGB-D Camera},\n  booktitle = {Thirty-sixth Conference on Neural Information Processing Systems (NeurIPS)},\n  year      = {2022}\n}\n```\n\nIf you find our pre-processed data useful, please cite the related paper(s) and strictly abide by related open-source license(s).\n","\u003Cp align=\"center\">\n\n  \u003Ch1 align=\"center\">基于单目RGB-D相机的动态场景神经表面重建\u003C\u002Fh1>\n  \u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Frainbowrui.github.io\u002F\">蔡宏瑞\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fwanquanf.github.io\u002F\">冯万泉\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=5G-2EFcAAAAJ\">冯雪涛\u003C\u002Fa>\n    ·\n    王燕\n    ·\n    \u003Ca href=\"http:\u002F\u002Fstaff.ustc.edu.cn\u002F~juyong\u002F\">张居勇\u003C\u002Fa>\n\n  \u003C\u002Fp>\n  \u003Ch2 align=\"center\">NeurIPS 2022（亮点论文）\u003C\u002Fh2>\n  \u003Ch3 align=\"center\">\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2206.15258.pdf\">论文\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fustc3dv.github.io\u002Fndr\u002F\">项目主页\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fopenreview.net\u002Fforum?id=8RKJj1YDBJT\">OpenReview\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Frainbowrui.github.io\u002Fdata\u002FNDR_poster.pdf\">海报\u003C\u002Fa>\u003C\u002Fh3>\n  \u003Cdiv align=\"center\">\u003C\u002Fdiv>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUSTC3DV_NDR-code_readme_4fb1db622b1d.gif\" alt=\"Logo\" width=\"90%\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUSTC3DV_NDR-code_readme_0c33a1aceb1a.png\" alt=\"Logo\" width=\"80%\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n我们提出了一种名为Neural-DynamicReconstruction (NDR)的\u003Cb>无需模板\u003C\u002Fb>方法，用于从\u003Cb>单目\u003C\u002Fb>RGB-D相机中恢复\u003Cb>动态\u003C\u002Fb>场景的高保真几何、运动和外观。\n\u003C\u002Fp>\n\u003Cbr>\n\n\n\n## 使用方法\n\n### 数据规范\n数据按照[NeuS](https:\u002F\u002Fgithub.com\u002FTotoro97\u002FNeuS#data-convention)的格式组织。\n\n```\n\u003Ccase_name>\n|-- cameras_sphere.npz    # 相机参数\n|-- depth\n    |-- 每个视角的目标深度\n    ...\n|-- image\n    |-- 每个视角的目标RGB图像\n    ...\n|-- mask\n    |-- 每个视角的目标掩码（对于未遮挡的情况，将所有像素设为255）\n    ...\n```\n\n其中`cameras_sphere.npz`遵循[IDR](https:\u002F\u002Fgithub.com\u002Flioryariv\u002Fidr\u002Fblob\u002Fmain\u002FDATA_CONVENTION.md)中的数据格式，`world_mat_xx`表示世界坐标系到图像坐标系的投影矩阵，`scale_mat_xx`表示归一化矩阵。\n\n### 预处理数据\n您可以在此处下载部分预处理过的[KillingFusion](https:\u002F\u002Fcampar.in.tum.de\u002Fpersonal\u002Fslavcheva\u002Fdeformable-dataset\u002Findex.html)数据，并将其解压到`.\u002F`目录下：[链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1wQ4yB7r-a8sFkwB6bEJIDp14AhjG8g_B\u002Fview?usp=sharing)。\n\n\u003Cb>\u003Ci>重要提示：\u003C\u002Fi>\u003C\u002Fb> 如果您使用了这些预处理数据，请务必引用相关论文，并严格遵守相应的开源许可证。\n\n### 环境搭建\n克隆本仓库并创建环境（请注意CUDA版本）：\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002FUSTC3DV\u002FNDR-code.git\ncd NDR-code\nconda env create -f environment.yml\nconda activate ndr\n```\n\n\u003Cdetails>\n  \u003Csummary> 依赖项（点击展开） \u003C\u002Fsummary>\n\n  - torch==1.8.0\n  - opencv_python==4.5.2.52\n  - trimesh==3.9.8 \n  - numpy==1.21.2\n  - scipy==1.7.0\n  - PyMCubes==0.1.2\n\n\u003C\u002Fdetails>\n\n### 运行\n- **训练**\n```shell\npython train_eval.py\n```\n\n- **评估预训练模型**\n```shell\npython pretrained_eval.py\n```\n\n### 数据预处理\n如需准备自己的数据进行实验，请参考[姿态初始化](.\u002Fpose_initialization\u002FREADME.md)。\n\n### 几何渲染\n- **编译渲染器**\n```shell\ncd renderer && bash build.sh && cd ..\n```\n\n- **渲染网格**\n输入原始数据路径、结果保存路径以及迭代次数，例如：\n```shell\npython geo_render.py .\u002Fdatasets\u002Fkfusion_frog\u002F .\u002Fexp\u002Fkfusion_frog\u002Fresult\u002F 120000\n```\n渲染结果将被放置在`[path_of_results]\u002Fvalidations_geo\u002F`目录下。\n\n\n## 待办事项\n- [x] 为[DeepDeform](https:\u002F\u002Fgithub.com\u002FAljazBozic\u002FDeepDeform)人体序列和[KillingFusion](https:\u002F\u002Fcampar.in.tum.de\u002Fpersonal\u002Fslavcheva\u002Fdeformable-dataset\u002Findex.html)配置文件\n- [x] 数据预处理代码\n- [x] 几何渲染代码\n- [x] 预训练模型及评估代码\n- [x] 训练代码\n\n\n\n## 致谢\n本项目基于[NeuS](https:\u002F\u002Fgithub.com\u002FTotoro97\u002FNeuS)构建。部分代码片段也借鉴自[IDR](https:\u002F\u002Fgithub.com\u002Flioryariv\u002Fidr)和[NeRF-pytorch](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch)。用于相机姿态初始化的预处理代码则来自[Fast-Robust-ICP](https:\u002F\u002Fgithub.com\u002Fyaoyx689\u002FFast-Robust-ICP)。用于几何渲染的评估代码则借鉴自[StereoPIFu_Code](https:\u002F\u002Fgithub.com\u002FCrisHY1995\u002FStereoPIFu_Code)。感谢这些优秀的项目！我们也感谢所有作者的辛勤工作和开源贡献。\n\n\n## 联系方式\n如有任何问题，请联系[蔡宏瑞](https:\u002F\u002Frainbowrui.github.io\u002F)。\n\n\n\n## 引用\n如果您觉得我们的代码或论文有用，请引用以下内容：\n```bibtex\n@inproceedings{Cai2022NDR,\n  author    = {Hongrui Cai and Wanquan Feng and Xuetao Feng and Yan Wang and Juyong Zhang},\n  title     = {Neural Surface Reconstruction of Dynamic Scenes with Monocular RGB-D Camera},\n  booktitle = {Thirty-sixth Conference on Neural Information Processing Systems (NeurIPS)},\n  year      = {2022}\n}\n```\n\n如果您使用了我们的预处理数据，请务必引用相关论文，并严格遵守相关的开源许可证。","# NDR-code 快速上手指南\n\nNDR (Neural-DynamicReconstruction) 是一个基于 NeurIPS 2022 Spotlight 论文的开源项目，旨在利用单目 RGB-D 相机数据，在无模板（template-free）的情况下重建动态场景的高保真几何、运动和外观。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu)\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡\n*   **CUDA 版本**: 需与 PyTorch 1.8.0 兼容（通常推荐 CUDA 10.2 或 11.1）\n*   **包管理器**: Conda (推荐 Miniconda 或 Anaconda)\n\n**核心依赖库**（将通过环境文件自动安装）：\n*   torch==1.8.0\n*   opencv_python==4.5.2.52\n*   trimesh==3.9.8\n*   numpy==1.21.2\n*   scipy==1.7.0\n*   PyMCubes==0.1.2\n\n## 安装步骤\n\n### 1. 克隆仓库\n首先从 GitHub 克隆项目代码：\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002FUSTC3DV\u002FNDR-code.git\ncd NDR-code\n```\n\n### 2. 创建并激活虚拟环境\n使用提供的 `environment.yml` 文件创建 Conda 环境。\n> **提示**：如果下载依赖较慢，可配置国内镜像源（如清华源）：\n> `conda config --add channels https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fpkgs\u002Fmain\u002F`\n\n执行以下命令安装环境：\n```shell\nconda env create -f environment.yml\nconda activate ndr\n```\n\n### 3. 编译几何投影渲染器\n为了进行几何投影和网格渲染，需要编译自带的 renderer 模块：\n```shell\ncd renderer && bash build.sh && cd ..\n```\n\n### 4. 准备数据\n本项目数据格式遵循 [NeuS](https:\u002F\u002Fgithub.com\u002FTotoro97\u002FNeuS#data-convention) 规范。您可以下载预处理的 [KillingFusion](https:\u002F\u002Fcampar.in.tum.de\u002Fpersonal\u002Fslavcheva\u002Fdeformable-dataset\u002Findex.html) 数据集片段进行测试：\n\n1.  下载数据：[Google Drive 链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1wQ4yB7r-a8sFkwB6bEJIDp14AhjG8g_B\u002Fview?usp=sharing)\n2.  解压到项目根目录 `.\u002F` 下。\n\n**数据结构示例**：\n```text\n\u003Ccase_name>\n|-- cameras_sphere.npz    # 相机参数\n|-- depth                 # 各视角的深度图\n|-- image                 # 各视角的 RGB 图像\n|-- mask                  # 各视角的掩码（无掩码设置则全为 255）\n```\n\n## 基本使用\n\n### 训练模型\n使用默认配置开始训练（请确保已准备好数据并在配置文件中指定路径）：\n```shell\npython train_eval.py\n```\n\n### 评估预训练模型\n如果您想直接评估预训练模型的效果：\n```shell\npython pretrained_eval.py\n```\n\n### 几何网格渲染\n训练完成后，可将隐式表示转换为网格并进行渲染。以下命令展示了如何指定原始数据路径、结果输出路径以及迭代步数（例如 120000 步）：\n\n```shell\npython geo_render.py .\u002Fdatasets\u002Fkfusion_frog\u002F .\u002Fexp\u002Fkfusion_frog\u002Fresult\u002F 120000\n```\n\n渲染结果将保存在 `[path_of_results]\u002Fvalidations_geo\u002F` 目录下。\n\n---\n*注：如需使用自定义数据，请参考 `.\u002Fpose_initialization\u002FREADME.md` 进行相机位姿初始化预处理。*","某影视特效团队需要利用单目 RGB-D 相机拍摄的演员表演片段，快速构建高保真的动态三维数字资产用于后期合成。\n\n### 没有 NDR-code 时\n- **硬件成本高昂**：传统动态重建依赖多视角同步相机阵列或专业激光扫描仪，单目数据无法直接生成完整几何，导致拍摄门槛极高。\n- **几何细节丢失**：现有算法在处理非刚性形变（如衣物褶皱、肌肉运动）时，往往只能生成模糊的点云或体素，难以恢复清晰的表面网格。\n- **模板依赖严重**：主流方法需预先绑定特定的人体或物体拓扑模板，一旦拍摄对象超出模板范围（如手持道具），重建就会失败或产生伪影。\n- **人工修复耗时**：由于自动生成的模型精度不足，美术人员需花费数周时间手动雕刻和修补模型，严重拖慢制作周期。\n\n### 使用 NDR-code 后\n- **单目即可重建**：NDR-code 能直接从单目 RGB-D 视频流中恢复动态场景，无需昂贵的多机位架设，大幅降低数据采集成本。\n- **高保真表面还原**：基于神经隐式场技术，NDR-code 能精准捕捉演员细微的动作形变与表面纹理，输出光滑且细节丰富的动态网格。\n- **无模板自由重建**：作为无模板（template-free）方法，NDR-code 不依赖先验形状约束，可灵活处理任意动态物体及复杂交互场景。\n- **流程自动化提升**：训练完成后即可直接导出带运动序列的高质量模型，将原本数周的手工修模工作缩短至小时级，显著提升迭代效率。\n\nNDR-code 的核心价值在于打破了动态三维重建对昂贵硬件和固定模板的依赖，让单目设备也能高效产出电影级的动态数字资产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUSTC3DV_NDR-code_0c33a1ac.png","USTC3DV","USTC-3DV","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FUSTC3DV_e723ad4f.png","3D Vision Group of USTC is leaded by Professor Juyong Zhang. For more details, pease check: https:\u002F\u002Fjuyong.github.io\u002Findex.html","University of Science and Technology of China","Hefei",null,"https:\u002F\u002Fjuyong.github.io\u002Findex.html","https:\u002F\u002Fgithub.com\u002FUSTC3DV",[86,90,94,98],{"name":87,"color":88,"percentage":89},"Python","#3572A5",92.4,{"name":91,"color":92,"percentage":93},"C++","#f34b7d",7.3,{"name":95,"color":96,"percentage":97},"CMake","#DA3434",0.2,{"name":99,"color":100,"percentage":101},"Shell","#89e051",0.1,563,59,"2026-04-08T07:49:17","MIT",4,"Linux","需要 NVIDIA GPU（因依赖 CUDA），具体型号和显存未说明，需注意 CUDA 版本与 PyTorch 1.8.0 兼容","未说明",{"notes":111,"python":112,"dependencies":113},"1. 必须使用 conda 根据 environment.yml 文件创建环境，并特别注意 CUDA 版本需与 torch==1.8.0 匹配。\n2. 运行几何投影功能前，需进入 renderer 目录执行 bash build.sh 编译渲染器。\n3. 数据格式需遵循 NeuS 规范，包含相机参数、深度图、RGB 图像和掩码。","未说明 (通过 environment.yml 创建环境)",[114,115,116,117,118,119],"torch==1.8.0","opencv_python==4.5.2.52","trimesh==3.9.8","numpy==1.21.2","scipy==1.7.0","PyMCubes==0.1.2",[18],"2026-03-27T02:49:30.150509","2026-04-16T08:11:59.373610",[124,129,134,139,144,149,154,159],{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},35317,"如何复现论文图 1 中的结果？为什么使用默认配置（seq008）效果不佳？","论文图 1 中的图像实际上对应 Deep Deform 测试数据集中的 \"seq011\" 视频，而非 seq008。由于 NDR 优化速度较慢，建议使用视频的 200-300 帧进行验证。如果显存充足，可以在配置文件中增加 `train.batch_size`。如果优化结果缺乏细节，可以尝试减小配置文件中的 `train.geo_weight`，这将通过颜色损失项增加更多细节。","https:\u002F\u002Fgithub.com\u002FUSTC3DV\u002FNDR-code\u002Fissues\u002F4",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},35318,"运行 geo_render.py 时提示找不到 ply 文件（RuntimeError: File could not be read），如何解决？","`geo_render.py` 是用于将重建的几何体渲染为图像的脚本，因此必须先获得结果文件。解决方法是先运行预训练评估命令：`python pretrained_eval.py`，或者按照 README 从头开始训练以获得结果，然后再运行渲染命令。","https:\u002F\u002Fgithub.com\u002FUSTc3DV\u002FNDR-code\u002Fissues\u002F1",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},35319,"Deep Deform 数据集没有提供所有帧的掩码（mask），如何生成配置文件所需的足够掩码？","这是一个重要的预处理步骤。可以参考之前方法（如 NeuS）的处理流程来生成掩码。具体可参考：https:\u002F\u002Fgithub.com\u002FTotoro97\u002FNeuS\u002Ftree\u002Fmain\u002Fpreprocess_custom_data 中的预处理自定义数据部分。","https:\u002F\u002Fgithub.com\u002FUSTC3DV\u002FNDR-code\u002Fissues\u002F2",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},35320,"pose_initialization（姿态初始化）的目的是什么？是否有替代方案？","其目的是消除不同帧投影到规范空间（canonical space）时的位置误差。替代方法可以使用其他刚性或非刚性配准算法。如果使用自己的 RealSense 数据集，一般流程为：1. 拍摄数据获取 RGB、Depth、Mask；2. 借助 Colmap 生成类似 NeUS 的 npz 文件（pose_initialization 通常辅助此步骤或在此阶段处理）；3. 运行主程序。","https:\u002F\u002Fgithub.com\u002FUSTC3DV\u002FNDR-code\u002Fissues\u002F13",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},35321,"是否可以提供 KillingFusion 数据集剩余序列（如 \"Alex\", \"Hat\"）的预处理数据？","可以，预处理数据链接如下：https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F11w-5tCqOv8xwmIgBeJVFMH8hkJpT86iu\u002Fview?usp=drive_link。用户可以模仿已提供的设置（人体或日常用品）进行尝试。如有需要，也可参考已有的 .conf 配置文件格式自行编写。","https:\u002F\u002Fgithub.com\u002FUSTC3DV\u002FNDR-code\u002Fissues\u002F3",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},35322,"该方法在大规模数据集（如自动驾驶场景）上的表现如何？","作者尚未尝试该方法在此类场景中的应用。因为该方法主要专注于非刚性变形（non-rigid deformations），而自动驾驶场景主要涉及刚性变换（rigid transformations），两者任务性质有所不同。","https:\u002F\u002Fgithub.com\u002FUSTC3DV\u002FNDR-code\u002Fissues\u002F9",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},35323,"能否分享自采集的植物数据集用于 4D 重建实验？","目前由于工作变动，作者不便整理新的序列数据。建议直接使用鲁棒 ICP（robust ICP）方法来初始化数据。对于论文图 6 使用的序列，可以直接使用默认的配置文件进行训练。","https:\u002F\u002Fgithub.com\u002FUSTC3DV\u002FNDR-code\u002Fissues\u002F10",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},35324,"SDFNetwork 前向函数中采样点的坐标范围为何会超出 [-4, 4]？","需要确认点所在的坐标系空间。这些值可能是在世界坐标系、相机坐标系或归一化设备坐标系（NDC）下，不同空间下的数值范围会有所不同。","https:\u002F\u002Fgithub.com\u002FUSTC3DV\u002FNDR-code\u002Fissues\u002F8",[]]