4d-gaussian-splatting
4d-gaussian-splatting 是由复旦大学团队开源的动态场景重建与渲染工具,旨在实现实时、照片级真实的动态 3D 内容生成。它主要解决了传统方法在处理运动物体或变化场景时,难以兼顾高画质与实时渲染速度的痛点,让计算机能够流畅地“记住”并重现随时间变化的复杂三维世界。
该项目的核心技术亮点在于提出了原生的"4D 高斯图元”,将空间维度与时间维度进行统一建模,而非简单地将多帧 3D 模型拼接。配合专用的渲染管线,它不仅支持从任意新视角观察动态场景(如子弹时间效果),还能仅凭单目视频重建出高质量的动态画面,且在消费级显卡上即可达到实时运行标准。
4d-gaussian-splatting 非常适合计算机视觉研究人员、图形学开发者以及从事数字人、虚拟现实内容创作的设计师使用。对于希望探索前沿动态神经渲染技术,或需要高效制作可交互动态 3D 资产的专业用户而言,这是一个极具价值的开源基座。普通用户虽可直接体验其生成的惊艳视频效果,但深度使用仍需具备一定的编程与环境配置能力。
使用场景
某影视特效团队正在处理一段高速运动的城市无人机航拍素材,需要制作支持任意角度自由穿梭的“子弹时间”特效镜头。
没有 4d-gaussian-splatting 时
- 动态模糊严重:传统静态 3D 高斯泼溅无法有效建模时间维度,导致快速移动的车辆和行人在视角变换时出现严重的重影或几何撕裂。
- 渲染速度瓶颈:为了实现动态效果,往往需依赖多帧神经辐射场(NeRF),训练耗时极长且推理帧率极低,难以在剪辑现场进行实时预览。
- 细节丢失明显:在处理复杂动态场景(如飘动的旗帜、飞溅的水花)时,现有方案难以保留高频纹理细节,画面显得过度平滑或模糊。
- 存储与计算冗余:为了模拟动态变化,通常需要存储大量独立的时间切片模型,导致显存占用爆炸式增长,普通工作站无法负荷。
使用 4d-gaussian-splatting 后
- 时空一致性完美:利用原生 4D 高斯基元直接对空间和时间进行联合建模,即使摄像机高速穿越,快速运动的物体依然保持结构完整,无重影或撕裂。
- 实时交互渲染:得益于高效的渲染管线,团队可在单张消费级显卡上以高帧率实时回放动态场景,导演能即时调整运镜轨迹并看到最终效果。
- 照片级动态细节:能够精准还原动态场景中的微小变化,如衣物褶皱的动态形变和水流的瞬时形态,视觉效果达到电影级 photorealistic 标准。
- 资源效率大幅提升:单一连贯的 4D 模型替代了冗余的时间序列存储,显著降低了显存需求,使得长时段动态场景的重建变得轻量且可行。
4d-gaussian-splatting 通过将时间维度原生融入几何表达,彻底解决了动态场景实时高保真重建的难题,让电影级“子弹时间”特效的制作门槛大幅降低。
运行环境要求
- 未说明
需要 NVIDIA GPU(基于 3D Gaussian Splatting),具体型号和显存大小未说明,需支持 CUDA
未说明

快速开始
基于4D高斯泼溅的实时照片级动态场景表示与渲染
项目页面 | 论文
基于4D高斯泼溅的实时照片级动态场景表示与渲染,
杨泽宇、杨洪业、潘子杰、张力
复旦大学
ICLR 2024
4D高斯泼溅:使用原生4D基元建模动态场景,
杨泽宇、潘子杰、朱夏田、张力、冯建峰、蒋宇刚、菲利普·H·S·托尔
复旦大学、萨里大学、牛津大学
Arxiv预印本
本仓库是“基于4D高斯泼溅的实时照片级动态场景表示与渲染”官方实现。 在这篇论文中,我们提出了一种连贯的时空联合建模方法,通过定义无偏的4D高斯基元并结合专用的渲染管线,来处理动态场景。
🛠️ 渲染管线
快速入门
环境配置
硬件和软件要求与3D高斯泼溅相同,本代码正是基于该框架构建的。请运行以下命令来设置环境:
git clone https://github.com/fudan-zvg/4d-gaussian-splatting
cd 4d-gaussian-splatting
conda env create --file environment.yml
conda activate 4dgs
数据准备
DyNeRF数据集:
下载Neural 3D Video数据集,并将每个场景解压到data/N3V目录下。随后,通过执行以下命令对原始视频进行预处理:
python scripts/n3v2blender.py data/N3V/$scene_name
DNeRF数据集:
可从谷歌云盘或Dropbox下载数据集。然后将每个场景解压到data/dnerf目录下。
运行
完成安装和数据准备后,可以通过以下命令训练模型:
python train.py --config $config_path
🎥 视频
🎞️ 演示视频
🎞️ 动态新视角合成
🎞️ 子弹时间效果
🎞️ 传送相机自由视角合成
🎞️ 单目动态场景重建
📜 BibTex 引用
@inproceedings{yang2023gs4d,
title={基于4D高斯泼溅的实时照片级动态场景表示与渲染},
author={杨泽宇、杨洪业、潘子杰、张力},
booktitle={国际学习表征会议(ICLR)},
year={2024}
}
@article{yang20244dgs,
title={4D高斯泼溅:使用原生4D基元建模动态场景},
author={杨泽宇、潘子杰、朱夏田、张力、冯建峰、蒋宇刚、菲利普·H·S·托尔},
journal={arXiv预印本},
year={2024},
}
常见问题
相似工具推荐
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
funNLP
funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。
cs-video-courses
cs-video-courses 是一个精心整理的计算机科学视频课程清单,旨在为自学者提供系统化的学习路径。它汇集了全球知名高校(如加州大学伯克利分校、新南威尔士大学等)的完整课程录像,涵盖从编程基础、数据结构与算法,到操作系统、分布式系统、数据库等核心领域,并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。 面对网络上零散且质量参差不齐的教学资源,cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容,仅收录真正的大学层级课程,排除了碎片化的简短教程或商业广告,确保用户能接触到严谨的学术内容。 这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员,以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽,不仅包含传统的软件工程与网络安全,还细分了生成式 AI、大语言模型、计算生物学等新兴学科,并直接链接至官方视频播放列表,让用户能一站式获取高质量的教育资源,免费享受世界顶尖大学的课堂体验。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
