LGM

GitHub
2.1k 136 较难 1 次阅读 今天MIT其他图像
AI 解读 由 AI 自动生成,仅供参考

LGM(Large Multi-View Gaussian Model)是一款专为高分辨率 3D 内容创作打造的开源模型,曾入选 ECCV 2024 口头报告。它核心解决了传统方法在从单张图片或文本生成 3D 资产时,往往面临细节模糊、几何结构不完整或渲染速度缓慢的难题。

通过创新地结合“多视图高斯溅射”技术,LGM 能够直接从多个视角预测高质量的 3D 高斯表示,无需繁琐的迭代优化过程。这不仅大幅提升了生成效率,还能产出纹理清晰、几何细节丰富的 3D 模型,并支持快速转换为网格格式以供后续编辑。其独特的技术亮点在于利用大规模多视图数据训练,实现了对复杂物体形态的精准重建,且推理过程仅需约 10GB 显存,兼顾了性能与资源消耗。

这款工具非常适合 3D 设计师、游戏开发者以及 AI 研究人员使用。设计师可利用它快速原型化创意,将概念图瞬间转化为可交互的 3D 资产;开发者能将其集成到工作流中,自动化生成大量 3D 素材;研究人员则可基于其开放的代码框架,探索生成式 3D 建模的前沿方向。虽然普通用户也可通过在线 Demo 体验文生 3D 的乐趣,但要充分发挥其潜力,仍需一定的技术背景进行本地部署或微调。

使用场景

某独立游戏开发者需要为即将上线的奇幻 RPG 快速生成大量高细节的 3D 道具资产,但团队中缺乏专业的 3D 建模师。

没有 LGM 时

  • 制作周期漫长:传统手工建模或基于单图的重建方法耗时数小时甚至数天,无法跟上敏捷开发的迭代速度。
  • 细节丢失严重:从单一视角生成的模型往往背面模糊、几何结构错误,难以满足近景观察的高清需求。
  • 多视图不一致:尝试手动拼接多个角度的生成结果时,常出现纹理断裂和形状扭曲,后期修复成本极高。
  • 硬件门槛高:现有高分辨率重建方案通常需要多张高端显卡并行计算,个人开发者难以负担。

使用 LGM 后

  • 秒级内容生成:利用 LGM 的大规模多视图高斯模型,仅需一张概念图或一段文字描述,10 秒内即可输出完整 3D 资产。
  • 高清几何还原:得益于高斯泼溅(Gaussian Splatting)技术,生成的模型在任意角度下均保持锐利纹理和准确的空间结构。
  • 天然多视图一致:LGM 内部机制确保了 360 度视角的连贯性,直接导出可用的 .ply 文件或转换为网格,无需人工修补接缝。
  • 消费级显卡可用:优化后的推理流程仅需约 10GB 显存,使得在单张主流游戏显卡上完成高质量创作成为可能。

LGM 将 3D 内容创作从“工匠式”的手工打磨转变为“工业化”的即时生成,极大地降低了高保真 3D 资产的生产门槛与时间成本。

运行环境要求

操作系统
  • Linux
GPU

必需 NVIDIA GPU,推理需约 10GB 显存,官方示例使用 CUDA 11.8

内存

未说明

依赖
notes必须安装 xformers;推理时需加载 MVDream、ImageDream 及 LGM 模型,总显存占用约 10GB;训练数据基于 AWS 环境,直接运行需修改数据集加载代码;支持从文本或图像生成 3D 内容。
python未说明
torch==2.1.0
torchvision==0.16.0
torchaudio==2.1.0
xformers
diff-gaussian-rasterization
nvdiffrast
accelerate
gradio
dearpygui
tyro
LGM hero image

快速开始

大型多视角高斯模型

这是 LGM:用于高分辨率3D内容创作的大型多视角高斯模型 的官方实现。

项目页面 | Arxiv | 权重 |

https://github.com/3DTopia/LGM/assets/25863658/cf64e489-29f3-4935-adba-e393a24c26e8

新闻

[2024.4.3] 感谢 @yxymessi@florinshen,我们修复了一个 旋转归一化中的严重错误 这里。我们使用正确的归一化对模型进行了额外的30轮微调,并上传了新的检查点。

复现演示:

感谢 @camenduru

安装

# 需要安装xformers!详情请参阅 https://github.com/facebookresearch/xformers。
# 例如,我们使用 torch 2.1.0 + cuda 11.8
pip install torch==2.1.0 torchvision==0.16.0 torchaudio==2.1.0 --index-url https://download.pytorch.org/whl/cu118
pip install -U xformers --index-url https://download.pytorch.org/whl/cu118

# 修改后的高斯泼溅(+深度、alpha渲染)
git clone --recursive https://github.com/ashawkey/diff-gaussian-rasterization
pip install ./diff-gaussian-rasterization

# 用于网格提取
pip install git+https://github.com/NVlabs/nvdiffrast

# 其他依赖
pip install -r requirements.txt

预训练权重

我们的预训练权重可以从 huggingface 下载。

例如,下载用于推理的fp16模型:

mkdir pretrained && cd pretrained
wget https://huggingface.co/ashawkey/LGM/resolve/main/model_fp16_fixrot.safetensors
cd ..

对于 MVDreamImageDream,我们使用一个 diffusers 实现。它们的权重将会自动下载。

推理

推理大约需要10GB显存(加载所有imagedream、mvdream以及我们的LGM)。

### 用于文本/图像转3D的gradio应用
python app.py big --resume pretrained/model_fp16.safetensors

### 测试
# --workspace:保存输出(*.ply 和 *.mp4)的文件夹
# --test_path:包含图片的文件夹路径,或单张图片
python infer.py big --resume pretrained/model_fp16.safetensors --workspace workspace_test --test_path data_test 

### 本地GUI可视化保存的ply文件
python gui.py big --output_size 800 --test_path workspace_test/saved.ply

### 网格转换
python convert.py big --test_path workspace_test/saved.ply

更多选项,请查看 options

训练

注意: 由于我们在训练中使用的数据集基于AWS,因此无法直接在新环境中用于训练。我们提供了必要的训练代码框架,请检查并修改 dataset 的实现!

我们还提供了用于训练LGM的 ~8万件 Objaverse 子集,位于 objaverse_filter 中。

# 调试训练
accelerate launch --config_file acc_configs/gpu1.yaml main.py big --workspace workspace_debug

# 训练(多节点训练请使用slurm)
accelerate launch --config_file acc_configs/gpu8.yaml main.py big --workspace workspace

致谢

本工作建立在许多令人惊叹的研究成果和开源项目之上,非常感谢所有作者的分享!

引用

@article{tang2024lgm,
  title={LGM: Large Multi-View Gaussian Model for High-Resolution 3D Content Creation},
  author={Tang, Jiaxiang and Chen, Zhaoxi and Chen, Xiaokang and Wang, Tengfei and Zeng, Gang and Liu, Ziwei},
  journal={arXiv preprint arXiv:2402.05054},
  year={2024}
}

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|5天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|6天前
开发框架图像Agent

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|昨天
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|昨天
插件Agent图像

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|5天前
语言模型图像Agent

Deep-Live-Cam

Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

88.9k|★★★☆☆|5天前
开发框架图像Agent