stable-dreamfusion

GitHub
8.8k 774 较难 1 次阅读 2天前Apache-2.0图像其他
AI 解读 由 AI 自动生成,仅供参考

stable-dreamfusion 是一个基于 PyTorch 的开源项目,旨在实现通过文本描述或单张图片生成三维模型,并支持导出为网格格式。它巧妙地将强大的 Stable Diffusion 二维图像生成能力与神经辐射场(NeRF)技术相结合,让用户只需输入简单的文字提示或上传参考图,即可创造出对应的 3D 资产。

该项目主要解决了传统 3D 建模门槛高、耗时久的问题,为快速原型设计和内容创作提供了自动化方案。其核心技术亮点在于使用多分辨率网格编码器替代了传统的 NeRF 主干网络,显著提升了渲染速度;同时引入了 Perp-Neg 技术,有效缓解了生成物体出现“多头”或结构畸变的常见问题。此外,它还支持 DeepFloyd-IF 等后端模型,并提供了详细的 Colab 笔记以便快速上手。

需要注意的是,作为一个持续迭代中的实验性项目,stable-dreamfusion 的生成质量目前可能尚未完全达到学术论文中的理想效果,部分复杂提示词仍可能生成失败。因此,它更适合具备一定技术背景的开发者、AI 研究人员以及希望探索前沿 3D 生成技术的创意设计师使用。对于普通用户而言,若熟悉命令行操作和 Python 环境配置,也可尝试体验这一从 2D 到 3D 的神奇转换过程。

使用场景

某独立游戏开发者需要为即将上线的奇幻题材项目快速制作一批风格统一的 3D 道具资产,但团队中缺乏专业的 3D 建模师。

没有 stable-dreamfusion 时

  • 人力成本高昂:必须外包或招聘专职建模师,单个低多边形道具的制作周期长达数天,严重拖慢开发进度。
  • 创意验证困难:策划脑海中“发光的水晶骷髅”等抽象概念难以通过文字直接转化为可视模型,反复沟通修改效率极低。
  • 技术门槛限制:团队成员仅熟悉 2D 绘图或代码,面对 Blender、Maya 等专业软件复杂的拓扑和布线规则无从下手。
  • 资产风格割裂:外包制作的模型往往与游戏整体的美术风格存在细微偏差,后期调整材质和形状耗时费力。

使用 stable-dreamfusion 后

  • 生成效率飞跃:开发者只需输入“低多边形风格的发光水晶骷髅”等提示词,stable-dreamfusion 即可在数十分钟内自动生成带纹理的 3D 网格模型。
  • 创意即时落地:利用其 Text-to-3D 能力,策划人员可直接将文字描述转化为初步模型,瞬间验证设计想法的可行性。
  • 流程大幅简化:基于 NeRF 和扩散模型的技术栈屏蔽了底层几何构建细节,无需手动拓扑,直接导出 OBJ/PLY 格式即可导入游戏引擎。
  • 风格高度可控:结合 Stable Diffusion 的强大泛化能力,通过微调提示词即可确保生成的道具在光影和质感上与游戏世界观完美融合。

stable-dreamfusion 通过将自然语言直接转化为高质量 3D 资产,彻底打破了传统建模的技术壁垒,让小型团队也能实现“所想即所得”的快速原型开发。

运行环境要求

操作系统
  • Linux
GPU
  • 必需 NVIDIA GPU
  • 测试环境为 V100 (CUDA 11.6)
  • Instant-NGP 后端需约 16GB 显存
  • 使用 DeepFloyd-IF 后端需约 24GB 显存
  • 支持 CUDA 11.6+,也可选无 CUDA 的 Taichi 后端
内存

未说明

依赖
notes1. 项目主要在 Ubuntu 22 上测试通过,Windows/macOS 未明确提及且可能因 OpenGL 或 CUDA 扩展编译问题导致运行失败。2. 首次运行需编译 CUDA 扩展(或使用 Taichi 后端避免编译)。3. 需手动下载预训练模型(Zero-1-to-3, Omnidata 等)。4. 若使用 DeepFloyd-IF 需登录 Hugging Face。5. 遇到 OpenGL 错误需重装 Nvidia 驱动或使用 nvidia-docker。
python未说明 (建议使用虚拟环境)
torch>=1.12
diffusers
transformers
ninja
trimesh
dearpygui
Adan (optimizer)
taichi (可选)
stable-dreamfusion hero image

快速开始

Stable-Dreamfusion

一个基于 PyTorch 的文本到 3D 模型 Dreamfusion 的实现,由 Stable Diffusion 文本到 2D 模型驱动。

广告:请查看 threestudio,它在 3D 内容生成方面有最新的改进和更好的实现!

新闻 (2023.6.12)

https://user-images.githubusercontent.com/25863658/236712982-9f93bd32-83bf-423a-bb7c-f73df7ece2e3.mp4

https://user-images.githubusercontent.com/25863658/232403162-51b69000-a242-4b8c-9cd9-4242b09863fa.mp4

更新日志

Colab 笔记本:

  • Instant-NGP 骨干(-O):Instant-NGP Backbone

  • 范式 NeRF 骨干(-O2):Vanilla Backbone

重要提示

该项目目前仍处于 开发中,与论文相比存在许多差异。当前的生成质量还无法达到原论文的结果,许多提示仍然会严重失败!

与论文的主要区别

  • 由于 Imagen 模型未公开,我们使用 Stable Diffusion 替代它(实现来自 diffusers)。与 Imagen 不同,Stable-Diffusion 是一种潜在扩散模型,它是在潜在空间而非原始图像空间中进行扩散的。因此,我们需要将损失也反向传播到 VAE 的编码器部分,这会增加训练时间成本。
  • 我们使用 多分辨率网格编码器 来实现 NeRF 骨干(实现来自 torch-ngp),这使得渲染速度大幅提升(800x800 分辨率下约 10 FPS)。
  • 我们默认使用 Adan 优化器。

安装

git clone https://github.com/ashawkey/stable-dreamfusion.git
cd stable-dreamfusion

可选:创建 Python 虚拟环境

为避免 Python 包冲突,建议使用虚拟环境,例如使用 conda 或 venv:

python -m venv venv_stable-dreamfusion
source venv_stable-dreamfusion/bin/activate # 每次打开新终端都需要重复此步骤

使用 pip 安装

pip install -r requirements.txt

下载预训练模型

要使用图像条件下的 3D 生成,需要手动下载一些预训练检查点:

  • Zero-1-to-3 作为扩散后端。 默认使用 zero123-xl.ckpt,并在 guidance/zero123_utils.py 中硬编码。
    cd pretrained/zero123
    wget https://zero123.cs.columbia.edu/assets/zero123-xl.ckpt
    
  • Omnidata 用于深度和法线预测。 这些检查点在 preprocess_image.py 中硬编码。
    mkdir pretrained/omnidata
    cd pretrained/omnidata
    # 假设已安装 gdown
    gdown '1Jrh-bRnJEjyMCS7f-WsaFlccfPjJPPHI&confirm=t' # omnidata_dpt_depth_v2.ckpt
    gdown '1wNxVO4vVbDEMEpnAi_jwQObf2MFodcBR&confirm=t' # omnidata_dpt_normal_v2.ckpt
    

要使用 DeepFloyd-IF,需要接受来自 hugging face 的使用条款,并通过命令行使用 huggingface-cli login 登录。

对于 DMTet,我们将预先生成的 32/64/128 分辨率四面体网格移植到 tets 目录下。256 分辨率的网格可以在 这里 找到。

构建扩展(可选)

默认情况下,我们使用 load 在运行时构建扩展。 我们也提供了 setup.py 来构建每个扩展:

cd stable-dreamfusion

# 安装所有扩展模块
bash scripts/install_ext.sh

# 如果你想手动安装,这里有一个例子:
pip install ./raymarching # 安装到 Python 路径(你仍然需要 raymarching/ 文件夹,因为这只是安装了编译好的扩展。)

Taichi 后端(可选)

使用 Taichi 后端来替代 Instant-NGP。它可以在无需 CUDA 的情况下实现与 CUDA 实现相当的性能。使用 pip 安装 Taichi:

pip install -i https://pypi.taichi.graphics/simple/ taichi-nightly

故障排除:

  • 我们假设所有依赖项都使用最新版本,如果遇到特定依赖项的问题,请先尝试升级它(例如 pip install -U diffusers)。如果问题仍然存在,请提交 bug 报告,我们将不胜感激!
  • [F glutil.cpp:338] eglInitialize() failed Aborted (core dumped):这通常表示 OpenGL 安装存在问题。尝试重新安装 Nvidia 驱动程序,或者如 https://github.com/ashawkey/stable-dreamfusion/issues/131 所示,如果您使用的是无头服务器,可以尝试使用 nvidia-docker。
  • TypeError: xxx_forward(): incompatible function arguments:当您更新 CUDA 源代码并之前使用 setup.py 安装过扩展时,可能会出现这种情况。尝试重新安装相应的扩展(例如 pip install ./gridencoder)。

测试环境

  • Ubuntu 22,配备 torch 1.12 和 CUDA 11.6 的 V100 显卡。

使用方法

首次运行时,编译 CUDA 扩展可能需要一些时间。

#### stable-dreamfusion 设置

### Instant-NGP NeRF 骨干
# + 渲染速度更快
# + GPU 内存占用更少(约 16G)
# - 需要编译 CUDA 扩展(也有无需 CUDA 的 Taichi 后端)

## 使用文本提示训练(使用默认设置)
# `-O` 等价于 `--cuda_ray --fp16`
# `--cuda_ray` 启用类似 Instant-NGP 的占用网格加速。
python main.py --text "a hamburger" --workspace trial -O

# 使用 `--vram_O` 减少 Stable-Diffusion 的内存使用
# 启用各种显存节省功能(https://huggingface.co/docs/diffusers/optimization/fp16)。
python main.py --text "a hamburger" --workspace trial -O --vram_O

# 你可以将参数收集到一个文件中。通过在 `--file` 后指定参数,可以覆盖文件中的参数。请注意,带引号的字符串无法从 .args 文件中加载……
python main.py --file scripts/res64.args --workspace trial_awesome_hamburger --text "a photo of an awesome hamburger"

# 使用无 CUDA 的 Taichi 后端,只需添加 `--backbone grid_taichi`
python3 main.py --text "a hamburger" --workspace trial -O --backbone grid_taichi

# 选择 Stable Diffusion 版本(支持 1.5、2.0 和 2.1,默认为 2.1)
python main.py --text "a hamburger" --workspace trial -O --sd_version 1.5

# 使用来自 Hugging Face 的自定义 Stable Diffusion 检查点:
python main.py --text "a hamburger" --workspace trial -O --hf_key andite/anything-v4.0

# 使用 DeepFloyd-IF 进行引导(实验性):
python main.py --text "a hamburger" --workspace trial -O --IF
python main.py --text "a hamburger" --workspace trial -O --IF --vram_O # 需要约 24G 显存

# 我们现在也支持负面文本提示:
python main.py --text "a rose" --negative "red" --workspace trial -O

## 训练完成后:
# 测试(导出 360 度视频)
python main.py --workspace trial -O --test
# 同时保存网格模型(包含 obj、mtl 和 png 纹理)
python main.py --workspace trial -O --test --save_mesh
# 使用 GUI 进行测试(可自由控制视角!)
python main.py --workspace trial -O --test --gui

### Vanilla NeRF 后台
# + 纯 PyTorch 实现,无需编译扩展!
# - 渲染速度较慢
# - 需要更多显存

## 训练
# `-O2` 等同于 `--backbone vanilla`
python main.py --text "a hotdog" --workspace trial2 -O2

# 如果 CUDA 内存不足,可以尝试减少 NeRF 采样步骤(`--num_steps` 和 `--upsample_steps`)
python main.py --text "a hotdog" --workspace trial2 -O2 --num_steps 64 --upsample_steps 0

## 测试
python main.py --workspace trial2 -O2 --test
python main.py --workspace trial2 -O2 --test --save_mesh
python main.py --workspace trial2 -O2 --test --gui # 不推荐,帧率会很低。

### DMTet 微调

## 使用 `--dmtet` 和 `--init_with <nerf checkpoint>` 来以更高分辨率微调网格
python main.py -O --text "a hamburger" --workspace trial_dmtet --dmtet --iters 5000 --init_with trial/checkpoints/df.pth

## 使用网格初始化 DMTet 以生成纹理
# 需要安装 cubvh:pip install git+https://github.com/ashawkey/cubvh
# 移除 `--lock_geo` 可以同时微调几何形状,但性能可能较差。
python main.py -O --text "a white bunny with red eyes" --workspace trial_dmtet_mesh --dmtet --iters 5000 --init_with ./data/bunny.obj --lock_geo

## 测试与导出网格
python main.py -O --text "a hamburger" --workspace trial_dmtet --dmtet --iters 5000 --test --save_mesh

## 可视化 DMTet 的 GUI
python main.py -O --text "a hamburger" --workspace trial_dmtet --dmtet --iters 5000 --test --gui

### 基于图像的 3D 生成

## 预处理输入图像
# 注意:图像转 3D 的效果取决于 zero-1-to-3 的能力。为了获得最佳效果,输入图像应包含单一正面物体,长宽比为正方形,分辨率为 1024 像素以下。请查看 ./data 下的示例。
# 这将输出 `<image>_rgba.png`、`<image>_depth.png` 和 `<image>_normal.png` 到输入图像所在的目录。
python preprocess_image.py <image>.png
python preprocess_image.py <image>.png --border_ratio 0.4 # 如果中心物体显得过大且结果不理想,可增加边框比例。

## zero123 训练
# 通过 `--image` 传入处理后的 `<image>_rgba.png`,不要传入 `--text`,以启用 zero-1-to-3 后端。
python main.py -O --image <image>_rgba.png --workspace trial_image --iters 5000

# 如果图像并非完全正面(仰角 ≠ 0),需调整 default_polar(我们用 0 到 180 表示 90 到 -90 的仰角)
python main.py -O --image <image>_rgba.png --workspace trial_image --iters 5000 --default_polar 80

# 默认情况下,我们会利用单目深度估计来辅助图像转 3D,但如果发现深度估计不准确并影响结果,可以通过以下方式关闭:
python main.py -O --image <image>_rgba.png --workspace trial_image --iters 5000 --lambda_depth 0

python main.py -O --image <image>_rgba.png --workspace trial_image_dmtet --dmtet --init_with trial_image/checkpoints/df.pth

## 多张图像的 zero123
python main.py -O --image_config config/<config>.csv --workspace trial_image --iters 5000

## 每批渲染 <num> 张图像(默认 1 张)
python main.py -O --image_config config/<config>.csv --workspace trial_image --iters 5000 --batch_size 4

# 同时提供 `--text` 和 `--image` 将启用 Stable Diffusion 后端(类似于 make-it-3d)
python main.py -O --image hamburger_rgba.png --text "一张美味汉堡的 DSLR 照片" --workspace trial_image_text --iters 5000

python main.py -O --image hamburger_rgba.png --text "一张美味汉堡的 DSLR 照片" --workspace trial_image_text_dmtet --dmtet --init_with trial_image_text/checkpoints/df.pth

## 测试 / 可视化
python main.py -O --image <image>_rgba.png --workspace trial_image_dmtet --dmtet --test --save_mesh
python main.py -O --image <image>_rgba.png --workspace trial_image_dmtet --dmtet --test --gui

### 调试

# 可以保存引导图像用于调试目的。这些图像会保存在 trial_hamburger/guidance 目录下。
# 注意:这会显著减慢训练速度,并占用大量磁盘空间!
python main.py --text "a hamburger" --workspace trial_hamburger -O --vram_O --save_guidance --save_guidance_interval 5 # 每 5 步保存一次

有关示例命令,请查看 scripts

有关高级技巧和其他开发内容,请查看 Advanced Tips

评估

重现论文中的 CLIP R 精度评估

在使用说明中的测试部分完成后,会生成包含不同角度投影的验证集。测试提示词与图像之间的 R 精度。(R=1)

python r_precision.py --text "a snake is flying in the sky" --workspace snake_HQ --latest ep0100 --mode depth --clip clip-ViT-B-16

致谢

本工作基于日益增长的一系列卓越的研究成果和开源项目,衷心感谢所有作者的分享!

  • DreamFusion:使用2D扩散模型实现文本到3D生成

    @article{poole2022dreamfusion,
        author = {Poole, Ben and Jain, Ajay and Barron, Jonathan T. and Mildenhall, Ben},
        title = {DreamFusion: Text-to-3D using 2D Diffusion},
        journal = {arXiv},
        year = {2022},
    }
    
  • Magic3D:高分辨率文本到3D内容生成

    @inproceedings{lin2023magic3d,
       title={Magic3D: High-Resolution Text-to-3D Content Creation},
       author={Lin, Chen-Hsuan and Gao, Jun and Tang, Luming and Takikawa, Towaki and Zeng, Xiaohui and Huang, Xun and Kreis, Karsten and Fidler, Sanja and Liu, Ming-Yu and Lin, Tsung-Yi},
       booktitle={IEEE Conference on Computer Vision and Pattern Recognition ({CVPR})},
       year={2023}
     }
    
  • Zero-1-to-3:零样本单张图像到3D物体生成

    @misc{liu2023zero1to3,
        title={Zero-1-to-3: Zero-shot One Image to 3D Object},
        author={Ruoshi Liu and Rundi Wu and Basile Van Hoorick and Pavel Tokmakov and Sergey Zakharov and Carl Vondrick},
        year={2023},
        eprint={2303.11328},
        archivePrefix={arXiv},
        primaryClass={cs.CV}
    }
    
  • Perp-Neg:重新构想负向提示算法——将2D扩散转化为3D,缓解Janus问题并进一步拓展

    @article{armandpour2023re,
      title={Re-imagine the Negative Prompt Algorithm: Transform 2D Diffusion into 3D, alleviate Janus problem and Beyond},
      author={Armandpour, Mohammadreza and Zheng, Huangjie and Sadeghian, Ali and Sadeghian, Amir and Zhou, Mingyuan},
      journal={arXiv preprint arXiv:2304.04968},
      year={2023}
    }
    
  • RealFusion:从单张图像重建任意物体的360°视图

    @inproceedings{melaskyriazi2023realfusion,
        author = {Melas-Kyriazi, Luke and Rupprecht, Christian and Laina, Iro and Vedaldi, Andrea},
        title = {RealFusion: 360 Reconstruction of Any Object from a Single Image},
        booktitle={CVPR}
        year = {2023},
        url = {https://arxiv.org/abs/2302.10663},
    }
    
  • Fantasia3D:解耦几何与外观以实现高质量文本到3D内容生成

    @article{chen2023fantasia3d,
        title={Fantasia3D: Disentangling Geometry and Appearance for High-quality Text-to-3D Content Creation},
        author={Rui Chen and Yongwei Chen and Ningxin Jiao and Kui Jia},
        journal={arXiv preprint arXiv:2303.13873},
        year={2023}
    }
    
  • Make-It-3D:基于扩散先验的单张图像高保真3D生成

    @article{tang2023make,
        title={Make-It-3D: High-Fidelity 3D Creation from A Single Image with Diffusion Prior},
        author={Tang, Junshu and Wang, Tengfei and Zhang, Bo and Zhang, Ting and Yi, Ran and Ma, Lizhuang and Chen, Dong},
        journal={arXiv preprint arXiv:2303.14184},
        year={2023}
    }
    
  • Stable Diffusiondiffusers 库。

    @misc{rombach2021highresolution,
        title={High-Resolution Image Synthesis with Latent Diffusion Models},
        author={Robin Rombach and Andreas Blattmann and Dominik Lorenz and Patrick Esser and Björn Ommer},
        year={2021},
        eprint={2112.10752},
        archivePrefix={arXiv},
        primaryClass={cs.CV}
    }
    
    @misc{von-platen-etal-2022-diffusers,
        author = {Patrick von Platen and Suraj Patil and Anton Lozhkov and Pedro Cuenca and Nathan Lambert and Kashif Rasul and Mishig Davaadorj and Thomas Wolf},
        title = {Diffusers: State-of-the-art diffusion models},
        year = {2022},
        publisher = {GitHub},
        journal = {GitHub repository},
        howpublished = {\url{https://github.com/huggingface/diffusers}}
    }
    
  • GUI界面采用 DearPyGui 开发。

  • 小狗图片来自:https://www.pexels.com/photo/high-angle-photo-of-a-corgi-looking-upwards-2664417/

  • 安雅图片来自:https://www.goodsmile.info/en/product/13301/POP+UP+PARADE+Anya+Forger.html

引用

如果您觉得本工作有所帮助,请通过以下方式引用:

@misc{stable-dreamfusion,
    Author = {Jiaxiang Tang},
    Year = {2022},
    Note = {https://github.com/ashawkey/stable-dreamfusion},
    Title = {Stable-dreamfusion: Text-to-3D with Stable-diffusion}
}

版本历史

0.2.02023/04/17
0.1.02023/04/07

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|5天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|6天前
插件Agent图像

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|1周前
语言模型图像Agent

Deep-Live-Cam

Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

88.9k|★★★☆☆|1周前
开发框架图像Agent