HunyuanVideo
HunyuanVideo 是腾讯开源的一套系统化大型视频生成框架,旨在通过人工智能技术将文本描述或静态图像转化为高质量、高动态的视频内容。它主要解决了当前视频生成领域中长序列连贯性不足、画面细节模糊以及复杂动作难以模拟等痛点,能够生成分辨率高达 720p 且逻辑自然的视频片段。
这款工具非常适合 AI 研究人员、开发者以及数字内容创作者使用。研究人员可以利用其开放的 PyTorch 模型定义和预训练权重探索前沿算法;开发者可通过集成的 Diffusers 接口或并行推理代码(支持 xDiT)快速构建应用;设计师和普通用户则能借助其强大的生成能力,轻松制作创意短片或动态素材。
HunyuanVideo 的技术亮点在于其系统化的架构设计,不仅支持文生视频(T2V)和图生视频(I2V),还衍生出了支持音频驱动的数字人动画(Avatar)及个性化定制生成(Custom)等扩展能力。此外,项目提供了 FP8 量化版本以显著降低显存占用,并发布了专业的"Penguin Video Benchmark"评测基准,展现了其在工业级落地与学术研究之间的良好平衡。无论是想要复现论文成果,还是寻求高效的视频创作方案,HunyuanVideo 都是一个值得尝试的开源选择。
使用场景
某独立游戏开发者正在为一款赛博朋克风格的冒险游戏制作开场动画,需要生成一段高质量、动作连贯且符合特定美术风格的视频素材。
没有 HunyuanVideo 时
- 制作成本高昂:必须聘请专业 3D 动画师或使用昂贵的渲染农场,单秒视频的制作成本高达数百元,严重挤压独立开发者的预算。
- 迭代周期漫长:修改一个镜头的光影或角色动作,需要重新建模、绑定并渲染数小时,无法快速验证创意想法。
- 风格统一困难:外包团队难以精准还原开发者脑海中独特的“霓虹故障风”,反复沟通导致成品与预期偏差较大。
- 动态连贯性差:尝试使用早期小型 AI 视频模型时,人物动作经常扭曲变形,背景闪烁严重,无法直接用于商业项目。
使用 HunyuanVideo 后
- 大幅降低门槛:开发者只需输入详细的文本提示词,HunyuanVideo 即可直接在本地或云端生成 720p 高清视频,将制作成本降低至几乎为零。
- 实时创意验证:利用其高效的推理框架,几分钟内即可生成多个不同运镜版本的样片,迅速锁定最佳视觉方案。
- 精准风格控制:依托其系统性框架对复杂提示词的理解能力,HunyuanVideo 能准确呈现“雨夜霓虹”、“机械义肢”等细节,完美契合游戏美术设定。
- 电影级画质输出:生成的视频中人物动作自然流畅,长镜头下背景稳定无闪烁,物理运动规律符合真实逻辑,达到可直接商用的标准。
HunyuanVideo 让独立创作者也能以极低的成本和极高的效率,拥有媲美大厂的电影级视频生成能力,彻底重塑了内容创作的工作流。
运行环境要求
- Linux
- 必需 NVIDIA GPU
- 官方提供 FP8 量化权重以节省显存
- 支持多 GPU 并行推理 (xDiT)
- 具体显存需求未在当前片段明确说明,但作为 130 亿参数的大型视频生成模型,通常建议 24GB+ (如 A10/A100/RTX 3090/4090),FP8 版本可降低需求
未说明

快速开始
HunyuanVideo:大型视频生成模型的系统性框架
本仓库包含我们探索HunyuanVideo论文中的PyTorch模型定义、预训练权重以及推理/采样代码。更多可视化内容请访问我们的项目页面。
🔥🔥🔥 最新消息!!
- 2025年11月21日:🎉 我们发布了HunyuanVideo-1.5,这是一款高效且强大的新型基础模型。
- 2025年5月28日:💃 我们发布了基于HunyuanVideo的音频驱动型人物动画模型HunyuanVideo-Avatar。
- 2025年5月9日:🙆 我们发布了基于HunyuanVideo的多模态驱动型定制化视频生成架构HunyuanCustom。
- 2025年3月6日:🌅 我们发布了基于HunyuanVideo的图像转视频模型HunyuanVideo-I2V。
- 2025年1月13日:📈 我们发布了Penguin Video Benchmark。
- 2024年12月18日:🏃♂️ 我们发布了HunyuanVideo的FP8模型权重[https://huggingface.co/tencent/HunyuanVideo/blob/main/hunyuan-video-t2v-720p/transformers/mp_rank_00_model_states_fp8.pt],以节省更多显存。
- 2024年12月17日:🤗 HunyuanVideo已集成到Diffusers中。
- 2024年12月7日:🚀 我们发布了由xDiT支持的HunyuanVideo并行推理代码。
- 2024年12月3日:👋 我们发布了HunyuanVideo的推理代码和模型权重。下载。
🎥 示例
🧩 社区贡献
如果您在项目中开发或使用了HunyuanVideo,欢迎告知我们。
- ComfyUI-Kijai(FP8推理、V2V和IP2V生成):由Kijai开发的ComfyUI-HunyuanVideoWrapper
- ComfyUI-Native(原生支持):由ComfyUI官方开发的ComfyUI-HunyuanVideo
- FastVideo(一致性蒸馏模型和滑动块注意力):由Hao AI Lab开发的FastVideo和滑动块注意力。
- HunyuanVideo-gguf(GGUF版本和量化):由city96开发的HunyuanVideo-gguf。
- Enhance-A-Video(免费提升生成视频质量):由NUS-HPC-AI-Lab开发的Enhance-A-Video。
- TeaCache(基于缓存的加速):由Feng Liu开发的TeaCache。
- HunyuanVideoGP(低配GPU版本):由DeepBeepMeep开发的HunyuanVideoGP。
- RIFLEx(视频长度外推):由清华大学开发的RIFLEx。
- HunyuanVideo关键帧控制LoRA:由dashtoon开发的hunyuan-video-keyframe-control-lora。
- Sparse-VideoGen(以高像素级保真度加速视频生成):由加州大学伯克利分校开发的Sparse-VideoGen。
- FramePack(在下一代帧预测模型中打包输入帧上下文以用于视频生成):由Lvmin Zhang开发的FramePack。
- Jenga(通过动态标记切割实现无需训练的高效视频生成):由DV Lab开发的Jenga。
- DCM(双专家一致性模型,用于高效且高质量的视频生成):由Vchitect开发的DCM。
📑 开源计划
- HunyuanVideo(文本到视频模型)
- 推理
- 检查点
- 多GPU序列并行推理(在更多GPU上实现更快的推理速度)
- Web演示(Gradio)
- Diffusers
- FP8量化权重
- Penguin Video Benchmark
- ComfyUI
- HunyuanVideo(图像到视频模型)
- 推理
- 检查点
目录
摘要
我们提出了 HunyuanVideo,这是一种新颖的开源视频基础模型,其在视频生成方面的性能可与领先的闭源模型相媲美,甚至更胜一筹。为了训练 HunyuanVideo 模型,我们采用了多项关键的技术来进行模型学习,包括数据整理、图像与视频联合训练,以及高效的基础架构设计,以促进大规模模型的训练和推理。此外,通过有效的模型架构和数据集扩展策略,我们成功训练出一个参数量超过 130 亿的视频生成模型,使其成为目前所有开源模型中规模最大的。
我们进行了广泛的实验,并实施了一系列有针对性的设计,以确保高视觉质量、运动多样性、文本与视频的对齐能力以及生成的稳定性。根据专业的人工评估结果,HunyuanVideo 的表现优于以往的最先进模型,包括 Runway Gen-3、Luma 1.6 以及三款表现最佳的中文视频生成模型。通过发布该基础模型及其应用的代码和权重,我们旨在缩小闭源与开源视频基础模型之间的差距。这一举措将赋能社区中的每一个人去尝试他们的想法,从而促进更加动态和充满活力的视频生成生态系统。
HunyuanVideo 总体架构
HunyuanVideo 是在一种时空压缩的潜在空间上进行训练的,该潜在空间通过因果 3D VAE 进行压缩。文本提示使用大型语言模型进行编码,并作为条件输入。以高斯噪声和条件作为输入,我们的生成模型会输出一个潜在表示,随后通过 3D VAE 解码器将其解码为图像或视频。
🎉 HunyuanVideo 主要特性
统一的图像与视频生成架构
HunyuanVideo 引入了 Transformer 设计,并采用全注意力机制来实现图像和视频的统一生成。 具体而言,我们使用“双流转单流”的混合模型设计来进行视频生成。在双流阶段,视频和文本标记分别通过多个 Transformer 块独立处理,使每种模态能够在互不干扰的情况下学习各自合适的调制机制。而在单流阶段,我们将视频和文本标记拼接在一起,输入到后续的 Transformer 块中,以实现高效的多模态信息融合。 这种设计能够捕捉视觉与语义信息之间的复杂交互,从而提升模型的整体性能。
MLLM 文本编码器
一些先前的文本到视频模型通常使用预训练的 CLIP 和 T5-XXL 作为文本编码器,其中 CLIP 使用 Transformer 编码器,而 T5 则采用编码器-解码器结构。相比之下,我们则利用一个具有仅解码器结构的预训练多模态大型语言模型(MLLM)作为文本编码器,它具有以下优势:(i) 与 T5 相比,经过视觉指令微调后的 MLLM 在特征空间中具有更好的图像-文本对齐能力,这有助于缓解扩散模型中遵循指令的难度;(ii) 与 CLIP 相比,MLLM 在图像细节描述和复杂推理方面表现出更强的能力;(iii) MLLM 可以通过遵循用户提示前缀的系统指令,充当零样本学习者,帮助文本特征更好地关注关键信息。此外,MLLM 基于因果注意力机制,而 T5-XXL 则采用双向注意力机制,后者能为扩散模型提供更好的文本指导。因此,我们引入了一个额外的双向标记精炼器来增强文本特征。
3D VAE
HunyuanVideo 训练了一个带有 CausalConv3D 的 3D VAE,用于将像素空间中的视频和图像压缩到紧凑的潜在空间中。我们将视频长度、空间和通道的压缩比分别设置为 4、8 和 16。这可以显著减少后续扩散 Transformer 模型所需的标记数量,从而使我们能够在原始分辨率和帧率下训练视频。
提示重写
为应对用户提供的提示在语言风格和长度上的差异,我们基于Hunyuan-Large模型微调了一个提示重写模型,用于将原始用户提示调整为更适合模型的格式。
我们提供了两种重写模式:普通模式和大师模式,可通过不同的提示词调用。相关提示词请参见此处。普通模式旨在增强视频生成模型对用户意图的理解,从而更准确地解析用户指令;而大师模式则会进一步强化对构图、光照和镜头运动等方面的描述,以生成更高视觉质量的视频。不过,这种侧重有时可能会导致部分语义细节的丢失。
提示重写模型可以直接使用Hunyuan-Large原版代码进行部署和推理。我们已在此处发布了提示重写模型的权重文件:Hugging Face链接。
📈 对比结果
为了评估HunyuanVideo的性能,我们选取了五款闭源视频生成模型作为强基准。总共使用了1,533个文本提示,在一次运行中生成了相同数量的视频样本。为确保公平性,我们仅进行了一次推理,避免了挑选最佳结果的情况。与基准方法对比时,我们保持所有选定模型的默认设置,并统一视频分辨率。评价主要从三个方面展开:文本一致性、动作质量和视觉质量。超过60位专业评估者参与了此次评测。值得注意的是,HunyuanVideo在整体表现上最为出色,尤其在动作质量方面表现突出。需要说明的是,本次评测基于Hunyuan Video的高质量版本,与目前发布的快速版本有所不同。
| 模型 | 开源 | 时长 | 文本一致性 | 动作质量 | 视觉质量 | 综合得分 | 排名 |
|---|---|---|---|---|---|---|---|
| HunyuanVideo(我们的模型) | ✔ | 5s | 61.8% | 66.5% | 95.7% | 41.3% | 1 |
| CNTopA(API) | ✘ | 5s | 62.6% | 61.7% | 95.6% | 37.7% | 2 |
| CNTopB(Web) | ✘ | 5s | 60.1% | 62.9% | 97.7% | 37.5% | 3 |
| GEN-3 alpha(Web) | ✘ | 6s | 47.7% | 54.7% | 97.5% | 27.4% | 4 |
| Luma1.6(API) | ✘ | 5s | 57.6% | 44.2% | 94.1% | 24.8% | 5 |
| CNTopC(Web) | ✘ | 5s | 48.4% | 47.2% | 96.3% | 24.6% | 6 |
📜 系统要求
下表展示了运行HunyuanVideo模型(批量大小=1)生成视频所需的硬件和软件要求:
| 模型 | 设置 (高/宽/帧率) |
GPU峰值显存 |
|---|---|---|
| HunyuanVideo | 720px×1280px×129f | 60GB |
| HunyuanVideo | 544px×960px×129f | 45GB |
- 需要支持CUDA的NVIDIA显卡。
- 该模型已在单块80G显卡上测试通过。
- 最低要求:生成720px×1280px×129f视频时,GPU显存需至少60GB;生成544px×960px×129f视频时,需至少45GB。
- 推荐配置:为获得更好的生成效果,建议使用80GB显存的GPU。
- 测试操作系统:Linux
🛠️ 依赖与安装
首先克隆仓库:
git clone https://github.com/Tencent-Hunyuan/HunyuanVideo
cd HunyuanVideo
Linux系统安装指南
手动安装时,推荐使用CUDA 12.4或11.8版本。
Conda的安装说明请参见这里。
# 1. 创建Conda环境
conda create -n HunyuanVideo python==3.10.9
# 2. 激活环境
conda activate HunyuanVideo
# 3. 使用Conda安装PyTorch及其他依赖
# 对于CUDA 11.8
conda install pytorch==2.6.0 torchvision==0.19.0 torchaudio==2.4.0 pytorch-cuda=11.8 -c pytorch -c nvidia
# 对于CUDA 12.4
conda install pytorch==2.6.0 torchvision==0.19.0 torchaudio==2.4.0 pytorch-cuda=12.4 -c pytorch -c nvidia
# 4. 安装pip依赖
python -m pip install -r requirements.txt
# 5. 安装flash attention v2以加速(需CUDA 11.8及以上)
python -m pip install ninja
python -m pip install git+https://github.com/Dao-AILab/flash-attention.git@v2.6.3
# 6. 安装xDiT以支持并行推理(建议配合PyTorch 2.6.0和flash-attn 2.6.3使用)
python -m pip install xfuser==0.4.0
如果在特定型号的GPU上运行时遇到浮点异常(核心转储),可以尝试以下解决方案:
# 选项1:确保已安装CUDA 12.4、CUBLAS≥12.4.5.8以及CUDNN≥9.00(或者直接使用我们的CUDA 12 Docker镜像)。
pip install nvidia-cublas-cu12==12.4.5.8
export LD_LIBRARY_PATH=/opt/conda/lib/python3.8/site-packages/nvidia/cublas/lib/
# 选项2:强制使用CUDA 11.8编译版本的PyTorch及其他所有包
pip uninstall -r requirements.txt # 卸载所有包
pip uninstall -y xfuser
pip install torch==2.6.0 --index-url https://download.pytorch.org/whl/cu118
pip install -r requirements.txt
pip install ninja
pip install git+https://github.com/Dao-AILab/flash-attention.git@v2.6.3
pip install xfuser==0.4.0
此外,HunyuanVideo还提供了预构建的Docker镜像。可使用以下命令拉取并运行该镜像。
# 对于CUDA 12.4(更新后可避免浮点异常)
docker pull hunyuanvideo/hunyuanvideo:cuda_12
docker run -itd --gpus all --init --net=host --uts=host --ipc=host --name hunyuanvideo --security-opt=seccomp=unconfined --ulimit=stack=67108864 --ulimit=memlock=-1 --privileged hunyuanvideo/hunyuanvideo:cuda_12
# 对于CUDA 11.8
docker pull hunyuanvideo/hunyuanvideo:cuda_11
docker run -itd --gpus all --init --net=host --uts=host --ipc=host --name hunyuanvideo --security-opt=seccomp=unconfined --ulimit=stack=67108864 --ulimit=memlock=-1 --privileged hunyuanvideo/hunyuanvideo:cuda_11
🧱 预训练模型下载
预训练模型的下载详情请参见此处。
🔑 单 GPU 推理
我们在下表中列出了我们支持的高/宽/帧设置。
| 分辨率 | 高/宽=9:16 | 高/宽=16:9 | 高/宽=4:3 | 高/宽=3:4 | 高/宽=1:1 |
|---|---|---|---|---|---|
| 540p | 544px960px129f | 960px544px129f | 624px832px129f | 832px624px129f | 720px720px129f |
| 720p(推荐) | 720px1280px129f | 1280px720px129f | 1104px832px129f | 832px1104px129f | 960px960px129f |
使用命令行
cd HunyuanVideo
python3 sample_video.py \
--video-size 720 1280 \
--video-length 129 \
--infer-steps 50 \
--prompt "一只猫在草地上行走,写实风格。" \
--flow-reverse \
--use-cpu-offload \
--save-path ./results
运行 Gradio 服务器
python3 gradio_server.py --flow-reverse
# 手动设置 SERVER_NAME 和 SERVER_PORT
# SERVER_NAME=0.0.0.0 SERVER_PORT=8081 python3 gradio_server.py --flow-reverse
更多配置
我们列出了一些更实用的配置,方便使用:
| 参数 | 默认值 | 描述 |
|---|---|---|
--prompt |
无 | 视频生成的文本提示 |
--video-size |
720 1280 | 生成视频的尺寸 |
--video-length |
129 | 生成视频的时长 |
--infer-steps |
50 | 采样步数 |
--embedded-cfg-scale |
6.0 | 内置分类器自由引导尺度 |
--flow-shift |
7.0 | 流匹配调度器的偏移因子 |
--flow-reverse |
假 | 如果为真,则从 t=1 到 t=0 进行学习/采样 |
--seed |
无 | 用于生成视频的随机种子,若未指定则自动初始化随机种子 |
--use-cpu-offload |
假 | 使用 CPU offload 加载模型以节省更多内存,对于高分辨率视频生成是必要的 |
--save-path |
./results | 保存生成视频的路径 |
🚀 xDiT 在多 GPU 上的并行推理
xDiT 是一个用于多 GPU 集群上的扩散 Transformer (DiT) 的可扩展推理引擎。 它已成功为多种 DiT 模型提供了低延迟的并行推理解决方案,包括 mochi-1、CogVideoX、Flux.1、SD3 等。本仓库采用了 统一序列并行性 (USP) API 来实现 HunyuanVideo 模型的并行推理。
使用命令行
例如,要使用 8 个 GPU 生成视频,可以使用以下命令:
cd HunyuanVideo
torchrun --nproc_per_node=8 sample_video.py \
--video-size 1280 720 \
--video-length 129 \
--infer-steps 50 \
--prompt "一只猫在草地上行走,写实风格。" \
--flow-reverse \
--seed 42 \
--ulysses-degree 8 \
--ring-degree 1 \
--save-path ./results
您可以调整 --ulysses-degree 和 --ring-degree 来控制并行配置,以获得最佳性能。有效的并行配置如下表所示。
支持的并行配置(点击展开)
| --video-size | --video-length | --ulysses-degree x --ring-degree | --nproc_per_node |
|---|---|---|---|
| 1280 720 或 720 1280 | 129 | 8x1,4x2,2x4,1x8 | 8 |
| 1280 720 或 720 1280 | 129 | 1x5 | 5 |
| 1280 720 或 720 1280 | 129 | 4x1,2x2,1x4 | 4 |
| 1280 720 或 720 1280 | 129 | 3x1,1x3 | 3 |
| 1280 720 或 720 1280 | 129 | 2x1,1x2 | 2 |
| 1104 832 或 832 1104 | 129 | 4x1,2x2,1x4 | 4 |
| 1104 832 或 832 1104 | 129 | 3x1,1x3 | 3 |
| 1104 832 或 832 1104 | 129 | 2x1,1x2 | 2 |
| 960 960 | 129 | 6x1,3x2,2x3,1x6 | 6 |
| 960 960 | 129 | 4x1,2x2,1x4 | 4 |
| 960 960 | 129 | 3x1,1x3 | 3 |
| 960 960 | 129 | 1x2,2x1 | 2 |
| 960 544 或 544 960 | 129 | 6x1,3x2,2x3,1x6 | 6 |
| 960 544 或 544 960 | 129 | 4x1,2x2,1x4 | 4 |
| 960 544 或 544 960 | 129 | 3x1,1x3 | 3 |
| 960 544 或 544 960 | 129 | 1x2,2x1 | 2 |
| 832 624 或 624 832 | 129 | 4x1,2x2,1x4 | 4 |
| 624 832 或 624 832 | 129 | 3x1,1x3 | 3 |
| 832 624 或 624 832 | 129 | 2x1,1x2 | 2 |
| 720 720 | 129 | 1x5 | 5 |
| 720 720 | 129 | 3x1,1x3 | 3 |
| 1280x720(129 帧,50 步)在 8xGPU 上的延迟(秒) | |||
|---|---|---|---|
| 1 | 2 | 4 | 8 |
| 1904.08 | 934.09(2.04倍) | 514.08(3.70倍) | 337.58(5.64倍) |
🚀 FP8 推理
使用 FP8 量化权重的 HunyuanVideo 可以节省约 10GB 的 GPU 内存。您可以从 Huggingface 下载 权重 和 权重缩放值。
使用命令行
在这里,您必须显式指定 FP8 权重路径。例如,要使用 fp8 权重生成视频,可以使用以下命令:
cd HunyuanVideo
DIT_CKPT_PATH={FP8权重路径}/{权重名称}_fp8.pt
python3 sample_video.py \
--dit-weight ${DIT_CKPT_PATH} \
--video-size 1280 720 \
--video-length 129 \
--infer-steps 50 \
--prompt "一只猫在草地上行走,写实风格。" \
--seed 42 \
--embedded-cfg-scale 6.0 \
--flow-shift 7.0 \
--flow-reverse \
--use-cpu-offload \
--use-fp8 \
--save-path ./results
🔗 BibTeX
如果您发现 HunyuanVideo 对您的研究和应用有所帮助,请使用以下 BibTeX 格式引用:
@article{kong2024hunyuanvideo,
title={Hunyuanvideo: 大规模视频生成模型的系统性框架},
author={Kong, Weijie and Tian, Qi and Zhang, Zijian and Min, Rox and Dai, Zuozhuo and Zhou, Jin and Xiong, Jiangfeng and Li, Xin and Wu, Bo and Zhang, Jianwei and others},
journal={arXiv 预印本 arXiv:2412.03603},
year={2024}
}
致谢
我们衷心感谢 SD3、FLUX、Llama、LLaVA、Xtuner、diffusers 和 HuggingFace 等开源项目的所有贡献者,感谢他们开放的研究与探索。
此外,我们还要感谢腾讯混元多模态团队在文本编码器方面的帮助。
GitHub 星标历史
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
