waifu2x-ncnn-vulkan

GitHub
3.4k 233 简单 1 次阅读 昨天MIT图像开发框架
AI 解读 由 AI 自动生成,仅供参考

waifu2x-ncnn-vulkan 是一款专为图像超分辨率和降噪设计的高效开源工具。它基于经典的 waifu2x 算法,能够将低分辨率图片(尤其是动漫风格图像)无损放大并去除噪点,显著提升画质清晰度。

该工具主要解决了传统图像处理软件在放大图片时容易模糊、产生锯齿,以及现有 AI 放大工具对硬件环境依赖复杂、运行速度慢的痛点。通过采用腾讯开源的 ncnn 神经网络推理框架和 Vulkan API,waifu2x-ncnn-vulkan 实现了极高的跨平台兼容性,无需安装 CUDA 或 Caffe 等沉重的深度学习环境,即可在 Intel、AMD、NVIDIA 显卡及 Apple Silicon 芯片上流畅运行。

无论是需要批量处理素材的专业设计师、追求画质的动漫爱好者,还是希望快速部署图像增强功能的开发者,都能从中受益。其独特的技术亮点在于“便携性”与“高性能”的完美结合:安装包内置了所有必要的二进制文件和模型,开箱即用;同时支持多 GPU 并行处理和灵活的线程配置,用户可通过简单的命令行参数精确控制降噪强度、放大倍数及显存占用,在保证速度的同时适应不同配置的硬件设备。

使用场景

一位独立游戏开发者需要将自己十年前绘制的低分辨率像素风格角色立绘(200x200 像素)高清化,以适配现代高分辨率屏幕和宣传素材。

没有 waifu2x-ncnn-vulkan 时

  • 环境配置极其繁琐:必须安装特定版本的 CUDA、cuDNN 和 Caffe 框架,不同显卡驱动版本常导致依赖冲突,配置过程耗时数小时。
  • 硬件兼容性差:若使用集成显卡或 Apple Silicon Mac 进行调试,因缺乏 CUDA 支持只能被迫使用 CPU 跑图,单张图片处理需数分钟甚至更久。
  • 画质与噪点难以平衡:传统放大算法(如双三次插值)会让像素边缘模糊,而旧版 AI 工具在去噪时容易抹平独特的像素艺术细节,导致画面“塑料感”严重。
  • 批量处理效率低下:面对数百张素材,缺乏高效的线程调度机制,无法充分利用多核 CPU 和多 GPU 并行能力,整体渲染队列停滞不前。

使用 waifu2x-ncnn-vulkan 后

  • 开箱即用零配置:直接下载包含所有二进制文件和模型的便携包,无需安装任何深度学习运行时环境,双击即可在 Windows、macOS 或 Linux 上运行。
  • 全平台 GPU 加速:基于 Vulkan API,无论是 NVIDIA 独显、AMD 显卡、Intel 核显还是 Apple M 系列芯片,均能实现秒级出图,速度较纯 CPU 提升数十倍。
  • 精准还原像素细节:通过 -n 参数灵活调节去噪等级(如设为 2),在消除压缩伪影的同时完美保留锐利的像素边缘,配合 -s 2 实现无损 2 倍放大。
  • 高效批量流水线:利用 -j 参数自定义加载、处理、保存的线程数(如 4:4:4),轻松榨干多核性能,短时间内即可完成整个项目素材库的高清重构。

waifu2x-ncnn-vulkan 通过消除复杂的部署门槛并释放跨平台 GPU 算力,让老旧的低清素材瞬间焕发新生,极大降低了高清化修复的时间与技术成本。

运行环境要求

操作系统
  • Windows
  • Linux
  • macOS
GPU
  • 非必需(支持 CPU 模式 -g -1),但推荐使用支持 Vulkan API 的 GPU(Intel / AMD / NVIDIA / Apple-Silicon)
  • 无需 CUDA
  • 显存需求取决于图片大小和 tile-size 设置,小图仅需约 200MB,大图建议 2GB+
内存

未说明

依赖
notes该工具为便携式安装包,内置所有二进制文件和模型,无需安装 CUDA 或 Caffe 运行环境。若在 Windows/Linux/macOS 上遇到崩溃,请尝试更新显卡驱动以支持 Vulkan API。macOS 用户若从源码编译需单独安装 Vulkan SDK。可通过调整 -t (tile-size) 参数来降低显存占用。
python不需要 Python(提供独立可执行文件)
ncnn
Vulkan SDK (仅 macOS 编译时需要)
libwebp
libjpeg-turbo
libpng
zlib-ng
dirent (Windows)
waifu2x-ncnn-vulkan hero image

快速开始

waifu2x ncnn Vulkan

CI download

waifu2x 转换器的 ncnn 实现。在支持 Vulkan API 的 Intel / AMD / NVIDIA / Apple-Silicon 上运行速度极快。

waifu2x-ncnn-vulkan 使用 ncnn 项目 作为通用的神经网络推理框架。

下载

下载适用于 Intel/AMD/NVIDIA/Apple-Silicon GPU 的 Windows/Linux/macOS 可执行文件

https://github.com/nihui/waifu2x-ncnn-vulkan/releases

该软件包包含所有必要的二进制文件和模型。它具有便携性,因此无需 CUDA 或 Caffe 运行时环境 :)

使用方法

示例命令

waifu2x-ncnn-vulkan.exe -i input.jpg -o output.png -n 2 -s 2

完整用法

用法:waifu2x-ncnn-vulkan -i 输入文件 -o 输出文件 [选项]...

  -h                   显示此帮助信息
  -v                   详细输出
  -i 输入路径          输入图像路径(jpg/png/webp)或目录
  -o 输出路径          输出图像路径(jpg/png/webp)或目录
  -n 噪声级别          去噪级别 (-1/0/1/2/3, 默认=0)
  -s 缩放倍数          放大比例 (1/2/4/8/16/32, 默认=2)
  -t 图块大小          图块大小 (>=32/0=自动, 默认=0),多 GPU 时可设为 0,0,0
  -m 模型路径          waifu2x 模型路径(默认=models-cunet)
  -g GPU ID            要使用的 GPU 设备 (-1=CPU, 默认=自动),多 GPU 时可设为 0,1,2
  -j 加载:处理:保存    加载/处理/保存阶段的线程数(默认=1:2:2),多 GPU 时可设为 1:2,2,2:2
  -x                   启用 TTA 模式
  -f 格式              输出图像格式(jpg/png/webp,默认=扩展名/png)
  • 输入路径输出路径 可以是文件路径或目录路径
  • 噪声级别 = 噪声等级,数值越大去噪效果越强,-1 表示无效果
  • 缩放倍数 = 缩放级别,1 表示不缩放,2 表示放大 2 倍
  • 图块大小 = 图块尺寸,使用较小值可减少 GPU 内存占用,默认会自动选择
  • 加载:处理:保存 = 三个阶段(图像解码 + waifu2x 上采样 + 图像编码)的线程数,使用较大值可能会增加 GPU 利用率并消耗更多 GPU 内存。对于许多小尺寸图像,可以尝试“4:4:4”;而对于大尺寸图像,则可以使用“2:2:2”。默认设置通常适用于大多数情况。如果发现 GPU 资源紧张,可适当增加线程数以提高处理速度。
  • 格式 = 输出图像的格式,PNG 格式支持更好,但 WebP 通常能生成更小的文件,两者均为无损编码。

如果遇到崩溃或错误,请尝试更新您的 GPU 驱动程序:

从源代码构建

  1. (仅限 macOS)从 https://vulkan.lunarg.com/ 下载并设置 Vulkan SDK。

  2. 克隆本项目及其所有子模块

git clone https://github.com/nihui/waifu2x-ncnn-vulkan.git
cd waifu2x-ncnn-vulkan
git submodule update --init --recursive
  1. 使用 CMake 构建
  • 在 macOS 上,您可以传递 -DUSE_STATIC_MOLTENVK=ON 选项来避免链接 Vulkan 加载库。
mkdir build
cd build
cmake ../src
cmake --build . -j 4

与 waifu2x-caffe-cui 的速度对比

环境

  • Windows 10 1809
  • AMD R7-1700
  • NVIDIA GTX-1070
  • NVIDIA 驱动程序 419.67
  • CUDA 10.1.105
  • cuDNN 10.1
Measure-Command { waifu2x-ncnn-vulkan.exe -i input.png -o output.png -n 2 -s 2 -t [块大小] -m [模型目录] }
Measure-Command { waifu2x-caffe-cui.exe -t 0 --gpu 0 -b 1 -c [块大小] -p cudnn --model_dir [模型目录] -s 2 -n 2 -m noise_scale -i input.png -o output.png }

cunet

图像尺寸 目标尺寸 块大小 总耗时(s) GPU 内存(MB)
waifu2x-ncnn-vulkan 200x200 400x400 400/200/100 0.86/0.86/0.82 638/638/197
waifu2x-caffe-cui 200x200 400x400 400/200/100 2.54/2.39/2.36 3017/936/843
waifu2x-ncnn-vulkan 400x400 800x800 400/200/100 1.17/1.04/1.02 2430/638/197
waifu2x-caffe-cui 400x400 800x800 400/200/100 2.91/2.43/2.7 3202/1389/1178
waifu2x-ncnn-vulkan 1000x1000 2000x2000 400/200/100 2.35/2.26/2.46 2430/638/197
waifu2x-caffe-cui 1000x1000 2000x2000 400/200/100 4.04/3.79/4.35 3258/1582/1175
waifu2x-ncnn-vulkan 2000x2000 4000x4000 400/200/100 6.46/6.59/7.49 2430/686/213
waifu2x-caffe-cui 2000x2000 4000x4000 400/200/100 7.01/7.54/10.11 3258/1499/1200
waifu2x-ncnn-vulkan 4000x4000 8000x8000 400/200/100 22.78/23.78/27.61 2448/654/213
waifu2x-caffe-cui 4000x4000 8000x8000 400/200/100 18.45/21.85/31.82 3325/1652/1236

upconv_7_anime_style_art_rgb

图像尺寸 目标尺寸 块大小 总耗时(s) GPU 内存(MB)
waifu2x-ncnn-vulkan 200x200 400x400 400/200/100 0.74/0.75/0.72 482/482/142
waifu2x-caffe-cui 200x200 400x400 400/200/100 2.04/1.99/1.99 995/546/459
waifu2x-ncnn-vulkan 400x400 800x800 400/200/100 0.95/0.83/0.81 1762/482/142
waifu2x-caffe-cui 400x400 800x800 400/200/100 2.08/2.12/2.11 995/546/459
waifu2x-ncnn-vulkan 1000x1000 2000x2000 400/200/100 1.52/1.41/1.44 1778/482/142
waifu2x-caffe-cui 1000x1000 2000x2000 400/200/100 2.72/2.60/2.68 1015/570/459
waifu2x-ncnn-vulkan 2000x2000 4000x4000 400/200/100 3.45/3.42/3.63 1778/482/142
waifu2x-caffe-cui 2000x2000 4000x4000 400/200/100 3.90/4.01/4.35 1015/521/462
waifu2x-ncnn-vulkan 4000x4000 8000x8000 400/200/100 11.16/11.29/12.07 1796/498/158
waifu2x-caffe-cui 4000x4000 8000x8000 400/200/100 9.24/9.81/11.16 995/546/436

示例图片

原始图像

origin

使用 ImageMagick 放大 2 倍

convert origin.jpg -resize 200% output.png

browser

使用 ImageMagick Lanczos4 滤波器放大 2 倍

convert origin.jpg -filter Lanczos -resize 200% output.png

browser

使用 waifu2x 噪声=2 缩放=2 放大 2 倍

waifu2x-ncnn-vulkan.exe -i origin.jpg -o output.png -n 2 -s 2

waifu2x

原始 waifu2x 项目

其他使用的开源代码

版本历史

202509152025/09/15
202508022025/08/02
202505042025/05/04
202207282022/07/28
202204192022/04/19
202105212021/05/21
202102102021/02/10
202101022021/01/02
202008182020/08/18
202006062020/06/06
202005302020/05/30
202004142020/04/14
202002242020/02/24
202002232020/02/23
202002222020/02/22
201907122019/07/12
201906302019/06/30
201906112019/06/11
201904212019/04/21
201904142019/04/14

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|3天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|4天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

147.9k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.1k|★★☆☆☆|昨天
开发框架图像Agent

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|3天前
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|3天前
语言模型图像Agent