Awesome-Denoise
Awesome-Denoise 是一个专注于图像、连拍及视频去噪领域的开源资源汇总项目。它系统性地整理了发表在顶级会议和期刊上的最新去噪论文,并为每篇论文提供了代码实现链接与引用信息,旨在解决研究人员在海量文献中难以快速定位高质量、可复现算法的痛点。
该资源库通过色彩空间(RGB/Raw)、图像类型(单张/连拍/视频)以及噪声模型(如高斯噪声、真实相机噪声等)三个维度对论文进行精细分类,帮助用户高效筛选所需技术。其独特亮点在于不仅涵盖了传统的监督学习方法,还专门收录了 Noise2Noise、Noise2Void 等前沿的自监督去噪成果,并整理了 SIDD、SID 等权威基准数据集的详细资料。
Awesome-Denoise 特别适合计算机视觉领域的研究人员、算法工程师以及高校学生使用。无论是希望跟进最新学术进展,还是寻找可落地的去噪代码基线,用户都能在此获得一站式的支持,从而大幅降低调研成本,加速研发进程。
使用场景
某计算机视觉团队正在为一款夜间安防监控摄像头开发去噪算法,急需在缺乏干净参考图的情况下提升低光照视频画质。
没有 Awesome-Denoise 时
- 文献检索如大海捞针:团队成员需手动在 arXiv、CVPR 等各大会议网站逐个搜索"self-supervised denoising"或"video denoising",耗时数周仍难以覆盖最新成果。
- 代码复现门槛极高:找到的论文往往缺少官方代码链接,或仓库已失效(如 RENOIR 数据集链接断裂),导致无法验证算法效果。
- 场景匹配困难:难以快速区分哪些模型适用于“真实相机噪声(Real)”而非简单的高斯噪声(AWGN),更不清楚哪些视频去噪方法可退化为单帧图像处理。
- 基准测试混乱:面对 SIDD、SID、DND 等多个数据集,缺乏统一的引用数据和适用场景说明,导致选型决策依赖主观猜测。
使用 Awesome-Denoise 后
- 一站式获取前沿方案:直接通过分类标签(如 Video + Real + Self-supervised)锁定 ICCV 2021 的 UDVD 或 ACM MM 2023 的 RDRF 等最新论文,将调研时间从数周缩短至几小时。
- 代码与数据即取即用:每个条目均附带有效的 GitHub 代码库和数据集下载指引,甚至标注了 TensorFlow 或 Matlab 实现版本,大幅降低复现成本。
- 精准匹配业务需求:利用颜色空间(Raw/RGB)和噪声模型(GAN/Real)的分类维度,迅速排除仅适用于合成噪声的模型,锁定针对真实监控噪点的算法。
- 权威基准辅助决策:参考列表中清晰的引用次数(如 SID 高达 595 次)和发表 venue,快速评估算法成熟度,避免在实验阶段踩坑。
Awesome-Denoise 将原本碎片化、高门槛的去噪技术调研过程,转化为高效、精准的工程选型流程,让研发团队能专注于算法落地而非资料搜集。
运行环境要求
未说明
未说明

快速开始
令人惊叹的去噪
为了更好地理解这些论文,我们可以从三个主要方面将其划分为不同的类别。
有时,原始域去噪论文会使用一些ISP处理将图像转换为sRGB域,因此使用“Both”来涵盖这种情况。
同样,视频去噪论文有时也会退化为成簇图像去噪,甚至单张图像去噪,因此始终使用“Video”标签来覆盖这类情况。
颜色空间
- RGB
- 原始域
- 两者皆有
图像类型
- 单张
- 成簇图像
- 视频
噪声模型
- AWGN(加性高斯白噪声模型)
- PG(泊松-高斯噪声模型)
- GAN(基于生成对抗网络的噪声模型)
- Real(相机或单反设备中的真实噪声模型)
- 先验知识
- 低秩
- 稀疏性
- 自相似性
基准数据集
- SIDD,CVPR 2018,引用次数256
- RENOIR,JVCIR 2018,引用次数106
- PolyU,arXiv 2018,引用次数108
- SID,CVPR 2018,引用次数595
- DND,CVPR 2017,引用次数296
- NaM,CVPR 2016,引用次数148
自监督去噪
视频去噪
- 无监督深度视频去噪
- ICCV 2021, UDVD
- 具有更密集感受野的循环自监督视频去噪
- ACM MM 2023, 代码
图像去噪
按年份
2020年
2019年
2018
2017年
| 出版物 | 标题 | 代码 | 引用 |
|---|---|---|---|
| TIP | 超越高斯去噪器:用于图像去噪的深度CNN残差学习 | - | 4387 |
| TIP | 通过图像传感器噪声的泊松混合建模改进去噪 | - | 29 |
| TIP | 结合结构平滑性的重加权低秩矩阵分析用于图像去噪 | - | 40 |
| TIP | 特定类别目标图像去噪 | - | 31 |
| TIP | 仿射非局部均值图像去噪 | - | 39 |
| CVPR | 基于CNN的图像去噪:一种对抗性方法 | - | 71 |
| CVPR | 使用卷积神经网络的非局部彩色图像去噪 | - | 274 |
| CVPR | 为图像恢复学习深度CNN去噪先验 | - | 1277 |
| ICCV | 学习邻近算子:利用去噪网络正则化逆成像问题 | - | 246 |
| ICCV | 用于真实彩色图像去噪的多通道加权核范数最小化 | - | 230 |
| ICCV | 在线联合自适应稀疏性和低秩性:用于视频去噪的在线张量重建方案 | - | 40 |
| ICCV | 使用单侧二阶高斯核进行斑点重建及其在高ISO长曝光图像去噪中的应用 | - | 10 |
| ICIP | 利用组稀疏残差和外部非局部自相似先验进行图像去噪 | - | 7 |
| arxiv | 基于块匹配的卷积神经网络用于图像去噪 | - | 50 |
| arxiv | 利用更宽的卷积学习像素分布先验进行图像去噪 | Matlab | 19 |
| arxiv | 用于图像去噪的恒等映射模块串联 | - | 12 |
| ICTAI | 用于图像去噪的空洞深度残差网络 | - | 73 |
2017年之前
| 年份 | 出版物 | 标题 | 代码 | 引用 |
|---|---|---|---|---|
| 2016 | CVPR | 深度高斯条件随机场网络:一种基于模型的深度网络用于判别式去噪 | - | 68 |
| 2016 | CVPR | 从噪声建模到盲图像去噪 | - | 67 |
| 2016 | TIP | 基于光流估计的分块视频去噪 | - | 99 |
| 2016 | ToG | 深度联合去马赛克与去噪 | - | 336 |
| 2016 | ICASSP | 利用深度卷积网络快速进行深度图像去噪与增强 | - | 62 |
| 2015 | ICCV | 一种高效的图像噪声水平估计统计方法 | - | 184 |
| 2015 | TIP | 针对去噪的图像特异性先验自适应 | - | 19 |
| 2015 | IPOL | 噪声诊所:一种盲图像去噪算法 | - | 112 |
| 2014 | TIP | 从单幅噪声图像中进行实用的信号相关噪声参数估计 | - | 86 |
| 2014 | - | 光子、泊松噪声 | - | 107 |
| 2012 | CVPR | 图像去噪:普通神经网络能否与BM3D竞争? | - | 1246 |
| 2012 | ICIP | 彩色数码相机中泊松噪声的主导地位 | - | 29 |
| 2009 | SP | 截断的噪声图像:异方差建模与实用去噪 | - | 129 |
| 2008 | TIP | 单幅原始数据的实用泊松-高斯噪声建模与拟合 | Matlab | 723 |
| 2007 | TIP | 通过稀疏三维变换域协同滤波进行图像去噪 | - | 7357 |
| 2007 | TPAMI | 自动估计并去除单幅图像中的噪声 | - | 599 |
| 2005 | CVPR | 一种用于图像去噪的非局部算法 | - | 7477 |
| 2019 | 书籍 | CMOS:电路设计、版图与仿真:第四版 | - | 5390 |
| 2018 | 书籍 | 摄影图像与视频去噪:基础、开放挑战及新趋势 | - | 14 |
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。