[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-swz30--MIRNet":3,"tool-swz30--MIRNet":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",151314,2,"2026-04-11T23:32:58",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":107,"github_topics":108,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":162},6821,"swz30\u002FMIRNet","MIRNet","[ECCV 2020] Learning Enriched Features for Real Image Restoration and Enhancement. SOTA results for image denoising, super-resolution, and image enhancement.","MIRNet 是一款专为真实图像修复与增强设计的深度学习模型，曾荣获 ECCV 2020 最佳成果。它主要解决图像去噪、超分辨率重建及画质增强等难题，旨在从模糊、有噪点或低分辨率的退化图像中恢复出高质量细节。\n\n传统方法往往难以兼顾“空间精度”与“上下文语义”：高分辨率处理虽保留细节但缺乏全局理解，低分辨率处理虽懂语义却丢失精细结构。MIRNet 创新性地提出了一种多尺度残差架构，通过并行的多分辨率卷积流，既全程保持高分辨率特征以锁定精准空间细节，又利用低分辨率分支提取强大的上下文信息。其核心的选择性核特征融合（SKFF）模块与注意力机制，能智能聚合多尺度特征，实现细节与语义的完美平衡。\n\n这款工具非常适合计算机视觉研究人员、AI 开发者以及需要处理专业影像数据的工程师使用。无论是用于安防监控画质提升、医学影像分析，还是计算摄影领域的算法开发，MIRNet 都能提供业界领先的性能表现。此外，项目社区活跃，提供了包括 Keras 教程在内的丰富资源，便于用户快速上手实验与二次开发。","# Learning Enriched Features for Real Image Restoration and Enhancement (ECCV 2020)\n\n[Syed Waqas Zamir](https:\u002F\u002Fscholar.google.ae\u002Fcitations?hl=en&user=POoai-QAAAAJ), [Aditya Arora](https:\u002F\u002Fadityac8.github.io\u002F), [Salman Khan](https:\u002F\u002Fsalman-h-khan.github.io\u002F), [Munawar Hayat](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=Mx8MbWYAAAAJ&hl=en), [Fahad Shahbaz Khan](https:\u002F\u002Fscholar.google.es\u002Fcitations?user=zvaeYnUAAAAJ&hl=en), [Ming-Hsuan Yang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=p9-ohHsAAAAJ&hl=en), [Ling Shao](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=z84rLjoAAAAJ&hl=en)\n\n\n[![paper](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-Paper-brightgreen)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.06792)\n[![supplement](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSupplementary-Material-B85252)](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1QIKp7h7Rd85odaS6bDoeDGXb0VLKo8I9\u002Fview?usp=sharing)\n[![video](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVideo-Presentation-F9D371)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=6xSzRjAodv4)\n[![slides](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPresentation-Slides-B762C1)](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1hnhqSrjqQQiYn7XPAGpFgMBTfBlb1QAy\u002Fview?usp=sharing)\n\n\u003Chr \u002F>\n\n### News\n- A lightweight, fast and extended version of MIRNet is accepted in **TPAMI**. [Paper](https:\u002F\u002Fwww.waqaszamir.com\u002Fpublication\u002Fzamir-2022-mirnetv2\u002F) | [Code](https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNetv2)\n\n- Keras Tutorial on MIRNet is available at https:\u002F\u002Fkeras.io\u002Fexamples\u002Fvision\u002Fmirnet\u002F \n\n- Video on Tensorflow Youtube channel https:\u002F\u002Fyoutu.be\u002FBMza5yrwZ9s\n\n- Links to (unofficial) implementations are added [here](#other-implementations)\n\n\u003Chr \u002F>\n\n> **Abstract:** *With the goal of recovering high-quality image content from its degraded version, image restoration enjoys numerous applications, such as in surveillance, computational photography, medical imaging, and remote sensing.  Recently, convolutional neural networks (CNNs) have achieved dramatic improvements over conventional approaches for image restoration task. Existing CNN-based methods typically operate either on full-resolution or on progressively low-resolution representations. In the former case, spatially precise but contextually less robust results are achieved, while in the latter case, semantically reliable but spatially less accurate outputs are generated. In this paper, we present a novel architecture with the collective goals of maintaining spatially-precise high-resolution representations through the entire network, and receiving strong contextual information from the low-resolution representations.  The core of our approach is a multi-scale residual block containing several key elements: (a) parallel multi-resolution convolution streams for extracting multi-scale features, (b) information exchange across the multi-resolution streams, (c) spatial and channel attention mechanisms for capturing contextual information, and (d) attention based multi-scale feature aggregation. In the nutshell, our approach learns an enriched set of features that combines contextual information from multiple scales, while simultaneously preserving the high-resolution spatial details. Extensive experiments on five real image benchmark datasets demonstrate that our method, named as MIRNet, achieves state-of-the-art results for a variety of image processing tasks, including image denoising, super-resolution and image enhancement.* \n\n\u003Cdetails>\n  \u003Csummary> \u003Cstrong>Network Architecture\u003C\u002Fstrong> (click to expand) \u003C\u002Fsummary>\n \n\u003Cp align=\"center\">\n  \u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002Fvmywppl.png\" width=\"700\">\n  \u003Cbr\u002F>\n  \u003Cb> Overall Framework of MIRNet \u003C\u002Fb>\n\u003C\u002Fp>\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd> \u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002Ftqpje3M.png\" width=\"600\"> \u003C\u002Ftd>\n    \u003Ctd> \u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002FDQ6SYaH.png\" width=\"300\"> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cp align=\"center\">\u003Cb>Selective Kernel Feature Fusion (SKFF)\u003C\u002Fb>\u003C\u002Fp>\u003C\u002Ftd>\n    \u003Ctd>\u003Cp align=\"center\"> \u003Cb>Downsampling Module\u003C\u002Fb>\u003C\u002Fp>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Ctable>\n\u003Ctr>\n    \u003Ctd> \u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002FFmHQ0VD.png\" width=\"600\"> \u003C\u002Ftd>\n    \u003Ctd> \u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002FaOAFSkq.png\" width=\"300\"> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cp align=\"center\">\u003Cb>Dual Attention Unit (DAU)\u003C\u002Fb>\u003C\u002Fp>\u003C\u002Ftd>\n    \u003Ctd>\u003Cp align=\"center\">\u003Cb>Upsampling Module\u003C\u002Fb>\u003C\u002Fp>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003C\u002Fdetails>\n\n## Installation\nThe model is built in PyTorch 1.1.0 and tested on Ubuntu 16.04 environment (Python3.7, CUDA9.0, cuDNN7.5).\n\nFor installing, follow these intructions\n```\nsudo apt-get install cmake build-essential libjpeg-dev libpng-dev\nconda create -n pytorch1 python=3.7\nconda activate pytorch1\nconda install pytorch=1.1 torchvision=0.3 cudatoolkit=9.0 -c pytorch\npip install matplotlib scikit-image opencv-python yacs joblib natsort h5py tqdm\n```\n\n\n## Training\n1. Download the SIDD-Medium dataset from [here](https:\u002F\u002Fwww.eecs.yorku.ca\u002F~kamel\u002Fsidd\u002Fdataset.php)\n2. Generate image patches\n```\npython generate_patches_SIDD.py --ps 256 --num_patches 300 --num_cores 10\n```\n3. Download validation images of SIDD and place them in `..\u002FSIDD_patches\u002Fval`\n \n4. Install warmup scheduler\n\n```\ncd pytorch-gradual-warmup-lr; python setup.py install; cd ..\n```\n\n5. Train your model with default arguments by running\n\n```\npython train_denoising.py\n```\n\n**Note:** Our model is trained with 2 Nvidia Tesla-V100 GPUs. See [#5](https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNet\u002Fissues\u002F5) for changing the model parameters.  \n\n## Evaluation\nYou can download, at once, the complete repository of MIRNet (including pre-trained models, datasets, results, etc) from this Google Drive  [link](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1C2XCufoxxckQ29EkxERFPxL8R3Kx68ZG?usp=sharing), or evaluate individual tasks with the following instructions:\n\n### Image Denoising \n- Download the [model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F13PGkg3yaFQCvz6ytN99Heh_yyvfxRCdG\u002Fview?usp=sharing) and place it in .\u002Fpretrained_models\u002Fdenoising\u002F\n\n#### Testing on SIDD dataset\n- Download sRGB [images](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1j5ESMU0HJGD-wU6qbEdnt569z7sM3479?usp=sharing) of SIDD and place them in .\u002Fdatasets\u002Fsidd\u002F\n- Run\n```\npython test_sidd_rgb.py --save_images\n```\n#### Testing on DND dataset\n- Download sRGB [images](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1-IBw_J0gdlM6AlqSm3Z7XWTXR-So4xzp?usp=sharing) of DND and place them in .\u002Fdatasets\u002Fdnd\u002F\n- Run\n```\npython test_dnd_rgb.py --save_images\n```\n### Image Super-resolution\n- Download the [models](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1yMtXbk6RXoFfmeRRGu1XfNFSHH6bSUoR?usp=sharing) and place them in .\u002Fpretrained_models\u002Fsuper_resolution\u002F\n- Download [images](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1mAr0YCqBJFXsnOnOp0WWxkAiGF9DQAe8?usp=sharing) of different scaling factor and place them in .\u002Fdatasets\u002Fsuper_resolution\u002F\n- Run\n```\npython test_super_resolution.py --save_images --scale 3\npython test_super_resolution.py --save_images --scale 4\n```\n\n### Image Enhancement \n#### Testing on LOL dataset\n- Download the LOL [model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1t_FcBuMZD5th2KWVVNXYGJ7bMz5ZAWvF\u002Fview?usp=sharing) and place it in .\u002Fpretrained_models\u002Fenhancement\u002F\n- Download [images](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1LR6J4tkG6DLHqsipsMgHgU_p1xOZjdAA?usp=sharing) of LOL dataset and place them in .\u002Fdatasets\u002Flol\u002F\n- Run\n```\npython test_enhancement.py --save_images --input_dir .\u002Fdatasets\u002Flol\u002F --result_dir .\u002Fresults\u002Fenhancement\u002Flol\u002F --weights .\u002Fpretrained_models\u002Fenhancement\u002Fmodel_lol.pth\n```\n#### Testing on Adobe-MIT FiveK dataset\n- Download the FiveK [model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1BsXOvhMz2z80E_V93dgD6QaEspZE0w-u\u002Fview?usp=sharing) and place it in .\u002Fpretrained_models\u002Fenhancement\u002F\n- Download some sample [images](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1tyrELge59GdhZ18VR6yFwVb5Kenq2hSd?usp=sharing) of fiveK dataset and place them in .\u002Fdatasets\u002Ffivek_sample_images\u002F\n- Run\n```\npython test_enhancement.py --save_images --input_dir .\u002Fdatasets\u002Ffivek_sample_images\u002F --result_dir .\u002Fresults\u002Fenhancement\u002Ffivek\u002F --weights .\u002Fpretrained_models\u002Fenhancement\u002Fmodel_fivek.pth\n```\n\n\n## Results\n\nExperiments are performed on five real image datasets for different image processing tasks including, image denoising, super-resolution and image enhancement. Images produced by MIRNet can be downloaded from Google Drive [link](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1z6bFP7ydBaQOPmk8n1byYY0xcLx7aBHp?usp=sharing).\n\n\u003Cdetails>\n  \u003Csummary> \u003Cstrong>Image Denoising\u003C\u002Fstrong> (click to expand) \u003C\u002Fsummary>\n\u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002Fte123qk.png\" >\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary> \u003Cstrong>Image Super-resolution \u003C\u002Fstrong> (click to expand) \u003C\u002Fsummary>\n\u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002FpBdUPXa.png\" >\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary> \u003Cstrong>Image Enhancement\u003C\u002Fstrong> (click to expand) \u003C\u002Fsummary>\n\u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002FTZRBlux.png\" >\u003C\u002Fdetails>\n\n## Other Implementations\n- [Tensorflow](https:\u002F\u002Fgithub.com\u002Fsoumik12345\u002FMIRNet) (Soumik Rakshit)\n- [Tensorflow-JS](https:\u002F\u002Fgithub.com\u002FRishit-dagli\u002FMIRNet-TFJS) (Rishit Dagli) \n- [Tensorflow-TFLite](https:\u002F\u002Fgithub.com\u002Fsayakpaul\u002FMIRNet-TFLite-TRT) (Sayak Paul)\n\n\n## Citation\nIf you use MIRNet, please consider citing:\n\n    @inproceedings{Zamir2020MIRNet,\n        title={Learning Enriched Features for Real Image Restoration and Enhancement},\n        author={Syed Waqas Zamir and Aditya Arora and Salman Khan and Munawar Hayat\n                and Fahad Shahbaz Khan and Ming-Hsuan Yang and Ling Shao},\n        booktitle={ECCV},\n        year={2020}\n    }\n\n## Contact\nShould you have any question, please contact waqas.zamir@inceptioniai.org\n\n## Our Related Works\n- Learning Enriched Features for Fast Image Restoration and Enhancement, TPAMI 2022. [Paper](https:\u002F\u002Fwww.waqaszamir.com\u002Fpublication\u002Fzamir-2022-mirnetv2\u002F) | [Code](https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNetv2)\n- Restormer: Efficient Transformer for High-Resolution Image Restoration, CVPR 2022. [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.09881) | [Code](https:\u002F\u002Fgithub.com\u002Fswz30\u002FRestormer)\n- Multi-Stage Progressive Image Restoration, CVPR 2021. [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.02808) | [Code](https:\u002F\u002Fgithub.com\u002Fswz30\u002FMPRNet)\n- CycleISP: Real Image Restoration via Improved Data Synthesis, CVPR 2020. [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.07761) | [Code](https:\u002F\u002Fgithub.com\u002Fswz30\u002FCycleISP)\n","# 用于真实图像恢复与增强的学习丰富特征（ECCV 2020）\n\n[Syed Waqas Zamir](https:\u002F\u002Fscholar.google.ae\u002Fcitations?hl=en&user=POoai-QAAAAJ)、[Aditya Arora](https:\u002F\u002Fadityac8.github.io\u002F)、[Salman Khan](https:\u002F\u002Fsalman-h-khan.github.io\u002F)、[Munawar Hayat](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=Mx8MbWYAAAAJ&hl=en)、[Fahad Shahbaz Khan](https:\u002F\u002Fscholar.google.es\u002Fcitations?user=zvaeYnUAAAAJ&hl=en)、[Ming-Hsuan Yang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=p9-ohHsAAAAJ&hl=en)、[Ling Shao](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=z84rLjoAAAAJ&hl=en)\n\n\n[![paper](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-Paper-brightgreen)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.06792)\n[![supplement](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSupplementary-Material-B85252)](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1QIKp7h7Rd85odaS6bDoeDGXb0VLKo8I9\u002Fview?usp=sharing)\n[![video](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVideo-Presentation-F9D371)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=6xSzRjAodv4)\n[![slides](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPresentation-Slides-B762C1)](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1hnhqSrjqQQiYn7XPAGpFgMBTfBlb1QAy\u002Fview?usp=sharing)\n\n\u003Chr \u002F>\n\n### 最新消息\n- MIRNet 的轻量级、快速扩展版本已被 **TPAMI** 接收。[论文](https:\u002F\u002Fwww.waqaszamir.com\u002Fpublication\u002Fzamir-2022-mirnetv2\u002F) | [代码](https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNetv2)\n\n- Keras 关于 MIRNet 的教程已在 https:\u002F\u002Fkeras.io\u002Fexamples\u002Fvision\u002Fmirnet\u002F 上发布。\n\n- TensorFlow YouTube 频道上的视频：https:\u002F\u002Fyoutu.be\u002FBMza5yrwZ9s\n\n- （非官方）实现链接已添加至 [此处](#other-implementations)。\n\n\u003Chr \u002F>\n\n> **摘要：** *为了从退化的图像中恢复高质量的图像内容，图像恢复技术在监控、计算摄影、医学成像和遥感等领域有着广泛的应用。近年来，卷积神经网络（CNN）在图像恢复任务上取得了显著优于传统方法的成果。现有的基于 CNN 的方法通常在全分辨率或逐步降低分辨率的表示上进行操作。前者能够生成空间精确但上下文信息较弱的结果，而后者则会产生语义可靠但空间精度较低的输出。本文提出了一种新颖的架构，旨在在整个网络中保持高分辨率的空间精确表示，并从低分辨率表示中获取强大的上下文信息。我们的方法核心是一个多尺度残差块，包含以下几个关键组件：(a) 用于提取多尺度特征的并行多分辨率卷积流；(b) 多分辨率流之间的信息交换；(c) 用于捕捉上下文信息的空间和通道注意力机制；以及 (d) 基于注意力的多尺度特征聚合。简而言之，我们的方法学习了一组丰富的特征，这些特征结合了来自不同尺度的上下文信息，同时保留了高分辨率的空间细节。在五个真实图像基准数据集上的大量实验表明，我们提出的名为 MIRNet 的方法在多种图像处理任务上均达到了最先进的水平，包括图像去噪、超分辨率和图像增强。*\n\n\u003Cdetails>\n  \u003Csummary> \u003Cstrong>网络架构\u003C\u002Fstrong>（点击展开） \u003C\u002Fsummary>\n \n\u003Cp align=\"center\">\n  \u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002Fvmywppl.png\" width=\"700\">\n  \u003Cbr\u002F>\n  \u003Cb> MIRNet 总体框架 \u003C\u002Fb>\n\u003C\u002Fp>\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd> \u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002Ftqpje3M.png\" width=\"600\"> \u003C\u002Ftd>\n    \u003Ctd> \u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002FDQ6SYaH.png\" width=\"300\"> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cp align=\"center\">\u003Cb>选择性核特征融合（SKFF）\u003C\u002Fb>\u003C\u002Fp>\u003C\u002Ftd>\n    \u003Ctd>\u003Cp align=\"center\"> \u003Cb>下采样模块\u003C\u002Fb>\u003C\u002Fp>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Ctable>\n\u003Ctr>\n    \u003Ctd> \u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002FFmHQ0VD.png\" width=\"600\"> \u003C\u002Ftd>\n    \u003Ctd> \u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002FaOAFSkq.png\" width=\"300\"> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cp align=\"center\">\u003Cb>双注意力单元（DAU）\u003C\u002Fb>\u003C\u002Fp>\u003C\u002Ftd>\n    \u003Ctd>\u003Cp align=\"center\">\u003Cb>上采样模块\u003C\u002Fb>\u003C\u002Fp>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003C\u002Fdetails>\n\n## 安装\n该模型基于 PyTorch 1.1.0 构建，并在 Ubuntu 16.04 环境（Python 3.7、CUDA 9.0、cuDNN 7.5）上进行了测试。\n\n安装步骤如下：\n```\nsudo apt-get install cmake build-essential libjpeg-dev libpng-dev\nconda create -n pytorch1 python=3.7\nconda activate pytorch1\nconda install pytorch=1.1 torchvision=0.3 cudatoolkit=9.0 -c pytorch\npip install matplotlib scikit-image opencv-python yacs joblib natsort h5py tqdm\n```\n\n\n## 训练\n1. 从 [这里](https:\u002F\u002Fwww.eecs.yorku.ca\u002F~kamel\u002Fsidd\u002Fdataset.php) 下载 SIDD-Medium 数据集。\n2. 生成图像补丁：\n```\npython generate_patches_SIDD.py --ps 256 --num_patches 300 --num_cores 10\n```\n3. 下载 SIDD 的验证图像，并将其放置在 `..\u002FSIDD_patches\u002Fval` 目录下。\n\n4. 安装预热调度器：\n```\ncd pytorch-gradual-warmup-lr; python setup.py install; cd ..\n```\n\n5. 使用默认参数训练模型：\n```\npython train_denoising.py\n```\n\n**注意：** 我们的模型是在两块 Nvidia Tesla-V100 GPU 上训练的。如需调整模型参数，请参阅 [#5](https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNet\u002Fissues\u002F5)。\n\n## 评估\n您可以一次性从 Google Drive [链接](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1C2XCufoxxckQ29EkxERFPxL8R3Kx68ZG?usp=sharing) 下载完整的 MIRNet 仓库（包括预训练模型、数据集、结果等），或者按照以下说明单独评估各项任务：\n\n### 图像去噪\n- 下载 [模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F13PGkg3yaFQCvz6ytN99Heh_yyvfxRCdG\u002Fview?usp=sharing)，并将其放置在 .\u002Fpretrained_models\u002Fdenoising\u002F 目录下。\n\n#### 在 SIDD 数据集上测试\n- 下载 SIDD 的 sRGB [图像](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1j5ESMU0HJGD-wU6qbEdnt569z7sM3479?usp=sharing)，并将其放置在 .\u002Fdatasets\u002Fsidd\u002F 目录下。\n- 运行：\n```\npython test_sidd_rgb.py --save_images\n```\n\n#### 在 DND 数据集上测试\n- 下载 DND 的 sRGB [图像](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1-IBw_J0gdlM6AlqSm3Z7XWTXR-So4xzp?usp=sharing)，并将其放置在 .\u002Fdatasets\u002Fdnd\u002F 目录下。\n- 运行：\n```\npython test_dnd_rgb.py --save_images\n```\n\n### 图像超分辨率\n- 下载 [模型](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1yMtXbk6RXoFfmeRRGu1XfNFSHH6bSUoR?usp=sharing)，并将其放置在 .\u002Fpretrained_models\u002Fsuper_resolution\u002F 目录下。\n- 下载不同缩放因子的 [图像](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1mAr0YCqBJFXsnOnOp0WWxkAiGF9DQAe8?usp=sharing)，并将其放置在 .\u002Fdatasets\u002Fsuper_resolution\u002F 目录下。\n- 运行：\n```\npython test_super_resolution.py --save_images --scale 3\npython test_super_resolution.py --save_images --scale 4\n```\n\n### 图像增强\n#### 在 LOL 数据集上的测试\n- 下载 LOL [模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1t_FcBuMZD5th2KWVVNXYGJ7bMz5ZAWvF\u002Fview?usp=sharing)，并将其放置在 .\u002Fpretrained_models\u002Fenhancement\u002F 目录下。\n- 下载 LOL 数据集的 [图像](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1LR6J4tkG6DLHqsipsMgHgU_p1xOZjdAA?usp=sharing)，并将它们放置在 .\u002Fdatasets\u002Flol\u002F 目录下。\n- 运行以下命令：\n```\npython test_enhancement.py --save_images --input_dir .\u002Fdatasets\u002Flol\u002F --result_dir .\u002Fresults\u002Fenhancement\u002Flol\u002F --weights .\u002Fpretrained_models\u002Fenhancement\u002Fmodel_lol.pth\n```\n#### 在 Adobe-MIT FiveK 数据集上的测试\n- 下载 FiveK [模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1BsXOvhMz2z80E_V93dgD6QaEspZE0w-u\u002Fview?usp=sharing)，并将其放置在 .\u002Fpretrained_models\u002Fenhancement\u002F 目录下。\n- 下载一些 FiveK 数据集的 [样本图像](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1tyrELge59GdhZ18VR6yFwVb5Kenq2hSd?usp=sharing)，并将它们放置在 .\u002Fdatasets\u002Ffivek_sample_images\u002F 目录下。\n- 运行以下命令：\n```\npython test_enhancement.py --save_images --input_dir .\u002Fdatasets\u002Ffivek_sample_images\u002F --result_dir .\u002Fresults\u002Fenhancement\u002Ffivek\u002F --weights .\u002Fpretrained_models\u002Fenhancement\u002Fmodel_fivek.pth\n```\n\n\n## 结果\n\n我们在五个真实图像数据集上进行了实验，涵盖了图像去噪、超分辨率和图像增强等不同的图像处理任务。MIRNet 生成的图像可以从 Google Drive [链接](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1z6bFP7ydBaQOPmk8n1byYY0xcLx7aBHp?usp=sharing)下载。\n\n\u003Cdetails>\n  \u003Csummary> \u003Cstrong>图像去噪\u003C\u002Fstrong>（点击展开） \u003C\u002Fsummary>\n\u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002Fte123qk.png\" >\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary> \u003Cstrong>图像超分辨率\u003C\u002Fstrong>（点击展开） \u003C\u002Fsummary>\n\u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002FpBdUPXa.png\" >\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary> \u003Cstrong>图像增强\u003C\u002Fstrong>（点击展开） \u003C\u002Fsummary>\n\u003Cimg src = \"https:\u002F\u002Fi.imgur.com\u002FTZRBlux.png\" >\u003C\u002Fdetails>\n\n## 其他实现\n- [TensorFlow](https:\u002F\u002Fgithub.com\u002Fsoumik12345\u002FMIRNet)（Soumik Rakshit）\n- [TensorFlow.js](https:\u002F\u002Fgithub.com\u002FRishit-dagli\u002FMIRNet-TFJS)（Rishit Dagli）\n- [TensorFlow Lite](https:\u002F\u002Fgithub.com\u002Fsayakpaul\u002FMIRNet-TFLite-TRT)（Sayak Paul）\n\n\n## 引用\n如果您使用 MIRNet，请考虑引用以下文献：\n\n    @inproceedings{Zamir2020MIRNet,\n        title={Learning Enriched Features for Real Image Restoration and Enhancement},\n        author={Syed Waqas Zamir and Aditya Arora and Salman Khan and Munawar Hayat\n                and Fahad Shahbaz Khan and Ming-Hsuan Yang and Ling Shao},\n        booktitle={ECCV},\n        year={2020}\n    }\n\n## 联系方式\n如有任何问题，请联系 waqas.zamir@inceptioniai.org\n\n## 我们的相关工作\n- 面向快速图像恢复与增强的丰富特征学习，TPAMI 2022。[论文](https:\u002F\u002Fwww.waqaszamir.com\u002Fpublication\u002Fzamir-2022-mirnetv2\u002F) | [代码](https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNetv2)\n- Restormer：用于高分辨率图像恢复的高效 Transformer，CVPR 2022。[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.09881) | [代码](https:\u002F\u002Fgithub.com\u002Fswz30\u002FRestormer)\n- 多阶段渐进式图像恢复，CVPR 2021。[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.02808) | [代码](https:\u002F\u002Fgithub.com\u002Fswz30\u002FMPRNet)\n- CycleISP：通过改进的数据合成实现真实图像恢复，CVPR 2020。[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.07761) | [代码](https:\u002F\u002Fgithub.com\u002Fswz30\u002FCycleISP)","# MIRNet 快速上手指南\n\nMIRNet 是一个用于真实图像复原与增强的深度学习模型，在图像去噪、超分辨率和图像增强任务上均达到了当时的最先进水平（SOTA）。其核心优势在于能够同时保持高分辨率的空间细节并融合多尺度的上下文信息。\n\n## 环境准备\n\n本项目基于 **PyTorch 1.1.0** 构建，建议在 **Ubuntu 16.04** 环境下运行。\n\n**系统要求：**\n*   **操作系统**: Linux (推荐 Ubuntu 16.04+)\n*   **Python**: 3.7\n*   **CUDA**: 9.0\n*   **cuDNN**: 7.5\n*   **GPU**: 推荐使用 Nvidia GPU（原作者使用 2 张 Tesla-V100 训练）\n\n**前置依赖：**\n需要安装 `cmake`, `build-essential`, `libjpeg-dev`, `libpng-dev` 等系统库。\n\n## 安装步骤\n\n### 1. 安装系统级依赖\n```bash\nsudo apt-get install cmake build-essential libjpeg-dev libpng-dev\n```\n\n### 2. 创建 Conda 环境并安装 PyTorch\n```bash\nconda create -n pytorch1 python=3.7\nconda activate pytorch1\n# 安装指定版本的 PyTorch, torchvision 和 cudatoolkit\nconda install pytorch=1.1 torchvision=0.3 cudatoolkit=9.0 -c pytorch\n```\n> **提示**：国内用户若下载缓慢，可尝试添加清华源或中科大源配置，或使用 `pip` 安装对应版本的 torch wheel。\n\n### 3. 安装 Python 依赖包\n```bash\npip install matplotlib scikit-image opencv-python yacs joblib natsort h5py tqdm\n```\n\n### 4. 安装 Warmup Scheduler (训练必需)\n```bash\ncd pytorch-gradual-warmup-lr\npython setup.py install\ncd ..\n```\n\n## 基本使用\n\nMIRNet 支持图像去噪、超分辨率和图像增强三种主要任务。以下是使用预训练模型进行推理的最简流程。\n\n### 第一步：下载预训练模型\n根据你需要执行的任务，从 Google Drive 下载对应的 `.pth` 权重文件，并放入指定目录：\n\n*   **图像去噪 (Denoising)**: 下载 [model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F13PGkg3yaFQCvz6ytN99Heh_yyvfxRCdG\u002Fview?usp=sharing) 至 `.\u002Fpretrained_models\u002Fdenoising\u002F`\n*   **超分辨率 (Super-resolution)**: 下载 [models](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1yMtXbk6RXoFfmeRRGu1XfNFSHH6bSUoR?usp=sharing) 至 `.\u002Fpretrained_models\u002Fsuper_resolution\u002F`\n*   **图像增强 (Enhancement)**: 下载 [LOL model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1t_FcBuMZD5th2KWVVNXYGJ7bMz5ZAWvF\u002Fview?usp=sharing) 至 `.\u002Fpretrained_models\u002Fenhancement\u002F`\n\n### 第二步：准备测试数据\n将测试图片放置在对应的数据集文件夹中（例如 `.\u002Fdatasets\u002Fsidd\u002F` 或 `.\u002Fdatasets\u002Flol\u002F`），具体路径需参考各任务的脚本要求。\n\n### 第三步：运行推理脚本\n\n#### 场景 A：图像去噪 (以 SIDD 数据集为例)\n```bash\npython test_sidd_rgb.py --save_images\n```\n\n#### 场景 B：图像超分辨率 (放大 3 倍或 4 倍)\n```bash\n# 放大 3 倍\npython test_super_resolution.py --save_images --scale 3\n# 放大 4 倍\npython test_super_resolution.py --save_images --scale 4\n```\n\n#### 场景 C：图像增强 (以 LOL 低光照增强为例)\n```bash\npython test_enhancement.py --save_images --input_dir .\u002Fdatasets\u002Flol\u002F --result_dir .\u002Fresults\u002Fenhancement\u002Flol\u002F --weights .\u002Fpretrained_models\u002Fenhancement\u002Fmodel_lol.pth\n```\n\n运行完成后，处理后的图像将保存在指定的 `result_dir` 或默认输出目录中。","某安防监控团队正在处理夜间低光照环境下拍摄的犯罪嫌疑车辆截图，急需提升图像质量以识别车牌号码和人脸特征。\n\n### 没有 MIRNet 时\n- 传统去噪算法在去除画面噪点的同时，严重模糊了车牌边缘和人脸纹理等关键细节，导致后续 OCR 识别失败。\n- 单一的分辨率处理方式难以兼顾全局语义理解与局部空间精度，要么丢失背景上下文，要么无法还原微小字符。\n- 增强后的图像色彩失真严重，出现伪影或光晕效应，法医鉴定人员无法确信图像内容的真实性。\n- 需要人工尝试多种不同工具组合（先去噪再超分最后调色），工作流繁琐且效果不可控。\n\n### 使用 MIRNet 后\n- MIRNet 利用多尺度残差块有效分离噪声与信号，在显著降低噪点的同时，完美保留了车牌笔画和面部毛孔的高频细节。\n- 通过并行多分辨率卷积流与信息交换机制，既获取了强大的上下文信息，又维持了全进程的高分辨率空间精度，字符识别率大幅提升。\n- 基于注意力机制的特征聚合确保了色彩自然还原，消除了伪影，生成的图像直接达到司法鉴定级的清晰度标准。\n- 单一模型即可同步完成去噪、超分辨率和图像增强任务，将原本数小时的预处理流程缩短至秒级，极大提高了办案效率。\n\nMIRNet 通过融合多尺度上下文信息与高精度空间细节，彻底解决了真实场景下图像复原中“去噪即失细节”的核心痛点。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fswz30_MIRNet_dffcc28b.png","swz30","Syed Waqas Zamir","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fswz30_fe131d87.jpg","Senior Research Scientist @microsoft AI for Good Lab\r\n","Microsoft",null,"WaqasZamir.com","https:\u002F\u002Fgithub.com\u002Fswz30",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,716,98,"2026-04-03T19:16:10","NOASSERTION",4,"Linux","需要 NVIDIA GPU (训练使用 2x Tesla V100)，CUDA 9.0","未说明",{"notes":94,"python":95,"dependencies":96},"官方仅在 Ubuntu 16.04 环境下测试。训练阶段建议使用 2 块 NVIDIA Tesla V100 GPU。代码包含一个需要单独安装的学习率预热调度器 (warmup scheduler)。支持图像去噪、超分辨率和图像增强任务，需分别下载对应的预训练模型和数据集。","3.7",[97,98,99,100,101,102,103,104,105,106],"pytorch==1.1.0","torchvision==0.3","matplotlib","scikit-image","opencv-python","yacs","joblib","natsort","h5py","tqdm",[14,15],[109,110,111,112,113,114,115,116,117,118],"image-denoising","super-resolution","image-enhancement","image-restoration","low-level-vision","computer-vision","multi-resolution-streams","attention-mechanism","pytorch","eccv2020","2026-03-27T02:49:30.150509","2026-04-12T16:31:07.146417",[122,127,132,137,142,147,152,157],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},30759,"使用提供的检查点（checkpoints）在 LOL 数据集上复现时，SSIM 和 PSNR 指标与论文不符或结果较差，原因是什么？","这通常是由于图像加载方式不正确导致的。早期版本代码使用 `lycon.load`，如果直接改为 `cv2.imread` 会导致颜色空间错误。正确的做法是使用：`img = cv2.cvtColor(cv2.imread(filepath), cv2.COLOR_BGR2RGB)`。维护者确认，使用预训练权重并配合正确的图像读取方式（或使用 skimage==0.16.2），可以复现约 24.14 的 PSNR 分数。","https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNet\u002Fissues\u002F15",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},30760,"在自定义数据集或 Google Colab 上运行时遇到 \"CUDA out of memory\"（显存不足）错误，如何解决？","显存不足通常是因为默认配置对显存要求较高。解决方案是调整批处理大小（batch size）或输入图像的尺寸以适应你的 GPU 显存。如果你的显存较小（如 4GB 或 6GB），需要显著减小 batch size。具体调整方法可参考相关讨论，通过修改配置文件或命令行参数来降低显存占用。","https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNet\u002Fissues\u002F18",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},30761,"MIRNetv2 的训练硬件要求是什么？如果我的 GPU 不同，该如何调整？","官方是在 8 张 Tesla V100 GPU 上进行训练的。MIRNetv2 虽然使用了更大的 batch size（64），但其参数量和计算量（FLOPs）比第一代 MIRNet 更少。如果你使用不同的 GPU，可以通过调整 batch size 来适应你的机器显存。","https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNet\u002Fissues\u002F53",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},30762,"仓库中似乎只有去噪训练代码（train_denoising.py），如何进行低光增强（Image Enhancement）的训练？","不需要单独的增强训练脚本，`train_denoising.py` 同样适用于图像增强任务。你只需要做两点修改：1. 在配置文件（training.yml）中将训练和验证数据的路径指向你的增强数据集；2. 将 `NUM_EPOCHS` 设置为 200 以进行图像增强训练。","https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNet\u002Fissues\u002F11",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},30763,"如何在其他自定义数据集上测试（推理）该模型？","你可以参考 MPRNet 仓库中的 `demo.py` 脚本来在其他数据集上进行测试。该脚本展示了如何加载预训练模型并对输入图像进行推理，只需修改输入图像的路径即可应用于你的数据集。","https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNet\u002Fissues\u002F14",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},30764,"只有一张消费级显卡（如 GTX 1660 Ti 或 RTX 2060，6GB 显存）可以训练该模型吗？","可以，但需要调整参数以适应较小的显存。建议参考相关议题，主要调整 `batch_size`（批大小）和 `n_feat`（特征数量）。请注意，降低这些参数会在训练时间和最终性能之间产生权衡，但可以在单张 6GB 显存的 GPU 上运行。","https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNet\u002Fissues\u002F7",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},30765,"在超分辨率任务中，模型如何处理不同的上采样因子（upscaling factors）？","对于 RealSR v1 数据集，由于低分辨率（LR）和高分辨率（HR）图像尺寸相同，因此不需要显式处理上采样因子。如果你想将模型用于 LR 和 HR 分辨率不同的其他数据集，需要在网络中添加特定的上采样模块（如 PixelShuffle 或插值层）来处理尺寸差异。","https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNet\u002Fissues\u002F6",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},30766,"超分辨率和数据去噪任务的数据处理（DataLoader）有什么区别？","主要区别在于裁剪（Crop）逻辑。在去噪任务中，输入（noisy）和目标（clean）图像尺寸相同，随机裁剪的区域也相同。而在超分辨率任务中，输入和目标的尺寸通常不同（例如目标是输入的 4 倍大），因此在裁剪时需要确保输入图像的裁剪区域对应目标图像的正确缩放区域，不能直接使用相同的像素坐标进行裁剪。","https:\u002F\u002Fgithub.com\u002Fswz30\u002FMIRNet\u002Fissues\u002F20",[]]