[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xinntao--EDVR":3,"tool-xinntao--EDVR":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":102,"forks":103,"last_commit_at":104,"license":82,"difficulty_score":105,"env_os":106,"env_gpu":107,"env_ram":108,"env_deps":109,"category_tags":115,"github_topics":116,"view_count":23,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":120,"updated_at":121,"faqs":122,"releases":168},2153,"xinntao\u002FEDVR","EDVR","Winning Solution in NTIRE19 Challenges on Video Restoration and Enhancement (CVPR19 Workshops) - Video Restoration with Enhanced Deformable Convolutional Networks. EDVR has been merged into BasicSR and this repo is a mirror of BasicSR.","EDVR 是一个基于 PyTorch 开发的开源视频修复与增强工具箱，曾荣获 NTIRE19 视频修复挑战赛冠军。它主要致力于解决低质量视频的处理难题，能够有效去除视频中的模糊、噪声、压缩伪影，并提升视频分辨率，让画面更加清晰流畅。\n\n该工具的核心技术亮点在于采用了“增强型可变形卷积网络”。相比传统方法，它能更精准地捕捉视频中物体的运动轨迹和细节变化，从而在复杂场景下实现更高质量的视频重建效果。值得注意的是，EDVR 的代码库目前已合并至更通用的 BasicSR 项目中，作为其重要组成部分继续维护和更新，用户可直接在 BasicSR 中调用相关功能。\n\nEDVR 非常适合计算机视觉领域的研究人员、算法工程师以及需要处理视频修复任务的开发者使用。对于希望复现前沿论文成果或构建自定义视频增强流程的专业人士，它提供了灵活的训练与测试管道。不过，由于涉及深度学习模型的训练与推理，使用者通常需要具备一定的编程基础和 GPU 计算环境，普通大众用户可能需要借助集成此技术的第三方应用来间接体验其效果。","#### EDVR has been merged into [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR). This GitHub repo is a mirror of [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR). Recommend to use [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR), and open issues, pull requests, etc in [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR).\nNote that this version is not compatible with previous versions. If you want to use previous ones, please refer to the `old_version` branch.\n\n---\n\n# :rocket: [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR)\n\n[English](README.md) **|** [简体中文](README_CN.md) &emsp; [GitHub](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR) **|** [Gitee码云](https:\u002F\u002Fgitee.com\u002Fxinntao\u002FBasicSR)\n\n\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1G_qcpvkT5ixmw5XoN6MupkOzcK1km625?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" height=\"18\" alt=\"google colab logo\">\u003C\u002Fa> Google Colab: [GitHub Link](colab) **|** [Google Drive Link](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1G_qcpvkT5ixmw5XoN6MupkOzcK1km625?usp=sharing) \u003Cbr>\n:m: [Model Zoo](docs\u002FModelZoo.md) :arrow_double_down: Google Drive: [Pretrained Models](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F15DgDtfaLASQ3iAPJEVHQF49g9msexECG?usp=sharing) **|** [Reproduced Experiments](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1XN4WXKJ53KQ0Cu0Yv-uCt8DZWq6uufaP?usp=sharing)\n:arrow_double_down: 百度网盘: [预训练模型](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1R6Nc4v3cl79XPAiK0Toe7g) **|** [复现实验](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1UElD6q8sVAgn_cxeBDOlvQ) \u003Cbr>\n:file_folder: [Datasets](docs\u002FDatasetPreparation.md) :arrow_double_down: [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1gt5eT293esqY0yr1Anbm36EdnxWW_5oH?usp=sharing) :arrow_double_down: [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1AZDcEAFwwc1OC3KCd7EDnQ) (提取码:basr)\u003Cbr>\n:chart_with_upwards_trend: [Training curves in wandb](https:\u002F\u002Fapp.wandb.ai\u002Fxintao\u002Fbasicsr) \u003Cbr>\n:computer: [Commands for training and testing](docs\u002FTrainTest.md) \u003Cbr>\n:zap: [HOWTOs](#zap-howtos)\n\n---\n\nBasicSR (**Basic** **S**uper **R**estoration) is an open source **image and video restoration** toolbox based on PyTorch, such as super-resolution, denoise, deblurring, JPEG artifacts removal, *etc*.\u003Cbr>\n\u003Csub>([ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FESRGAN), [EDVR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FEDVR), [DNI](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FDNI), [SFTGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FSFTGAN))\u003C\u002Fsub>\n\u003Csub>([HandyView](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FHandyView), [HandyFigure](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FHandyFigure), [HandyCrawler](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FHandyCrawler), [HandyWriting](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FHandyWriting))\u003C\u002Fsub>\n\n## :sparkles: New Features\n\n- Nov 29, 2020. Add **ESRGAN** and **DFDNet** [colab demo](colab).\n- Sep 8, 2020. Add **blind face restoration** inference codes: [DFDNet](https:\u002F\u002Fgithub.com\u002Fcsxmli2016\u002FDFDNet).\n- Aug 27, 2020. Add **StyleGAN2 training and testing** codes: [StyleGAN2](https:\u002F\u002Fgithub.com\u002Frosinality\u002Fstylegan2-pytorch).\n\n\u003Cdetails>\n  \u003Csummary>More\u003C\u002Fsummary>\n\u003Cul>\n  \u003Cli> Sep 8, 2020. Add \u003Cb>blind face restoration\u003C\u002Fb> inference codes: \u003Cb>DFDNet\u003C\u002Fb>. \u003Cbr> \u003Ci>\u003Cfont color=\"#DCDCDC\">ECCV20: Blind Face Restoration via Deep Multi-scale Component Dictionaries\u003C\u002Ffont>\u003C\u002Fi> \u003Cbr> \u003Ci>\u003Cfont color=\"#DCDCDC\">Xiaoming Li, Chaofeng Chen, Shangchen Zhou, Xianhui Lin, Wangmeng Zuo and Lei Zhang\u003C\u002Ffont>\u003C\u002Fi> \u003C\u002Fli>\n  \u003Cli> Aug 27, 2020. Add \u003Cb>StyleGAN2\u003C\u002Fb> training and testing codes. \u003Cbr> \u003Ci>\u003Cfont color=\"#DCDCDC\">CVPR20: Analyzing and Improving the Image Quality of StyleGAN\u003C\u002Ffont>\u003C\u002Fi> \u003Cbr> \u003Ci>\u003Cfont color=\"#DCDCDC\">Tero Karras, Samuli Laine, Miika Aittala, Janne Hellsten, Jaakko Lehtinen and Timo Aila\u003C\u002Ffont>\u003C\u002Fi> \u003C\u002Fli>\n  \u003Cli>Aug 19, 2020. A \u003Cb>brand-new\u003C\u002Fb> BasicSR v1.0.0 online.\u003C\u002Fli>\n\u003C\u002Ful>\n\u003C\u002Fdetails>\n\n## :zap: HOWTOs\n\nWe provides simple pipelines to train\u002Ftest\u002Finference models for quick start.\nThese pipelines\u002Fcommands cannot cover all the cases and more details are in the following sections.\n\n| GAN |  |  |  | | |\n| :--- | :---:        |     :---:      | :--- | :---:        |     :---:      |\n| StyleGAN2   | [Train](docs\u002FHOWTOs.md#How-to-train-StyleGAN2) | [Inference](docs\u002FHOWTOs.md#How-to-inference-StyleGAN2) | | | |\n| **Face Restoration** |  |  |  | | |\n| DFDNet | - | [Inference](docs\u002FHOWTOs.md#How-to-inference-DFDNet) | | | |\n| **Super Resolution** |  |  |  | | |\n| ESRGAN | *TODO* | *TODO* | SRGAN | *TODO* | *TODO*|\n| EDSR | *TODO* | *TODO* | SRResNet | *TODO* | *TODO*|\n| RCAN | *TODO* | *TODO* |  |  | |\n| EDVR | *TODO* | *TODO* | DUF | - | *TODO* |\n| BasicVSR | *TODO* | *TODO* | TOF | - | *TODO* |\n| **Deblurring** |  |  |  | | |\n| DeblurGANv2 | - | *TODO* |  | | |\n| **Denoise** |  |  |  | | |\n| RIDNet | - | *TODO* | CBDNet | - | *TODO*|\n\n## :wrench: Dependencies and Installation\n\n- Python >= 3.7 (Recommend to use [Anaconda](https:\u002F\u002Fwww.anaconda.com\u002Fdownload\u002F#linux) or [Miniconda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html))\n- [PyTorch >= 1.3](https:\u002F\u002Fpytorch.org\u002F)\n- NVIDIA GPU + [CUDA](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads)\n\n1. Clone repo\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR.git\n    ```\n\n1. Install dependent packages\n\n    ```bash\n    cd BasicSR\n    pip install -r requirements.txt\n    ```\n\n1. Install BasicSR\n\n    Please run the following commands in the **BasicSR root path** to install BasicSR:\u003Cbr>\n    (Make sure that your GCC version: gcc >= 5) \u003Cbr>\n    If you do not need the cuda extensions: \u003Cbr>\n    &emsp;[*dcn* for EDVR](basicsr\u002Fmodels\u002Fops)\u003Cbr>\n    &emsp;[*upfirdn2d* and *fused_act* for StyleGAN2](basicsr\u002Fmodels\u002Fops)\u003Cbr>\n    please add `--no_cuda_ext` when installing\n\n    ```bash\n    python setup.py develop --no_cuda_ext\n    ```\n\n    If you use the EDVR and StyleGAN2 model, the above cuda extensions are necessary.\n\n    ```bash\n    python setup.py develop\n    ```\n\n    You may also want to specify the CUDA paths:\n\n      ```bash\n      CUDA_HOME=\u002Fusr\u002Flocal\u002Fcuda \\\n      CUDNN_INCLUDE_DIR=\u002Fusr\u002Flocal\u002Fcuda \\\n      CUDNN_LIB_DIR=\u002Fusr\u002Flocal\u002Fcuda \\\n      python setup.py develop\n      ```\n\nNote that BasicSR is only tested in Ubuntu, and may be not suitable for Windows. You may try [Windows WSL with CUDA supports](https:\u002F\u002Fdocs.microsoft.com\u002Fen-us\u002Fwindows\u002Fwin32\u002Fdirect3d12\u002Fgpu-cuda-in-wsl) :-) (It is now only available for insider build with Fast ring).\n\n## :hourglass_flowing_sand: TODO List\n\nPlease see [project boards](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR\u002Fprojects).\n\n## :turtle: Dataset Preparation\n\n- Please refer to **[DatasetPreparation.md](docs\u002FDatasetPreparation.md)** for more details.\n- The descriptions of currently supported datasets (`torch.utils.data.Dataset` classes) are in [Datasets.md](docs\u002FDatasets.md).\n\n## :computer: Train and Test\n\n- **Training and testing commands**: Please see **[TrainTest.md](docs\u002FTrainTest.md)** for the basic usage.\n- **Options\u002FConfigs**: Please refer to [Config.md](docs\u002FConfig.md).\n- **Logging**: Please refer to [Logging.md](docs\u002FLogging.md).\n\n## :european_castle: Model Zoo and Baselines\n\n- The descriptions of currently supported models are in [Models.md](docs\u002FModels.md).\n- **Pre-trained models and log examples** are available in **[ModelZoo.md](docs\u002FModelZoo.md)**.\n- We also provide **training curves** in [wandb](https:\u002F\u002Fapp.wandb.ai\u002Fxintao\u002Fbasicsr):\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fapp.wandb.ai\u002Fxintao\u002Fbasicsr\" target=\"_blank\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxinntao_EDVR_readme_c94713ef09fa.jpg\" height=\"280\">\n\u003C\u002Fa>\u003C\u002Fp>\n\n## :memo: Codebase Designs and Conventions\n\nPlease see [DesignConvention.md](docs\u002FDesignConvention.md) for the designs and conventions of the BasicSR codebase.\u003Cbr>\nThe figure below shows the overall framework. More descriptions for each component: \u003Cbr>\n**[Datasets.md](docs\u002FDatasets.md)**&emsp;|&emsp;**[Models.md](docs\u002FModels.md)**&emsp;|&emsp;**[Config.md](Config.md)**&emsp;|&emsp;**[Logging.md](docs\u002FLogging.md)**\n\n![overall_structure](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxinntao_EDVR_readme_9b7290860a87.png)\n\n## :scroll: License and Acknowledgement\n\nThis project is released under the Apache 2.0 license.\u003Cbr>\nMore details about **license** and **acknowledgement** are in [LICENSE](LICENSE\u002FREADME.md).\n\n## :earth_asia: Citations\n\nIf BasicSR helps your research or work, please consider citing BasicSR.\u003Cbr>\nThe following is a BibTeX reference. The BibTeX entry requires the `url` LaTeX package.\n\n``` latex\n@misc{wang2020basicsr,\n  author =       {Xintao Wang and Ke Yu and Kelvin C.K. Chan and\n                  Chao Dong and Chen Change Loy},\n  title =        {BasicSR},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR}},\n  year =         {2020}\n}\n```\n\n> Xintao Wang, Ke Yu, Kelvin C.K. Chan, Chao Dong and Chen Change Loy. BasicSR. https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR, 2020.\n\n## :e-mail: Contact\n\nIf you have any question, please email `xintao.wang@outlook.com`.\n","#### EDVR 已合并到 [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR)。本 GitHub 仓库是 [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR) 的镜像。建议使用 [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR)，并在 [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR) 中提交问题、拉取请求等。\n请注意，此版本与之前版本不兼容。如果您希望使用旧版本，请参考 `old_version` 分支。\n\n---\n\n# :rocket: [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR)\n\n[English](README.md) **|** [简体中文](README_CN.md) &emsp; [GitHub](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR) **|** [Gitee码云](https:\u002F\u002Fgitee.com\u002Fxinntao\u002FBasicSR)\n\n\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1G_qcpvkT5ixmw5XoN6MupkOzcK1km625?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" height=\"18\" alt=\"google colab logo\">\u003C\u002Fa> Google Colab: [GitHub Link](colab) **|** [Google Drive Link](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1G_qcpvkT5ixmw5XoN6MupkOzcK1km625?usp=sharing) \u003Cbr>\n:m: [Model Zoo](docs\u002FModelZoo.md) :arrow_double_down: Google Drive: [Pretrained Models](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F15DgDtfaLASQ3iAPJEVHQF49g9msexECG?usp=sharing) **|** [Reproduced Experiments](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1XN4WXKJ53KQ0Cu0Yv-uCt8DZWq6uufaP?usp=sharing)\n:arrow_double_down: 百度网盘: [预训练模型](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1R6Nc4v3cl79XPAiK0Toe7g) **|** [复现实验](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1UElD6q8sVAgn_cxeBDOlvQ) \u003Cbr>\n:file_folder: [Datasets](docs\u002FDatasetPreparation.md) :arrow_double_down: [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1gt5eT293esqY0yr1Anbm36EdnxWW_5oH?usp=sharing) :arrow_double_down: [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1AZDcEAFwwc1OC3KCd7EDnQ) (提取码:basr)\u003Cbr>\n:chart_with_upwards_trend: [Training curves in wandb](https:\u002F\u002Fapp.wandb.ai\u002Fxintao\u002Fbasicsr) \u003Cbr>\n:computer: [Commands for training and testing](docs\u002FTrainTest.md) \u003Cbr>\n:zap: [HOWTOs](#zap-howtos)\n\n---\n\nBasicSR (**Basic** **S**uper **R**estoration) 是一个基于 PyTorch 的开源 **图像和视频修复**工具箱，支持超分辨率、去噪、去模糊、去除 JPEG 码块效应等功能。\u003Cbr>\n\u003Csub>([ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FESRGAN), [EDVR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FEDVR), [DNI](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FDNI), [SFTGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FSFTGAN))\u003C\u002Fsub>\n\u003Csub>([HandyView](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FHandyView), [HandyFigure](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FHandyFigure), [HandyCrawler](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FHandyCrawler), [HandyWriting](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FHandyWriting))\u003C\u002Fsub>\n\n## :sparkles: 新特性\n\n- 2020年11月29日。新增 **ESRGAN** 和 **DFDNet** 的 [colab 演示](colab)。\n- 2020年9月8日。新增 **盲人面部修复** 推理代码：[DFDNet](https:\u002F\u002Fgithub.com\u002Fcsxmli2016\u002FDFDNet)。\n- 2020年8月27日。新增 **StyleGAN2 训练和测试** 代码：[StyleGAN2](https:\u002F\u002Fgithub.com\u002Frosinality\u002Fstylegan2-pytorch)。\n\n\u003Cdetails>\n  \u003Csummary>更多\u003C\u002Fsummary>\n\u003Cul>\n  \u003Cli> 2020年9月8日。新增 \u003Cb>盲人面部修复\u003C\u002Fb> 推理代码： \u003Cb>DFDNet\u003C\u002Fb>。 \u003Cbr> \u003Ci>\u003Cfont color=\"#DCDCDC\">ECCV20：通过深度多尺度组件字典实现盲人面部修复\u003C\u002Ffont>\u003C\u002Fi> \u003Cbr> \u003Ci>\u003Cfont color=\"#DCDCDC\">Xiaoming Li, Chaofeng Chen, Shangchen Zhou, Xianhui Lin, Wangmeng Zuo 和 Lei Zhang\u003C\u002Ffont>\u003C\u002Fi> \u003C\u002Fli>\n  \u003Cli> 2020年8月27日。新增 \u003Cb>StyleGAN2\u003C\u002Fb> 训练和测试代码。 \u003Cbr> \u003Ci>\u003Cfont color=\"#DCDCDC\">CVPR20：分析并改进 StyleGAN 的图像质量\u003C\u002Ffont>\u003C\u002Fi> \u003Cbr> \u003Ci>\u003Cfont color=\"#DCDCDC\">Tero Karras, Samuli Laine, Miika Aittala, Janne Hellsten, Jaakko Lehtinen 和 Timo Aila\u003C\u002Ffont>\u003C\u002Fi> \u003C\u002Fli>\n  \u003Cli>2020年8月19日。全新发布的 BasicSR v1.0.0 上线。\u003C\u002Fli>\n\u003C\u002Ful>\n\u003C\u002Fdetails>\n\n## :zap: 使用指南\n\n我们提供了简单的流水线来快速开始训练\u002F测试\u002F推理模型。\n这些流水线\u002F命令并不能覆盖所有情况，更多细节请参阅后续章节。\n\n| GAN |  |  |  | | |\n| :--- | :---:        |     :---:      | :--- | :---:        |     :---:      |\n| StyleGAN2   | [训练](docs\u002FHOWTOs.md#How-to-train-StyleGAN2) | [推理](docs\u002FHOWTOs.md#How-to-inference-StyleGAN2) | | | |\n| **面部修复** |  |  |  | | |\n| DFDNet | - | [推理](docs\u002FHOWTOs.md#How-to-inference-DFDNet) | | | |\n| **超分辨率** |  |  |  | | |\n| ESRGAN | *TODO* | *TODO* | SRGAN | *TODO* | *TODO*|\n| EDSR | *TODO* | *TODO* | SRResNet | *TODO* | *TODO*|\n| RCAN | *TODO* | *TODO* |  |  | |\n| EDVR | *TODO* | *TODO* | DUF | - | *TODO* |\n| BasicVSR | *TODO* | *TODO* | TOF | - | *TODO* |\n| **去模糊** |  |  |  | | |\n| DeblurGANv2 | - | *TODO* |  | | |\n| **去噪** |  |  |  | | |\n| RIDNet | - | *TODO* | CBDNet | - | *TODO*|\n\n## :wrench: 依赖与安装\n\n- Python >= 3.7（推荐使用 [Anaconda](https:\u002F\u002Fwww.anaconda.com\u002Fdownload\u002F#linux) 或 [Miniconda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html)）\n- [PyTorch >= 1.3](https:\u002F\u002Fpytorch.org\u002F)\n- NVIDIA GPU + [CUDA](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads)\n\n1. 克隆仓库\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR.git\n    ```\n\n1. 安装依赖包\n\n    ```bash\n    cd BasicSR\n    pip install -r requirements.txt\n    ```\n\n1. 安装 BasicSR\n\n    请在 **BasicSR 根目录** 下运行以下命令以安装 BasicSR：\u003Cbr>\n    （请确保您的 GCC 版本：gcc >= 5） \u003Cbr>\n    如果您不需要 CUDA 扩展： \u003Cbr>\n    &emsp;[*dcn* for EDVR](basicsr\u002Fmodels\u002Fops)\u003Cbr>\n    &emsp;[*upfirdn2d* 和 *fused_act* for StyleGAN2](basicsr\u002Fmodels\u002Fops)\u003Cbr>\n    请在安装时添加 `--no_cuda_ext`\n\n    ```bash\n    python setup.py develop --no_cuda_ext\n    ```\n\n    如果您使用 EDVR 和 StyleGAN2 模型，则上述 CUDA 扩展是必需的。\n\n    ```bash\n    python setup.py develop\n    ```\n\n    您也可以指定 CUDA 路径：\n\n      ```bash\n      CUDA_HOME=\u002Fusr\u002Flocal\u002Fcuda \\\n      CUDNN_INCLUDE_DIR=\u002Fusr\u002Flocal\u002Fcuda \\\n      CUDNN_LIB_DIR=\u002Fusr\u002Flocal\u002Fcuda \\\n      python setup.py develop\n      ```\n\n请注意，BasicSR 目前仅在 Ubuntu 上进行了测试，可能不适用于 Windows。您可以尝试 [支持 CUDA 的 Windows WSL](https:\u002F\u002Fdocs.microsoft.com\u002Fen-us\u002Fwindows\u002Fwin32\u002Fdirect3d12\u002Fgpu-cuda-in-wsl) :-) （目前仅适用于 Fast ring 内部版本）。\n\n## :hourglass_flowing_sand: 待办事项\n\n请查看 [项目看板](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR\u002Fprojects)。\n\n## :turtle: 数据集准备\n\n- 更多详情请参阅 **[DatasetPreparation.md](docs\u002FDatasetPreparation.md)**。\n- 当前支持的数据集描述（`torch.utils.data.Dataset` 类）见 **[Datasets.md](docs\u002FDatasets.md)**。\n\n## :computer: 训练与测试\n\n- **训练和测试命令**：基本用法请参阅 **[TrainTest.md](docs\u002FTrainTest.md)**。\n- **选项\u002F配置**：请参阅 **[Config.md](docs\u002FConfig.md)**。\n- **日志记录**：请参阅 **[Logging.md](docs\u002FLogging.md)**。\n\n## :european_castle: 模型动物园与基准\n\n- 当前支持的模型说明请参见 [Models.md](docs\u002FModels.md)。\n- **预训练模型及日志示例**可在 **[ModelZoo.md](docs\u002FModelZoo.md)** 中找到。\n- 我们还在 [wandb](https:\u002F\u002Fapp.wandb.ai\u002Fxintao\u002Fbasicsr) 上提供了 **训练曲线**：\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fapp.wandb.ai\u002Fxintao\u002Fbasicsr\" target=\"_blank\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxinntao_EDVR_readme_c94713ef09fa.jpg\" height=\"280\">\n\u003C\u002Fa>\u003C\u002Fp>\n\n## :memo: 代码库设计与规范\n\n有关 BasicSR 代码库的设计与规范，请参阅 [DesignConvention.md](docs\u002FDesignConvention.md)。\u003Cbr>\n下图展示了整体框架。更多各组件的说明如下：\u003Cbr>\n**[Datasets.md](docs\u002FDatasets.md)**&emsp;|&emsp;**[Models.md](docs\u002FModels.md)**&emsp;|&emsp;**[Config.md](Config.md)**&emsp;|&emsp;**[Logging.md](docs\u002FLogging.md)**\n\n![overall_structure](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxinntao_EDVR_readme_9b7290860a87.png)\n\n## :scroll: 许可与致谢\n\n本项目采用 Apache 2.0 许可证发布。\u003Cbr>\n关于 **许可** 和 **致谢** 的更多详情，请参阅 [LICENSE](LICENSE\u002FREADME.md)。\n\n## :earth_asia: 引用\n\n如果 BasicSR 对您的研究或工作有所帮助，请考虑引用 BasicSR。\u003Cbr>\n以下是 BibTeX 格式的参考文献。该条目需要使用 `url` LaTeX 宏包。\n\n``` latex\n@misc{wang2020basicsr,\n  author =       {Xintao Wang and Ke Yu and Kelvin C.K. Chan and\n                  Chao Dong and Chen Change Loy},\n  title =        {BasicSR},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR}},\n  year =         {2020}\n}\n```\n\n> Xintao Wang, Ke Yu, Kelvin C.K. Chan, Chao Dong 和 Chen Change Loy. BasicSR. https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR, 2020.\n\n## :e-mail: 联系方式\n\n如有任何问题，请发送邮件至 `xintao.wang@outlook.com`。","# EDVR (BasicSR) 快速上手指南\n\n> **重要提示**：EDVR 项目已合并至 [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR)。本指南基于 BasicSR 编写，这是目前维护和推荐使用的版本。旧版本请参照 `old_version` 分支。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：推荐 **Ubuntu** (Windows 用户可尝试 WSL + CUDA，但未经过全面测试)。\n*   **Python**：版本 >= 3.7 (推荐使用 Anaconda 或 Miniconda 管理环境)。\n*   **深度学习框架**：PyTorch >= 1.3。\n*   **硬件加速**：NVIDIA GPU 及对应的 CUDA 环境。\n*   **编译器**：GCC 版本 >= 5 (用于编译 CUDA 扩展)。\n\n## 2. 安装步骤\n\n### 2.1 克隆代码库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR.git\ncd BasicSR\n```\n\n### 2.2 安装依赖包\n建议先配置国内镜像源以加速下载（如清华源）：\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 2.3 安装 BasicSR 核心库\n由于 EDVR 模型依赖特定的 CUDA 扩展（如可变形卷积 `dcn`），**必须**编译安装 CUDA 扩展。请确保已正确设置 `CUDA_HOME` 环境变量。\n\n**标准安装命令（推荐）：**\n```bash\npython setup.py develop\n```\n\n**如果遇到 CUDA 路径识别问题，请指定路径安装：**\n```bash\nCUDA_HOME=\u002Fusr\u002Flocal\u002Fcuda \\\nCUDNN_INCLUDE_DIR=\u002Fusr\u002Flocal\u002Fcuda \\\nCUDNN_LIB_DIR=\u002Fusr\u002Flocal\u002Fcuda \\\npython setup.py develop\n```\n*(注：请将 `\u002Fusr\u002Flocal\u002Fcuda` 替换为您实际的 CUDA 安装路径)*\n\n> **注意**：如果您不需要运行 EDVR 或 StyleGAN2，仅需基础功能，可添加 `--no_cuda_ext` 参数跳过扩展编译，但运行 EDVR 时会报错。\n\n## 3. 基本使用\n\nBasicSR 提供了统一的训练和测试脚本。使用前请准备好数据集和配置文件（位于 `options\u002F` 目录）。\n\n### 3.1 数据准备\n请参考官方文档 [DatasetPreparation.md](docs\u002FDatasetPreparation.md) 准备数据集。通常需要将数据集放置在 `datasets` 目录下，并在配置文件中修改对应的数据路径。\n\n### 3.2 模型推理 (Testing)\n使用预训练模型对低分辨率图像进行超分辨率重建。\n\n**命令格式：**\n```bash\npython basicsr\u002Ftest.py -opt options\u002Ftest\u002FEDVR\u002Ftest_EDVR_L_REDS4.yml\n```\n*   `-opt`: 指定配置文件路径。\n*   结果默认保存在 `results` 文件夹中。\n\n### 3.3 模型训练 (Training)\n使用自定义数据集或基准数据集从头训练或微调模型。\n\n**命令格式：**\n```bash\npython basicsr\u002Ftrain.py -opt options\u002Ftrain\u002FEDVR\u002Ftrain_EDVR_L_x4_REDS_wo_BD.yml\n```\n*   训练日志和检查点将保存在 `experiments` 文件夹中。\n*   支持断点续训，只需在配置文件中指定.resume 路径或使用命令行参数。\n\n### 3.4 获取预训练模型\n您可以从以下地址下载 EDVR 的预训练模型，并放入 `experiments\u002Fpretrained_models` 目录：\n*   **Google Drive**: [Pretrained Models](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F15DgDtfaLASQ3iAPJEVHQF49g9msexECG?usp=sharing)\n*   **百度网盘**: [预训练模型](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1R6Nc4v3cl79XPAiK0Toe7g) (提取码: basr)\n\n更多详细配置选项、数据集说明及高级用法，请参阅项目根目录下的 `docs` 文件夹。","某安防监控团队需要处理一段因夜间低光照和快速移动导致严重模糊、噪点密集的嫌疑车辆追踪视频，以便提取清晰的车牌信息。\n\n### 没有 EDVR 时\n- 视频帧间抖动剧烈，传统去模糊算法无法对齐连续帧，导致修复后的画面出现重影或撕裂。\n- 单帧降噪处理破坏了车辆的运动纹理细节，车牌字符边缘模糊不清，难以被 OCR 系统识别。\n- 缺乏针对视频时序特性的增强手段，处理后的视频闪烁感强，人工复审时极易产生视觉疲劳。\n- 手动调整多组参数尝试平衡噪点与清晰度，耗时数小时仍无法获得符合取证标准的输出结果。\n\n### 使用 EDVR 后\n- 利用可变形卷积网络精准对齐视频序列中的运动目标，有效消除了因摄像头抖动产生的重影现象。\n- 结合多帧融合技术，在去除高斯噪点的同时保留了车牌的关键高频细节，字符边缘锐利可辨。\n- 基于时序信息的增强策略确保了输出视频的亮度与色彩连贯一致，彻底解决了画面闪烁问题。\n- 直接调用预训练模型进行一键推理，原本需要半天的调优工作缩短至几分钟，且效果达到 NTIRE 竞赛级标准。\n\nEDVR 通过其领先的视频复原架构，将原本不可用的劣质监控素材转化为具备司法证据价值的高清影像，极大提升了安防数据的可用性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxinntao_EDVR_c94713ef.jpg","xinntao","Xintao","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxinntao_f13bf2bf.jpg","Researcher at Tencent ARC Lab, (Applied Research Center)","Tencent","Shenzhen, China","xintao.alpha@gmail.com",null,"https:\u002F\u002Fxinntao.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fxinntao",[86,90,94,98],{"name":87,"color":88,"percentage":89},"Python","#3572A5",83.1,{"name":91,"color":92,"percentage":93},"Cuda","#3A4E3A",9.6,{"name":95,"color":96,"percentage":97},"C++","#f34b7d",6.4,{"name":99,"color":100,"percentage":101},"MATLAB","#e16737",0.9,1568,315,"2026-04-01T11:46:42",4,"Linux","必需 NVIDIA GPU，需安装 CUDA（具体版本未说明，需与 PyTorch >= 1.3 兼容）","未说明",{"notes":110,"python":111,"dependencies":112},"仅在 Ubuntu 上经过测试，可能不适用于 Windows（可尝试使用支持 CUDA 的 WSL）。若使用 EDVR 或 StyleGAN2 模型，安装时必须编译 CUDA 扩展（dcn, upfirdn2d, fused_act），否则需添加 '--no_cuda_ext' 参数。建议使用 Anaconda 或 Miniconda 管理环境。",">= 3.7",[113,114],"PyTorch >= 1.3","GCC >= 5",[13],[117,118,119],"basicsr","edvr","pytorch","2026-03-27T02:49:30.150509","2026-04-06T06:53:23.477935",[123,128,133,138,143,148,152,156,160,164],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},9928,"训练过程中损失函数（loss）不收敛或剧烈波动是正常的吗？","这是正常现象。EDVR 的训练损失曲线通常不会像其他模型那样平滑收敛，而是表现出剧烈的波动。尽管损失值波动很大，但实际的评估指标（如 PSNR）通常仍在提升。这可能是因为中等大小的模型出现了过拟合，或者看到的只是噪声。建议关注 PSNR 等指标的变化，而不要过度担心损失值的波动。","https:\u002F\u002Fgithub.com\u002Fxinntao\u002FEDVR\u002Fissues\u002F53",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},9929,"使用 Charbonnier Loss 训练时损失值非常大，而使用 L1 Loss 则正常，这是什么原因？","这种现象可能与训练方案有关。作者通常使用带有重启机制（restarts）的不同训练方案来提升性能，并且通常以迭代次数（iteration）而非轮数（epoch）来衡量训练进度。如果损失值异常大，建议检查是否采用了正确的训练策略，并参考官方提供的训练日志示例进行对比。","https:\u002F\u002Fgithub.com\u002Fxinntao\u002FEDVR\u002Fissues\u002F40",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},9930,"运行测试脚本时出现 'ImportError: cannot import name deform_conv_cuda' 错误怎么办？","这是因为可变形卷积（DCNv2）模块未正确编译。解决方法是进入 DCN 目录并运行编译命令：\n1. 进入目录：`cd .\u002Fcodes\u002Fmodels\u002Farchs\u002Fdcn`\n2. 执行编译：`python setup.py develop`\n执行后应生成 `deform_conv_cuda.xxxxx.so` 文件，之后即可正常运行。如果仍报错 `RuntimeError: Error compiling objects for extension`，请检查 CUDA、GCC 和 PyTorch 版本兼容性。","https:\u002F\u002Fgithub.com\u002Fxinntao\u002FEDVR\u002Fissues\u002F96",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},9931,"训练中频繁出现 'Offset mean is ..., larger than 100' 的警告信息，需要处理吗？","该警告表示可变形卷积中的偏移量（offset）均值过大。虽然代码中设置了阈值检测，但在实际训练中，尤其是在初期或使用特定数据集时，出现较大的偏移量均值并不一定意味着错误。如果模型最终能收敛且效果良好，通常可以忽略此警告。如果导致训练崩溃，可尝试调整学习率或检查数据预处理步骤。","https:\u002F\u002Fgithub.com\u002Fxinntao\u002FEDVR\u002Fissues\u002F62",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},9932,"代码实现与论文描述在空间注意力（Spatial Attention）部分的输入不一致，应以哪个为准？","应以代码版本为准。虽然在论文中提到空间注意力掩码是从融合特征（fused features）计算的，但在代码实现中，空间注意力部分接收的是对齐后的特征（aligned_fea）。维护者确认这是一个不影响关键结果的细节差异，直接使用该仓库的代码版本即可。","https:\u002F\u002Fgithub.com\u002Fxinntao\u002FEDVR\u002Fissues\u002F20",{"id":149,"question_zh":150,"answer_zh":151,"source_url":147},9933,"EDVR 网络中激活函数（如 LeakyReLU）和初始化方法（如 Kaiming）的选择有什么讲究？","关于激活函数，ESRGAN 和 EDVR 选择 LeakyReLU（LRelu）通常是基于实验效果，对于大多数情况，直接使用 LRelu 是一个稳妥且表现良好的选择。关于 Resblock_noBN 中对 Conv1 和 Conv2 使用 Kaiming 初始化，这确实能带来无额外计算成本的性能提升，建议直接沿用。这些选择在深层网络训练中已被证明有效。",{"id":153,"question_zh":154,"answer_zh":155,"source_url":147},9934,"如何扩展 EDVR 网络的参数量以提升指标？应该增加哪些模块的深度？","扩展参数量主要有两种方式：增加通道数（channel）或增加块数量（block depth）。增加通道数比较简单，因为所有块都对齐了基础通道数（nf）。如果要增加深度，前后残差块（frontRB\u002FbackRB）的数量是可变的，但 PCD 和 AttentionFusion 模块中的块数量在代码中是固定的。通常建议优先增加 backRB 的深度，而 PCD 和 Fusion 模块的深度不用随意加大，因为加大这两部分的深度可能性价比不高。比赛最终配置主要变化在于通道数和 fusion 后的 RB 深度。",{"id":157,"question_zh":158,"answer_zh":159,"source_url":147},9935,"EDVR 测试脚本中的自集成（self-ensemble）为什么只有 4 倍计算量，而不是常见的 8 倍？","常见的 SISR 自集成包含 4 次旋转（0, 90, 180, 270 度）和翻转，共 8 倍计算量。EDVR 的测试脚本只做了 4 倍（通常指水平和垂直翻转，或仅旋转），省略了 90 度旋转的过程。这是基于实验考量的，因为增加 90 度旋转带来的性能提升非常微小，不足以抵消翻倍的计算成本，因此为了效率选择了省略。",{"id":161,"question_zh":162,"answer_zh":163,"source_url":147},9936,"PCD 对齐模块中 offset_conv2 里的 concat 乘 2 操作有什么作用？","在 PCD 模块的 forward 函数中，offset_conv2 里对 concat 结果乘 2 是为了调整偏移量的尺度。可变形卷积的偏移量通常需要特定的范围，乘以 2 是一种经验性的缩放操作，有助于网络更好地学习特征对齐。类似的乘 2 操作在 TSA 层中也存在，目的相同。",{"id":165,"question_zh":166,"answer_zh":167,"source_url":147},9937,"EDVR 中使用双线性插值拉伸 LR_center 和 HR 做残差，这一步可以去掉吗？","这一步类似于 EDSR-Pytorch 中的 'add_mean' 和 'sub_mean' 操作，目的是加速收敛。虽然去掉这一步可能在理论上不影响最终精度上限，但在实际训练中，进行拉伸并做残差通常能显著加快收敛速度。因此，除非有特殊的实验需求，否则建议保留此步骤以获得更快的训练效率。",[]]