[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-VITA-Group--DeblurGANv2":3,"tool-VITA-Group--DeblurGANv2":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159267,2,"2026-04-17T11:29:14",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":102,"github_topics":103,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":150},8642,"VITA-Group\u002FDeblurGANv2","DeblurGANv2","[ICCV 2019] \"DeblurGAN-v2: Deblurring (Orders-of-Magnitude) Faster and Better\" by Orest Kupyn, Tetiana Martyniuk, Junru Wu, Zhangyang Wang","DeblurGANv2 是一款专为单张图像运动去模糊设计的高效开源算法，旨在将模糊照片还原为清晰画面。它主要解决了传统去模糊方法在速度与质量上难以兼顾的痛点：既能在保持顶尖修复效果的同时，将处理速度提升 10 到 100 倍，从而实现实时视频去模糊；又能灵活适应不同硬件环境，平衡性能与效率。\n\n这款工具非常适合计算机视觉研究人员、AI 开发者以及需要处理大量模糊影像的专业设计师使用。对于希望探索实时图像处理应用的团队，DeblurGANv2 提供了极佳的实践基础。\n\n其核心技术亮点在于首次将特征金字塔网络（FPN）引入去模糊任务，作为生成器的核心组件。配合相对论条件生成对抗网络（GAN）和双尺度判别器架构，DeblurGANv2 支持“即插即用”式的主干网络替换。用户既可以选择 Inception-ResNet-v2 等复杂模型以追求极致画质，也能切换至 MobileNet 等轻量级模型以获得惊人的推理速度。此外，该架构不仅限于去模糊，在降噪、压缩伪影去除等通用图像恢复任务中也表现优异，是兼具学术价值与工程实用性的强大工具。","# DeblurGAN-v2: Deblurring (Orders-of-Magnitude) Faster and Better\n\nCode for this paper [DeblurGAN-v2: Deblurring (Orders-of-Magnitude) Faster and Better](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.03826)\n\nOrest Kupyn, Tetiana Martyniuk, Junru Wu, Zhangyang Wang\n\nIn ICCV 2019\n\n## Overview\n\nWe present a new end-to-end generative adversarial network (GAN) for single image motion deblurring, named \nDeblurGAN-v2, which considerably boosts state-of-the-art deblurring efficiency, quality, and flexibility. DeblurGAN-v2 \nis based on a relativistic conditional GAN with a double-scale discriminator. For the first time, we introduce the \nFeature Pyramid Network into deblurring, as a core building block in the generator of DeblurGAN-v2. It can flexibly \nwork with a wide range of backbones, to navigate the balance between performance and efficiency. The plug-in of \nsophisticated backbones (e.g., Inception-ResNet-v2) can lead to solid state-of-the-art deblurring. Meanwhile, \nwith light-weight backbones (e.g., MobileNet and its variants), DeblurGAN-v2 reaches 10-100 times faster than \nthe nearest competitors, while maintaining close to state-of-the-art results, implying the option of real-time \nvideo deblurring. We demonstrate that DeblurGAN-v2 obtains very competitive performance on several popular \nbenchmarks, in terms of deblurring quality (both objective and subjective), as well as efficiency. Besides, \nwe show the architecture to be effective for general image restoration tasks too.\n\n\u003C!---We also study the effect of DeblurGAN-v2 on the task of general image restoration - enhancement of images degraded \njointly by noise, blur, compression, etc. The picture below shows the visual quality superiority of DeblurGAN-v2 with \nInception-ResNet-v2 backbone over DeblurGAN. It is drawn from our new synthesized Restore Dataset \n(refer to Datasets subsection below).-->\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_84d404bdec92.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_861f8980d702.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_1dac03b934a0.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_57e7d1f9799f.png)\n\u003C!---![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_5c7623055333.png)-->\n\u003C!---![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_a38a373d3467.png)-->\n\n## DeblurGAN-v2 Architecture\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_2178d989429a.jpg)\n\n\u003C!---Our architecture consists of an FPN backbone from which we take five final feature maps of different scales as the \noutput. Those features are later up-sampled to the same 1\u002F4 input size and concatenated into one tensor which contains \nthe semantic information on different levels. We additionally add two upsampling and convolutional layers at the end of \nthe network to restore the original image size  and reduce artifacts. We also introduce a direct skip connection from \nthe input to the output, so that the learning focuses on the residue. The input images are normalized to \\[-1, 1\\].\n e also use a **tanh** activation layer to keep the output in the same range.-->\n\n\u003C!---The new FPN-embeded architecture is agnostic to the choice of feature extractor backbones. With this plug-and-play \nproperty, we are entitled with the flexibility to navigate through the spectrum of accuracy and efficiency. \nBy default, we choose ImageNet-pretrained backbones to convey more semantic-related features.--> \n\n## Datasets\n\nThe datasets for training can be downloaded via the links below:\n- [DVD](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1bpj9pCcZR_6-AHb5aNnev5lILQbH8GMZ\u002Fview)\n- [GoPro](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1KStHiZn5TNm2mo3OLZLjnRvd0vVFCI0W\u002Fview)\n- [NFS](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Ut7qbQOrsTZCUJA_mJLptRMipD8sJzjy\u002Fview)\n\n## Training\n\n#### Command\n\n```python train.py```\n\ntraining script will load config under config\u002Fconfig.yaml\n\n#### Tensorboard visualization\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_519e33bbe8dc.png)\n\n## Testing\n\nTo test on a single image,\n\n```python predict.py IMAGE_NAME.jpg```\n\nBy default, the name of the pretrained model used by Predictor is 'best_fpn.h5'. One can change it in the code ('weights_path' argument). It assumes that the fpn_inception backbone is used. If you want to try it with different backbone pretrain, please specify it also under ['model']['g_name'] in config\u002Fconfig.yaml.\n\n## Pre-trained models\n\n\u003Ctable align=\"center\">\n    \u003Ctr>\n        \u003Cth>Dataset\u003C\u002Fth>\n        \u003Cth>G Model\u003C\u002Fth>\n        \u003Cth>D Model\u003C\u002Fth>\n        \u003Cth>Loss Type\u003C\u002Fth>\n        \u003Cth>PSNR\u002F SSIM\u003C\u002Fth>\n        \u003Cth>Link\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd rowspan=\"3\">GoPro Test Dataset\u003C\u002Ftd>\n        \u003Ctd>InceptionResNet-v2\u003C\u002Ftd>\n        \u003Ctd>double_gan\u003C\u002Ftd>\n        \u003Ctd>ragan-ls\u003C\u002Ftd>\n        \u003Ctd>29.55\u002F 0.934\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Fuc?export=view&id=1UXcsRVW-6KF23_TNzxw-xC0SzaMfXOaR\">fpn_inception.h5\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd>MobileNet\u003C\u002Ftd>\n        \u003Ctd>double_gan\u003C\u002Ftd>\n        \u003Ctd>ragan-ls\u003C\u002Ftd>\n        \u003Ctd>28.17\u002F 0.925\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Fuc?export=view&id=1JhnT4BBeKBBSLqTo6UsJ13HeBXevarrU\">fpn_mobilenet.h5\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd>MobileNet-DSC\u003C\u002Ftd>\n        \u003Ctd>double_gan\u003C\u002Ftd>\n        \u003Ctd>ragan-ls\u003C\u002Ftd>\n        \u003Ctd>28.03\u002F 0.922\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"\">\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## Parent Repository\n\nThe code was taken from \u003Ca href=\"\">https:\u002F\u002Fgithub.com\u002FKupynOrest\u002FRestoreGAN\u003C\u002Fa> . This repository contains flexible pipelines for different Image Restoration tasks.\n\n## Citation\n\nIf you use this code for your research, please cite our paper.\n\n```\n​```\n@InProceedings{Kupyn_2019_ICCV,\nauthor = {Orest Kupyn and Tetiana Martyniuk and Junru Wu and Zhangyang Wang},\ntitle = {DeblurGAN-v2: Deblurring (Orders-of-Magnitude) Faster and Better},\nbooktitle = {The IEEE International Conference on Computer Vision (ICCV)},\nmonth = {Oct},\nyear = {2019}\n}\n​```\n```\n\n","# DeblurGAN-v2：速度更快、效果更好的去模糊算法（提升多个数量级）\n\n本文的代码：[DeblurGAN-v2：速度更快、效果更好的去模糊算法（提升多个数量级）](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.03826)\n\n奥列斯特·库平、泰蒂亚娜·马尔蒂纽克、吴俊儒、王张洋\n\n发表于 ICCV 2019\n\n## 概述\n\n我们提出了一种用于单张图像运动模糊去除的新型端到端生成对抗网络（GAN），名为 DeblurGAN-v2，它显著提升了当前最先进的去模糊效率、质量和灵活性。DeblurGAN-v2 基于相对论条件 GAN，并采用双尺度判别器。我们首次将特征金字塔网络引入去模糊任务中，作为 DeblurGAN-v2 生成器的核心组件。该网络能够灵活地与多种骨干网络配合使用，从而在性能和效率之间取得平衡。通过集成强大的骨干网络（如 Inception-ResNet-v2），DeblurGAN-v2 可以达到最先进的去模糊效果；而当使用轻量级骨干网络（如 MobileNet 及其变体）时，DeblurGAN-v2 的速度比最接近的竞争对手快 10 到 100 倍，同时保持接近最先进水平的结果，这意味着其实时视频去模糊成为可能。我们在多个流行基准测试上展示了 DeblurGAN-v2 在去模糊质量（包括客观和主观评价）以及效率方面的卓越表现。此外，我们还证明了该架构在通用图像修复任务中同样有效。\n\n\u003C!-- 我们还研究了 DeblurGAN-v2 在通用图像修复任务中的效果——即对同时受到噪声、模糊、压缩等影响的退化图像进行增强。下图展示了使用 Inception-ResNet-v2 骨干的 DeblurGAN-v2 相较于 DeblurGAN 在视觉质量上的优势。该图来自我们新构建的 Restore 数据集（详见下方的数据集部分）。-->\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_84d404bdec92.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_861f8980d702.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_1dac03b934a0.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_57e7d1f9799f.png)\n\u003C!-- ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_5c7623055333.png) -->\n\u003C!-- ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_a38a373d3467.png) -->\n\n## DeblurGAN-v2 架构\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_2178d989429a.jpg)\n\n\u003C!-- 我们的架构由一个 FPN 骨干网络组成，从中提取五个不同尺度的最终特征图作为输出。这些特征随后被上采样至输入尺寸的 1\u002F4，并拼接成一个包含多尺度语义信息的张量。在网络末尾，我们还添加了两个上采样和卷积层，以恢复原始图像尺寸并减少伪影。此外，我们还引入了从输入直接到输出的跳跃连接，使模型专注于学习残差。输入图像被归一化到 [-1, 1] 范围内。我们还使用 **tanh** 激活函数来确保输出保持在同一范围内。-->\n\n\u003C!-- 新的嵌入 FPN 的架构对特征提取骨干网络的选择不敏感。凭借这种即插即用的特性，我们可以灵活地在精度和效率之间进行权衡。默认情况下，我们选择经过 ImageNet 预训练的骨干网络，以传递更多语义相关的特征。-->\n\n## 数据集\n\n用于训练的数据集可以通过以下链接下载：\n- [DVD](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1bpj9pCcZR_6-AHb5aNnev5lILQbH8GMZ\u002Fview)\n- [GoPro](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1KStHiZn5TNm2mo3OLZLjnRvd0vVFCI0W\u002Fview)\n- [NFS](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Ut7qbQOrsTZCUJA_mJLptRMipD8sJzjy\u002Fview)\n\n## 训练\n\n#### 命令\n\n```python train.py```\n\n训练脚本将加载 config\u002Fconfig.yaml 中的配置。\n\n#### TensorBoard 可视化\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_readme_519e33bbe8dc.png)\n\n## 测试\n\n要对单张图像进行测试：\n\n```python predict.py IMAGE_NAME.jpg```\n\n默认情况下，预测器使用的预训练模型名为 'best_fpn.h5'。用户可以在代码中更改此名称（'weights_path' 参数）。该模型假设使用 fpn_inception 骨干网络。如果希望尝试其他预训练骨干网络，请在 config\u002Fconfig.yaml 的 ['model']['g_name'] 中指定。\n\n## 预训练模型\n\n\u003Ctable align=\"center\">\n    \u003Ctr>\n        \u003Cth>数据集\u003C\u002Fth>\n        \u003Cth>G 模型\u003C\u002Fth>\n        \u003Cth>D 模型\u003C\u002Fth>\n        \u003Cth>损失类型\u003C\u002Fth>\n        \u003Cth>PSNR\u002F SSIM\u003C\u002Fth>\n        \u003Cth>链接\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd rowspan=\"3\">GoPro 测试数据集\u003C\u002Ftd>\n        \u003Ctd>InceptionResNet-v2\u003C\u002Ftd>\n        \u003Ctd>double_gan\u003C\u002Ftd>\n        \u003Ctd>ragan-ls\u003C\u002Ftd>\n        \u003Ctd>29.55\u002F 0.934\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Fuc?export=view&id=1UXcsRVW-6KF23_TNzxw-xC0SzaMfXOaR\">fpn_inception.h5\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd>MobileNet\u003C\u002Ftd>\n        \u003Ctd>double_gan\u003C\u002Ftd>\n        \u003Ctd>ragan-ls\u003C\u002Ftd>\n        \u003Ctd>28.17\u002F 0.925\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Fuc?export=view&id=1JhnT4BBeKBBSLqTo6UsJ13HeBXevarrU\">fpn_mobilenet.h5\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd>MobileNet-DSC\u003C\u002Ftd>\n        \u003Ctd>double_gan\u003C\u002Ftd>\n        \u003Ctd>ragan-ls\u003C\u002Ftd>\n        \u003Ctd>28.03\u002F 0.922\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"\">\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 上级仓库\n\n该代码源自 \u003Ca href=\"\">https:\u002F\u002Fgithub.com\u002FKupynOrest\u002FRestoreGAN\u003C\u002Fa>。该仓库包含用于不同图像修复任务的灵活流水线。\n\n## 引用\n\n如果您在研究中使用此代码，请引用我们的论文。\n\n```\n​```\n@InProceedings{Kupyn_2019_ICCV,\nauthor = {Orest Kupyn 和 Tetiana Martyniuk 和 Junru Wu 和 Zhangyang Wang},\ntitle = {DeblurGAN-v2：速度更快、效果更好的去模糊算法（提升多个数量级）},\nbooktitle = {IEEE 国际计算机视觉会议（ICCV）},\nmonth = {10月},\nyear = {2019}\n}\n​```","# DeblurGANv2 快速上手指南\n\nDeblurGAN-v2 是一个基于生成对抗网络（GAN）的单图像运动去模糊工具。它引入了特征金字塔网络（FPN），支持多种骨干网络（如 Inception-ResNet-v2 或 MobileNet），在保持高去模糊质量的同时，显著提升了推理速度，甚至可实现实时视频去模糊。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐) 或 macOS\u002FWindows\n*   **Python**: Python 3.6+\n*   **深度学习框架**: TensorFlow 1.x 或 Keras (根据原项目依赖，通常需安装 `tensorflow-gpu`)\n*   **硬件要求**: 推荐使用 NVIDIA GPU 进行训练和加速推理；仅推理时 CPU 也可运行（速度较慢）。\n\n**前置依赖安装：**\n\n建议先升级 pip 并安装核心依赖库。国内用户可使用清华源加速安装：\n\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow-gpu==1.15.0 keras opencv-python numpy pillow h5py\n```\n\n> **注意**：具体 TensorFlow 版本需参考项目原始的 `requirements.txt`（如有），上述命令基于该类项目的通用依赖推测。若遇到版本冲突，请根据报错信息调整。\n\n## 安装步骤\n\n1.  **克隆仓库**\n    将项目代码下载到本地：\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FKupynOrest\u002FDeblurGANv2.git\n    cd DeblurGANv2\n    ```\n\n2.  **下载预训练模型**\n    为了直接进行测试，需要下载预训练权重。默认使用的模型是 `best_fpn.h5` (对应 Inception-ResNet-v2 骨干)。\n\n    您可以从下表选择适合的模型下载，并放入项目根目录：\n\n    | 数据集 | 骨干网络 (G Model) | 性能 (PSNR\u002FSSIM) | 下载链接 | 文件名建议 |\n    | :--- | :--- | :--- | :--- | :--- |\n    | GoPro | InceptionResNet-v2 | 29.55 \u002F 0.934 | [下载](https:\u002F\u002Fdrive.google.com\u002Fuc?export=view&id=1UXcsRVW-6KF23_TNzxw-xC0SzaMfXOaR) | `fpn_inception.h5` |\n    | GoPro | MobileNet | 28.17 \u002F 0.925 | [下载](https:\u002F\u002Fdrive.google.com\u002Fuc?export=view&id=1JhnT4BBeKBBSLqTo6UsJ13HeBXevarrU) | `fpn_mobilenet.h5` |\n\n    *注：Google Drive 下载在国内可能受限，如需高速下载请自行寻找第三方镜像或使用代理。*\n\n3.  **配置模型路径**\n    默认情况下，`predict.py` 会加载名为 `best_fpn.h5` 的模型。如果您下载的文件名不同，或者想切换骨干网络（例如使用 MobileNet），有两种方式：\n    *   **方式 A**：将下载的 `.h5` 文件重命名为 `best_fpn.h5`。\n    *   **方式 B**：修改代码中的 `weights_path` 参数，或在 `config\u002Fconfig.yaml` 中调整 `['model']['g_name']` 以匹配对应的骨干网络。\n\n## 基本使用\n\n### 单张图片去模糊\n\n这是最简单的使用场景。确保当前目录下有模糊图片（例如 `blurry_photo.jpg`）以及对应的预训练模型文件。\n\n运行以下命令：\n\n```bash\npython predict.py blurry_photo.jpg\n```\n\n程序会自动加载默认模型，处理图片，并在同一目录下生成去模糊后的结果（通常命名为 `deblurred_blurry_photo.jpg` 或类似名称，具体视代码逻辑而定）。\n\n### 自定义模型测试\n\n如果您使用了非默认的预训练模型（例如 MobileNet 版本），可以在代码中指定权重路径，或通过修改配置文件来适配。\n\n若要更换骨干网络进行测试，请编辑 `config\u002Fconfig.yaml`，确保 `model` 部分的 `g_name` 与您下载的权重所对应的骨干网络一致（例如改为 `mobilenet`），然后再次运行 `predict.py`。","某安防监控团队在处理夜间高速路口抓拍的交通违章证据时，面临大量因车辆高速运动导致的严重动态模糊图像，急需还原车牌细节以确保证据有效。\n\n### 没有 DeblurGANv2 时\n- **处理效率极低**：传统去模糊算法或早期模型推理速度慢，无法匹配实时监控流的帧率，导致海量视频数据只能事后离线批量处理，延误执法时效。\n- **细节还原失真**：现有方案在去除模糊的同时往往抹平高频纹理，导致还原后的车牌字符边缘柔和、难以辨认，甚至产生伪影干扰识别。\n- **硬件部署困难**：高精度模型对算力要求苛刻，难以在边缘端的嵌入式设备或普通服务器上流畅运行，被迫依赖昂贵的云端 GPU 集群。\n- **场景适应性差**：面对不同程度的运动模糊（从轻微抖动到剧烈拖影），单一模型缺乏灵活性，往往需要针对特定模糊核重新训练，维护成本高。\n\n### 使用 DeblurGANv2 后\n- **实时处理能力**：借助轻量级主干网络（如 MobileNet），DeblurGANv2 将处理速度提升了 10 至 100 倍，成功实现了对监控视频流的实时逐帧去模糊，确保证据即时可用。\n- **画质显著跃升**：引入特征金字塔网络（FPN）和相对论条件 GAN，DeblurGANv2 在去除模糊的同时完美保留了车牌的锐利边缘和纹理细节，大幅提升了 OCR 识别准确率。\n- **灵活部署落地**：得益于其“即插即用”的架构设计，团队可根据服务器性能灵活切换主干网络，既能在高端显卡上追求极致画质，也能在边缘设备上实现高效推理。\n- **通用性强**：同一套模型即可应对各种强度的运动模糊场景，无需针对不同路况反复调整参数或重新训练，极大简化了运维流程。\n\nDeblurGANv2 通过平衡极致的推理速度与卓越的去模糊质量，让实时高清视频监控与自动化执法成为可能。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FVITA-Group_DeblurGANv2_84d404bd.png","VITA-Group","VITA","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FVITA-Group_82d6e226.png","VITA group (with Prof. Atlas Wang) at UT Austin",null,"https:\u002F\u002Fwww.vita-group.space\u002F","https:\u002F\u002Fgithub.com\u002FVITA-Group",[80,84],{"name":81,"color":82,"percentage":83},"Python","#3572A5",99.9,{"name":85,"color":86,"percentage":87},"Shell","#89e051",0.1,1172,287,"2026-04-17T07:14:10","NOASSERTION","未说明","需要 NVIDIA GPU（基于 GAN 架构及预训练模型 .h5 格式推断），具体型号和显存大小未说明，CUDA 版本未说明",{"notes":95,"python":92,"dependencies":96},"README 未明确列出环境依赖清单。根据提供的预训练模型文件格式（.h5）判断，该项目主要基于 TensorFlow\u002FKeras 框架，而非 PyTorch。支持多种骨干网络（如 Inception-ResNet-v2, MobileNet），使用不同骨干网络会影响运行速度和显存需求。训练脚本默认读取 config\u002Fconfig.yaml 配置文件。",[97,98,99,100,101],"TensorFlow (推断自 .h5 模型文件)","Keras (推断自 .h5 模型文件)","opencv-python (图像处理常用)","numpy","Pillow",[14,15],[104,105,106,107,108,109,110,111],"deblurgan","generative-adversarial-network","pytorch","deep-learning","iccv","iccv2019","low-level-vision","ukraine","2026-03-27T02:49:30.150509","2026-04-18T03:33:23.678227",[115,120,125,130,135,140,145],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},38701,"为什么我测试预训练模型得到的 PSNR\u002FSSIM 指标低于论文中报告的结果？","这通常是因为使用的数据集版本不同或测试脚本未更新。请确认您使用的是完整版的 GoPro 数据集（约 30GB+），而不是裁剪版（9GB）。此外，维护者已更新了测试流程和权重文件链接，请务必查看 README 中的最新说明并使用更新后的 test_metrics.py 进行测试。如果仍然偏低，可能是计算 SSIM 的具体实现库不同导致的差异。","https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FDeblurGANv2\u002Fissues\u002F11",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},38702,"运行 predict.py 时无法下载 inceptionresnetv2 预训练权重文件怎么办？","由于原始下载链接（http:\u002F\u002Fdata.lip6.fr\u002F...）可能不稳定或无法访问，建议手动下载该文件。您可以搜索文件名 'inceptionresnetv2-520b38e4.pth' 从其他镜像源下载，并将其放置在代码指定的缓存目录中。注意：fpn_inception.h5 和 fpn_mobilenet.h5 是 DeblurGANv2 特有的生成器权重，格式为 .h5，不能直接替换 .pth 文件用于 predict.py 中的骨干网络加载，需确保文件扩展名和用途对应正确。","https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FDeblurGANv2\u002Fissues\u002F161",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},38703,"使用 MobileNet 骨干网络测试大分辨率图像（如 720x1280）时报错或速度过慢如何解决？","MobileNet 版本在处理全尺寸 720x1280 图像时可能会因上采样特征图尺寸不匹配而报错，或者在某些硬件上推理时间远超论文报告的 60ms。如果遇到形状广播错误（ValueError: operands could not be broadcast），请检查输入图像尺寸是否与模型预期一致。对于速度问题，论文数据基于特定优化环境，实际速度受硬件影响较大。若必须处理大图且遇到报错，可尝试将图像裁剪为 256x256 的补丁进行处理，或确认是否使用了正确的预训练权重配置（如测试时设置 pretrain=False）。","https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FDeblurGANv2\u002Fissues\u002F68",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},38704,"如何正确使用预训练模型进行测试以获得最佳效果？","目前确认 InceptionResNet-v2 骨干网络的预训练模型效果较好。测试时请确保下载了对应的权重文件（如 best_fpn.h5），并使用官方提供的 test_metrics.py 脚本。对于 MobileNet 版本，如果在测试时找不到 mobilenetv2.pth.tar 文件，可以在配置中设置 pretrain=False 来跳过骨干网络的预训练权重加载，仅使用生成的 FPN 权重进行推理。","https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FDeblurGANv2\u002Fissues\u002F39",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},38705,"去模糊后的图像左上角出现紫色伪影是什么原因？","这是一个已知问题，可能与 PyTorch 版本兼容性有关。有用户在使用较新版本的 torch (如 1.5.0) 和 torchvision (0.6.0) 时遇到了此问题。建议尝试降低 PyTorch 版本，或检查输入图像是否为非 GoPro 数据集的自定义图片（某些自定义资产可能触发此 bug）。如果问题依旧，请提供具体的复现步骤、使用的模型哈希值及环境配置以便进一步排查。","https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FDeblurGANv2\u002Fissues\u002F18",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},38706,"测试 256x256 小尺寸图像时出现维度不匹配错误怎么办？","当输入图像尺寸为 256x256 而模型期望或其他内部操作涉及 720x1280 时，会抛出 'operands could not be broadcast together' 错误。这通常是因为模型架构（特别是 FPN 结构）对输入尺寸有隐含要求，或者测试脚本中硬编码了某些尺寸。建议尝试使用与训练集一致的分辨率，或者检查代码中是否有针对输入尺寸的动态调整逻辑。如果是自定义数据集，请确保数据预处理流程与 GoPro 数据集保持一致。","https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FDeblurGANv2\u002Fissues\u002F49",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},38707,"在哪里可以找到或获取缺失的预训练模型文件（如 .h5 或 .pth 文件）？","官方 README 中应包含最新的权重下载链接。如果链接失效，社区用户常在 Issue 评论区通过邮箱分享文件，但出于安全和版权考虑，建议优先等待官方修复链接或自行重新训练模型。对于特定的 fpn_mobilenet.h5 或 fpn_inception.h5 文件，请确保从官方发布的 Release 页面或更新后的文档中获取，不要混用不同架构的权重文件。","https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FDeblurGANv2\u002Fissues\u002F36",[]]