[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Fediory--HVI-CIDNet":3,"tool-Fediory--HVI-CIDNet":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":77,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":10,"env_os":88,"env_gpu":89,"env_ram":88,"env_deps":90,"category_tags":95,"github_topics":96,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":103,"updated_at":104,"faqs":105,"releases":145},9068,"Fediory\u002FHVI-CIDNet","HVI-CIDNet","[CVPR2025 && NTIRE2025] HVI: A New Color Space for Low-light Image Enhancement (Official Implementation)","HVI-CIDNet 是一款专为低光照图像增强设计的开源 AI 模型，其核心成果已入选计算机视觉顶会 CVPR 2025。它主要解决在极暗环境下拍摄的照片噪点多、色彩失真及细节丢失等难题，能够将昏暗模糊的影像还原为明亮清晰的高质量图片。\n\n该工具最大的技术亮点在于提出了一种全新的色彩空间——HVI。不同于传统方法直接在 RGB 空间处理，HVI 色彩空间能更有效地分离亮度与色彩信息，配合高效的网络架构，在大幅提升图像亮度的同时，精准保留自然色彩与纹理细节，避免了常见的过曝或色偏现象。此外，该项目还在 NTIRE 2025 低光照增强挑战赛中荣获冠军，证明了其卓越的性能。\n\nHVI-CIDNet 非常适合多类人群使用：研究人员可基于其开源代码探索新的色彩空间理论；开发者能将其集成到监控、自动驾驶或移动摄影应用中；设计师和普通用户则可通过集成的 Gradio 演示界面，一键修复夜景照片或欠曝素材，无需具备深厚的编程背景。项目团队公开了完整的训练代码、预训练模型及数据集，致力于推动低光照视觉技术的进一步发展。","&nbsp;\n\n\u003Cp align=\"center\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_02e6106dd36a.png\" width=\"500px\"> \u003C\u002Fp>\n\n# [CVPR2025] HVI: A New Color Space for Low-light Image Enhancement\n\n**[Qingsen Yan](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=BSGy3foAAAAJ)\u003Csup>∗ \u003C\u002Fsup>, [Yixu Feng](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=WljJ2HUAAAAJ)\u003Csup>∗ \u003C\u002Fsup>, [Cheng Zhang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=L_Av9NcAAAAJ)**,  [Guansong Pang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=1ZO7pHkAAAAJ), Kangbiao Shi, [Peng Wu](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=QkNqUH4AAAAJ), Wei Dong, Jinqiu Sun,  [Yanning Zhang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=-wzlS7QAAAAJ)\n\nPrevious Version: [You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.05809)\n\n\u003Cdiv align=\"center\">\n\t\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-Paper-red.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.20272)\n[![Gradio Spaces](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Gradio%20-Spaces-violet)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FFediory\u002FHVI-CIDNet_Low-light-Image-Enhancement_)\n[![Hugging Face Paper](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Paper-green)](https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2502.20272)\n[![zhihu](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fzhihu-知乎-179bd3)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F27130836644)\n\n\n\u003C\u002Fdiv>\n\n&nbsp;\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>HVI-CIDNet Demo:\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_54ae2efda36c.png)\n\n\u003C\u002Fdetails>\n\n## News 🆕\n- **2025.10.27** Thanks [shade233](https:\u002F\u002Fgithub.com\u002Fshade233) for helping me to fix the conflicts and incorrect usage of argparser.\n- **2025.07.11** Upgraded version paper as \"HVI-CIDNet+: Beyond Extreme Darkness for Low-Light Image Enhancement\" in [Arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.06814). The new code, models and results will be uploaded soon. (code_link：[Github](https:\u002F\u002Fgithub.com\u002Fshikangbiao\u002FCIDNet_extension))\n- **2025.06.03** Special Thanks for Kangbiao Shi for training HVI-CIDNet on FiveK dataset follow retinexformer. The training code and models are avaliable now. 🔆\n- **2025.05.01** Our NTIRE2025 LLIE track championship solution, FusionNet, is now public at [Arxiv](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2504.19295)! 📝\n- **2025.03.27** Congratulations! Our team achived [1st place](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1CSXNssZQK5Y_KUWUx3_nYLv-plJn_K43\u002Fview) in the competition: [NTIRE 2025 Low Light Image Enhancement Challenge](https:\u002F\u002Fcodalab.lisn.upsaclay.fr\u002Fcompetitions\u002F21636) (If you have any question about our NTIRE method, please contact: Kangbiao Shi, email: 18334840904@163.com). We fused our HVI-CIDNet with last year's winner and runner-up models to get the optimal results. We will explain the fusion method thoroughly in detail in the report for subsequent reference. 🚀\n- **2025.03.10** All weights are public at [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2502.20272). Special Thanks to [Niels Rogge](https:\u002F\u002Fgithub.com\u002FNielsRogge), [Wauplin](https:\u002F\u002Fgithub.com\u002FWauplin), and [hysts](https:\u002F\u002Fhuggingface.co\u002Fhysts).🔆\n- **2025.02.26** Congratulations! Our final-version paper \"HVI: A New color space for Low-light Image Enhancement\" has been accepted by **CVPR 2025**. 🔥\n- **2025.02.20** A test demo of our model is available on [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FFediory\u002FHVI-CIDNet_Low-light-Image-Enhancement_). 🤗\n- **2025.01.31** Update train code. Use random gamma function (enhancement curve) to improve cross-dataset generalization. 🔆\n- **2024.06.19** Update newest version of paper in [Arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.05809). 📝\n- **2024.05.12** Update peer results on LOLv1. 🤝\n- **2024.04.28** Synchronize all Baidu Pan datasets, outputs, and weights to One Drive. 🌎\n- **2024.04.18** Full version Code, models, visual comparison have been released. We promise that all the weights only trained on train sets, and each weights is reproducible. Hope it will help your future work. If you have trained a better result, please contact us. We look forward to subsequent work based on the HVI color \"space\"! 💎\n\n- **2024.04.14** Update test fine tuning result and weights on LOLv1 dataset. 🧾\n\n- **2024.03.04** Update five unpaired datasets (DICM, LIME, MEF, NPE, VV) visual results. ✨\n\n- **2024.03.03** Update pre-trained weights and output results on our HVI-CIDNet using Baidu Pan. 🧾\n\n- **2024.02.08** Update HVI-CIDNet original-version paper as \"You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement\" in [Arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.05809v1). The new code, models and results will be uploaded. 🎈\n\n\n\n## Proposed HVI-CIDNet ⚙ \n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>Motivation:\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_4d23a7e341bd.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>HVI-CIDNet pipeline:\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_c1a92aefae9b.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>Lighten Cross-Attention (LCA) Block structure:\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_f9baae66b5fb.png)\n\n\n\u003C\u002Fdetails>\n\n## Visual Comparison 🖼 \n\u003Cdetails close>\n\u003Csummary>\u003Cb>LOL-v1, LOL-v2-real, and LOL-v2-synthetic:\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_b8ff3691c642.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>DICM, LIME, MEF, NPE, and VV:\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_1cfc90926e9c.png)\n\n\n\u003C\u002Fdetails>\n\u003Cdetails close>\n\u003Csummary>\u003Cb>LOL-Blur:\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_4d3040debd81.png)\n\n\n\u003C\u002Fdetails>\n\n## Weights and Results 🧾\nAll the weights that we trained on different datasets is available at [[Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1rvQcQPwsYbtLIYwB3XgjaA?pwd=yixu)] (code: `yixu`) and [[One Drive](https:\u002F\u002F1drv.ms\u002Ff\u002Fs!AoPRJmiD24UpgloqG-S67l1BX0cG?e=0b4GL0)] (code: `yixu`).  Results on DICM, LIME, MEF, NPE, and VV datasets can be downloaded from [[Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ApI5B1q2GPBHWdh8AafjlQ?pwd=yixu)] (code: `yixu`) and [[One Drive](https:\u002F\u002F1drv.ms\u002Ff\u002Fs!AoPRJmiD24UphBK3DimfMTv74FOi?e=3tkhva)] (code: `yixu`). \n**Bolded** fonts represent impressive metrics.\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>The metrics of HVI-CIDNet on paired datasets are shown in the following table: \u003C\u002Fb>\u003C\u002Fsummary>\n\nAll the link code is `yixu`.\n\n| Folder (test datasets)                        | PSNR        | SSIM       | LPIPS      | GT Mean | Results                                                      | Weights Path             |\n| --------------------------------------------- | ----------- | ---------- | ---------- | ------- | ------------------------------------------------------------ | ------------------------ |\n| (LOLv1)\u003Cbr \u002F>v1 w perc loss\u002F wo gt mean       | 23.8091     | 0.8574     | **0.0856** |         | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1k1_oHDLh8oR47r7RTfB4Hw?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24Upgm-DPM6MuNqxcf6L?e=DD1I9g) | LOLv1\u002Fw_perc.pth         |\n| (LOLv1)\u003Cbr \u002F>v1 w perc loss\u002F w gt mean        | 27.7146     | 0.8760     | **0.0791** | √       | ditto                                                        | LOLv1\u002Fw_perc.pth         |\n| (LOLv1)\u003Cbr \u002F>v1 wo perc loss\u002F wo gt mean      | 23.5000     | **0.8703** | 0.1053     |         | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1hMMh8NNqTLJRSZJ6GxI3rw?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24Upgm5MXMToC1-7sFdh?e=c1oKDH) | LOLv1\u002Fwo_perc.pth        |\n| (LOLv1)\u003Cbr \u002F>v1 wo perc loss\u002F w gt mean       | **28.1405** | **0.8887** | 0.0988     | √       | ditto                                                        | LOLv1\u002Fwo_perc.pth        |\n| (LOLv2_real)\u003Cbr \u002F>v2 wo perc loss\u002F wo gt mean | 23.4269     | 0.8622     | 0.1691     |         | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Lo19WOrFY3_3wsuJ9gIYnw?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnSzz3Tcg8043ci9?e=OS9ZmS) | (lost)                   |\n| (LOLv2_real)\u003Cbr \u002F>v2 wo perc loss\u002F w gt mean  | 27.7619     | 0.8812     | 0.1649     | √       | ditto                                                        | (lost)                   |\n| (LOLv2_real)\u003Cbr \u002F>v2 best gt mean             | **28.1387** | **0.8920** | **0.1008** | √       | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1qewb6u5w1VUaaEzEjFXllQ?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnBE81jKRMU0izoF?e=1Em6cK) | LOLv2_real\u002Fw_prec.pth    |\n| (LOLv2_real)\u003Cbr \u002F>v2 best Normal              | **24.1106** | 0.8675     | 0.1162     |         | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1V9aMZWEU2D0bVRDmPeNzMQ?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnGqZv_vlFN_u2Bg?e=4CiN6T) | (lost)                   |\n| (LOLv2_real)\u003Cbr \u002F>v2 best PSNR                | 23.9040     | 0.8656     | 0.1219     |         | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1PFQ49oa_n7ywTGLl3TUb3A?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnLTGGGFKmXTWBu4?e=JnzL7z) | LOLv2_real\u002Fbest_PSNR.pth |\n| (LOLv2_real)\u003Cbr \u002F>v2 best SSIM                | 23.8975     | **0.8705** | 0.1185     |         | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1zeBPFJS3HxQ9zZZnYGMn4g?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnPhbdKXmSt0YdxU?e=WT8kae) | LOLv2_real\u002Fbest_SSIM.pth |\n| (LOLv2_real)\u003Cbr \u002F>v2 best SSIM\u002F w gt mean     | **28.3926** | 0.8873     | 0.1136     | √       | None                                                         | LOLv2_real\u002Fbest_SSIM.pth |\n| (LOLv2_syn)\u003Cbr \u002F>syn wo perc loss\u002F wo gt mean | **25.7048** | **0.9419** | 0.0471     |         | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ZZtalO3vxqSJOJ58BnfUXw?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnZWp2xWBu8Rv_C_?e=Nn7u4w) | LOLv2_syn\u002Fwo_perc.pth    |\n| (LOLv2_syn)\u003Cbr \u002F>syn wo perc loss\u002F w gt mean  | **29.5663** | **0.9497** | 0.0437     | √       | ditto                                                        | LOLv2_syn\u002Fwo_perc.pth    |\n| (LOLv2_syn)\u003Cbr \u002F>syn w perc loss\u002F wo gt mean  | 25.1294     | 0.9388     | **0.0450** |         | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1R_ltvaWHJ_sY-unHAEGunw?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnV2ouH4IGy955c6?e=chPtYB) | LOLv2_syn\u002Fw_perc.pth     |\n| (LOLv2_syn)\u003Cbr \u002F>syn w perc loss\u002F w gt mean   | 29.3666     | **0.9500** | **0.0403** | √       | ditto                                                        | LOLv2_syn\u002Fw_perc.pth     |\n| Sony_Total_Dark                               | **22.9039** | **0.6763** | **0.4109** |         | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F15w3oMuF3hOtJK29v_xjX3g?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24Upgn_ijuk--nBUm6fm?e=4ePpHz) | SID.pth                  |\n| LOL-Blur                                      | **26.5719** | **0.8903** | **0.1203** |         | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F11zTPd3xrJe0GbEXF_lYHvQ?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24Upgn7AOw_WmC9Yg-z0?e=WeiUi8) | LOL-Blur.pth             |\n| SICE-Mix                                      | **13.4235** | 0.6360     | 0.3624     | √       | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F11x4oJuIKE0iJqdqagG1RhQ?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24Upgn1oKivqyksR4ld9?e=JcA0y4) | SICE.pth                 |\n| SICE-Grad                                     | **13.4453** | 0.6477     | 0.3181     | √       | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1IICeonyuUHcUfTapa4GKxw?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnyGiBYyTvFyV9gg?e=7veJSh) | SICE.pth                 |\n| FiveK\u003Cbr \u002F>follow [Retinexformer](https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FRetinexformer)                                     | 24.4587 | 0.8769     | 0.0851     |        | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Cv7SbzVoIA2oyX7sAl5ynA?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fc\u002F2985db836826d183\u002FEWiQ-YME-F9DrMA9r4wt-QIBjFCegAn9fU6WDYXbPwzgbg?e=KKe7q9) | fivek.pth                 |\n\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>Performance on five unpaired datasets are shown in the following table:  \u003C\u002Fb>\u003C\u002Fsummary>\n\n| metrics | DICM  | LIME  | MEF   | NPE   | VV    |\n| ------- | ----- | ----- | ----- | ----- | ----- |\n| NIQE    | 3.79  | 4.13  | 3.56  | 3.74  | 3.21  |\n| BRISQUE | 21.47 | 16.25 | 13.77 | 18.92 | 30.63 |\n\nFurthermore, **we found that use random gamma function in the training process can improve the generalization of CIDNet.** You can see details in `train.py` line 53-55, also you can turn-on the random-gamma mode in `data\u002Foptions.py` line 60 during training process.\n\nWe trained on LOLv2-Syn dataset with the random-gamma mode, and save the weights as `LOLv2_syn\u002Fgeneralization.pth` (you can find in the link). The performance are shown in the following table, and you can see 7 metrics improved:\n\n| metrics | DICM  | LIME  | MEF   | NPE   | VV    | Results                                                      |\n| ------- | ----- | ----- | ----- | ----- | ----- | ------------------------------------------------------------ |\n| NIQE    | 3.55  | 3.85  | 3.46  | 3.82  | 3.24  | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1hhsWpcqqMyMnSogDCm_MXg?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Ff\u002Fc\u002F2985db836826d183\u002FEu7lGsiqJplMra5SIV5-HGcBeBE7LI9qbGR7q6RltthBSA?e=BDaRAP) |\n| BRISQUE | 25.62 | 16.02 | 13.08 | 18.90 | 29.55 | ditto                                                        |\n\nThe weights with the \"strongest\" generalization ability we put on the HVI-CIDNet demo on the Hugging Face website, which we highly recommend. Here are its NIQE metrics on five unpaired datasets, which you can easily reproduce on Hugging Face:\n\n| metrics | DICM  | LIME  | MEF   | NPE   | VV    | Average |\n| ------- | ----- | ----- | ----- | ----- | ----- | ------- |\n| NIQE    | 3.36  | 3.03  | 3.11  | 3.33  | 2.49  | 3.13    |\n\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>Test Finetune:  \u003C\u002Fb>\u003C\u002Fsummary>\n\n- While we don't recommend that you perform finetuning on the test set, in order to demonstrate the effectiveness of our model, we also provide here the results of test finetuning training on the LOLv1 dataset. **Using the fine tuning technique on the test set does make the PSNR metrics higher**, but other metrics are not found to be significantly changed on CIDNet, which may result in a lower generalization of the model, so we do not recommend you do this.\n\n| Folder (test datasets)          | PSNR        | SSIM   | LPIPS      | GT Mean | Results                                                      | Weights Path              |\n| ------------------------------- | ----------- | ------ | ---------- | ------- | ------------------------------------------------------------ | ------------------------- |\n| (LOLv1)\u003Cbr \u002F>v1 test finetuning | **25.4036** | 0.8652 | **0.0897** |         | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1MmUVF4orRWFXURJ4Pnbz2w?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24Upgm0szyqstv-exKcV?e=rLXoby) | LOLv1\u002Ftest_finetuning.pth |\n| (LOLv1)\u003Cbr \u002F>v1 test finetuning | **27.5969** | 0.8696 | 0.0869     | √       | ditto                                                        | ditto                     |\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>Contributions from other peers: \u003C\u002Fb>\u003C\u002Fsummary>\n\n- This section is where other peers have trained better versions of weights using our model, and we will show both their weights and results here. If you have trained better weights, please contact us by email or submit issue.\n\n| Datasets | PSNR        | SSIM   | LPIPS  | GT Mean | Results                                                      | Weights Path               | Contributor Detail                              | GPU         |\n| -------- | ----------- | ------ | ------ | ------- | ------------------------------------------------------------ | -------------------------- | ----------------------------------------------- | ----------- |\n| LOLv1    | **24.7401** | 0.8604 | 0.0896 |         | [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1JKFG9UfZdHA0gyhrT-6Ruw?pwd=yixu) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UphCmA1BKfzVUjQDZF?e=cOELSz) | LOLv1\u002Fother\u002FPSNR_24.74.pth | [Xi’an Polytechnic University]\u003Cbr \u002F>Yingjian Li | NVIDIA 4070 |\n\n\u003C\u002Fdetails>\n\n## 1. Get Started 🌑\n\n### Dependencies and Installation\n\n- Python 3.7.0\n- Pytorch 1.13.1\n\n(1) Create Conda Environment\n\n```bash\nconda create --name CIDNet python=3.7.0\nconda activate CIDNet\n```\n\n(2) Clone Repo\n\n```bash\ngit clone git@github.com:Fediory\u002FHVI-CIDNet.git\n```\n\n(3) Install Dependencies\n\n```bash\ncd HVI-CIDNet\npip install -r requirements.txt\n```\n\n\n### Data Preparation\n\nYou can refer to the following links to download the datasets. Note that we only use `low_blur` and `high_sharp_scaled` subsets of `LOL-Blur` dataset.\n\n- [LOLv1](https:\u002F\u002Fdaooshee.github.io\u002FBMVC2018website\u002F)\n- LOLv2: [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F17KTa-6GUUW22Q49D5DhhWw?pwd=yixu) (code: `yixu`) and  [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fc\u002F2985db836826d183\u002FEYPRJmiD24UggCmCAQAAAAABEbg62rx0FG21FwLQq0jzLg?e=Im12UA) (code: `yixu`) \n- LOL-Blur: [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1nj054uoLA3gtpV7MNM2eCA?pwd=yixu)(code: `yixu`) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UphBTn9PsLC5hoD-k9?e=Jm0AOa) (code: `yixu`) \n- DICM,LIME,MEF,NPE,VV: [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1FZ5HWT30eghGuaAqqpJGaw?pwd=yixu)(code: `yixu`) and [One Drive](https:\u002F\u002F1drv.ms\u002Ff\u002Fs!AoPRJmiD24UphBNGBbsDmSwppNPf?e=2yGImv)(code: `yixu`)\n- SICE: [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F13ghnpTBfDli3mAzE3vnwHg?pwd=yixu)(code: `yixu`) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UphAlaTIekdMLwLZnA?e=WxrfOa)(code: `yixu`)\n- Sony-Total-Dark(SID): [Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1mpbwVscbAfQJtkrrzBzJng?pwd=yixu)(code: `yixu`) and [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UphAie9l0DuMN20PB7?e=Zc5DcA)(code: `yixu`)\n- FiveK (follow [Retinexformer](https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FRetinexformer)): [Baidu Disk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ajax7N9JmttTwY84-8URxA?pwd=cyh2) (code:`cyh2`), [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F11HEUmchFXyepI4v3dhjnDnmhW_DgwfRR\u002Fview?usp=sharing)\n\nThen, put them in the following folder:\n\n\u003Cdetails close> \u003Csummary>datasets (click to expand)\u003C\u002Fsummary>\n\n```\n├── datasets\n\t├── DICM\n\t├── FiveK\n\t\t├── test\n\t\t\t├──input\n\t\t\t├──target\n\t\t├── train\n\t\t\t├──input\n\t\t\t├──target\n\t├── LIME\n\t├── LOLdataset\n\t\t├── our485\n\t\t\t├──low\n\t\t\t├──high\n\t\t├── eval15\n\t\t\t├──low\n\t\t\t├──high\n\t├── LOLv2\n\t\t├── Real_captured\n\t\t\t├── Train\n\t\t\t\t├── Low\n\t\t\t\t├── Normal\n\t\t\t├── Test\n\t\t\t\t├── Low\n\t\t\t\t├── Normal\n\t\t├── Synthetic\n\t\t\t├── Train\n\t\t\t\t├── Low\n\t\t\t\t├── Normal\n\t\t\t├── Test\n\t\t\t\t├── Low\n\t\t\t\t├── Normal\n\t├── LOL_blur\n\t\t├── eval\n\t\t\t├── high_sharp_scaled\n\t\t\t├── low_blur\n\t\t├── test\n\t\t\t├── high_sharp_scaled\n\t\t\t\t├── 0012\n\t\t\t\t├── 0017\n\t\t\t\t...\n\t\t\t├── low_blur\n\t\t\t\t├── 0012\n\t\t\t\t├── 0017\n\t\t\t\t...\n\t\t├── train\n\t\t\t├── high_sharp_scaled\n\t\t\t\t├── 0000\n\t\t\t\t├── 0001\n\t\t\t\t...\n\t\t\t├── low_blur\n\t\t\t\t├── 0000\n\t\t\t\t├── 0001\n\t\t\t\t...\n\t├── MEF\n\t├── NPE\n\t├── SICE\n\t\t├── Dataset\n\t\t\t├── eval\n\t\t\t\t├── target\n\t\t\t\t├── test\n\t\t\t├── label\n\t\t\t├── train\n\t\t\t\t├── 1\n\t\t\t\t├── 2\n\t\t\t\t...\n\t\t├── SICE_Grad\n\t\t├── SICE_Mix\n\t\t├── SICE_Reshape\n\t├── Sony_total_dark\n\t\t├── eval\n\t\t\t├── long\n\t\t\t├── short\n\t\t├── test\n\t\t\t├── long\n\t\t\t\t├── 10003\n\t\t\t\t├── 10006\n\t\t\t\t...\n\t\t\t├── short\n\t\t\t\t├── 10003\n\t\t\t\t├── 10006\n\t\t\t\t...\n\t\t├── train\n\t\t\t├── long\n\t\t\t\t├── 00001\n\t\t\t\t├── 00002\n\t\t\t\t...\n\t\t\t├── short\n\t\t\t\t├── 00001\n\t\t\t\t├── 00002\n\t\t\t\t...\n\t├── VV\n```\n\u003C\u002Fdetails>\n\n## 2. Testing 🌒\n\n\nDownload our weights from [[Baidu Pan](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1rvQcQPwsYbtLIYwB3XgjaA?pwd=yixu)] (code: `yixu`) and put them in folder `weights`:\n\n\u003Cdetails close> \u003Csummary>weights (click to expand)\u003C\u002Fsummary>\n\n```\n├── weights\n    ├── LOLv1\n        ├── w_perc.pth\n        ├── wo_perc.pth\n        ├── test_finetuning.pth\n    ├── LOLv2_real\n        ├── best_PSNR.pth\n        ├── best_SSIM.pth\n        ├── w_perc.pth\n    ├── LOLv2_syn\n        ├── generalization.pth\n        ├── w_perc.pth\n        ├── wo_perc.pth\n    ├── LOL-Blur.pth\n    ├── SICE.pth\n    ├── SID.pth\n```\n\n\u003C\u002Fdetails>\n\n- **You can test our method in our gradio demo with bash code `python app.py`, and go to the URL link \"http:\u002F\u002F127.0.0.1:7862\" to enjoy the demo.** (add `--cpu` can inference CPU-only)\n- or You can use `huggingface_hub` to download and test our method as:\n```bash\n# you can find all weights in https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2502.20272\npython eval_hf.py --path fediory\u002Four_model_path --input_img your\u002Fimg\u002Fpath --alpha_s 1.0 --alpha_i 1.0 --gamma 1.0\n\n# for example\npython eval_hf.py --path fediory\u002FHVI-CIDNet-LOLv1-wperc --input_img .\u002Fdatasets\u002FDICM\u002F01.JPG --alpha_s 1.0 --alpha_i 1.0 --gamma 1.0\n```\nand your enhanced image will be saved at `.\u002Foutput_hf`.\n\n- or **You can test our method as followed, all the results will saved in `.\u002Foutput` folder:**\n\n\u003Cdetails close> \u003Csummary>(click to expand)\u003C\u002Fsummary>\n\n```bash\n# LOLv1\npython eval.py --lol --perc # weights that trained with perceptual loss\npython eval.py --lol # weights that trained without perceptual loss\n\n# LOLv2-real\npython eval.py --lol_v2_real --best_GT_mean # you can choose best_GT_mean or best_PSNR or best_SSIM\n\n# LOLv2-syn\npython eval.py --lol_v2_syn --perc # weights that trained with perceptual loss\npython eval.py --lol_v2_syn # weights that trained without perceptual loss\n\n# SICE\npython eval.py --SICE_grad # output SICE_grad\npython eval.py --SICE_mix # output SICE_mix\n\n# FiveK\npython eval.py --fivek # output FiveK follow Retinexformer\n\n# Sony-Total-Dark\npython eval_SID_blur --SID\n\n# LOL-Blur\npython eval_SID_blur --Blur\n\n# five unpaired datasets DICM, LIME, MEF, NPE, VV. \n# We note that: you can choose one weights in .\u002Fweights folder, and set the alpha float number (defualt=1.0) as illumination scale of the datasets.\n# gamma denotes the gamma function (curve), see line 59 of \"eval.py\"\n# You can change \"--DICM\" to the other unpaired datasets \"LIME, MEF, NPE, VV\".\npython eval.py --unpaired --DICM --unpaired_weights --alpha\n# e.g.\npython eval.py --unpaired --DICM --unpaired_weights .\u002Fweights\u002FLOLv2_syn\u002Fw_perc.pth --alpha 0.9 --gamma 0.9\n\n# Custome Datasets: alpha and gamma are optional.\npython eval.py --unpaired --custome --custome_path .\u002Fyour\u002Fcostome\u002Fdataset\u002Fpath --unpaired_weights .\u002Fweights\u002FLOLv2_syn\u002Fw_perc.pth --alpha 0.9 --gamma 0.9\n```\n\n\u003C\u002Fdetails>\n\n- **Also, you can test all the metrics mentioned in our paper as follows:**\n  \n  \n\u003Cdetails close> \u003Csummary>(click to expand)\u003C\u002Fsummary>\n\n```bash\n# LOLv1\npython measure.py --lol\n\n# LOLv2-real\npython measure.py --lol_v2_real\n\n# LOLv2-syn\npython measure.py --lol_v2_syn\n\n# Sony-Total-Dark\npython measure_SID_blur.py --SID\n\n# LOL-Blur\npython measure_SID_blur.py --Blur\n\n# SICE-Grad\npython measure.py --SICE_grad\n\n# SICE-Mix\npython measure.py --SICE_mix\n\n# fivek\npython measure.py --fivek\n\n\n# five unpaired datasets DICM, LIME, MEF, NPE, VV. \n# You can change \"--DICM\" to the other unpaired datasets \"LIME, MEF, NPE, VV\".\npython measure_niqe_bris.py --DICM\n\n\n# Note: Following LLFlow, KinD, and Retinxformer, we have also adjusted the brightness of the output image produced by the network, based on the average value of GroundTruth (GT). This only works in paired datasets. If you want to measure it, please add \"--use_GT_mean\".\n# \n# e.g.\npython measure.py --lol --use_GT_mean\n  \n```\n\n\u003C\u002Fdetails>\n\n- **Evaluating the Parameters, FLOPs, and running time of HVI-CIDNet:**\n\n```bash\npython net_test.py\n```\n\n\n## 3. Training 🌓\n\n- We put all the configurations that need to be adjusted in the `.\u002Fdata\u002Foptions.py` folder and explained them in the file. We apologize that some of the training parameters we are no longer able to provide and share with you, but we guarantee that all the weights are trainable by parameter tuning. You can train our HVI-CIDNet by:\n\n```bash\n# You can choose --start_warmup True\u002FFalse for setting the warmup in training stage.\n# You can choose these dataset for training: lol_v1, lolv2_real, lolv2_syn, lol_blur, SID, SICE_mix, SICE_grad, fivek.\n# Below is the example.\npython train.py --dataset lol_v1\n```\n\n- All weights are saved to the `.\u002Fweights\u002Ftrain` folder and are saved in steps of the checkpoint set in the `options.py`  as `epoch_*.pth` where `*` represent the epoch number.\n- Also, for every weight saved, metrics are measured for the validation set and printed to the command line. Finally, the results of all weights' test metrics on the validation set and options in `.\u002Fdata\u002Foptions.py` will be saved to `.\u002Fresults\u002Ftraining\u002Fmetrics-YYYY-mm-dd-HHMMSS.md`.\n- In each epoch, we save an output (test) and GT image to the `.\u002Fresults\u002Ftraining` folder to facilitate the visualization of the training results and progress of each epoch, as well as to detect the generation of gradient explosion in advance.\n- After each checkpoint, we save all the validation set outputs for this time in the `.\u002Fresults` folder to the corresponding folder. Note that we use a replacement strategy for different checkpoints for each dataset. That is, we do not save the plots of all checkpoints, but only the weights of each checkpoint.\n  \n\n## 4. Contacts 🌔\n\nIf you have any questions, please contact us or submit an issue to the repository!\n\nYixu Feng (yixu-nwpu@mail.nwpu.edu.cn)\n\n## 5. Citation 🌕\n\nIf you find our work useful for your research, please cite our paper\n\n```\n@article{yan2025hvi,\n  title={HVI: A New color space for Low-light Image Enhancement},\n  author={Yan, Qingsen and Feng, Yixu and Zhang, Cheng and Pang, Guansong and Shi, Kangbiao and Wu, Peng and Dong, Wei and Sun, Jinqiu and Zhang, Yanning},\n  journal={arXiv preprint arXiv:2502.20272},\n  year={2025}\n}\n\n@misc{feng2024hvi,\n      title={You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement}, \n      author={Yixu Feng and Cheng Zhang and Pei Wang and Peng Wu and Qingsen Yan and Yanning Zhang},\n      year={2024},\n      eprint={2402.05809},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV}\n}\n```\n\n","&nbsp;\n\n\u003Cp align=\"center\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_02e6106dd36a.png\" width=\"500px\"> \u003C\u002Fp>\n\n# [CVPR2025] HVI：一种用于低光图像增强的新色彩空间\n\n**[Yan Qingsen](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=BSGy3foAAAAJ)\u003Csup>∗ \u003C\u002Fsup>, [Feng Yixu](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=WljJ2HUAAAAJ)\u003Csup>∗ \u003C\u002Fsup>, [Zhang Cheng](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=L_Av9NcAAAAJ)**,  [Pang Guansong](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=1ZO7pHkAAAAJ), Shi Kangbiao, [Wu Peng](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=QkNqUH4AAAAJ), Dong Wei, Sun Jinqiu,  [Zhang Yanning](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=-wzlS7QAAAAJ)\n\n先前版本：[你只需要一个色彩空间：用于低光图像增强的高效网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.05809)\n\n\u003Cdiv align=\"center\">\n\t\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-Paper-red.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.20272)\n[![Gradio Spaces](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Gradio%20-Spaces-violet)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FFediory\u002FHVI-CIDNet_Low-light-Image-Enhancement_)\n[![Hugging Face Paper](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Paper-green)](https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2502.20272)\n[![zhihu](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fzhihu-知乎-179bd3)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F27130836644)\n\n\n\u003C\u002Fdiv>\n\n&nbsp;\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>HVI-CIDNet演示：\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_54ae2efda36c.png)\n\n\u003C\u002Fdetails>\n\n## 新闻 🆕\n- **2025.10.27** 感谢[shade233](https:\u002F\u002Fgithub.com\u002Fshade233)帮助我修复了冲突和argparser的错误使用。\n- **2025.07.11** 升级版论文为“HVI-CIDNet+：超越极端黑暗的低光图像增强”，发表于[Arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.06814)。新的代码、模型和结果将很快上传。（代码链接：[Github](https:\u002F\u002Fgithub.com\u002Fshikangbiao\u002FCIDNet_extension)）\n- **2025.06.03** 特别感谢Shi Kangbiao，他在FiveK数据集上按照retinexformer的方法训练了HVI-CIDNet。训练代码和模型现已可用。 🔆\n- **2025.05.01** 我们的NTIRE2025 LLIE赛道冠军方案FusionNet现已在[Arxiv](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2504.19295)上公开！📝\n- **2025.03.27** 恭喜！我们的团队在比赛中获得了[第一名](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1CSXNssZQK5Y_KUWUx3_nYLv-plJn_K43\u002Fview)：[NTIRE 2025低光图像增强挑战赛](https:\u002F\u002Fcodalab.lisn.upsaclay.fr\u002Fcompetitions\u002F21636)（如对我们的NTIRE方法有任何疑问，请联系：Shi Kangbiao，邮箱：18334840904@163.com）。我们把HVI-CIDNet与去年的冠亚军模型融合，以获得最佳效果。我们将在报告中详细解释融合方法，供后续参考。🚀\n- **2025.03.10** 所有权重已在[Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2502.20272)上公开。特别感谢[Niels Rogge](https:\u002F\u002Fgithub.com\u002FNielsRogge)、[Wauplin](https:\u002F\u002Fgithub.com\u002FWauplin)和[hysts](https:\u002F\u002Fhuggingface.co\u002Fhysts)。🔆\n- **2025.02.26** 恭喜！我们的最终版论文“HVI：一种用于低光图像增强的新色彩空间”已被**CVPR 2025**接受。🔥\n- **2025.02.20** 我们的模型测试demo已在[Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FFediory\u002FHVI-CIDNet_Low-light-Image-Enhancement_)上可用。🤗\n- **2025.01.31** 更新训练代码。使用随机gamma函数（增强曲线）来提高跨数据集的泛化能力。 🔆\n- **2024.06.19** 在[Arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.05809)上更新了最新版本的论文。📝\n- **2024.05.12** 更新LOLv1上的同行对比结果。🤝\n- **2024.04.28** 将所有百度网盘的数据集、输出和权重同步到One Drive。🌎\n- **2024.04.18** 完整版代码、模型和可视化对比已发布。我们承诺所有权重均仅在训练集上训练，并且每份权重均可复现。希望这能对您的未来工作有所帮助。如果您训练出了更好的结果，请联系我们。我们期待基于HVI色彩“空间”的后续工作！💎\n\n- **2024.04.14** 更新LOLv1数据集上的微调结果和权重。🧾\n\n- **2024.03.04** 更新五个非配对数据集（DICM、LIME、MEF、NPE、VV）的可视化结果。✨\n\n- **2024.03.03** 使用百度网盘更新HVI-CIDNet的预训练权重和输出结果。🧾\n\n- **2024.02.08** 将HVI-CIDNet原始版本论文更新为“你只需要一个色彩空间：用于低光图像增强的高效网络”，发表于[Arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.05809v1)。新的代码、模型和结果即将上传。🎈\n\n\n\n## 提出的HVI-CIDNet ⚙ \n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>动机：\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_4d23a7e341bd.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>HVI-CIDNet流程：\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_c1a92aefae9b.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>轻量化交叉注意力（LCA）模块结构：\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_f9baae66b5fb.png)\n\n\n\u003C\u002Fdetails>\n\n## 可视化对比 🖼 \n\u003Cdetails close>\n\u003Csummary>\u003Cb>LOL-v1、LOLv2-real和LOLv2-synthetic：\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_b8ff3691c642.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>DICM、LIME、MEF、NPE和VV：\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_1cfc90926e9c.png)\n\n\n\u003C\u002Fdetails>\n\u003Cdetails close>\n\u003Csummary>\u003Cb>LOL-Blur：\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_readme_4d3040debd81.png)\n\n\n\u003C\u002Fdetails>\n\n## 权重和结果 🧾\n我们在不同数据集上训练的所有权重均可在[[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1rvQcQPwsYbtLIYwB3XgjaA?pwd=yixu)]（密码：`yixu`）和[[One Drive](https:\u002F\u002F1drv.ms\u002Ff\u002Fs!AoPRJmiD24UpgloqG-S67l1BX0cG?e=0b4GL0)]（密码：`yixu`）上获取。DICM、LIME、MEF、NPE和VV数据集的结果可从[[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ApI5B1q2GPBHWdh8AafjlQ?pwd=yixu)]（密码：`yixu`）和[[One Drive](https:\u002F\u002F1drv.ms\u002Ff\u002Fs!AoPRJmiD24UphBK3DimfMTv74FOi?e=3tkhva)]（密码：`yixu`）下载。\n**加粗字体**表示优异的指标。\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>HVI-CIDNet在配对数据集上的指标如下表所示：\u003C\u002Fb>\u003C\u002Fsummary>\n\n所有链接密码均为`yixu`。\n\n| 文件夹（测试数据集）                        | PSNR        | SSIM       | LPIPS      | GT均值 | 结果                                                      | 权重路径             |\n| --------------------------------------------- | ----------- | ---------- | ---------- | ------- | ------------------------------------------------------------ | ------------------------ |\n| (LOLv1)\u003Cbr \u002F>v1 使用感知损失\u002F不使用GT均值       | 23.8091     | 0.8574     | **0.0856** |         | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1k1_oHDLh8oR47r7RTfB4Hw?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24Upgm-DPM6MuNqxcf6L?e=DD1I9g) | LOLv1\u002Fw_perc.pth         |\n| (LOLv1)\u003Cbr \u002F>v1 使用感知损失\u002F使用GT均值        | 27.7146     | 0.8760     | **0.0791** | √       | 同上                                                        | LOLv1\u002Fw_perc.pth         |\n| (LOLv1)\u003Cbr \u002F>v1 不使用感知损失\u002F不使用GT均值      | 23.5000     | **0.8703** | 0.1053     |         | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1hMMh8NNqTLJRSZJ6GxI3rw?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24Upgm5MXMToC1-7sFdh?e=c1oKDH) | LOLv1\u002Fwo_perc.pth        |\n| (LOLv1)\u003Cbr \u002F>v1 不使用感知损失\u002F使用GT均值       | **28.1405** | **0.8887** | 0.0988     | √       | 同上                                                        | LOLv1\u002Fwo_perc.pth        |\n| (LOLv2_real)\u003Cbr \u002F>v2 不使用感知损失\u002F不使用GT均值 | 23.4269     | 0.8622     | 0.1691     |         | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Lo19WOrFY3_3wsuJ9gIYnw?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnSzz3Tcg8043ci9?e=OS9ZmS) | （丢失）                   |\n| (LOLv2_real)\u003Cbr \u002F>v2 不使用感知损失\u002F使用GT均值  | 27.7619     | 0.8812     | 0.1649     | √       | 同上                                                        | （丢失）                   |\n| (LOLv2_real)\u003Cbr \u002F>v2 最佳GT均值             | **28.1387** | **0.8920** | **0.1008** | √       | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1qewb6u5w1VUaaEzEjFXllQ?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnBE81jKRMU0izoF?e=1Em6cK) | LOLv2_real\u002Fw_prec.pth    |\n| (LOLv2_real)\u003Cbr \u002F>v2 最佳Normal              | **24.1106** | 0.8675     | 0.1162     |         | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1V9aMZWEU2D0bVRDmPeNzMQ?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnGqZv_vlFN_u2Bg?e=4CiN6T) | （丢失）                   |\n| (LOLv2_real)\u003Cbr \u002F>v2 最佳PSNR                | 23.9040     | 0.8656     | 0.1219     |         | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1PFQ49oa_n7ywTGLl3TUb3A?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnLTGGGFKmXTWBu4?e=JnzL7z) | LOLv2_real\u002Fbest_PSNR.pth |\n| (LOLv2_real)\u003Cbr \u002F>v2 最佳SSIM                | 23.8975     | **0.8705** | 0.1185     |         | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1zeBPFJS3HxQ9zZZnYGMn4g?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnPhbdKXmSt0YdxU?e=WT8kae) | LOLv2_real\u002Fbest_SSIM.pth |\n| (LOLv2_real)\u003Cbr \u002F>v2 最佳SSIM\u002F使用GT均值     | **28.3926** | 0.8873     | 0.1136     | √       | 无                                                         | LOLv2_real\u002Fbest_SSIM.pth |\n| (LOLv2_syn)\u003Cbr \u002F>合成数据不使用感知损失\u002F不使用GT均值 | **25.7048** | **0.9419** | 0.0471     |         | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ZZtalO3vxqSJOJ58BnfUXw?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnZWp2xWBu8Rv_C_?e=Nn7u4w) | LOLv2_syn\u002Fwo_perc.pth    |\n| (LOLv2_syn)\u003Cbr \u002F>合成数据不使用感知损失\u002F使用GT均值  | **29.5663** | **0.9497** | 0.0437     | √       | 同上                                                        | LOLv2_syn\u002Fwo_perc.pth    |\n| (LOLv2_syn)\u003Cbr \u002F>合成数据使用感知损失\u002F不使用GT均值 | 25.1294     | 0.9388     | **0.0450** |         | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1R_ltvaWHJ_sY-unHAEGunw?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnV2ouH4IGy955c6?e=chPtYB) | LOLv2_syn\u002Fw_perc.pth     |\n| (LOLv2_syn)\u003Cbr \u002F>合成数据使用感知损失\u002F使用GT均值   | 29.3666     | **0.9500** | **0.0403** | √       | 同上                                                        | LOLv2_syn\u002Fw_perc.pth     |\n| Sony_Total_Dark                               | **22.9039** | **0.6763** | **0.4109** |         | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F15w3oMuF3hOtJK29v_xjX3g?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24Upgn_ijuk--nBUm6fm?e=4ePpHz) | SID.pth                  |\n| LOL-Blur                                      | **26.5719** | **0.8903** | **0.1203** |         | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F11zTPd3xrJe0GbEXF_lYHvQ?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24Upgn7AOw_WmC9Yg-z0?e=WeiUi8) | LOL-Blur.pth             |\n| SICE-Mix                                      | **13.4235** | 0.6360     | 0.3624     | √       | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F11x4oJuIKE0iJqdqagG1RhQ?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24Upgn1oKivqyksR4ld9?e=JcA0y4) | SICE.pth                 |\n| SICE-Grad                                     | **13.4453** | 0.6477     | 0.3181     | √       | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1IICeonyuUHcUfTapa4GKxw?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UpgnyGiBYyTvFyV9gg?e=7veJSh) | SICE.pth                 |\n| FiveK\u003Cbr \u002F>遵循[Retinexformer](https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FRetinexformer)                                     | 24.4587 | 0.8769     | 0.0851     |        | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Cv7SbzVoIA2oyX7sAl5ynA?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fc\u002F2985db836826d183\u002FEWiQ-YME-F9DrMA9r4wt-QIBjFCegAn9fU6WDYXbPwzgbg?e=KKe7q9) | fivek.pth                 |\n\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>以下表格展示了在五个未配对数据集上的性能：  \u003C\u002Fb>\u003C\u002Fsummary>\n\n| 指标 | DICM  | LIME  | MEF   | NPE   | VV    |\n| ------- | ----- | ----- | ----- | ----- | ----- |\n| NIQE    | 3.79  | 4.13  | 3.56  | 3.74  | 3.21  |\n| BRISQUE | 21.47 | 16.25 | 13.77 | 18.92 | 30.63 |\n\n此外，**我们发现，在训练过程中使用随机伽马函数可以提升CIDNet的泛化能力。** 详细信息请参见 `train.py` 第53–55行；您也可以在训练时通过将 `data\u002Foptions.py` 第60行的随机伽马模式开启来启用该功能。\n\n我们使用随机伽马模式在LOLv2-Syn数据集上进行了训练，并将权重保存为 `LOLv2_syn\u002Fgeneralization.pth`（可在链接中找到）。下表展示了其性能，其中7项指标均有提升：\n\n| 指标 | DICM  | LIME  | MEF   | NPE   | VV    | 结果                                                      |\n| ------- | ----- | ----- | ----- | ----- | ----- | ------------------------------------------------------------ |\n| NIQE    | 3.55  | 3.85  | 3.46  | 3.82  | 3.24  | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1hhsWpcqqMyMnSogDCm_MXg?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Ff\u002Fc\u002F2985db836826d183\u002FEu7lGsiqJplMra5SIV5-HGcBeBE7LI9qbGR7q6RltthBSA?e=BDaRAP) |\n| BRISQUE | 25.62 | 16.02 | 13.08 | 18.90 | 29.55 | 同上                                                        |\n\n我们在 Hugging Face 网站上的 HVI-CIDNet 演示中使用了具有“最强”泛化能力的权重，强烈推荐大家尝试。以下是该模型在五个无配对数据集上的 NIQE 指标，您可以在 Hugging Face 上轻松复现：\n\n| 指标     | DICM  | LIME  | MEF   | NPE   | VV    | 平均   |\n| -------- | ----- | ----- | ----- | ----- | ----- | ------ |\n| NIQE     | 3.36  | 3.03  | 3.11  | 3.33  | 2.49  | 3.13   |\n\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>测试微调： \u003C\u002Fb>\u003C\u002Fsummary>\n\n- 虽然我们不建议您在测试集上进行微调，但为了展示我们模型的有效性，我们也在此提供了在 LOLv1 数据集上进行测试微调训练的结果。**在测试集上使用微调技术确实会使 PSNR 指标更高**，但在 CIDNet 上其他指标并未发现显著变化，这可能会导致模型的泛化能力下降，因此我们不建议您这样做。\n\n| 文件夹（测试数据集）          | PSNR        | SSIM   | LPIPS      | GT 均值 | 结果                                                      | 权重路径              |\n| ------------------------------- | ----------- | ------ | ---------- | ------- | ------------------------------------------------------------ | ------------------------- |\n| (LOLv1)\u003Cbr \u002F>v1 测试微调       | **25.4036** | 0.8652 | **0.0897** |         | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1MmUVF4orRWFXURJ4Pnbz2w?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24Upgm0szyqstv-exKcV?e=rLXoby) | LOLv1\u002Ftest_finetuning.pth |\n| (LOLv1)\u003Cbr \u002F>v1 测试微调       | **27.5969** | 0.8696 | 0.0869     | √       | 同上                                                        | 同上                     |\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>其他同行的贡献： \u003C\u002Fb>\u003C\u002Fsummary>\n\n- 本节展示了其他同行使用我们的模型训练出的更优权重版本，我们将在此处同时展示他们的权重和结果。如果您也训练出了更好的权重，请通过电子邮件联系我们或提交问题。\n\n| 数据集 | PSNR        | SSIM   | LPIPS  | GT 均值 | 结果                                                      | 权重路径               | 贡献者详情                              | GPU         |\n| -------- | ----------- | ------ | ------ | ------- | ------------------------------------------------------------ | -------------------------- | ----------------------------------------------- | ----------- |\n| LOLv1    | **24.7401** | 0.8604 | 0.0896 |         | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1JKFG9UfZdHA0gyhrT-6Ruw?pwd=yixu) 和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UphCmA1BKfzVUjQDZF?e=cOELSz) | LOLv1\u002Fother\u002FPSNR_24.74.pth | [西安工程大学]\u003Cbr \u002F>Yingjian Li | NVIDIA 4070 |\n\n\u003C\u002Fdetails>\n\n\n\n## 1. 开始使用 🌑\n\n### 依赖与安装\n\n- Python 3.7.0\n- Pytorch 1.13.1\n\n(1) 创建 Conda 环境\n\n```bash\nconda create --name CIDNet python=3.7.0\nconda activate CIDNet\n```\n\n(2) 克隆仓库\n\n```bash\ngit clone git@github.com:Fediory\u002FHVI-CIDNet.git\n```\n\n(3) 安装依赖\n\n```bash\ncd HVI-CIDNet\npip install -r requirements.txt\n```\n\n\n### 数据准备\n\n您可以参考以下链接下载数据集。请注意，我们仅使用 `LOL-Blur` 数据集中 `low_blur` 和 `high_sharp_scaled` 子集。\n\n- [LOLv1](https:\u002F\u002Fdaooshee.github.io\u002FBMVC2018website\u002F)\n- LOLv2：[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F17KTa-6GUUW22Q49D5DhhWw?pwd=yixu)（密码：`yixu`）和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UphBTn9PsLC5hoD-k9?e=Jm0AOa)（密码：`yixu`）\n- LOL-Blur：[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1nj054uoLA3gtpV7MNM2eCA?pwd=yixu)（密码：`yixu`）和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UphBNGBbsDmSwppNPf?e=2yGImv)（密码：`yixu`）\n- DICM、LIME、MEF、NPE、VV：[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1FZ5HWT30eghGuaAqqpJGaw?pwd=yixu)（密码：`yixu`）和 [One Drive](https:\u002F\u002F1drv.ms\u002Ff\u002Fs!AoPRJmiD24UphBNGBbsDmSwppNPf?e=2yGImv)（密码：`yixu`）\n- SICE：[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F13ghnpTBfDli3mAzE3vnwHg?pwd=yixu)（密码：`yixu`）和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UphAlaTIekdMLwLZnA?e=WxrfOa)（密码：`yixu`）\n- Sony-Total-Dark（SID）：[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1mpbwVscbAfQJtkrrzBzJng?pwd=yixu)（密码：`yixu`）和 [One Drive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AoPRJmiD24UphAie9l0DuMN20PB7?e=Zc5DcA)（密码：`yixu`）\n- FiveK（参照 [Retinexformer](https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FRetinexformer)）：[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ajax7N9JmttTwY84-8URxA?pwd=cyh2)（密码：`cyh2`），[Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F11HEUmchFXyepI4v3dhjnDnmhW_DgwfRR\u002Fview?usp=sharing)\n\n然后，将这些数据放入以下文件夹中：\n\n\u003Cdetails close> \u003Csummary>datasets（点击展开）\u003C\u002Fsummary>\n\n```\n├── datasets\n\t├── DICM\n\t├── FiveK\n\t\t├── test\n\t\t\t├──input\n\t\t\t├──target\n\t\t├── train\n\t\t\t├──input\n\t\t\t├──target\n\t├── LIME\n\t├── LOLdataset\n\t\t├── our485\n\t\t\t├──low\n\t\t\t├──high\n\t\t├── eval15\n\t\t\t├──low\n\t\t\t├──high\n\t├── LOLv2\n\t\t├── Real_captured\n\t\t\t├── Train\n\t\t\t\t├── Low\n\t\t\t\t├── Normal\n\t\t\t├── Test\n\t\t\t\t├── Low\n\t\t\t\t├── Normal\n\t\t├── Synthetic\n\t\t\t├── Train\n\t\t\t\t├── Low\n\t\t\t\t├── Normal\n\t\t\t├── Test\n\t\t\t\t├── Low\n\t\t\t\t├── Normal\n\t├── LOL_blur\n\t\t├── eval\n\t\t\t├── high_sharp_scaled\n\t\t\t├── low_blur\n\t\t├── test\n\t\t\t├── high_sharp_scaled\n\t\t\t\t├── 0012\n\t\t\t\t├── 0017\n\t\t\t\t...\n\t\t\t├── low_blur\n\t\t\t\t├── 0012\n\t\t\t\t├── 0017\n\t\t\t\t...\n\t\t├── train\n\t\t\t├── high_sharp_scaled\n\t\t\t\t├── 0000\n\t\t\t\t├── 0001\n\t\t\t\t...\n\t\t\t├── low_blur\n\t\t\t\t├── 0000\n\t\t\t\t├── 0001\n\t\t\t\t...\n\t├── MEF\n\t├── NPE\n\t├── SICE\n\t\t├── Dataset\n\t\t\t├── eval\n\t\t\t\t├── target\n\t\t\t\t├── test\n\t\t\t├── label\n\t\t\t├── train\n\t\t\t\t├── 1\n\t\t\t\t├── 2\n\t\t\t\t...\n\t\t├── SICE_Grad\n\t\t├── SICE_Mix\n\t\t├── SICE_Reshape\n\t├── Sony_total_dark\n\t\t├── eval\n\t\t\t├── long\n\t\t\t├── short\n\t\t├── test\n\t\t\t├── long\n\t\t\t\t├── 10003\n\t\t\t\t├── 10006\n\t\t\t\t...\n\t\t\t├── short\n\t\t\t\t├── 10003\n\t\t\t\t├── 10006\n\t\t\t\t...\n\t\t├── train\n\t\t\t├── long\n\t\t\t\t├── 00001\n\t\t\t\t├── 00002\n\t\t\t\t...\n\t\t\t├── short\n\t\t\t\t├── 00001\n\t\t\t\t├── 00002\n\t\t\t\t...\n\t├── VV\n```\n\u003C\u002Fdetails>\n\n## 2. 测试 🌒\n\n\n从 [[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1rvQcQPwsYbtLIYwB3XgjaA?pwd=yixu)]（密码：`yixu`）下载我们的权重，并将其放入 `weights` 文件夹中：\n\n\u003Cdetails close> \u003Csummary>weights（点击展开）\u003C\u002Fsummary>\n\n```\n├── weights\n    ├── LOLv1\n        ├── w_perc.pth\n        ├── wo_perc.pth\n        ├── test_finetuning.pth\n    ├── LOLv2_real\n        ├── best_PSNR.pth\n        ├── best_SSIM.pth\n        ├── w_perc.pth\n    ├── LOLv2_syn\n        ├── generalization.pth\n        ├── w_perc.pth\n        ├── wo_perc.pth\n    ├── LOL-Blur.pth\n    ├── SICE.pth\n    ├── SID.pth\n```\n\n\u003C\u002Fdetails>\n\n- **您可以通过运行 `python app.py` 的 Bash 命令在我们的 Gradio 演示中测试我们的方法，并访问 URL 链接 “http:\u002F\u002F127.0.0.1:7862” 来体验演示。**（添加 `--cpu` 可以仅使用 CPU 进行推理）\n- 或者，您也可以使用 `huggingface_hub` 下载并测试我们的方法，如下所示：\n```bash\n# 您可以在 https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2502.20272 找到所有权重\npython eval_hf.py --path fediory\u002Four_model_path --input_img your\u002Fimg\u002Fpath --alpha_s 1.0 --alpha_i 1.0 --gamma 1.0\n\n# 例如\npython eval_hf.py --path fediory\u002FHVI-CIDNet-LOLv1-wperc --input_img .\u002Fdatasets\u002FDICM\u002F01.JPG --alpha_s 1.0 --alpha_i 1.0 --gamma 1.0\n```\n您的增强图像将保存在 `.\u002Foutput_hf` 目录下。\n\n- 或者 **您可以按照以下步骤测试我们的方法，所有结果都将保存在 `.\u002Foutput` 文件夹中：**\n\n\u003Cdetails close> \u003Csummary>(点击展开)\u003C\u002Fsummary>\n\n```bash\n# LOLv1\npython eval.py --lol --perc # 使用感知损失训练的权重\npython eval.py --lol # 不使用感知损失训练的权重\n\n# LOLv2-real\npython eval.py --lol_v2_real --best_GT_mean # 您可以选择 best_GT_mean、best_PSNR 或 best_SSIM\n\n# LOLv2-syn\npython eval.py --lol_v2_syn --perc # 使用感知损失训练的权重\npython eval.py --lol_v2_syn # 不使用感知损失训练的权重\n\n# SICE\npython eval.py --SICE_grad # 输出 SICE_grad\npython eval.py --SICE_mix # 输出 SICE_mix\n\n# FiveK\npython eval.py --fivek # 输出遵循 Retinexformer 的 FiveK 结果\n\n# Sony-Total-Dark\npython eval_SID_blur --SID\n\n# LOL-Blur\npython eval_SID_blur --Blur\n\n# 五个非配对数据集：DICM、LIME、MEF、NPE、VV。\n# 注意：您可以从 .\u002Fweights 文件夹中选择一种权重，并设置光照缩放系数 alpha（默认为 1.0）。gamma 表示伽马函数（曲线），请参阅 eval.py 第 59 行。\n# 您可以将 \"--DICM\" 替换为其他非配对数据集 \"LIME、MEF、NPE、VV\"。\npython eval.py --unpaired --DICM --unpaired_weights --alpha\n# 例如：\npython eval.py --unpaired --DICM --unpaired_weights .\u002Fweights\u002FLOLv2_syn\u002Fw_perc.pth --alpha 0.9 --gamma 0.9\n\n# 自定义数据集：alpha 和 gamma 是可选的。\npython eval.py --unpaired --custome --custome_path .\u002F您自定义数据集路径 --unpaired_weights .\u002Fweights\u002FLOLv2_syn\u002Fw_perc.pth --alpha 0.9 --gamma 0.9\n```\n\n\u003C\u002Fdetails>\n\n- **此外，您还可以按照以下方式测试我们论文中提到的所有评价指标：**\n  \n  \n\u003Cdetails close> \u003Csummary>(点击展开)\u003C\u002Fsummary>\n\n```bash\n# LOLv1\npython measure.py --lol\n\n# LOLv2-real\npython measure.py --lol_v2_real\n\n# LOLv2-syn\npython measure.py --lol_v2_syn\n\n# Sony-Total-Dark\npython measure_SID_blur.py --SID\n\n# LOL-Blur\npython measure_SID_blur.py --Blur\n\n# SICE-Grad\npython measure.py --SICE_grad\n\n# SICE-Mix\npython measure.py --SICE_mix\n\n# fivek\npython measure.py --fivek\n\n\n# 五个非配对数据集：DICM、LIME、MEF、NPE、VV。\n# 您可以将 \"--DICM\" 替换为其他非配对数据集 \"LIME、MEF、NPE、VV\"。\npython measure_niqe_bris.py --DICM\n\n\n# 注意：参照 LLFlow、KinD 和 Retinxformer 的做法，我们也根据 GroundTruth (GT) 的平均值调整了网络输出图像的亮度。此操作仅适用于配对数据集。如果您想进行测量，请添加 \"--use_GT_mean\"。\n# \n# 例如：\npython measure.py --lol --use_GT_mean\n  \n```\n\n\u003C\u002Fdetails>\n\n- **评估 HVI-CIDNet 的参数量、FLOPs 和运行时间：**\n\n```bash\npython net_test.py\n```\n\n\n## 3. 训练 🌓\n\n- 我们将所有需要调整的配置都放在 `.\u002Fdata\u002Foptions.py` 文件中，并在文件中进行了详细说明。对于部分训练参数，我们很遗憾无法继续提供和分享给您，但我们保证所有权重都可以通过参数调优进行训练。您可以通过以下方式训练我们的 HVI-CIDNet：\n\n```bash\n# 您可以设置 --start_warmup True\u002FFalse 来决定是否在训练阶段启用预热。\n# 您可以选择以下数据集进行训练：lol_v1、lolv2_real、lolv2_syn、lol_blur、SID、SICE_mix、SICE_grad、fivek。\n# 以下是示例。\npython train.py --dataset lol_v1\n```\n\n- 所有权重都会保存到 `.\u002Fweights\u002Ftrain` 文件夹中，并以 `epoch_*.pth` 的形式按 `options.py` 中设置的检查点步长保存，其中 `*` 表示当前的 epoch 数。\n- 此外，每保存一个权重时，都会对验证集进行指标测量，并将结果打印到命令行。最终，所有权重在验证集上的测试指标以及 `.\u002Fdata\u002Foptions.py` 中的配置信息，都将被保存到 `.\u002Fresults\u002Ftraining\u002Fmetrics-YYYY-mm-dd-HHMMSS.md` 文件中。\n- 在每个 epoch 中，我们会将一次输出（测试）图像和 GT 图像保存到 `.\u002Fresults\u002Ftraining` 文件夹，以便于可视化每次训练的结果和进度，同时也能提前检测梯度爆炸现象。\n- 每个检查点完成后，我们都会将此次验证集的所有输出保存到 `.\u002Fresults` 文件夹中的相应子文件夹中。需要注意的是，针对不同数据集，我们采用了替换策略，即不会保存所有检查点的图表，而只保留每个检查点的权重文件。\n  \n\n## 4. 联系方式 🌔\n\n如果您有任何问题，请随时联系我们或在仓库中提交 issue！\n\nYixu Feng (yixu-nwpu@mail.nwpu.edu.cn)\n\n## 5. 引用 🌕\n\n如果您认为我们的工作对您的研究有所帮助，请引用我们的论文：\n\n```\n@article{yan2025hvi,\n  title={HVI: A New color space for Low-light Image Enhancement},\n  author={Yan, Qingsen and Feng, Yixu and Zhang, Cheng and Pang, Guansong and Shi, Kangbiao and Wu, Peng and Dong, Wei and Sun, Jinqiu and Zhang, Yanning},\n  journal={arXiv preprint arXiv:2502.20272},\n  year={2025}\n}\n\n@misc{feng2024hvi,\n      title={You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement}, \n      author={Yixu Feng and Cheng Zhang and Pei Wang and Peng Wu and Qingsen Yan and Yanning Zhang},\n      year={2024},\n      eprint={2402.05809},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV}\n}\n```","# HVI-CIDNet 快速上手指南\n\nHVI-CIDNet 是 CVPR 2025 收录的低光照图像增强模型，提出了一种新的 HVI 色彩空间。本指南将帮助您快速在本地部署并运行该模型。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐) 或 Windows\n*   **Python**: >= 3.8\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡（推荐显存 >= 4GB）\n*   **核心依赖**:\n    *   PyTorch >= 1.8.0\n    *   torchvision\n    *   opencv-python\n    *   numpy\n    *   tqdm\n    *   argparse\n\n> **提示**：国内用户建议使用清华源或阿里源加速 PyTorch 及相关库的安装。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fshikangbiao\u002FCIDNet_extension.git\ncd CIDNet_extension\n```\n*(注：根据 README 更新日志，最新扩展版代码位于 `shikangbiao\u002FCIDNet_extension`，若需原始版本可切换至主仓库)*\n\n### 2. 创建虚拟环境并安装依赖\n推荐使用 Conda 管理环境：\n\n```bash\n# 创建环境\nconda create -n hvi_cidnet python=3.9 -y\nconda activate hvi_cidnet\n\n# 安装 PyTorch (以 CUDA 11.8 为例，国内用户可使用清华源)\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装其他依赖\npip install opencv-python numpy tqdm scipy pillow -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 3. 下载预训练权重\n模型权重未包含在代码库中，需手动下载。您可以选择百度网盘或 OneDrive。\n\n*   **百度网盘**: [下载链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1rvQcQPwsYbtLIYwB3XgjaA?pwd=yixu) (提取码: `yixu`)\n*   **OneDrive**: [下载链接](https:\u002F\u002F1drv.ms\u002Ff\u002Fs!AoPRJmiD24UpgloqG-S67l1BX0cG?e=0b4GL0) (密码: `yixu`)\n\n**常用权重推荐**：\n*   **LOLv1 数据集**: `LOLv1\u002Fw_perc.pth` (综合表现较好)\n*   **LOLv2-Real 数据集**: `LOLv2_real\u002Fw_prec.pth`\n*   **通用\u002F无配对数据**: `SID.pth` 或 `LOL-Blur.pth`\n\n下载后，将 `.pth` 文件放置在项目根目录或自定义的 `weights\u002F` 文件夹中。\n\n## 基本使用\n\n### 单张图像推理\n\n假设您已下载 `LOLv1\u002Fw_perc.pth` 权重文件，并有一张待处理的低光照图片 `input.jpg`。\n\n```bash\npython test.py \\\n    --input_path .\u002Finput.jpg \\\n    --output_path .\u002Fresult.jpg \\\n    --weights_path .\u002FLOLv1\u002Fw_perc.pth \\\n    --gpu_id 0\n```\n\n**参数说明**：\n*   `--input_path`: 输入图片路径（支持单张图片或包含图片的文件夹）。\n*   `--output_path`: 输出结果保存路径。\n*   `--weights_path`: 预训练权重文件路径。\n*   `--gpu_id`: 指定使用的 GPU ID，若使用 CPU 可设为 `-1`（速度较慢）。\n\n### 批量测试数据集\n\n如果您需要测试整个数据集（如 LOLv1 test set），请确保数据集结构符合代码要求（通常分为 `low` 和 `normal` 文件夹），然后运行：\n\n```bash\npython test.py \\\n    --input_path .\u002Fdataset\u002FLOLv1\u002Ftest\u002Flow \\\n    --output_path .\u002Fresults\u002FLOLv1_test \\\n    --weights_path .\u002FLOLv1\u002Fw_perc.pth \\\n    --save_image\n```\n\n### 在线体验 (无需安装)\n如果暂时无法配置本地环境，可以直接访问 Hugging Face Spaces 进行在线测试：\n*   **Demo 地址**: [HVI-CIDNet Low-light Image Enhancement](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FFediory\u002FHVI-CIDNet_Low-light-Image-Enhancement_)\n\n---\n*更多训练细节及超参数调整请参考源码中的 `train.py` 及 `data\u002Foptions.py`。*","某安防监控团队在夜间处理城市街道的低照度视频流时，面临图像昏暗、噪点严重且色彩失真的难题，急需提升画面质量以辅助人工研判。\n\n### 没有 HVI-CIDNet 时\n- **细节丢失严重**：传统增强算法在提亮暗部时，往往导致阴影区域的纹理（如车牌号、行人面部）完全糊成一片，无法辨识。\n- **色彩还原偏差**：常规方法容易将夜间灯光下的物体渲染成诡异的偏色（如过度饱和的橙色或惨白的蓝色），干扰对现场环境的真实判断。\n- **噪点放大明显**：强行增加曝光度会同时放大传感器噪声，使画面布满彩色噪点，严重影响后续的人脸识别或车辆检测算法精度。\n- **处理效率低下**：为了平衡画质与速度，工程师不得不手动调整多组参数进行试错，难以满足实时监控的低延迟要求。\n\n### 使用 HVI-CIDNet 后\n- **暗部纹理清晰重现**：基于全新的 HVI 色彩空间，HVI-CIDNet 能精准分离亮度与色彩信息，在显著提亮画面的同时，完整保留街道招牌和行人衣物的细微纹理。\n- **自然色彩高保真**：工具有效校正了低光环境下的色偏问题，还原出接近人眼所见的自然色调，确保监控人员能准确判断物体原本的颜色。\n- **智能抑制噪声**：在增强过程中同步去除高频噪声，输出画面干净纯净，大幅提升了下游 AI 识别模型在夜间场景的准确率。\n- **端到端高效部署**：无需繁琐的参数调优，HVI-CIDNet 可直接集成至视频流处理管道，以极低的计算开销实现实时的画质增强。\n\nHVI-CIDNet 通过重构色彩空间底层逻辑，从根本上解决了低照度图像“亮不起来、彩不准、噪点多”的三大顽疾，让夜间监控真正具备实战价值。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFediory_HVI-CIDNet_54ae2efd.png","Fediory","Fediory Feng","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FFediory_6cf9cbec.png","[ChuniLifeArt.]\r\nResearcher, Artist, Programmer, Student.","University of Sydney",null,"https:\u002F\u002Fgithub.com\u002FFediory",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,793,86,"2026-04-17T10:32:56","MIT","未说明","未说明 (项目为低光图像增强深度学习模型，通常需 NVIDIA GPU 加速，但 README 未明确具体型号或显存要求)",{"notes":91,"python":88,"dependencies":92},"README 主要提供了预训练权重下载链接（百度网盘\u002FOneDrive）和测试结果，未包含具体的环境安装步骤、requirements.txt 内容或硬件配置指南。代码中提及使用了 argparser 和随机 gamma 函数进行训练。建议参考同类 PyTorch 视觉项目环境配置，或查看仓库中是否包含 requirements.txt 文件。",[93,94],"torch","未说明其他具体库及版本",[15,35],[97,98,99,100,101,102],"image-enhancement","image-processing","low-light-image-enhancement","transformer","hvi-color-space","cvpr","2026-03-27T02:49:30.150509","2026-04-18T22:33:43.064623",[106,111,116,121,126,130,135,140],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},40685,"如何将 ARW (RAW) 格式图像转换为 PNG 以用于训练？","项目使用 `rawpy` 库进行转换。具体代码配置如下：\n`raw.postprocess(use_camera_wb=True, half_size=True, no_auto_bright=True, output_bps=8)`\n请确保在数据处理流程中正确调用此函数。","https:\u002F\u002Fgithub.com\u002FFediory\u002FHVI-CIDNet\u002Fissues\u002F51",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},40686,"为什么不能将 HVI 色彩空间线性变换到 [0, 1] 范围并使用 GELU 激活函数？","HVI 色彩空间中的参数（k, gamma_G, gamma_B, DT）设计为可学习参数，用于适应数据集分布；而 PHVIT 中的 alpha_v 和 alpha_s 类似于大模型的 prompt，用于手动调整视觉效果或无监督训练。强行将 HV 范围从 [-1, 1] 线性变换到 [0, 1] 并更换激活函数会破坏这种设计初衷，导致模型性能下降。PHVIT 逆变换本质上是转换为 sRGB 的工具，不属于颜色空间级别的操作，不建议随意修改其线性映射关系。","https:\u002F\u002Fgithub.com\u002FFediory\u002FHVI-CIDNet\u002Fissues\u002F45",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},40687,"在 LOLv1 数据集上训练时，指标未达到论文报告值且验证集性能在 250-350 epoch 后下降，原因是什么？","这种情况可能由硬件差异或训练策略引起。维护者建议在相同环境（如 RTX 3090）下应能轻松复现指标。如果性能提前下降，可以尝试增加总训练 epoch 数。此外，建议尝试在不同显卡（如 2080ti, 3070, 4090）上进行实验以排除硬件特异性问题。检查是否使用了正确的评估设置（如 perc 参数）也很重要。","https:\u002F\u002Fgithub.com\u002FFediory\u002FHVI-CIDNet\u002Fissues\u002F67",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},40688,"在 Sony Total Dark 数据集上训练速度过慢（如需四天），如何优化？","代码仓库中已提供加速选项。请检查 `data\u002Foptions.py` 文件，其中包含一个用于提高训练速度的开关。建议重新 pull 最新版本的代码仓库以获取该优化配置。","https:\u002F\u002Fgithub.com\u002FFediory\u002FHVI-CIDNet\u002Fissues\u002F48",{"id":127,"question_zh":128,"answer_zh":129,"source_url":125},40689,"SICE 数据集中 SICE-Mix 和 SICE-Grad 的训练集和测试集路径看起来相同，是否意味着重复训练？","并非重复训练。正确的做法是在原始的 SICE 数据集上进行一次训练，然后分别在 SICE-Mix 和 SICE-Grad 子集上进行测试评估。如果在代码中发现路径配置导致混淆，请确保 `label_dir` 指向正确的标签路径（例如 `.\u002Fdatasets\u002FSICE\u002FDataset\u002Flabel\u002F`），并区分训练与测试的数据加载逻辑。",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},40690,"计算无参考评价指标 BRISQUE 时报错 \"input array must have size 3 along channel_axis\"，如何解决？","该错误通常由输入图像通道数不符合要求引起（BRISQUE 需要 3 通道输入）。这是一个已知问题，参考 `image-quality` 库的相关 Issue 解决方案：确保传入计算的图像数组具有正确的形状 (H, W, 3)。如果图像是灰度图或通道顺序不对，需要在调用 BRISQUE 计算前进行预处理（如转换为 RGB 或调整维度）。","https:\u002F\u002Fgithub.com\u002FFediory\u002FHVI-CIDNet\u002Fissues\u002F53",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},40691,"如何将 HVI-CIDNet 模型应用到 RAW 重建任务中，以及是否可以将 gammaG 和 gammaB 作为超参数学习？","该模型主要针对低光增强任务设计。若应用于 RAW 重建且出现色调差异，建议先尝试不使用反函数进行实验，以最终效果为准。虽然理论上可以将 gammaG 和 gammaB 设为可学习参数，但实验表明它们可能在一定 epoch 后不再变化，且效果可能不如原始设定。对于特定任务的深度修改，建议自行调整 HVI 细节或直接联系作者讨论。","https:\u002F\u002Fgithub.com\u002FFediory\u002FHVI-CIDNet\u002Fissues\u002F74",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},40692,"论文的完整版在哪里可以下载？","论文已上传至 Arxiv，版本为 CVPR Arxiv 版。访问链接：https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.20272 即可获取完整版论文。","https:\u002F\u002Fgithub.com\u002FFediory\u002FHVI-CIDNet\u002Fissues\u002F19",[]]