[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-gabrieleilertsen--hdrcnn":3,"tool-gabrieleilertsen--hdrcnn":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":75,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":106,"github_topics":107,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":148},9283,"gabrieleilertsen\u002Fhdrcnn","hdrcnn","HDR image reconstruction from a single exposure using deep CNNs","hdrcnn 是一款基于深度卷积神经网络（CNN）的开源工具，旨在从单张普通曝光照片中重建高动态范围（HDR）图像。它主要解决了传统相机传感器在拍摄高对比度场景时，因过曝导致亮部细节丢失（如天空泛白、灯光溢出）的难题。通过智能算法，hdrcnn 能够“脑补”出这些缺失的高光信息，将普通的 8 位图片转化为包含丰富亮度层次的 HDR 图像。\n\n该工具特别适合计算机视觉研究人员、图像处理开发者以及需要处理高光修复问题的技术型设计师使用。由于其核心基于 TensorFlow 框架，使用者需具备一定的 Python 编程基础和环境配置能力，以便运行推理脚本或进行模型训练。\n\nhdrcnn 的技术亮点在于其采用了自编码器结构的深度学习模型，并针对实际应用场景做了细致优化。除了基础的重建功能，它还提供了专门针对 JPEG 压缩伪影训练的权重参数，能有效提升压缩图片的修复质量；同时，项目还探讨了视频帧序列重建的方案，致力于减少逐帧处理可能产生的闪烁瑕疵，展现了其在动态影像处理上的潜力。","# **Deep learning HDR image reconstruction**\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgabrieleilertsen_hdrcnn_readme_964a42796ea1.jpg)\n\n## General\nThis repository provides code for running inference with the autoencoder convolutional neural network (CNN) described in our [Siggraph Asia paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.07480), as well as training of the network. Please read the information below in order to make proper use of the method. If you use the code for your research work, please consider citing the paper according to:\n\n```\n@article{EKDMU17,\n  author       = \"Eilertsen, Gabriel and Kronander, Joel, and Denes, Gyorgy and Mantiuk, Rafał and Unger, Jonas\",\n  title        = \"HDR image reconstruction from a single exposure using deep CNNs\",\n  journal      = \"ACM Transactions on Graphics (TOG)\",\n  number       = \"6\",\n  volume       = \"36\",\n  articleno    = \"178\",\n  year         = \"2017\"\n}\n```\n\nThe CNN is trained to reconstruct image regions where information has been lost due to sensor saturation, such as highlights and bright image features. This means that a standard 8-bit single exposed image can be fed to the network, which then reconstructs the missing information in order to create a high dynamic range (HDR) image. Please see the [project webpage](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002F) for more information on the method.\n\nIn what follows are descriptions on how to make HDR reconstructions using the trained network. For training of new weigths information and code is provided in the [training_code](training_code\u002F) folder.\n\n## Code specification\nThe model and prediction scripts are written in Python using the following packages:\n\n* [TensorFlow](https:\u002F\u002Fwww.tensorflow.org\u002F) for model specification and prediction.\n* [TensorLayer](https:\u002F\u002Ftensorlayer.readthedocs.io\u002Fen\u002Flatest\u002F) for simplified TensorFlow layer construction.\n* [OpenEXR](http:\u002F\u002Fwww.openexr.com\u002F) in order to write reconstructed HDR images to disc.\n* [NumPy](http:\u002F\u002Fwww.numpy.org\u002F) and [SciPy](https:\u002F\u002Fwww.scipy.org\u002F) for image handling etc.\n\nAll dependencies are available through the Python **pip** package manager (replace \n`tensorflow` with `tensorflow-gpu` for GPU support):\n\n```\n$ pip install numpy scipy tensorflow tensorlayer OpenEXR\n```\n\nYou may have to install OpenEXR through the appropriate package manager before pip install (e.g. sudo apt-get install openexr and libopenexr-dev on Ubuntu).\n\n## Usage\n1. Trained CNN weights to be used for the inference, can be found [here](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params.npz).\n2. Run `python hdrcnn_predict.py -h` to display available input options.\n3. Below follows an example to demonstrate how to make an HDR reconstruction.\n\n#### Example\nThere are a few test images provided, that can be used for reconstruction as follows:\n\n```\n$ python hdrcnn_predict.py --params hdrcnn_params.npz --im_dir data --width 1024 --height 768\n```\n\nPrediction can also be made on individual frames:\n\n```\n$ python hdrcnn_predict.py --params hdrcnn_params.npz --im_dir data\u002Fimg_001.png --width 1024 --height 768\n``` \n\n#### Compression artifacts\nThere are parameters available that have been trained with images that include JPEG compression artifacts. These can be downloaded [here](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params_compr.npz). If the images for reconstruction contain compression artifacts, these parameters makes for a substantial improvement in reconstruction quality as compared to the previous parameters. However, if the input images contain no compression artifacts we recommend to use the [original parameters](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params.npz) as these allow for a slight advantage in terms of reconstructed details.\n\n#### Video reconstruction\nReconstruction video material frame by frame most often results in flickering artifacts and different local temporal incoherencies. In order to alleviate this problem, we provide parameters [here](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params_compr_regularized.npz), which have been trained using the regularization method proposed in our CVPR 2019 paper ([paper](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fhtml\u002FEilertsen_Single-Frame_Regularization_for_Temporally_Stable_CNNs_CVPR_2019_paper.html), [project web](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Ftemporally_stable_cnns)):\n\n```\n@inproceedings{EMU19,\n  author       = \"Eilertsen, Gabriel and \n                  Mantiuk, Rafa\\l and \n                  Unger, Jonas\",\n  title        = \"Single-frame Regularization for Temporally Stable CNNs\",\n  booktitle    = \"The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)\",\n  month        = \"June\",\n  year         = \"2019\"\n}\n```\nThe parameters trained for increased temporal coherence also use JPEG compressed images, so these are possible to use also for video with compression applied. There is some trade-of between reconstruction quality and temporal coherence. If you do not need to reconstruct video material, the [original parameters](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params_compr_regularized.npz) should be prefered.\n\nFor training with the above regularization applied, functionality is avaliable in the [training_code](training_code\u002F).\n\n#### Evaluation\nProperly evaluating single-image HDR reconstruction methods is difficult (see, e.g., [here](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FICCV2021W\u002FLCI\u002Fhtml\u002FEilertsen_How_To_Cheat_With_Metrics_in_Single-Image_HDR_Reconstruction_ICCVW_2021_paper.html)). We recommend using the advised evaluation protocols proposed in our SIGGRAPH 2022 paper ([paper](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3528233.3530729), [project web](https:\u002F\u002Fwww.cl.cam.ac.uk\u002Fresearch\u002Frainbow\u002Fprojects\u002Fsihdr_benchmark\u002F)):\n\n```\n@inproceedings{hanji2022sihdr,\n  author    = {Hanji, Param and Mantiuk, Rafa{\\l} K. and Eilertsen, Gabriel and Hajisharif, Saghi and Unger, Jonas},\n  title     = {Comparison of single image HDR reconstruction methods — the caveats of quality assessment},\n  booktitle = {Special Interest Group on Computer Graphics and Interactive Techniques Conference Proceedings (SIGGRAPH '22 Conference Proceedings)},\n  year      = {2022},\n  doi       = {10.1145\u002F3528233.3530729},\n  url       = {https:\u002F\u002Fwww.cl.cam.ac.uk\u002Fresearch\u002Frainbow\u002Fprojects\u002Fsihdr_benchmark\u002F},\n}\n```\n\n#### Controlling the reconstruction\nThe HDR reconstruction with the CNN is completely automatic, with no parameter calibration needed. However, in some situations it may be beneficial to be able to control how bright the reconstructed pixels will be. To this end, there is a simple trick that can be used to allow for such control.\n\nGiven the input image **x**, the CNN prediction **y = f(x)** can be controlled somewhat by altering the input image with an exponential\u002Fgamma function, and inverting this after the reconstruction,\n\n&nbsp;&nbsp;&nbsp;&nbsp;**y = f(x\u003Csup>1\u002Fg\u003C\u002Fsup>)\u003Csup>g\u003C\u002Fsup>**.\n\nEssentially, this modifies the camera curve of the image, so that reconstruction is performed given other camera characteristics. For a value **g > 1**, the intensities of reconstructed bright regions will be boosted, and vice versa for **g \u003C 1**. There is an input option `--gamma` that allows to perform this modification:\n\n```\n$ python hdrcnn_predict.py [...] --gamma 1.2\n```\nIn general, a value around *1.1-1.3* may be a good idea, since this prevents underestimation of the brightest pixels, which otherwise is common (e.g. due to limitations in the training data).\n\n\n## License\n\nCopyright (c) 2017, Gabriel Eilertsen.\nAll rights reserved.\n\nThe code is distributed under a BSD license. See `LICENSE` for information.\n","# **深度学习HDR图像重建**\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgabrieleilertsen_hdrcnn_readme_964a42796ea1.jpg)\n\n## 概述\n本仓库提供了用于运行我们[Siggraph Asia论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.07480)中所描述的自编码卷积神经网络（CNN）推理的代码，以及该网络的训练代码。请仔细阅读以下信息，以便正确使用该方法。如果您在研究工作中使用了这些代码，请按照以下方式引用该论文：\n\n```\n@article{EKDMU17,\n  author       = \"Eilertsen, Gabriel and Kronander, Joel, and Denes, Gyorgy and Mantiuk, Rafał and Unger, Jonas\",\n  title        = \"利用深度CNN从单次曝光重建HDR图像\",\n  journal      = \"ACM Transactions on Graphics (TOG)\",\n  number       = \"6\",\n  volume       = \"36\",\n  articleno    = \"178\",\n  year         = \"2017\"\n}\n```\n\n该CNN经过训练，能够重建因传感器饱和而丢失信息的图像区域，例如高光和明亮的图像特征。这意味着可以将一张标准的8位单次曝光图像输入到网络中，网络会重建缺失的信息，从而生成一张高动态范围（HDR）图像。有关该方法的更多信息，请参阅[项目主页](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002F)。\n\n下文将介绍如何使用训练好的网络进行HDR图像重建。关于训练新权重的相关信息和代码则位于[training_code](training_code\u002F)文件夹中。\n\n## 代码说明\n模型和预测脚本使用Python编写，并依赖以下软件包：\n\n* [TensorFlow](https:\u002F\u002Fwww.tensorflow.org\u002F)：用于模型定义和预测。\n* [TensorLayer](https:\u002F\u002Ftensorlayer.readthedocs.io\u002Fen\u002Flatest\u002F)：用于简化TensorFlow层的构建。\n* [OpenEXR](http:\u002F\u002Fwww.openexr.com\u002F)：用于将重建的HDR图像写入磁盘。\n* [NumPy](http:\u002F\u002Fwww.numpy.org\u002F) 和 [SciPy](https:\u002F\u002Fwww.scipy.org\u002F)：用于图像处理等操作。\n\n所有依赖项均可通过Python的**pip**包管理器安装（若需GPU支持，请将`tensorflow`替换为`tensorflow-gpu`）：\n\n```\n$ pip install numpy scipy tensorflow tensorlayer OpenEXR\n```\n\n在使用pip安装之前，您可能需要先通过相应的包管理器安装OpenEXR（例如，在Ubuntu上执行`sudo apt-get install openexr and libopenexr-dev`）。\n\n## 使用方法\n1. 用于推理的已训练 CNN 权重可在 [这里](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params.npz) 找到。\n2. 运行 `python hdrcnn_predict.py -h` 可显示可用的输入选项。\n3. 下面是一个示例，演示如何进行 HDR 重建。\n\n#### 示例\n我们提供了一些测试图像，可以按如下方式用于重建：\n\n```\n$ python hdrcnn_predict.py --params hdrcnn_params.npz --im_dir data --width 1024 --height 768\n```\n\n也可以对单个帧进行预测：\n\n```\n$ python hdrcnn_predict.py --params hdrcnn_params.npz --im_dir data\u002Fimg_001.png --width 1024 --height 768\n``` \n\n#### 压缩伪影\n我们还提供了在包含 JPEG 压缩伪影的图像上训练得到的参数，可从 [这里](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params_compr.npz) 下载。如果用于重建的图像包含压缩伪影，使用这些参数相比之前的参数能显著提升重建质量。然而，如果输入图像没有压缩伪影，我们建议使用 [原始参数](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params.npz)，因为它们在重建细节方面略占优势。\n\n#### 视频重建\n逐帧重建视频素材通常会导致闪烁伪影和局部时间不一致的问题。为缓解这一问题，我们提供了 [这里](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params_compr_regularized.npz) 的参数，这些参数是基于我们 2019 年 CVPR 论文提出的正则化方法训练得到的（[论文](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fhtml\u002FEilertsen_Single-Frame_Regularization_for_Temporally_Stable_CNNs_CVPR_2019_paper.html)，[项目主页](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Ftemporally_stable_cnns))：\n\n```\n@inproceedings{EMU19,\n  author       = \"Eilertsen, Gabriel and \n                  Mantiuk, Rafa\\l and \n                  Unger, Jonas\",\n  title        = \"Single-frame Regularization for Temporally Stable CNNs\",\n  booktitle    = \"The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)\",\n  month        = \"June\",\n  year         = \"2019\"\n}\n```\n为提高时间一致性的参数同样使用了 JPEG 压缩图像，因此也可用于处理已应用压缩的视频。重建质量和时间一致性之间存在一定的权衡。如果不需要重建视频素材，则应优先使用 [原始参数](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params_compr_regularized.npz)。\n\n应用上述正则化方法进行训练的功能可在 [training_code](training_code\u002F) 中找到。\n\n#### 评估\n正确评估单张图像 HDR 重建方法十分困难（参见例如 [这里](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FICCV2021W\u002FLCI\u002Fhtml\u002FEilertsen_How_To_Cheat_With_Metrics_in_Single-Image_HDR_Reconstruction_ICCVW_2021_paper.html)）。我们建议采用我们在 SIGGRAPH 2022 论文中提出的推荐评估协议（[论文](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3528233.3530729)，[项目主页](https:\u002F\u002Fwww.cl.cam.ac.uk\u002Fresearch\u002Frainbow\u002Fprojects\u002Fsihdr_benchmark\u002F))：\n\n```\n@inproceedings{hanji2022sihdr,\n  author    = {Hanji, Param and Mantiuk, Rafa{\\l} K. and Eilertsen, Gabriel and Hajisharif, Saghi and Unger, Jonas},\n  title     = {单张图像 HDR 重建方法比较——质量评估的注意事项},\n  booktitle = {Special Interest Group on Computer Graphics and Interactive Techniques Conference Proceedings (SIGGRAPH '22 Conference Proceedings)},\n  year      = {2022},\n  doi       = {10.1145\u002F3528233.3530729},\n  url       = {https:\u002F\u002Fwww.cl.cam.ac.uk\u002Fresearch\u002Frainbow\u002Fprojects\u002Fsihdr_benchmark\u002F},\n}\n```\n\n#### 控制重建过程\n使用 CNN 进行 HDR 重建是完全自动化的，无需任何参数校准。然而，在某些情况下，能够控制重建后像素的亮度可能会有所帮助。为此，有一个简单的技巧可用于实现这种控制。\n\n给定输入图像 **x**，CNN 预测 **y = f(x)** 可以通过在输入图像上应用指数\u002F伽马函数，并在重建后将其逆运算来一定程度上进行控制：\n\n&nbsp;&nbsp;&nbsp;&nbsp;**y = f(x\u003Csup>1\u002Fg\u003C\u002Fsup>)\u003Csup>g\u003C\u002Fsup>**。\n\n本质上，这会修改图像的相机曲线，从而使重建基于不同的相机特性进行。对于 **g > 1** 的值，重建后的高光区域强度会被增强；而对于 **g \u003C 1**，则相反。程序提供了一个 `--gamma` 输入选项来执行此操作：\n\n```\n$ python hdrcnn_predict.py [...] --gamma 1.2\n```\n一般来说，取 *1.1–1.3* 左右的值较为合适，因为这样可以避免对最亮像素的低估，而这种低估在其他情况下较为常见（例如由于训练数据的局限性）。\n\n## 许可证\n\n版权所有 © 2017，加布里埃尔·艾尔特森。\n保留所有权利。\n\n该代码以 BSD 许可证发布。有关信息请参阅 `LICENSE` 文件。","# hdrcnn 快速上手指南\n\nhdrcnn 是一个基于深度卷积神经网络（CNN）的工具，用于从单张标准曝光图像（如 8-bit PNG\u002FJPG）重建高动态范围（HDR）图像。它特别擅长恢复因传感器饱和而丢失的高光细节。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu), macOS 或 Windows (需配置相应编译环境)。\n*   **Python**: 建议 Python 3.6+。\n*   **系统依赖**:\n    *   需要安装 `OpenEXR` 开发库以支持 HDR 图像写入。\n    *   **Ubuntu\u002FDebian**: `sudo apt-get install openexr libopenexr-dev`\n    *   **macOS (Homebrew)**: `brew install open-exr`\n*   **硬件加速 (可选)**: 如需使用 GPU 加速推理，请确保已安装 NVIDIA 驱动及 CUDA 工具包。\n\n## 安装步骤\n\n1.  **安装 Python 依赖包**\n    使用 `pip` 安装所需库。如果您有 GPU 支持，建议将 `tensorflow` 替换为 `tensorflow-gpu`。\n\n    ```bash\n    pip install numpy scipy tensorflow tensorlayer OpenEXR\n    ```\n\n    > **国内加速提示**: 如果下载速度较慢，推荐使用清华或阿里镜像源：\n    > ```bash\n    > pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple numpy scipy tensorflow tensorlayer OpenEXR\n    > ```\n\n2.  **下载预训练模型权重**\n    从官方资源下载推断所需的权重文件 `hdrcnn_params.npz`：\n    *   **通用模型**: [hdrcnn_params.npz](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params.npz)\n    *   *(可选) 含压缩伪影优化模型*: [hdrcnn_params_compr.npz](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params_compr.npz)\n    *   *(可选) 视频时序稳定模型*: [hdrcnn_params_compr_regularized.npz](https:\u002F\u002Fcomputergraphics.on.liu.se\u002Fhdrcnn\u002Fmaterial\u002Fhdrcnn_params_compr_regularized.npz)\n\n    将下载的文件放置在项目根目录或指定路径下。\n\n## 基本使用\n\n### 1. 查看帮助信息\n运行以下命令查看可用参数选项：\n\n```bash\npython hdrcnn_predict.py -h\n```\n\n### 2. 批量重建示例\n对 `data` 目录下的所有测试图像进行 HDR 重建（指定输出分辨率为 1024x768）：\n\n```bash\npython hdrcnn_predict.py --params hdrcnn_params.npz --im_dir data --width 1024 --height 768\n```\n\n### 3. 单张图片重建\n仅处理单张输入图片：\n\n```bash\npython hdrcnn_predict.py --params hdrcnn_params.npz --im_dir data\u002Fimg_001.png --width 1024 --height 768\n```\n\n### 4. 进阶技巧：控制重建亮度\n默认情况下重建是全自动的。如果发现最亮区域重建亮度不足，可以通过 `--gamma` 参数调整输入图像的伽马曲线来提升高光强度（推荐值 1.1 - 1.3）：\n\n```bash\npython hdrcnn_predict.py --params hdrcnn_params.npz --im_dir data\u002Fimg_001.png --width 1024 --height 768 --gamma 1.2\n```\n\n> **注意**: \n> *   若输入图像包含 JPEG 压缩伪影，请使用 `hdrcnn_params_compr.npz` 以获得更好效果。\n> *   若处理视频帧序列以避免闪烁，请使用 `hdrcnn_params_compr_regularized.npz`。","一位独立游戏开发者正在处理一批在正午强光下拍摄的实景参考图，试图将其转化为高动态范围（HDR）贴图以用于虚幻引擎中的光照烘焙。\n\n### 没有 hdrcnn 时\n- **高光细节永久丢失**：由于相机传感器饱和，天空云层和窗户反光处呈现死白，无法通过传统软件拉回任何纹理细节。\n- **多曝光拍摄成本高昂**：为了获取完整动态范围，必须重返现场进行包围曝光拍摄，极大增加了时间与人力的外景成本。\n- **手动修复痕迹明显**：尝试用 Photoshop 手工绘制高光过渡不仅耗时，且难以模拟真实物理光照的细腻渐变，导致渲染结果虚假。\n- **格式转换受限**：普通的 8 位 PNG 或 JPG 图片缺乏足够的亮度信息，直接导入渲染器会导致暗部噪点增多或亮部过曝。\n\n### 使用 hdrcnn 后\n- **智能重建饱和区域**：hdrcnn 利用深度卷积神经网络，成功从单张过曝照片中“猜”并还原了云层层次与金属反光等丢失的高光信息。\n- **单图即可生成 HDR**：无需多张合成，直接将普通 8 位图片输入模型，即可输出包含丰富亮度数据的 OpenEXR 格式文件。\n- **光影过渡自然真实**：基于 Siggraph Asia 论文算法训练的参数，确保了重建的光照梯度符合物理规律，消除了人工绘制的生硬感。\n- **兼容压缩伪影处理**：针对素材中可能存在的 JPEG 压缩噪点，hdrcnn 提供了专用权重参数，在去噪的同时保持边缘锐利，提升最终画质。\n\nhdrcnn 的核心价值在于将原本需要复杂前期拍摄或多帧合成的 HDR 制作流程，简化为单次推理即可完成的自动化修复过程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgabrieleilertsen_hdrcnn_964a4279.jpg","gabrieleilertsen","Gabriel Eilertsen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgabrieleilertsen_ac16b591.png",null,"Linköping University","Norrköping, Sweden","gabriel.eilertsen@gmail.com","https:\u002F\u002Fliu.se\u002Fen\u002Femployee\u002Fgabei62","https:\u002F\u002Fgithub.com\u002Fgabrieleilertsen",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",67.7,{"name":87,"color":88,"percentage":89},"C++","#f34b7d",32.3,542,103,"2026-03-19T19:48:21","BSD-3-Clause","未说明 (基于 Python 和 TensorFlow，通常支持 Linux, macOS, Windows)","非必需。支持 GPU 加速（需安装 tensorflow-gpu），具体显卡型号、显存大小及 CUDA 版本未在文档中明确说明。","未说明",{"notes":98,"python":99,"dependencies":100},"1. 在 Ubuntu 等 Linux 系统上，使用 pip 安装 OpenEXR 前，可能需要先通过系统包管理器（如 apt-get）安装 openexr 和 libopenexr-dev 开发库。\n2. 若需 GPU 支持，请将依赖中的 tensorflow 替换为 tensorflow-gpu。\n3. 推理所需的预训练权重文件（.npz）需单独从项目网页下载，不包含在代码库中。\n4. 针对视频重建或含 JPEG 压缩伪影的图像，文档提供了不同的预训练参数文件以供选择。","未说明 (需支持 pip 安装依赖的 Python 环境)",[101,102,103,104,105],"TensorFlow","TensorLayer","OpenEXR","NumPy","SciPy",[14,15],[108,109,110,111],"deep-learning","hdr-image","convolutional-neural-network","convolutional-autoencoder","2026-03-27T02:49:30.150509","2026-04-19T06:02:50.504365",[115,120,125,129,134,139,144],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},41669,"在 Windows 上使用 Python 3.8 通过 pip 安装 openexr 失败怎么办？","在 Windows 上直接编译 openexr 经常失败。可以尝试以下替代方案：\n1. 使用纯 Python 实现的 minexr 库（pip install minexr），它不需要安装 OpenEXR，但仅支持读取未压缩的多层 EXR 文件，且不支持写入。\n2. 寻找预编译的 OpenEXR 库进行打包，或者在非 Windows 环境（如 Linux\u002FMac）下编译后移植。\n3. 如果是在 Blender 中使用，注意 Blender 内部虽使用 OpenEXR，但未通过 API 直接暴露，可能需要自行处理依赖。","https:\u002F\u002Fgithub.com\u002Fgabrieleilertsen\u002Fhdrcnn\u002Fissues\u002F43",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},41670,"训练数据集中提到的约 3700 张 HDR 图像是如何生成的？有现成的下载链接吗？","该数据集并非直接提供下载，而是通过论文描述的方法生成：利用 1121 张 HDR 图像和 67 个 HDR 视频序列，通过虚拟相机应用（virtual camera application）模拟不同的曝光和相机响应曲线合成得到。你需要运行项目中的 `virtualcamera` 代码来生成这些训练数据。具体参数（如伽马曲线、相机曲线参数）请参考论文附录 A.3、图 19 及公式 10。","https:\u002F\u002Fgithub.com\u002Fgabrieleilertsen\u002Fhdrcnn\u002Fissues\u002F24",{"id":126,"question_zh":127,"answer_zh":128,"source_url":124},41671,"跳过连接（skip-connections）中使用的伽马曲线和逆相机曲线参数（如 0.6, 1.6, 0.9）是如何确定的？","1. 跳过连接中为了简化并避免数值问题，使用了简单的伽马曲线 f(x)=x^2（即 gamma=2）。\n2. 输入 LDR 转 HDR 时使用的复杂 sigmoidal 相机曲线参数（如代码中的 0.6, 1.6, 0.9）是拟合自一个相机曲线数据集得到的实验值，用于模拟真实的相机响应函数。详细推导和定义请查阅论文附录 A.3 及公式 10。",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},41672,"如何将模型输出的浮点值转换为 10bit 整数格式以在 10bit 显示器上显示？","模型输出范围不固定，高光区域重建值可能大于 1。转换建议如下：\n1. 不要直接使用 s=1 缩放，否则会裁剪掉重建的高光信息。建议使用 s\u003C1，例如将某个百分位数锚定为 1（如 s = 1 \u002F percentile(y_predict, 99)），这意味着允许 1% 的像素被裁剪。\n2. 最通用的方法是先进行色调映射（Tone Mapping），例如使用 pfstmo 工具包中的 `pfstmo_mantiuk08` 算法，将 HDR 适配到目标显示器的动态范围，然后再量化为 10bit 整数。\n3. 若需直接转换，可尝试公式：y = 1024 * min(1, (s * y_predict)^(1\u002Fg))，其中 g 通常取 2。","https:\u002F\u002Fgithub.com\u002Fgabrieleilertsen\u002Fhdrcnn\u002Fissues\u002F13",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},41673,"编译 virtualcamera.cpp 时出现 'no match for operator+' 错误如何解决？","该错误通常由 OpenCV 版本兼容性或本地配置问题引起。\n1. 确认使用的 OpenCV 版本，作者测试环境包含 OpenCV 3.4.1。\n2. 检查代码中 `cv::Mat` 与 `cv::Vec` 或 `Scalar` 的运算是否符合当前 OpenCV 版本的 API 规范。\n3. 如果代码逻辑无误，可能是本地编译器或环境配置问题，尝试更换一台机器或重新配置 OpenCV 环境往往能解决此问题。","https:\u002F\u002Fgithub.com\u002Fgabrieleilertsen\u002Fhdrcnn\u002Fissues\u002F11",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},41674,"使用真实 HDR 数据训练时效果下降，且遇到 VGG 权重文件导致的 Nan 问题怎么办？","1. 如果遇到 Nan 问题，很可能是下载的 VGG 预训练权重文件（vgg16_places365_weights.npy）已损坏，即使加载时没有报错。建议重新下载该文件。\n2. 由于原下载链接可能失效，可以在 Issue 评论区尝试联系其他用户获取分享的文件。\n3. 确保在加载预训练模型后，再使用 Places365 数据集进行微调，最后再使用真实 HDR 数据训练，以保证收敛稳定性。","https:\u002F\u002Fgithub.com\u002Fgabrieleilertsen\u002Fhdrcnn\u002Fissues\u002F14",{"id":145,"question_zh":146,"answer_zh":147,"source_url":133},41675,"模型输出的数值范围代表什么含义？大于 1 的值表示什么？","模型输出的 [0, 1] 范围对应于原始 LDR 图像的像素值。任何大于 1 的值表示在原始 LDR 图像中处于饱和（过曝）区域，但模型成功重建出了高光细节信息。这些大于 1 的值正是 HDR 重建的关键部分。",[]]