[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-yinboc--liif":3,"tool-yinboc--liif":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":10,"env_os":96,"env_gpu":97,"env_ram":98,"env_deps":99,"category_tags":109,"github_topics":110,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":115,"updated_at":116,"faqs":117,"releases":152},4102,"yinboc\u002Fliif","liif","Learning Continuous Image Representation with Local Implicit Image Function, in CVPR 2021 (Oral)","LIIF 是一个基于深度学习的开源项目，旨在通过“局部隐式图像函数”技术，让计算机学会以连续的方式表示图像。传统图像由固定像素点组成，放大后容易出现模糊或马赛克，而 LIIF 突破了这一限制，它不依赖固定的分辨率网格，而是学习图像内部的连续特征分布。这意味着用户可以将低分辨率图片输入模型，并任意指定输出尺寸（无论是轻微放大还是大幅超分），都能生成细节丰富、边缘清晰的高质量图像，真正实现了“无限分辨率”的图像重建。\n\n该工具主要解决了传统超分辨率方法在跨尺度泛化能力上的不足，无需为每个放大倍数单独训练模型，即可灵活应对各种缩放需求。其核心技术亮点在于将离散像素转化为连续函数查询，结合高效的编码器 - 解码器架构，在 CVPR 2021 上获得了口头报告殊荣。\n\nLIIF 非常适合计算机视觉领域的研究人员、算法开发者以及对图像画质有极高要求的专业设计师使用。虽然项目提供了预训练模型和简单的演示脚本供快速体验，但要充分发挥其潜力或进行二次开发，使用者最好具备一定的 Python 和 PyTorch 基础。无论是用于学术实验复现，还是作为高精度图像修复的后端引擎，LIIF 都提供了一个强大且灵","LIIF 是一个基于深度学习的开源项目，旨在通过“局部隐式图像函数”技术，让计算机学会以连续的方式表示图像。传统图像由固定像素点组成，放大后容易出现模糊或马赛克，而 LIIF 突破了这一限制，它不依赖固定的分辨率网格，而是学习图像内部的连续特征分布。这意味着用户可以将低分辨率图片输入模型，并任意指定输出尺寸（无论是轻微放大还是大幅超分），都能生成细节丰富、边缘清晰的高质量图像，真正实现了“无限分辨率”的图像重建。\n\n该工具主要解决了传统超分辨率方法在跨尺度泛化能力上的不足，无需为每个放大倍数单独训练模型，即可灵活应对各种缩放需求。其核心技术亮点在于将离散像素转化为连续函数查询，结合高效的编码器 - 解码器架构，在 CVPR 2021 上获得了口头报告殊荣。\n\nLIIF 非常适合计算机视觉领域的研究人员、算法开发者以及对图像画质有极高要求的专业设计师使用。虽然项目提供了预训练模型和简单的演示脚本供快速体验，但要充分发挥其潜力或进行二次开发，使用者最好具备一定的 Python 和 PyTorch 基础。无论是用于学术实验复现，还是作为高精度图像修复的后端引擎，LIIF 都提供了一个强大且灵活的解决方案。","# LIIF\n\nThis repository contains the official implementation for LIIF introduced in the following paper:\n\n[**Learning Continuous Image Representation with Local Implicit Image Function**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.09161)\n\u003Cbr>\n[Yinbo Chen](https:\u002F\u002Fyinboc.github.io\u002F), [Sifei Liu](https:\u002F\u002Fwww.sifeiliu.net\u002F), [Xiaolong Wang](https:\u002F\u002Fxiaolonw.github.io\u002F)\n\u003Cbr>\nCVPR 2021 (Oral)\n\nThe project page with video is at https:\u002F\u002Fyinboc.github.io\u002Fliif\u002F.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyinboc_liif_readme_096796e63c63.png\" width=\"200\">\n\n### Citation\n\nIf you find our work useful in your research, please cite:\n\n```\n@inproceedings{chen2021learning,\n  title={Learning continuous image representation with local implicit image function},\n  author={Chen, Yinbo and Liu, Sifei and Wang, Xiaolong},\n  booktitle={Proceedings of the IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition},\n  pages={8628--8638},\n  year={2021}\n}\n```\n\n### Environment\n- Python 3\n- Pytorch 1.6.0\n- TensorboardX\n- yaml, numpy, tqdm, imageio\n\n## Quick Start\n\n1. Download a DIV2K pre-trained model.\n\nModel|File size|Download\n:-:|:-:|:-:\nEDSR-baseline-LIIF|18M|[Dropbox](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002F6f402wcn4v83w2v\u002Fedsr-baseline-liif.pth?dl=0) &#124; [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1wBHSrgPLOHL_QVhPAIAcDC30KSJLf67x\u002Fview?usp=sharing)\nRDN-LIIF|256M|[Dropbox](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fmzha6ll9kb9bwy0\u002Frdn-liif.pth?dl=0) &#124; [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1xaAx6lBVVw_PJ3YVp02h3k4HuOAXcUkt\u002Fview?usp=sharing)\n\n2. Convert your image to LIIF and present it in a given resolution (with GPU 0, `[MODEL_PATH]` denotes the `.pth` file)\n\n```\npython demo.py --input xxx.png --model [MODEL_PATH] --resolution [HEIGHT],[WIDTH] --output output.png --gpu 0\n```\n\n## Reproducing Experiments\n\n### Data\n\n`mkdir load` for putting the dataset folders.\n\n- **DIV2K**: `mkdir` and `cd` into `load\u002Fdiv2k`. Download HR images and bicubic validation LR images from [DIV2K website](https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002FDIV2K\u002F) (i.e. [Train_HR](http:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002FDIV2K\u002FDIV2K_train_HR.zip), [Valid_HR](http:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002FDIV2K\u002FDIV2K_valid_HR.zip), [Valid_LR_X2](http:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002FDIV2K\u002FDIV2K_valid_LR_bicubic_X2.zip), [Valid_LR_X3](http:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002FDIV2K\u002FDIV2K_valid_LR_bicubic_X3.zip), [Valid_LR_X4](http:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002FDIV2K\u002FDIV2K_valid_LR_bicubic_X4.zip)). `unzip` these files to get the image folders.\n\n- **benchmark datasets**: `cd` into `load\u002F`. Download and `tar -xf` the [benchmark datasets](https:\u002F\u002Fcv.snu.ac.kr\u002Fresearch\u002FEDSR\u002Fbenchmark.tar) (provided by [this repo](https:\u002F\u002Fgithub.com\u002Fthstkdgus35\u002FEDSR-PyTorch)), get a `load\u002Fbenchmark` folder with sub-folders `Set5\u002F, Set14\u002F, B100\u002F, Urban100\u002F`.\n\n- **celebAHQ**: `mkdir load\u002FcelebAHQ` and `cp scripts\u002Fresize.py load\u002FcelebAHQ\u002F`, then `cd load\u002FcelebAHQ\u002F`. Download and `unzip` data1024x1024.zip from the [Google Drive link](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F11Vz0fqHS2rXDb5pprgTjpD7S2BAJhi1P?usp=sharing) (provided by [this repo](github.com\u002Fsuvojit-0x55aa\u002FcelebA-HQ-dataset-download)). Run `python resize.py` and get image folders `256\u002F, 128\u002F, 64\u002F, 32\u002F`. Download the [split.json](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002F2qeijojdjzvp3b9\u002Fsplit.json?dl=0).\n\n### Running the code\n\n**0. Preliminaries**\n\n- For `train_liif.py` or `test.py`, use `--gpu [GPU]` to specify the GPUs (e.g. `--gpu 0` or `--gpu 0,1`).\n\n- For `train_liif.py`, by default, the save folder is at `save\u002F_[CONFIG_NAME]`. We can use `--name` to specify a name if needed.\n\n- For dataset args in configs, `cache: in_memory` denotes pre-loading into memory (may require large memory, e.g. ~40GB for DIV2K), `cache: bin` denotes creating binary files (in a sibling folder) for the first time, `cache: none` denotes direct loading. We can modify it according to the hardware resources before running the training scripts.\n\n**1. DIV2K experiments**\n\n**Train**: `python train_liif.py --config configs\u002Ftrain-div2k\u002Ftrain_edsr-baseline-liif.yaml` (with EDSR-baseline backbone, for RDN replace `edsr-baseline` with `rdn`). We use 1 GPU for training EDSR-baseline-LIIF and 4 GPUs for RDN-LIIF.\n\n**Test**: `bash scripts\u002Ftest-div2k.sh [MODEL_PATH] [GPU]` for div2k validation set, `bash scripts\u002Ftest-benchmark.sh [MODEL_PATH] [GPU]` for benchmark datasets. `[MODEL_PATH]` is the path to a `.pth` file, we use `epoch-last.pth` in corresponding save folder.\n\n**2. celebAHQ experiments**\n\n**Train**: `python train_liif.py --config configs\u002Ftrain-celebAHQ\u002F[CONFIG_NAME].yaml`.\n\n**Test**: `python test.py --config configs\u002Ftest\u002Ftest-celebAHQ-32-256.yaml --model [MODEL_PATH]` (or `test-celebAHQ-64-128.yaml` for another task). We use `epoch-best.pth` in corresponding save folder.\n","# LIIF\n\n此仓库包含在以下论文中介绍的 LIIF 的官方实现：\n\n[**使用局部隐式图像函数学习连续图像表示**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.09161)\n\u003Cbr>\n[Yinbo Chen](https:\u002F\u002Fyinboc.github.io\u002F)、[Sifei Liu](https:\u002F\u002Fwww.sifeiliu.net\u002F)、[Xiaolong Wang](https:\u002F\u002Fxiaolonw.github.io\u002F)\n\u003Cbr>\nCVPR 2021（口头报告）\n\n项目主页及视频地址为：https:\u002F\u002Fyinboc.github.io\u002Fliif\u002F。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyinboc_liif_readme_096796e63c63.png\" width=\"200\">\n\n### 引用\n如果您在研究中使用了我们的工作，请引用：\n```\n@inproceedings{chen2021learning,\n  title={Learning continuous image representation with local implicit image function},\n  author={Chen, Yinbo and Liu, Sifei and Wang, Xiaolong},\n  booktitle={Proceedings of the IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition},\n  pages={8628--8638},\n  year={2021}\n}\n```\n\n### 环境\n- Python 3\n- PyTorch 1.6.0\n- TensorBoardX\n- yaml、numpy、tqdm、imageio\n\n## 快速入门\n\n1. 下载一个 DIV2K 预训练模型。\n\n模型|文件大小|下载\n:-:|:-:|:-:\nEDSR-baseline-LIIF|18M|[Dropbox](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002F6f402wcn4v83w2v\u002Fedsr-baseline-liif.pth?dl=0) &#124; [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1wBHSrgPLOHL_QVhPAIAcDC30KSJLf67x\u002Fview?usp=sharing)\nRDN-LIIF|256M|[Dropbox](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fmzha6ll9kb9bwy0\u002Frdn-liif.pth?dl=0) &#124; [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1xaAx6lBVVw_PJ3YVp02h3k4HuOAXcUkt\u002Fview?usp=sharing)\n\n2. 将您的图像转换为 LIIF 格式，并以指定分辨率呈现（使用 GPU 0，`[MODEL_PATH]` 表示 `.pth` 文件）：\n\n```\npython demo.py --input xxx.png --model [MODEL_PATH] --resolution [HEIGHT],[WIDTH] --output output.png --gpu 0\n```\n\n## 实验复现\n\n### 数据\n\n创建 `load` 目录用于存放数据集文件夹。\n\n- **DIV2K**：进入 `load\u002Fdiv2k` 目录并解压。从 [DIV2K 官网](https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002FDIV2K\u002F) 下载 HR 图像和双三次插值生成的验证集 LR 图像（例如 [Train_HR](http:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002FDIV2K\u002FDIV2K_train_HR.zip)、[Valid_HR](http:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002FDIV2K\u002FDIV2K_valid_HR.zip)、[Valid_LR_X2](http:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002FDIV2K\u002FDIV2K_valid_LR_bicubic_X2.zip)、[Valid_LR_X3](http:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002FDIV2K\u002FDIV2K_valid_LR_bicubic_X3.zip)、[Valid_LR_X4](http:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002FDIV2K\u002FDIV2K_valid_LR_bicubic_X4.zip)）。解压这些文件以获取图像文件夹。\n\n- **基准数据集**：进入 `load\u002F` 目录。下载并解压 [benchmark datasets](https:\u002F\u002Fcv.snu.ac.kr\u002Fresearch\u002FEDSR\u002Fbenchmark.tar)（由 [此仓库](https:\u002F\u002Fgithub.com\u002Fthstkdgus35\u002FEDSR-PyTorch) 提供），得到一个包含子文件夹 `Set5\u002F、Set14\u002F、B100\u002F、Urban100\u002F` 的 `load\u002Fbenchmark` 文件夹。\n\n- **celebAHQ**：创建 `load\u002FcelebAHQ` 目录，并将 `scripts\u002Fresize.py` 复制到该目录下，然后进入 `load\u002FcelebAHQ`。从 [Google Drive 链接](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F11Vz0fqHS2rXDb5pprgTjpD7S2BAJhi1P?usp=sharing) 下载并解压 data1024x1024.zip（由 [此仓库](github.com\u002Fsuvojit-0x55aa\u002FcelebA-HQ-dataset-download) 提供）。运行 `python resize.py`，即可得到 `256\u002F、128\u002F、64\u002F、32\u002F` 等图像文件夹。同时下载 [split.json](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002F2qeijojdjzvp3b9\u002Fsplit.json?dl=0)。\n\n### 运行代码\n\n**0. 准备工作**\n\n- 对于 `train_liif.py` 或 `test.py`，可使用 `--gpu [GPU]` 指定使用的 GPU（例如 `--gpu 0` 或 `--gpu 0,1`）。\n\n- 对于 `train_liif.py`，默认保存路径为 `save\u002F_[CONFIG_NAME]`。如果需要，可通过 `--name` 参数指定自定义名称。\n\n- 在配置文件中设置数据集参数时，`cache: in_memory` 表示将数据预加载到内存中（可能需要较大内存，例如 DIV2K 约需 40GB）；`cache: bin` 表示首次创建二进制文件（存储在同级文件夹中）；`cache: none` 表示直接加载。在运行训练脚本之前，可根据硬件资源调整这些设置。\n\n**1. DIV2K 实验**\n\n**训练**：`python train_liif.py --config configs\u002Ftrain-div2k\u002Ftrain_edsr-baseline-liif.yaml`（使用 EDSR-baseline 主干网络；若使用 RDN，则将 `edsr-baseline` 替换为 `rdn`）。我们使用 1 个 GPU 训练 EDSR-baseline-LIIF，而 RDN-LIIF 则使用 4 个 GPU。\n\n**测试**：对于 DIV2K 验证集，运行 `bash scripts\u002Ftest-div2k.sh [MODEL_PATH] [GPU]`；对于基准数据集，运行 `bash scripts\u002Ftest-benchmark.sh [MODEL_PATH] [GPU]`。其中 `[MODEL_PATH]` 是 `.pth` 文件的路径，我们使用对应保存文件夹中的 `epoch-last.pth`。\n\n**2. celebAHQ 实验**\n\n**训练**：`python train_liif.py --config configs\u002Ftrain-celebAHQ\u002F[CONFIG_NAME].yaml`。\n\n**测试**：`python test.py --config configs\u002Ftest\u002Ftest-celebAHQ-32-256.yaml --model [MODEL_PATH]`（或针对另一项任务使用 `test-celebAHQ-64-128.yaml`）。我们使用对应保存文件夹中的 `epoch-best.pth`。","# LIIF 快速上手指南\n\nLIIF (Local Implicit Image Function) 是一个基于局部隐式图像函数的连续图像表示学习项目，支持任意分辨率的图像超分辨率重建。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux \u002F macOS \u002F Windows\n*   **Python**: 3.x\n*   **深度学习框架**: PyTorch 1.6.0\n*   **其他依赖**: TensorboardX, yaml, numpy, tqdm, imageio\n\n建议创建独立的虚拟环境以避免依赖冲突。\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fyinboc\u002Fliif.git\n    cd liif\n    ```\n\n2.  **安装依赖**\n    请确保已安装 PyTorch 1.6.0（可根据您的 CUDA 版本选择对应的安装命令，国内用户可使用清华或阿里镜像加速）：\n    \n    *示例（使用 pip 安装其他依赖）：*\n    ```bash\n    pip install tensorboardx pyyaml numpy tqdm imageio\n    ```\n    *(注：若未安装 PyTorch，请访问 pytorch.org 或使用 `pip install torch==1.6.0 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 进行安装)*\n\n## 基本使用\n\n以下是使用预训练模型将低分辨率图像转换为任意指定分辨率的最简流程。\n\n### 1. 下载预训练模型\n\n您可以从以下链接下载在 DIV2K 数据集上预训练的模型（推荐国内网络不佳时使用 Google Drive 或尝试其他加速手段）：\n\n| 模型名称 | 文件大小 | 下载链接 |\n| :--- | :--- | :--- |\n| **EDSR-baseline-LIIF** | 18M | [Dropbox](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002F6f402wcn4v83w2v\u002Fedsr-baseline-liif.pth?dl=0) \\| [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1wBHSrgPLOHL_QVhPAIAcDC30KSJLf67x\u002Fview?usp=sharing) |\n| **RDN-LIIF** | 256M | [Dropbox](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fmzha6ll9kb9bwy0\u002Frdn-liif.pth?dl=0) \\| [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1xaAx6lBVVw_PJ3YVp02h3k4HuOAXcUkt\u002Fview?usp=sharing) |\n\n下载后，假设文件保存为 `edsr-baseline-liif.pth`。\n\n### 2. 运行推理\n\n使用 `demo.py` 脚本对图片进行超分处理。以下命令将输入图片 `xxx.png` 放大至指定分辨率（例如 512x512），并输出为 `output.png`。\n\n```bash\npython demo.py --input xxx.png --model edsr-baseline-liif.pth --resolution 512,512 --output output.png --gpu 0\n```\n\n**参数说明：**\n*   `--input`: 输入的低分辨率图片路径。\n*   `--model`: 下载的 `.pth` 预训练模型路径。\n*   `--resolution`: 目标输出的高度和宽度（格式：`HEIGHT,WIDTH`），LIIF 支持任意整数分辨率。\n*   `--output`: 输出图片的保存路径。\n*   `--gpu`: 指定使用的 GPU 编号（如 `0`）。若无 GPU 可移除该参数或修改代码适配 CPU。","某数字档案馆正在对一批珍贵的低分辨率历史照片进行数字化修复，需要将其放大至高清规格以供展览和出版。\n\n### 没有 liif 时\n- **固定倍数限制**：传统超分模型仅支持固定的放大倍数（如 2 倍或 4 倍），若需适配不同尺寸的展板，必须训练多个模型或接受裁剪损失。\n- **像素化严重**：在非整数倍放大或超大分辨率下，图像边缘容易出现明显的锯齿和块状伪影，细节模糊不清。\n- **存储与计算冗余**：为了应对多种输出需求，团队需维护多套不同权重的模型文件，且每次调整尺寸都需重新推理，效率低下。\n- **连续性问题缺失**：无法像矢量图一样无限缩放，一旦超过训练设定的分辨率上限，画质会断崖式下跌。\n\n### 使用 liif 后\n- **任意分辨率输出**：liif 学习的是连续图像表示，只需修改命令中的 `--resolution` 参数，即可直接生成任意长宽比和尺寸的高清图，无需重新训练。\n- **细节自然连贯**：基于局部隐式图像函数，liif 能在放大过程中“脑补”出平滑自然的纹理细节，有效消除了传统方法的锯齿感。\n- **单模型通用**：仅需一个预训练模型（如 EDSR-baseline-LIIF）即可覆盖从微调到大幅面打印的所有场景，显著降低了存储和维护成本。\n- **突破分辨率上限**：即使将小图放大至原图的 10 倍以上，liif 仍能保持结构的连续性和清晰度，满足了巨幅海报的制作需求。\n\nliif 通过将离散像素转化为连续函数，彻底打破了传统超分技术的尺寸枷锁，让历史影像的修复工作变得灵活且高质。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyinboc_liif_4a4b8ee7.png","yinboc","Yinbo Chen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fyinboc_5a33ef1a.png",null,"yinboc96@gmail.com","yinboc.github.io","https:\u002F\u002Fgithub.com\u002Fyinboc",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",95,{"name":89,"color":90,"percentage":91},"Shell","#89e051",5,1372,157,"2026-04-04T13:01:20","BSD-3-Clause","","需要 NVIDIA GPU（运行命令需指定 --gpu 参数），训练 RDN-LIIF 模型建议使用 4 张 GPU，显存需求未明确说明但预加载 DIV2K 数据集到内存可能需约 40GB RAM","最低未说明，推荐 40GB+（若选择将 DIV2K 数据集预加载到内存）",{"notes":100,"python":101,"dependencies":102},"1. 代码基于 PyTorch 1.6.0 开发，更高版本可能存在兼容性风险。2. 训练时可通过配置修改数据缓存策略：'in_memory'（速度快但耗内存，DIV2K 约需 40GB）、'bin'（生成二进制文件）或 'none'（直接加载）。3. 需手动下载预训练模型（.pth 文件）及数据集（DIV2K, CelebAHQ 等）并放置于指定目录。4. 支持单卡或多卡训练\u002F推理，通过 --gpu 参数指定。","3",[103,104,105,106,107,108],"torch==1.6.0","tensorboardx","pyyaml","numpy","tqdm","imageio",[14,13],[111,112,113,114],"machine-learning","super-resolution","pytorch","implicit-neural-representation","2026-03-27T02:49:30.150509","2026-04-06T09:14:13.968458",[118,123,128,133,138,143,148],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},18697,"代码中的 rel_coord 和 rel_cell 具体指什么？为什么要乘以特征图的尺寸？","rel_coord 指的是相对坐标。在乘以特征图尺寸之前，它的范围是 [-1\u002FH, 1\u002FH] 和 [-1\u002FW, 1\u002FW]（其中 H, W 是特征图的形状）。乘以特征图尺寸（feat.shape[-2] 和 feat.shape[-1]）是为了将其归一化到 [-1, 1] 的范围，以便作为局部隐式函数的输入。coord 和 q_coord 分别对应论文公式 (4) 中的查询坐标 xq 和最近的特征点坐标 v*t。","https:\u002F\u002Fgithub.com\u002Fyinboc\u002Fliif\u002Fissues\u002F7",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},18698,"快速开始（Quick Start）演示生成的超分辨率图像非常模糊，可能是什么原因？","这通常是因为低分辨率（LR）输入图像的生成方式与模型训练时的退化过程不一致。如果 LR 图像是通过简单的最近邻插值（nearest resizing）从高分辨率图像下采样得到的，它可能丢失了过多的高频信息或包含伪影，导致分布外（out of distribution）。建议使用项目网站上提供的示例低分辨率图像进行测试，或者确保您的下采样过程模拟了真实的图像退化过程。即使像素级差异很小（高 PSNR\u002FSSIM），在大幅放大（如 20 倍）时也会导致视觉质量显著下降。","https:\u002F\u002Fgithub.com\u002Fyinboc\u002Fliif\u002Fissues\u002F13",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},18699,"运行测试脚本时出现 \"stack expects each tensor to be equal size\" 错误，是因为图像尺寸必须相同吗？","不一定需要所有图像尺寸相同，但该错误通常是因为批次大小（batch size）设置不当。评估时的批次大小应设置为 1，以便正确计算 PSNR 并避免不同尺寸图像堆叠报错。请检查您的配置文件（例如 test-set5-2.yaml），确保 batch size 为 1。如果修改过配置，请改回默认设置。","https:\u002F\u002Fgithub.com\u002Fyinboc\u002Fliif\u002Fissues\u002F11",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},18700,"Dropbox 上的预训练模型无法下载，是否有其他下载来源？","维护者已更新说明文档，提供了 Google Drive 的下载链接作为替代方案。如果您在中国大陆因防火墙无法访问 Dropbox，请使用 Google Drive 链接下载。对于命令行下载，也可以尝试使用 wget 工具配合 Dropbox 的直接链接进行下载。","https:\u002F\u002Fgithub.com\u002Fyinboc\u002Fliif\u002Fissues\u002F4",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},18701,"论文中写的训练轮数是 200，但配置文件里是 1000，应该以哪个为准？对结果影响大吗？","论文中提到的 200 轮是在特定数据集（Div2K）和硬件（RTX8000）上的实验记录。配置文件中的 1000 轮是为了确保模型充分收敛以获得最佳效果。虽然 200 轮可能已经接近收敛，但增加轮数通常会略微提升最终质量，不过训练时间会显著增加（例如从 25 小时增加到更多）。如果对 runtime 敏感且接受轻微的质量权衡，可以尝试较少轮数，但推荐遵循配置文件以获得复现的最佳结果。","https:\u002F\u002Fgithub.com\u002Fyinboc\u002Fliif\u002Fissues\u002F36",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},18702,"LIIF 是否支持处理带有透明通道（RGBA）的图像？如何修改代码以支持 Alpha 通道？","原生 LIIF 主要针对 RGB 图像设计。若要支持 RGBA，理论上可以修改网络输出层以同时预测 RGB 和 Alpha 通道，并对 Alpha 通道进行监督训练。目前有相关研究（如 JIIF）探讨了联合隐式图像函数来处理深度图或额外通道，可参考其思路。用户也可以尝试自行构建包含透明度的数据集进行训练，但直接修改现有代码需要调整数据加载、损失函数及网络架构以适应 4 通道输出。","https:\u002F\u002Fgithub.com\u002Fyinboc\u002Fliif\u002Fissues\u002F12",{"id":149,"question_zh":150,"answer_zh":151,"source_url":122},18703,"\"Feature Unfolding\"（特征展开）这一思想的起源和动机是什么？","Feature Unfolding 的主要动机是为了扩大局部隐式函数的感受野（reception field）。通过展开特征，模型能够利用更广泛的上下文信息来推断高分辨率像素值，从而提升超分辨率的重建质量。",[]]