[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-DmitryUlyanov--deep-image-prior":3,"tool-DmitryUlyanov--deep-image-prior":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":99,"forks":100,"last_commit_at":101,"license":102,"difficulty_score":10,"env_os":103,"env_gpu":104,"env_ram":103,"env_deps":105,"category_tags":115,"github_topics":80,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":116,"updated_at":117,"faqs":118,"releases":149},2186,"DmitryUlyanov\u002Fdeep-image-prior","deep-image-prior","Image restoration with neural networks but without learning.","deep-image-prior 是一个基于深度学习的图像修复开源项目，由莫斯科理工学院的学者在 CVPR 2018 提出。与传统方法不同，它的核心亮点在于“无需学习”：不依赖任何外部训练数据集，而是利用卷积神经网络自身的结构作为先验知识，仅通过优化单张损坏图像即可实现去噪、超分辨率、修复缺失区域等任务。\n\n这一特性巧妙解决了传统深度学习模型需要海量标注数据训练、且容易过拟合的痛点，特别适用于缺乏成对训练数据或需要快速处理特定图像的场景。项目官方提供了完整的 Jupyter Notebook 示例，复现了论文中的所有实验效果，并支持通过 Docker 或 Google Colab 快速部署运行。\n\n不过需要注意的是，由于算法对数值精度敏感，在部分 GPU（如 Tesla V100）上可能出现收敛困难，建议用户在运行时尝试开启双精度模式或关闭 cudnn 以确保结果稳定。鉴于其代码实现涉及较多超参数调整和底层环境配置，deep-image-prior 更适合具备一定编程基础的开发者、计算机视觉研究人员以及希望深入探索图像复原原理的技术爱好者使用。对于普通用户而言，虽然直接上手有一定门槛，","deep-image-prior 是一个基于深度学习的图像修复开源项目，由莫斯科理工学院的学者在 CVPR 2018 提出。与传统方法不同，它的核心亮点在于“无需学习”：不依赖任何外部训练数据集，而是利用卷积神经网络自身的结构作为先验知识，仅通过优化单张损坏图像即可实现去噪、超分辨率、修复缺失区域等任务。\n\n这一特性巧妙解决了传统深度学习模型需要海量标注数据训练、且容易过拟合的痛点，特别适用于缺乏成对训练数据或需要快速处理特定图像的场景。项目官方提供了完整的 Jupyter Notebook 示例，复现了论文中的所有实验效果，并支持通过 Docker 或 Google Colab 快速部署运行。\n\n不过需要注意的是，由于算法对数值精度敏感，在部分 GPU（如 Tesla V100）上可能出现收敛困难，建议用户在运行时尝试开启双精度模式或关闭 cudnn 以确保结果稳定。鉴于其代码实现涉及较多超参数调整和底层环境配置，deep-image-prior 更适合具备一定编程基础的开发者、计算机视觉研究人员以及希望深入探索图像复原原理的技术爱好者使用。对于普通用户而言，虽然直接上手有一定门槛，但通过云端环境体验其强大的无监督修复能力，也是一次难得的学习机会。","**Warning!** The optimization may not converge on some GPUs. We've personally experienced issues on Tesla V100 and P40 GPUs. When running the code, make sure you get similar results to the paper first. Easiest to check using text inpainting notebook.  Try to set double precision mode or turn off cudnn. \n\n# Deep image prior\n\nIn this repository we provide *Jupyter Notebooks* to reproduce each figure from the paper:\n\n> **Deep Image Prior**\n\n> CVPR 2018\n\n> Dmitry Ulyanov, Andrea Vedaldi, Victor Lempitsky\n\n\n[[paper]](https:\u002F\u002Fsites.skoltech.ru\u002Fapp\u002Fdata\u002Fuploads\u002Fsites\u002F25\u002F2018\u002F04\u002Fdeep_image_prior.pdf) [[supmat]](https:\u002F\u002Fbox.skoltech.ru\u002Findex.php\u002Fs\u002Fib52BOoV58ztuPM) [[project page]](https:\u002F\u002Fdmitryulyanov.github.io\u002Fdeep_image_prior)\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDmitryUlyanov_deep-image-prior_readme_ba0e13fe0316.jpg)\n\nHere we provide hyperparameters and architectures, that were used to generate the figures. Most of them are far from optimal. Do not hesitate to change them and see the effect.\n\nWe will expand this README with a list of hyperparameters and options shortly.\n\n# Install\n\nHere is the list of libraries you need to install to execute the code:\n- python = 3.6\n- [pytorch](http:\u002F\u002Fpytorch.org\u002F) = 0.4\n- numpy\n- scipy\n- matplotlib\n- scikit-image\n- jupyter\n\nAll of them can be installed via `conda` (`anaconda`), e.g.\n```\nconda install jupyter\n```\n\n\nor create an conda env with all dependencies via environment file\n\n```\nconda env create -f environment.yml\n```\n\n## Docker image\n\nAlternatively, you can use a Docker image that exposes a Jupyter Notebook with all required dependencies. To build this image ensure you have both [docker](https:\u002F\u002Fwww.docker.com\u002F) and  [nvidia-docker](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fnvidia-docker) installed, then run\n\n```\nnvidia-docker build -t deep-image-prior .\n```\n\nAfter the build you can start the container as\n\n```\nnvidia-docker run --rm -it --ipc=host -p 8888:8888 deep-image-prior\n```\n\nyou will be provided an URL through which you can connect to the Jupyter notebook.\n\n## Google Colab\n\nTo run it using Google Colab, click [here](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDmitryUlyanov\u002Fdeep-image-prior) and select the notebook to run. Remember to uncomment the first cell to clone the repository into colab's environment.\n\n\n# Citation\n```\n@article{UlyanovVL17,\n    author    = {Ulyanov, Dmitry and Vedaldi, Andrea and Lempitsky, Victor},\n    title     = {Deep Image Prior},\n    journal   = {arXiv:1711.10925},\n    year      = {2017}\n}\n```\n","**警告！** 该优化在某些 GPU 上可能无法收敛。我们曾在 Tesla V100 和 P40 GPU 上遇到过相关问题。运行代码时，请确保首先得到与论文中相似的结果。最简单的方法是使用文本修复笔记本进行检查。尝试设置双精度模式或关闭 cuDNN。\n\n# 深度图像先验\n\n在这个仓库中，我们提供了 *Jupyter Notebooks*，用于复现论文中的每一幅图表：\n\n> **深度图像先验**\n\n> CVPR 2018\n\n> 德米特里·乌利亚诺夫、安德烈亚·韦达尔迪、维克托·伦皮茨基\n\n\n[[论文]](https:\u002F\u002Fsites.skoltech.ru\u002Fapp\u002Fdata\u002Fuploads\u002Fsites\u002F25\u002F2018\u002F04\u002Fdeep_image_prior.pdf) [[补充材料]](https:\u002F\u002Fbox.skoltech.ru\u002Findex.php\u002Fs\u002Fib52BOoV58ztuPM) [[项目页面]](https:\u002F\u002Fdmitryulyanov.github.io\u002Fdeep_image_prior)\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDmitryUlyanov_deep-image-prior_readme_ba0e13fe0316.jpg)\n\n在这里，我们提供了生成这些图表所使用的超参数和网络架构。其中大多数都远非最优。请随时调整它们以观察效果。\n\n我们将在稍后扩展此 README，添加超参数和选项的列表。\n\n# 安装\n\n以下是执行代码所需安装的库列表：\n- python = 3.6\n- [pytorch](http:\u002F\u002Fpytorch.org\u002F) = 0.4\n- numpy\n- scipy\n- matplotlib\n- scikit-image\n- jupyter\n\n所有这些库都可以通过 `conda`（`anaconda`）安装，例如：\n```\nconda install jupyter\n```\n\n或者使用环境文件创建包含所有依赖项的 conda 环境：\n\n```\nconda env create -f environment.yml\n```\n\n## Docker 镜像\n\n另外，您也可以使用一个暴露了 Jupyter Notebook 的 Docker 镜像，其中包含了所有必要的依赖项。要构建此镜像，请确保已安装 [docker](https:\u002F\u002Fwww.docker.com\u002F) 和 [nvidia-docker](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fnvidia-docker)，然后运行：\n\n```\nnvidia-docker build -t deep-image-prior .\n```\n\n构建完成后，您可以按如下方式启动容器：\n\n```\nnvidia-docker run --rm -it --ipc=host -p 8888:8888 deep-image-prior\n```\n\n系统将为您提供一个 URL，您可以通过该 URL 连接到 Jupyter Notebook。\n\n## Google Colab\n\n要使用 Google Colab 运行，点击[这里](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDmitryUlyanov\u002Fdeep-image-prior)，选择要运行的笔记本。请记得取消注释第一个单元格，以便将仓库克隆到 Colab 的环境中。\n\n# 引用\n```\n@article{UlyanovVL17,\n    author    = {Ulyanov, Dmitry and Vedaldi, Andrea and Lempitsky, Victor},\n    title     = {Deep Image Prior},\n    journal   = {arXiv:1711.10925},\n    year      = {2017}\n}\n```","# Deep Image Prior 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux \u002F macOS (Windows 需配合 WSL 或 Docker)\n*   **Python 版本**: 3.6\n*   **深度学习框架**: PyTorch 0.4\n*   **GPU 支持**: 推荐使用 NVIDIA GPU，但需注意部分显卡（如 Tesla V100, P40）可能存在优化不收敛的问题。若遇到结果异常，建议尝试开启双精度模式或关闭 cuDNN。\n*   **其他依赖库**: numpy, scipy, matplotlib, scikit-image, jupyter\n\n> **注意**：本项目基于较旧版本的 PyTorch (0.4)，在新环境中安装时可能会遇到兼容性挑战。建议优先使用项目提供的 Docker 镜像或 Google Colab 环境以避免依赖冲突。\n\n## 安装步骤\n\n您可以选择以下三种方式之一进行安装：\n\n### 方式一：Conda 环境安装（推荐本地开发）\n\n1.  创建并激活包含所有依赖的 Conda 环境：\n    ```bash\n    conda env create -f environment.yml\n    conda activate deep-image-prior\n    ```\n    *(注：若 `environment.yml` 下载缓慢，可手动创建环境并逐个安装包)*\n\n2.  或者手动安装核心依赖：\n    ```bash\n    conda install python=3.6 pytorch=0.4 torchvision -c pytorch\n    conda install numpy scipy matplotlib scikit-image jupyter\n    ```\n\n### 方式二：Docker 镜像安装（最稳定，避免依赖问题）\n\n确保已安装 [Docker](https:\u002F\u002Fwww.docker.com\u002F) 和 [nvidia-docker](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fnvidia-docker)。\n\n1.  构建镜像：\n    ```bash\n    nvidia-docker build -t deep-image-prior .\n    ```\n\n2.  启动容器并运行 Jupyter Notebook：\n    ```bash\n    nvidia-docker run --rm -it --ipc=host -p 8888:8888 deep-image-prior\n    ```\n    启动后，终端将输出一个 URL，在浏览器中打开该链接即可访问 Notebook 界面。\n\n### 方式三：Google Colab（无需本地配置）\n\n1.  点击 [此处](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDmitryUlyanov\u002Fdeep-image-prior) 打开 Colab 笔记本。\n2.  选择您需要运行的具体任务笔记本。\n3.  **重要**：取消注释第一个单元格中的代码以克隆仓库到 Colab 环境，然后依次运行单元格。\n\n## 基本使用\n\n本项目主要通过 *Jupyter Notebooks* 复现论文中的各项实验（如去噪、超分辨率、图像修复等）。\n\n1.  **启动服务**：\n    如果您使用的是本地安装或 Docker，请在项目根目录下启动 Jupyter：\n    ```bash\n    jupyter notebook\n    ```\n\n2.  **选择示例**：\n    在浏览器打开的界面中，根据您的需求选择对应的 `.ipynb` 文件。例如，若要测试文本修复（Text Inpainting）或验证 GPU 兼容性，请优先运行相关的 inpainting notebook。\n\n3.  **运行与调整**：\n    *   按顺序执行单元格。\n    *   代码中提供的超参数和架构主要用于复现论文图表，并非最优解。您可以自由修改这些参数以观察对生成效果的影响。\n    *   **故障排查提示**：如果运行结果与论文不符，请检查是否需要在代码中设置双精度模式 (`double precision`) 或关闭 `cudnn`。","一位数字档案管理员正在修复一批因年代久远而严重受损的历史照片，这些照片布满了划痕、噪点和缺失色块。\n\n### 没有 deep-image-prior 时\n- **数据依赖困境**：传统深度学习修复模型需要成千上万张同类历史照片进行训练，但针对特定破损类型的标注数据几乎无法获取。\n- **伪影与失真**：强行使用通用预训练模型往往会导致“幻觉”，即凭空生成不存在的纹理或错误的人脸特征，破坏历史真实性。\n- **高昂的时间成本**：为了微调模型以适应单张图片的特征，团队需耗费数天时间收集数据并重新训练网络参数。\n- **细节过度平滑**：常规去噪算法容易抹除照片原有的颗粒感和细微纹理，使修复后的图像看起来像塑料般不自然。\n\n### 使用 deep-image-prior 后\n- **零样本即时启动**：deep-image-prior 无需任何外部训练数据，仅利用单张受损图片自身的统计特性即可开始优化，即刻投入工作。\n- **结构保持真实**：该方法通过卷积网络的架构偏好作为先验知识，能有效填补缺失区域而不引入虚假内容，完美保留历史原貌。\n- **分钟级快速迭代**：省去了漫长的训练过程，只需对单图进行数百次迭代优化，几分钟内即可看到高质量的修复结果。\n- **纹理自然还原**：在去除划痕和噪点的同时，deep-image-prior 能智能重建符合图像整体风格的自然纹理，避免过度平滑带来的失真感。\n\ndeep-image-prior 的核心价值在于打破了“修复必先训练”的范式，让单张图像的极致复原不再受限于大数据集，实现了真正的按需即时修复。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDmitryUlyanov_deep-image-prior_ba0e13fe.jpg","DmitryUlyanov","Dmitry Ulyanov","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FDmitryUlyanov_afd15763.jpg","Co-Founder at Avaturn, in3D, Phd @ Skoltech",null,"London","dmitry.ulyanov.msu@gmail.com","DmitryUlyanovML","https:\u002F\u002Fdmitryulyanov.github.io\u002Fabout","https:\u002F\u002Fgithub.com\u002FDmitryUlyanov",[87,91,95],{"name":88,"color":89,"percentage":90},"Jupyter Notebook","#DA5B0B",53.8,{"name":92,"color":93,"percentage":94},"Python","#3572A5",45.5,{"name":96,"color":97,"percentage":98},"Dockerfile","#384d54",0.8,8079,1445,"2026-04-04T13:45:33","NOASSERTION","未说明","需要 NVIDIA GPU (Docker 方案需 nvidia-docker)。警告：优化可能在某些 GPU 上不收敛（已确认 Tesla V100 和 P40 存在问题）。建议尝试双精度模式或关闭 cuDNN。",{"notes":106,"python":107,"dependencies":108},"代码基于较旧的 PyTorch 0.4 版本。在特定显卡（如 V100, P40）上运行时可能无法收敛，需通过文本修复笔记本验证结果一致性，或尝试设置双精度模式\u002F关闭 cuDNN。支持通过 Docker 或 Google Colab 运行。","3.6",[109,110,111,112,113,114],"pytorch==0.4","numpy","scipy","matplotlib","scikit-image","jupyter",[14],"2026-03-27T02:49:30.150509","2026-04-06T07:16:14.294795",[119,124,129,134,139,144],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},10084,"运行代码时出现 'RuntimeError: inconsistent tensor sizes' 错误怎么办？","该错误通常是因为输入图像和掩码图像的通道数不一致导致的（例如：原图是 3 通道，而掩码是 1 通道）。请检查并确保图像与掩码的通道数匹配。维护者已提交修复补丁，建议更新代码至最新版本。","https:\u002F\u002Fgithub.com\u002FDmitryUlyanov\u002Fdeep-image-prior\u002Fissues\u002F14",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},10085,"遇到 'CUDA out of memory' (显存不足) 错误如何解决？","显存不足通常是因为处理的图片分辨率过高或模型过大。解决方案包括：\n1. 调整图像大小（缩小分辨率）并相应减小模型尺寸；\n2. 改用 CPU 运行代码；\n3. 如果可能，使用显存更大的 GPU。\n对于高分辨率图像（如 4096x4096），强烈建议先进行缩放处理。","https:\u002F\u002Fgithub.com\u002FDmitryUlyanov\u002Fdeep-image-prior\u002Fissues\u002F38",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},10086,"在 PyTorch 0.3.0 版本下运行去噪演示时程序卡住或报错怎么办？","这通常是由于 Jupyter Notebook 的内核版本不匹配导致的。请尝试将 Jupyter Notebook 的内核（Kernel）切换为 Python 3。许多用户反馈更改内核后问题得以解决。","https:\u002F\u002Fgithub.com\u002FDmitryUlyanov\u002Fdeep-image-prior\u002Fissues\u002F18",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},10087,"如何获取该项目的许可证（License）信息？","项目仓库中已包含许可证文件。您可以直接查看根目录下的 LICENSE 文件以获取授权信息。维护者已响应用户请求添加了该文件。","https:\u002F\u002Fgithub.com\u002FDmitryUlyanov\u002Fdeep-image-prior\u002Fissues\u002F2",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},10088,"为什么示例中使用的是 Lena 图像，可以替换吗？","由于 Lena 图像在图像处理领域存在争议，维护者已接受建议将其替换。目前建议使用其他标准测试图像（如 Grace Hopper 或 SciKit 数据集中的宇航员图像）来展示算法效果，以避免潜在的伦理问题。","https:\u002F\u002Fgithub.com\u002FDmitryUlyanov\u002Fdeep-image-prior\u002Fissues\u002F19",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},10089,"导入模块时出现 'ModuleNotFoundError: No module named skip' 错误如何解决？","这是一个路径指向问题。请确保您是在项目的根目录下运行 Jupyter Notebook 或 Python 脚本，以便正确找到 `models` 文件夹中的 `skip.py` 模块。如果问题依旧，请检查 `sys.path` 是否包含了项目根目录。","https:\u002F\u002Fgithub.com\u002FDmitryUlyanov\u002Fdeep-image-prior\u002Fissues\u002F4",[]]