[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-DPS2022--diffusion-posterior-sampling":3,"tool-DPS2022--diffusion-posterior-sampling":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":76,"languages":77,"stars":90,"forks":91,"last_commit_at":92,"license":74,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":103,"github_topics":104,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":108,"updated_at":109,"faqs":110,"releases":111},8979,"DPS2022\u002Fdiffusion-posterior-sampling","diffusion-posterior-sampling","Official pytorch repository for \"Diffusion Posterior Sampling for General Noisy Inverse Problems\"","diffusion-posterior-sampling 是一个基于 PyTorch 的开源项目，旨在利用扩散模型高效解决各类含噪的逆问题。在图像恢复领域，从模糊、低分辨率或受损的观测数据中还原清晰图像是一项极具挑战的任务，尤其是当数据伴随复杂噪声时，传统方法往往难以兼顾细节生成与测量一致性。\n\n该项目提出了一种创新的“扩散后验采样”算法，巧妙地将扩散采样过程与流形约束梯度相结合。其独特之处在于无需严格的测量一致性投影步骤，即可在含噪环境下生成更自然、高质量的复原路径，显著提升了处理线性和非线性逆问题（如超分辨率、运动去模糊、相位检索等）的效果。该成果曾入选 ICLR 2023 Spotlight，代表了当前生成式模型在底层视觉任务中的前沿探索。\n\ndiffusion-posterior-sampling 主要面向人工智能研究人员、计算机视觉开发者以及相关领域的算法工程师。使用者需要具备一定的深度学习基础，能够配置 Python 环境、管理依赖库并运行命令行推理脚本。虽然项目提供了预训练模型和详细的部署指南（支持本地环境及 Docker），但其核心定位仍是科研与技术开发，适合希望复现前","diffusion-posterior-sampling 是一个基于 PyTorch 的开源项目，旨在利用扩散模型高效解决各类含噪的逆问题。在图像恢复领域，从模糊、低分辨率或受损的观测数据中还原清晰图像是一项极具挑战的任务，尤其是当数据伴随复杂噪声时，传统方法往往难以兼顾细节生成与测量一致性。\n\n该项目提出了一种创新的“扩散后验采样”算法，巧妙地将扩散采样过程与流形约束梯度相结合。其独特之处在于无需严格的测量一致性投影步骤，即可在含噪环境下生成更自然、高质量的复原路径，显著提升了处理线性和非线性逆问题（如超分辨率、运动去模糊、相位检索等）的效果。该成果曾入选 ICLR 2023 Spotlight，代表了当前生成式模型在底层视觉任务中的前沿探索。\n\ndiffusion-posterior-sampling 主要面向人工智能研究人员、计算机视觉开发者以及相关领域的算法工程师。使用者需要具备一定的深度学习基础，能够配置 Python 环境、管理依赖库并运行命令行推理脚本。虽然项目提供了预训练模型和详细的部署指南（支持本地环境及 Docker），但其核心定位仍是科研与技术开发，适合希望复现前沿论文结果或在此基础上进行二次开发的专业技术人群。","# Diffusion Posterior Sampling for General Noisy Inverse Problems (ICLR 2023 spotlight)\n\n![result-gif1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDPS2022_diffusion-posterior-sampling_readme_de7fb396c9a8.gif)\n![result-git2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDPS2022_diffusion-posterior-sampling_readme_fbd00b5605f2.gif)\n\u003C!-- See more results in the [project-page](https:\u002F\u002Fjeongsol-kim.github.io\u002Fdps-project-page) -->\n\n## Abstract\nIn this work, we extend diffusion solvers to efficiently handle general noisy (non)linear inverse problems via the approximation of the posterior sampling. Interestingly, the resulting posterior sampling scheme is a blended version of the diffusion sampling with the manifold constrained gradient without strict measurement consistency projection step, yielding more desirable generative path in noisy settings compared to the previous studies.\n\n![cover-img](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDPS2022_diffusion-posterior-sampling_readme_39973222692a.jpg)\n\n\n## Prerequisites\n- python 3.8\n\n- pytorch 1.11.0\n\n- CUDA 11.3.1\n\n- nvidia-docker (if you use GPU in docker container)\n\nIt is okay to use lower version of CUDA with proper pytorch version.\n\nEx) CUDA 10.2 with pytorch 1.7.0\n\n\u003Cbr \u002F>\n\n## Getting started \n\n### 1) Clone the repository\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002FDPS2022\u002Fdiffusion-posterior-sampling\n\ncd diffusion-posterior-sampling\n```\n\n\u003Cbr \u002F>\n\n### 2) Download pretrained checkpoint\nFrom the [link](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1jElnRoFv7b31fG0v6pTSQkelbSX3xGZh?usp=sharing), download the checkpoint \"ffhq_10m.pt\" and paste it to .\u002Fmodels\u002F\n```\nmkdir models\nmv {DOWNLOAD_DIR}\u002Fffqh_10m.pt .\u002Fmodels\u002F\n```\n{DOWNLOAD_DIR} is the directory that you downloaded checkpoint to.\n\n:speaker: Checkpoint for imagenet is uploaded.\n\n\u003Cbr \u002F>\n\n\n### 3) Set environment\n### [Option 1] Local environment setting\n\nWe use the external codes for motion-blurring and non-linear deblurring.\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002FVinAIResearch\u002Fblur-kernel-space-exploring bkse\n\ngit clone https:\u002F\u002Fgithub.com\u002FLeviBorodenko\u002Fmotionblur motionblur\n```\n\nInstall dependencies\n\n```\nconda create -n DPS python=3.8\n\nconda activate DPS\n\npip install -r requirements.txt\n\npip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 torchaudio==0.11.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu113\n```\n\n\u003Cbr \u002F>\n\n### [Option 2] Build Docker image\n\nInstall docker engine, GPU driver and proper cuda before running the following commands.\n\nDockerfile already contains command to clone external codes. You don't have to clone them again.\n\n--gpus=all is required to use local GPU device (Docker >= 19.03)\n\n```\ndocker build -t dps-docker:latest .\n\ndocker run -it --rm --gpus=all dps-docker\n```\n\n\u003Cbr \u002F>\n\n### 4) Inference\n\n```\npython3 sample_condition.py \\\n--model_config=configs\u002Fmodel_config.yaml \\\n--diffusion_config=configs\u002Fdiffusion_config.yaml \\\n--task_config={TASK-CONFIG};\n```\n\n\n:speaker: For imagenet, use configs\u002Fimagenet_model_config.yaml\n\n\u003Cbr \u002F>\n\n## Possible task configurations\n\n```\n# Linear inverse problems\n- configs\u002Fsuper_resolution_config.yaml\n- configs\u002Fgaussian_deblur_config.yaml\n- configs\u002Fmotion_deblur_config.yaml\n- configs\u002Finpainting_config.yaml\n\n# Non-linear inverse problems\n- configs\u002Fnonlinear_deblur_config.yaml\n- configs\u002Fphase_retrieval_config.yaml\n```\n\n### Structure of task configurations\nYou need to write your data directory at data.root. Default is .\u002Fdata\u002Fsamples which contains three sample images from FFHQ validation set.\n\n```\nconditioning:\n    method: # check candidates in guided_diffusion\u002Fcondition_methods.py\n    params:\n        scale: 0.5\n\ndata:\n    name: ffhq\n    root: .\u002Fdata\u002Fsamples\u002F\n\nmeasurement:\n    operator:\n        name: # check candidates in guided_diffusion\u002Fmeasurements.py\n\nnoise:\n    name:   # gaussian or poisson\n    sigma:  # if you use name: gaussian, set this.\n    (rate:) # if you use name: poisson, set this.\n```\n\n## Citation\nIf you find our work interesting, please consider citing\n\n```\n@inproceedings{\nchung2023diffusion,\ntitle={Diffusion Posterior Sampling for General Noisy Inverse Problems},\nauthor={Hyungjin Chung and Jeongsol Kim and Michael Thompson Mccann and Marc Louis Klasky and Jong Chul Ye},\nbooktitle={The Eleventh International Conference on Learning Representations },\nyear={2023},\nurl={https:\u002F\u002Fopenreview.net\u002Fforum?id=OnD9zGAGT0k}\n}\n```\n\n","# 用于一般噪声逆问题的扩散后验采样（ICLR 2023亮点论文）\n\n![result-gif1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDPS2022_diffusion-posterior-sampling_readme_de7fb396c9a8.gif)\n![result-git2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDPS2022_diffusion-posterior-sampling_readme_fbd00b5605f2.gif)\n\u003C!-- 更多结果请参见[项目页面](https:\u002F\u002Fjeongsol-kim.github.io\u002Fdps-project-page) -->\n\n## 摘要\n在本工作中，我们通过近似后验采样，将扩散求解器扩展到高效处理一般的噪声（非）线性逆问题。有趣的是，由此产生的后验采样方案是扩散采样与流形约束梯度的混合版本，且不包含严格的测量一致性投影步骤，这使得它在噪声环境下相比先前的研究能够产生更理想的生成路径。\n\n![cover-img](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDPS2022_diffusion-posterior-sampling_readme_39973222692a.jpg)\n\n\n## 前置条件\n- Python 3.8\n\n- PyTorch 1.11.0\n\n- CUDA 11.3.1\n\n- nvidia-docker（如果在 Docker 容器中使用 GPU）\n\n也可以使用较低版本的 CUDA 并搭配合适的 PyTorch 版本。\n\n例如：CUDA 10.2 配合 PyTorch 1.7.0\n\n\u003Cbr \u002F>\n\n## 快速入门 \n\n### 1) 克隆仓库\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002FDPS2022\u002Fdiffusion-posterior-sampling\n\ncd diffusion-posterior-sampling\n```\n\n\u003Cbr \u002F>\n\n### 2) 下载预训练检查点\n从[链接](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1jElnRoFv7b31fG0v6pTSQkelbSX3xGZh?usp=sharing)下载检查点 \"ffhq_10m.pt\"，并将其放入 .\u002Fmodels\u002F 目录下。\n```\nmkdir models\nmv {DOWNLOAD_DIR}\u002Fffqh_10m.pt .\u002Fmodels\u002F\n```\n其中 {DOWNLOAD_DIR} 是您下载检查点的目录。\n\n:speaker: Imagenet 的检查点已上传。\n\n\u003Cbr \u002F>\n\n\n### 3) 设置环境\n### [选项 1] 本地环境设置\n\n我们使用外部代码来实现运动模糊和非线性去模糊。\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002FVinAIResearch\u002Fblur-kernel-space-exploring bkse\n\ngit clone https:\u002F\u002Fgithub.com\u002FLeviBorodenko\u002Fmotionblur motionblur\n```\n\n安装依赖项\n\n```\nconda create -n DPS python=3.8\n\nconda activate DPS\n\npip install -r requirements.txt\n\npip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 torchaudio==0.11.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu113\n```\n\n\u003Cbr \u002F>\n\n### [选项 2] 构建 Docker 镜像\n\n在运行以下命令之前，请先安装 Docker 引擎、GPU 驱动程序以及相应的 CUDA 版本。\n\nDockerfile 已经包含了克隆外部代码的命令，因此无需再次手动克隆。\n\n--gpus=all 参数是使用本地 GPU 设备所必需的（Docker >= 19.03）\n\n```\ndocker build -t dps-docker:latest .\n\ndocker run -it --rm --gpus=all dps-docker\n```\n\n\u003Cbr \u002F>\n\n### 4) 推理\n\n```\npython3 sample_condition.py \\\n--model_config=configs\u002Fmodel_config.yaml \\\n--diffusion_config=configs\u002Fdiffusion_config.yaml \\\n--task_config={TASK-CONFIG};\n```\n\n\n:speaker: 对于 Imagenet 数据集，请使用 configs\u002Fimagenet_model_config.yaml\n\n\u003Cbr \u002F>\n\n## 可能的任务配置\n\n```\n# 线性逆问题\n- configs\u002Fsuper_resolution_config.yaml\n- configs\u002Fgaussian_deblur_config.yaml\n- configs\u002Fmotion_deblur_config.yaml\n- configs\u002Finpainting_config.yaml\n\n# 非线性逆问题\n- configs\u002Fnonlinear_deblur_config.yaml\n- configs\u002Fphase_retrieval_config.yaml\n```\n\n### 任务配置的结构\n您需要在 data.root 中指定数据目录。默认值为 .\u002Fdata\u002Fsamples，其中包含来自 FFHQ 验证集的三张示例图像。\n\n```\nconditioning:\n    method: # 在 guided_diffusion\u002Fcondition_methods.py 中查看候选方法\n    params:\n        scale: 0.5\n\ndata:\n    name: ffhq\n    root: .\u002Fdata\u002Fsamples\u002F\n\nmeasurement:\n    operator:\n        name: # 在 guided_diffusion\u002Fmeasurements.py 中查看候选算子\n\nnoise:\n    name:   # 高斯或泊松\n    sigma:  # 如果使用高斯噪声，请设置此参数。\n    (rate:) # 如果使用泊松噪声，请设置此参数。\n```\n\n## 引用\n如果您对我们的工作感兴趣，请考虑引用：\n\n```\n@inproceedings{\nchung2023diffusion,\ntitle={Diffusion Posterior Sampling for General Noisy Inverse Problems},\nauthor={Hyungjin Chung and Jeongsol Kim and Michael Thompson Mccann and Marc Louis Klasky and Jong Chul Ye},\nbooktitle={The Eleventh International Conference on Learning Representations },\nyear={2023},\nurl={https:\u002F\u002Fopenreview.net\u002Fforum?id=OnD9zGAGT0k}\n}\n```","# Diffusion Posterior Sampling 快速上手指南\n\n本指南帮助开发者快速部署并运行 **Diffusion Posterior Sampling (DPS)**，用于解决通用的含噪逆问题（如超分辨率、去模糊、图像修复等）。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐) 或 macOS\n*   **Python**: 3.8\n*   **PyTorch**: 1.11.0 (需匹配 CUDA 版本)\n*   **CUDA**: 11.3.1 (也可使用其他版本，如 CUDA 10.2 配合 PyTorch 1.7.0)\n*   **GPU**: 推荐使用 NVIDIA GPU 以加速推理\n*   **可选**: Docker (若使用容器化部署)\n\n## 2. 安装步骤\n\n### 第一步：克隆代码仓库\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FDPS2022\u002Fdiffusion-posterior-sampling\ncd diffusion-posterior-sampling\n```\n\n### 第二步：下载预训练模型\n\n从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1jElnRoFv7b31fG0v6pTSQkelbSX3xGZh?usp=sharing) 下载 FFHQ 数据集的预训练检查点 `ffhq_10m.pt`。\n*(注：如需 ImageNet 模型，该链接中也已上传)*\n\n将下载的文件移动到项目目录：\n\n```bash\nmkdir models\nmv {DOWNLOAD_DIR}\u002Fffhq_10m.pt .\u002Fmodels\u002F\n```\n> 请将 `{DOWNLOAD_DIR}` 替换为您实际下载文件的路径。\n\n### 第三步：配置运行环境\n\n您可以选择 **本地环境** 或 **Docker** 两种方式之一。\n\n#### 选项 A：本地环境设置 (推荐)\n\n本项目依赖外部代码库处理运动模糊和非线性去模糊，需先克隆：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FVinAIResearch\u002Fblur-kernel-space-exploring bkse\ngit clone https:\u002F\u002Fgithub.com\u002FLeviBorodenko\u002Fmotionblur motionblur\n```\n\n创建 Conda 环境并安装依赖（国内用户建议使用清华或阿里镜像源加速）：\n\n```bash\nconda create -n DPS python=3.8\nconda activate DPS\n\n# 使用国内镜像源安装 requirements\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装指定版本的 PyTorch (CUDA 11.3)\npip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 torchaudio==0.11.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu113\n```\n\n#### 选项 B：Docker 环境设置\n\n如果您已安装 Docker Engine 和 NVIDIA Container Toolkit，可直接构建镜像：\n\n```bash\ndocker build -t dps-docker:latest .\n\n# 运行容器 (--gpus=all 用于启用本地 GPU)\ndocker run -it --rm --gpus=all dps-docker\n```\n*Dockerfile 内部已自动处理外部代码库的克隆，无需手动执行 git clone 步骤。*\n\n## 3. 基本使用\n\n完成环境配置后，即可运行推理脚本。以下是最基础的运行命令示例：\n\n```bash\npython3 sample_condition.py \\\n--model_config=configs\u002Fmodel_config.yaml \\\n--diffusion_config=configs\u002Fdiffusion_config.yaml \\\n--task_config=configs\u002Fsuper_resolution_config.yaml\n```\n\n### 任务配置说明\n\n通过修改 `--task_config` 参数，可以切换不同的逆问题任务：\n\n**线性逆问题：**\n*   超分辨率: `configs\u002Fsuper_resolution_config.yaml`\n*   高斯去模糊: `configs\u002Fgaussian_deblur_config.yaml`\n*   运动去模糊: `configs\u002Fmotion_deblur_config.yaml`\n*   图像修复 (Inpainting): `configs\u002Finpainting_config.yaml`\n\n**非线性逆问题：**\n*   非线性去模糊: `configs\u002Fnonlinear_deblur_config.yaml`\n*   相位检索: `configs\u002Fphase_retrieval_config.yaml`\n\n> **注意**：如果使用 ImageNet 模型，请将 `--model_config` 改为 `configs\u002Fimagenet_model_config.yaml`。默认数据路径为 `.\u002Fdata\u002Fsamples\u002F`，您可在对应的 yaml 配置文件中修改 `data.root` 指向您的图片目录。","某医疗影像实验室的研究员正试图从低剂量 CT 扫描产生的高噪声、模糊数据中重建清晰的人体组织图像，以辅助早期病灶诊断。\n\n### 没有 diffusion-posterior-sampling 时\n- 传统去噪算法在处理强噪声和非线性模糊时，往往过度平滑图像，导致微小的血管纹理或早期肿瘤边缘丢失。\n- 现有的深度学习方法通常假设测量过程是理想线性的，面对真实的复杂噪声分布（如泊松噪声）时，重建结果会出现伪影或结构失真。\n- 为了确保测量一致性，以往方案需要繁琐的投影步骤，不仅计算耗时，还容易陷入局部最优解，难以生成符合解剖学常识的自然图像。\n- 研究人员不得不针对每种特定的退化类型（如运动模糊、超分辨率）单独训练模型，开发周期长且泛化能力差。\n\n### 使用 diffusion-posterior-sampling 后\n- 利用其后验采样机制，能在保留高频细节的同时有效去除噪声，清晰还原出原本模糊的微细组织结构。\n- 该工具通过近似后验采样，无需严格的测量一致性投影，即可自然处理高斯或泊松等各种复杂噪声，显著减少重建伪影。\n- 它将扩散采样与流形约束梯度巧妙融合，在噪声环境下生成更符合真实生理特征的图像路径，提升了诊断可信度。\n- 只需切换配置文件即可应对超分辨率、去模糊、修复等多种逆问题，无需重新训练模型，极大提升了实验效率。\n\ndiffusion-posterior-sampling 的核心价值在于将复杂的噪声逆问题转化为高效的后验采样过程，让高质量影像重建不再受限于噪声类型与计算复杂度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDPS2022_diffusion-posterior-sampling_39973222.jpg","DPS2022",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FDPS2022_43955f21.png","https:\u002F\u002Fgithub.com\u002FDPS2022",[78,82,86],{"name":79,"color":80,"percentage":81},"Python","#3572A5",99.3,{"name":83,"color":84,"percentage":85},"Dockerfile","#384d54",0.6,{"name":87,"color":88,"percentage":89},"Shell","#89e051",0.2,628,85,"2026-04-18T01:55:48","Linux","需要 NVIDIA GPU（若使用 Docker 需 nvidia-docker），支持 CUDA 11.3.1（官方推荐），也可使用 CUDA 10.2（需配合 PyTorch 1.7.0）。未明确具体显存大小要求。","未说明",{"notes":97,"python":98,"dependencies":99},"1. 该项目主要基于 Linux 环境（通过 Docker 或本地 Conda 环境部署），README 未明确提及 Windows 或 macOS 的原生支持。\n2. 必须安装两个外部代码库以支持运动模糊和非线性去模糊任务：'blur-kernel-space-exploring' 和 'motionblur'。\n3. 使用前需手动下载预训练模型检查点（如 ffhq_10m.pt）并放入 .\u002Fmodels\u002F 目录。\n4. 若使用 Docker，需确保 Docker 版本 >= 19.03 以支持 --gpus=all 参数调用本地 GPU。","3.8",[100,101,102],"torch==1.11.0+cu113","torchvision==0.12.0+cu113","torchaudio==0.11.0",[15,14],[105,106,107],"diffusion-model","inverse-problems","pytorch","2026-03-27T02:49:30.150509","2026-04-18T17:03:35.317921",[],[]]