[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-diff-usion--Awesome-Diffusion-Models":3,"tool-diff-usion--Awesome-Diffusion-Models":61},[4,18,28,36,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":24,"last_commit_at":42,"category_tags":43,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,44],"语言模型",{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[27,13,15,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":73,"owner_company":73,"owner_location":73,"owner_email":73,"owner_twitter":73,"owner_website":73,"owner_url":75,"languages":76,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":101,"env_os":102,"env_gpu":103,"env_ram":103,"env_deps":104,"category_tags":107,"github_topics":108,"view_count":24,"oss_zip_url":73,"oss_zip_packed_at":73,"status":17,"created_at":115,"updated_at":116,"faqs":117,"releases":118},9912,"diff-usion\u002FAwesome-Diffusion-Models","Awesome-Diffusion-Models"," A collection of resources and papers on Diffusion Models","Awesome-Diffusion-Models 是一个专注于扩散模型（Diffusion Models）的开源资源合集，旨在为社区提供一站式的学习与研究入口。随着扩散模型在图像生成、音频处理等领域展现出超越传统 GAN 的潜力，相关论文与技术资料爆发式增长，导致初学者和研究者难以高效筛选核心内容。该项目通过系统化的分类整理，解决了信息过载与检索困难的问题。\n\n资源库涵盖了从基础理论到前沿应用的全方位内容，包括入门博客、数学推导教程、可运行的 Jupyter Notebook 代码，以及按视觉、音频、自然语言、表格数据等维度细分的海量学术论文索引。无论是想要从零开始理解扩散原理的开发者，还是追踪最新科研进展的研究人员，都能在此快速找到所需资料。其独特的亮点在于不仅罗列论文，更提供了由浅入深的学习路径和实用的代码示例，极大地降低了这一复杂技术的门槛。如果你正致力于生成式 AI 的开发或研究，Awesome-Diffusion-Models 将是不可或缺的导航指南。","[![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fhee9joon\u002FAwesome-Diffusion-Models) \n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-green.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![Made With Love](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMade%20With-Love-red.svg)](https:\u002F\u002Fgithub.com\u002Fchetanraj\u002Fawesome-github-badges)\n\nThis repository contains a collection of resources and papers on ***Diffusion Models***.\n\nPlease refer to [this page](https:\u002F\u002Fdiff-usion.github.io\u002FAwesome-Diffusion-Models\u002F) as this page may not contain all the information due to page constraints.\n\n## Contents\n- [Resources](#resources)\n  - [Introductory Posts](#introductory-posts)\n  - [Introductory Papers](#introductory-papers)\n  - [Introductory Videos](#introductory-videos)\n  - [Introductory Lectures](#introductory-lectures)\n  - [Tutorial and Jupyter Notebook](#tutorial-and-jupyter-notebook)\n- [Papers](#papers)\n  - [Survey](#survey)\n  - [Vision](#vision)\n    - [Generation](#generation)\n    - [Classification](#classification)\n    - [Segmentation](#segmentation)\n    - [Image Translation](#image-translation)\n    - [Inverse Problems](#inverse-problems)\n    - [Medical Imaging](#medical-imaging)\n    - [Multi-modal Learning](#multi-modal-learning)\n    - [3D Vision](#3d-vision)\n    - [Adversarial Attack](#adversarial-attack)\n    - [Miscellany](#miscellany)\n  - [Audio](#audio)\n    - [Generation](#generation-1)\n    - [Conversion](#conversion)\n    - [Enhancement](#enhancement)\n    - [Separation](#separation)\n    - [Text-to-Speech](#text-to-speech)\n    - [Miscellany](#miscellany-1)\n  - [Natural Language](#natural-language)\n  - [Tabular and Time Series](#tabular-and-time-series)\n    - [Generation](#generation-2)\n    - [Forecasting](#forecasting)\n    - [Imputation](#imputation)\n    - [Miscellany](#miscellany-2)\n  - [Graph](#graph)\n    - [Generation](#generation-3)\n    - [Molecular and Material Generation](#molecular-and-material-generation)\n  - [Reinforcement Learning](#reinforcement-learning)\n  - [Theory](#theory)\n  - [Applications](#applications)\n\n\n# Resources\n## Introductory Posts\n\n**:fast_forward: DiffusionFastForward: 01-Diffusion-Theory** \\\n*Mikolaj Czerkawski (@mikonvergence)* \\\n[[Website](https:\u002F\u002Fgithub.com\u002Fmikonvergence\u002FDiffusionFastForward\u002Fblob\u002Fmaster\u002Fnotes\u002F01-Diffusion-Theory.md)] \\\n4 Feb 2023\n\n**How diffusion models work: the math from scratch** \\\n*Sergios Karagiannakos,Nikolas Adaloglou* \\\n[[Website](https:\u002F\u002Ftheaisummer.com\u002Fdiffusion-models\u002F?fbclid=IwAR1BIeNHqa3NtC8SL0sKXHATHklJYphNH-8IGNoO3xZhSKM_GYcvrrQgB0o)] \\\n24 Sep 2022\n\n**A Path to the Variational Diffusion Loss** \\\n*Alex Alemi* \\\n[[Website](https:\u002F\u002Fblog.alexalemi.com\u002Fdiffusion.html)] [[Colab](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle-research\u002Fvdm\u002Fblob\u002Fmain\u002Fcolab\u002FSimpleDiffusionColab.ipynb)] \\\n15 Sep 2022\n\n**The Annotated Diffusion Model** \\\n*Niels Rogge, Kashif Rasul* \\\n[[Website](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fannotated-diffusion)] \\\n06 Jun 2022\n\n**The recent rise of diffusion-based models** \\\n*Maciej Domagała* \\\n[[Website](https:\u002F\u002Fmaciejdomagala.github.io\u002Fgenerative_models\u002F2022\u002F06\u002F06\u002FThe-recent-rise-of-diffusion-based-models.html)] \\\n06 Jun 2022\n\n**Introduction to Diffusion Models for Machine Learning** \\\n*Ryan O'Connor* \\\n[[Website](https:\u002F\u002Fwww.assemblyai.com\u002Fblog\u002Fdiffusion-models-for-machine-learning-introduction\u002F)] \\\n12 May 2022\n\n**Improving Diffusion Models as an Alternative To GANs** \\\n*Arash Vahdat and Karsten Kreis* \\\n[[Website-Part 1](https:\u002F\u002Fdeveloper.nvidia.com\u002Fblog\u002Fimproving-diffusion-models-as-an-alternative-to-gans-part-1\u002F)] [[Website-Part 2](https:\u002F\u002Fdeveloper.nvidia.com\u002Fblog\u002Fimproving-diffusion-models-as-an-alternative-to-gans-part-2\u002F)] \\\n26 Apr 2022\n\n**An introduction to Diffusion Probabilistic Models** \\\n*Ayan Das* \\\n[[Website](https:\u002F\u002Fayandas.me\u002Fblog-tut\u002F2021\u002F12\u002F04\u002Fdiffusion-prob-models.html)] \\\n04 Dec 2021\n\n**Introduction to deep generative modeling: Diffusion-based Deep Generative Models** \\\n*Jakub Tomczak* \\\n[[Website](https:\u002F\u002Fjmtomczak.github.io\u002Fblog\u002F10\u002F10_ddgms_lvm_p2.html)] \\\n30 Aug 2021\n\n**What are Diffusion Models?** \\\n*Lilian Weng* \\\n[[Website](https:\u002F\u002Flilianweng.github.io\u002Flil-log\u002F2021\u002F07\u002F11\u002Fdiffusion-models.html)] \\\n11 Jul 2021\n\n**Diffusion Models as a kind of VAE** \\\n*Angus Turner* \\\n[[Website](https:\u002F\u002Fangusturner.github.io\u002Fgenerative_models\u002F2021\u002F06\u002F29\u002Fdiffusion-probabilistic-models-I.html)] \\\n29 Jun 2021\n\n**Generative Modeling by Estimating Gradients of the Data Distribution** \\\n*Yang Song* \\\n[[Website](https:\u002F\u002Fyang-song.github.io\u002Fblog\u002F2021\u002Fscore\u002F)] \\\n5 May 2021\n\n## Introductory Papers\n\n**Understanding Diffusion Models: A Unified Perspective** \\\n*Calvin Luo* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.11970)] \\\n25 Aug 2022\n\n**How to Train Your Energy-Based Models** \\\n*Yang Song, Diederik P. Kingma* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.03288)] \\\n9 Jan 2021\n\n## Introductory Videos\n\n**:fast_forward: DiffusionFastForward** \\\n*Mikolaj Czerkawski (@mikonvergence)* \\\n[[Video](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL5RHjmn-MVHDMcqx-SI53mB7sFOqPK6gN)] \\\n4 Mar 2023\n\n**Diffusion models from scratch in PyTorch** \\\n*DeepFindr* \\\n[[Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=a4Yfz2FxXiY)] \\\n18 Jul 2022\n\n**Diffusion Models | Paper Explanation | Math Explained** \\\n*Outlier* \\\n[[Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=HoKDTa5jHvg)] \\\n6 Jun 2022\n\n**What are Diffusion Models?** \\\n*Ari Seff* \\\n[[Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=fbLgFrlTnGU&list=LL&index=2)] \\\n20 Apr 2022\n\n**Diffusion models explained** \\\n*AI Coffee Break with Letitia* \\\n[[Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=344w5h24-h8&ab_channel=AICoffeeBreakwithLetitia)] \\\n23 Mar 2022\n\n## Introductory Lectures\n\n**Denoising Diffusion-based Generative Modeling: Foundations and Applications** \\\n*Karsten Kreis, Ruiqi Gao, Arash Vahdat* \\\n[[Page](https:\u002F\u002Fcvpr2022-tutorial-diffusion-models.github.io\u002F)] \\\n19 Jun 2022\n\n**Diffusion Probabilistic Models** \\\n*Jascha Sohl-Dickstein, MIT 6.S192 - Lecture 22* \\\n[[Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=XCUlnHP1TNM)] \\\n19 Apr 2022\n\n## Tutorial and Jupyter Notebook\n\n**:fast_forward: DiffusionFastForward: train from scratch in colab** \\\n*Mikolaj Czerkawski (@mikonvergence)* \\\n[[Github](https:\u002F\u002Fgithub.com\u002Fmikonvergence\u002FDiffusionFastForward)]\n[[notebook](https:\u002F\u002Fgithub.com\u002Fmikonvergence\u002FDiffusionFastForward#computer-code)]\n\n**diffusion-for-beginners** \\\n*ozanciga* \\\n[[Github](https:\u002F\u002Fgithub.com\u002Fozanciga\u002Fdiffusion-for-beginners)]\n\n**Beyond Diffusion: What is Personalized Image Generation and How Can You Customize Image Synthesis?** \\\n*J. Rafid Siddiqui* \\\n[[Github](https:\u002F\u002Fgithub.com\u002Fazad-academy\u002Fpersonalized-diffusion)] [[Medium](https:\u002F\u002Fmedium.com\u002Fmlearning-ai\u002Fbeyond-diffusion-what-is-personalized-image-generation-and-how-can-you-customize-image-synthesis-26a89d5b335)]\n\n**Diffusion_models_tutorial** \\\n*FilippoMB* \\\n[[Github](https:\u002F\u002Fgithub.com\u002FFilippoMB\u002FDiffusion_models_tutorial)]\n\n**ScoreDiffusionModel** \\\n*JeongJiHeon* \\\n[[Github](https:\u002F\u002Fgithub.com\u002FJeongJiHeon\u002FScoreDiffusionModel)]\n\n**Minimal implementation of diffusion models** \\\n*VSehwag* \\\n[[Github](https:\u002F\u002Fgithub.com\u002FVSehwag\u002Fminimal-diffusion)]\n\n**diffusion_tutorial** \\\n*sunlin-ai* \\\n[[Github](https:\u002F\u002Fgithub.com\u002Fsunlin-ai\u002Fdiffusion_tutorial)] \n\n**Denoising diffusion probabilistic models** \\\n*acids-ircam* \\\n[[Github](https:\u002F\u002Fgithub.com\u002Facids-ircam\u002Fdiffusion_models)] \n\n\n**Centipede Diffusion** \\\n*Zalring* \\\n[[Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FZalring\u002FCentipede_Diffusion\u002Fblob\u002Fmain\u002FCentipede_Diffusion.ipynb)]\n\n**Deforum Stable Diffusion** \\\n*deforum* \\\n[[Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeforum\u002Fstable-diffusion\u002Fblob\u002Fmain\u002FDeforum_Stable_Diffusion.ipynb)]\n\n**Stable Diffusion Interpolation** \\\n*None* \\\n[[Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1EHZtFjQoRr-bns1It5mTcOVyZzZD9bBc?usp=sharing)]\n\n**Keras Stable Diffusion: GPU starter example** \\\n*None* \\\n[[Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1zVTa4mLeM_w44WaFwl7utTaa6JcaH1zK)]\n\n**Huemin Jax Diffusion** \\\n*huemin-art* \\\n[[Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fhuemin-art\u002Fjax-guided-diffusion\u002Fblob\u002Fv2.7\u002FHuemin_Jax_Diffusion_2_7.ipynb)]\n\n**Disco Diffusion** \\\n*alembics* \\\n[[Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Falembics\u002Fdisco-diffusion\u002Fblob\u002Fmain\u002FDisco_Diffusion.ipynb)]\n\n**Simplified Disco Diffusion** \\\n*entmike* \\\n[[Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fentmike\u002Fdisco-diffusion-1\u002Fblob\u002Fmain\u002FSimplified_Disco_Diffusion.ipynb)]\n\n**WAS's Disco Diffusion - Portrait Generator Playground** \\\n*WASasquatch* \\\n[[Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FWASasquatch\u002Fdisco-diffusion-portrait-playground\u002Fblob\u002Fmain\u002FWAS's_Disco_Diffusion_v5_6_9_%5BPortrait_Generator_Playground%5D.ipynb)]\n\n**Diffusers - Hugging Face** \\\n*huggingface* \\\n[[Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fhuggingface\u002Fnotebooks\u002Fblob\u002Fmain\u002Fdiffusers\u002Fdiffusers_intro.ipynb)] \n\n\n# Papers\n\n## Survey\n\n**A Survey on Video Diffusion Models** \\\n*Zhen Xing, Qijun Feng, Haoran Chen, Qi Dai, Han Hu, Hang Xu, Zuxuan Wu and Yu-Gang Jiang*\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.10647.pdf)] \\\n16 Oct 2023\n\n**State of the Art on Diffusion Models for Visual Computing** \\\n*Ryan Po, Wang Yifan, Vladislav Golyanik, Kfir Aberman, Jonathan T. Barron, Amit H. Bermano, Eric Ryan Chan, Tali Dekel, Aleksander Holynski, Angjoo Kanazawa, C. Karen Liu, Lingjie Liu, Ben Mildenhall, Matthias Nießner, Björn Ommer, Christian Theobalt, Peter Wonka, Gordon Wetzstein* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07204)] \\\n11 Oct 2023\n\n**Memory in Plain Sight: A Survey of the Uncanny Resemblances between Diffusion Models and Associative Memories** \\\n*Benjamin Hoover, Hendrik Strobelt, Dmitry Krotov, Judy Hoffman, Zsolt Kira, Duen Horng Chau* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16750)] \\\n28 Sep 2023\n\n**A Survey of Diffusion Based Image Generation Models: Issues and Their Solutions** \\\n*Tianyi Zhang, Zheng Wang, Jing Huang, Mohiuddin Muhammad Tasnim, Wei Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13142)] \\\n25 Aug 2023\n\n**Diffusion Models for Image Restoration and Enhancement -- A Comprehensive Survey** \\\n*Xin Li, Yulin Ren, Xin Jin, Cuiling Lan, Xingrui Wang, Wenjun Zeng, Xinchao Wang, Zhibo Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09388)] \\\n18 Aug 2023\n\n**A Comprehensive Survey on Generative Diffusion Models for Structured Data** \\\n*Heejoon Koo, To Eun Kim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04139)] \\\n7 Jun 2023\n\n**On the Design Fundamentals of Diffusion Models: A Survey** \\\n*Ziyi Chang, George A. Koulieris, Hubert P. H. Shum* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04542)] \\\n7 Jun 2023\n\n**Diffusion Models in NLP: A Survey** \\\n*Hao Zou, Zae Myung Kim, Dongyeop Kang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14671)] \\\n24 May 2023\n\n**Diffusion Models for Time Series Applications: A Survey** \\\n*Lequan Lin, Zhengkun Li, Ruikun Li, Xuliang Li, Junbin Gao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00624)] \\\n1 May 2023\n\n**A Comprehensive Survey on Knowledge Distillation of Diffusion Models** \\\n*Weijian Luo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04262)] \\\n9 Apr 2023\n\n**A Survey on Graph Diffusion Models: Generative AI in Science for Molecule, Protein and Material** \\\n*Mengchun Zhang, Maryam Qamar, Taegoo Kang, Yuna Jung, Chenshuang Zhang, Sung-Ho Bae, Chaoning Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01565)] \\\n4 Apr 2023\n\n**Audio Diffusion Model for Speech Synthesis: A Survey on Text To Speech and Speech Enhancement in Generative AI** \\\n*Chenshuang Zhang, Chaoning Zhang, Sheng Zheng, Mengchun Zhang, Maryam Qamar, Sung-Ho Bae, In So Kweon* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13336)] \\\n23 Mar 2023\n\n**Diffusion Models in NLP: A Survey** \\\n*Yuansong Zhu, Yu Zhao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07576)] \\\n14 Mar 2023\n\n**Text-to-image Diffusion Model in Generative AI: A Survey** \\\n*Chenshuang Zhang, Chaoning Zhang, Mengchun Zhang, In So Kweon* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07909)] \\\n14 Mar 2023\n\n**Diffusion Models for Non-autoregressive Text Generation: A Survey** \\\n*Yifan Li, Kun Zhou, Wayne Xin Zhao, Ji-Rong Wen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06574)] \\\n12 Mar 2023\n\n**Diffusion Models in Bioinformatics: A New Wave of Deep Learning Revolution in Action** \\\n*Zhiye Guo, Jian Liu, Yanli Wang, Mengrui Chen, Duolin Wang, Dong Xu, Jianlin Cheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10907)] \\\n13 Feb 2023\n\n**Generative Diffusion Models on Graphs: Methods and Applications** \\\n*Wenqi Fan, Chengyi Liu, Yunqing Liu, Jiatong Li, Hang Li, Hui Liu, Jiliang Tang, Qing Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02591)] \\\n6 Feb 2023\n\n**Diffusion Models for Medical Image Analysis: A Comprehensive Survey** \\\n*Amirhossein Kazerouni, Ehsan Khodapanah Aghdam, Moein Heidari, Reza Azad, Mohsen Fayyaz, Ilker Hacihaliloglu, Dorit Merhof* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.07804)] [[Github](https:\u002F\u002Fgithub.com\u002Famirhossein-kz\u002FAwesome-Diffusion-Models-in-Medical-Imaging)] \\\n14 Nov 2022\n\n**Efficient Diffusion Models for Vision: A Survey** \\\n*Anwaar Ulhaq, Naveed Akhtar, Ganna Pogrebna* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.09292)] \\\n7 Oct 2022\n\n**Diffusion Models in Vision: A Survey** \\\n*Florinel-Alin Croitoru, Vlad Hondru, Radu Tudor Ionescu, Mubarak Shah* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04747)] \\\n10 Sep 2022\n\n**A Survey on Generative Diffusion Model** \\\n*Hanqun Cao, Cheng Tan, Zhangyang Gao, Guangyong Chen, Pheng-Ann Heng, Stan Z. Li* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.02646)] \\\n6 Sep 2022\n\n**Diffusion Models: A Comprehensive Survey of Methods and Applications** \\\n*Ling Yang, Zhilong Zhang, Shenda Hong, Wentao Zhang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.00796)] \\\n2 Sep 2022\n\n## Vision\n### Generation\n\n**DiffEnc: Variational Diffusion with a Learned Encoder** \\\n*Beatrix M. G. Nielsen, Anders Christensen, Andrea Dittadi, Ole Winther* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19789)] \\\n30 Oct 2023\n\n**Upgrading VAE Training With Unlimited Data Plans Provided by Diffusion Models** \\\n*Tim Z. Xiao, Johannes Zenn, Robert Bamler* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19653)] \\\n30 Oct 2023\n\n**Successfully Applying Lottery Ticket Hypothesis to Diffusion Model** \\\n*Chao Jiang, Bo Hui, Bohan Liu, Da Yan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18823)] \\\n28 Oct 2023\n\n**Noise-Free Score Distillation** \\\n*Oren Katzir, Or Patashnik, Daniel Cohen-Or, Dani Lischinski* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17590)] \\\n26 Oct 2023\n\n**The statistical thermodynamics of generative diffusion models** \\\n*Luca Ambrogioni* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17467)] \\\n26 Oct 2023\n\n**Improving Denoising Diffusion Models via Simultaneous Estimation of Image and Noise** \\\n*Zhenkai Zhang, Krista A. Ehinger, Tom Drummond* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17167)] \\\n26 Oct 2023\n\n**Hierarchical Semi-Implicit Variational Inference with Application to Diffusion Model Acceleration** \\\n*Longlin Yu, Tianyu Xie, Yu Zhu, Tong Yang, Xiangyu Zhang, Cheng Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17153)] [[Github](https:\u002F\u002Fgithub.com\u002Flonginyu\u002Fhsivi)] \\\n26 Oct 2023\n\n**RePoseDM: Recurrent Pose Alignment and Gradient Guidance for Pose Guided Image Synthesis** \\\n*Anant Khandelwal* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16074)] \\\n24 Oct 2023\n\n**Improved Techniques for Training Consistency Models** \\\n*Yang Song, Prafulla Dhariwal* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14189)] \\\n22 Oct 2023\n\n**ScaleLong: Towards More Stable Training of Diffusion Model via Scaling Network Long Skip Connection** \\\n*Zhongzhan Huang, Pan Zhou, Shuicheng Yan, Liang Lin* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13545)] [[Github](https:\u002F\u002Fgithub.com\u002Fsail-sg\u002FScaleLong)] \\\n20 Oct 2023\n\n\n**Particle Guidance: non-I.I.D. Diverse Sampling with Diffusion Models** \\\n*Gabriele Corso, Yilun Xu, Valentin de Bortoli, Regina Barzilay, Tommi Jaakkola* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13102)] [[Github](https:\u002F\u002Fgithub.com\u002Fgcorso\u002Fparticle-guidance)] \\\n19 Oct 2023\n\n**Closed-Form Diffusion Models** \\\n*Christopher Scarvelis, Haitz Sáez de Ocáriz Borde, Justin Solomon* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12395)] \\\n19 Oct 2023\n\n**Elucidating The Design Space of Classifier-Guided Diffusion Generation** \\\n*Jiajun Ma, Tianyang Hu, Wenjia Wang, Jiacheng Sun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11311)] [[Github](https:\u002F\u002Fgithub.com\u002Falexmaols\u002Felucd)] \\\n17 Oct 2023\n\n\n**BayesDiff: Estimating Pixel-wise Uncertainty in Diffusion via Bayesian Inference** \\\n*Siqi Kou, Lei Gan, Dequan Wang, Chongxuan Li, Zhijie Deng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11142)] \\\n17 Oct 2023\n\n**Unsupervised Discovery of Interpretable Directions in h-space of Pre-trained Diffusion Models** \\\n*Zijian Zhang, Luping Liu. Zhijie Lin, Yichen Zhu, Zhou Zhao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09912)] \\\n15 Oct 2023\n\n**Towards More Accurate Diffusion Model Acceleration with A Timestep Aligner** \\\n*Mengfei Xia, Yujun Shen, Changsong Lei, Yu Zhou, Ran Yi, Deli Zhao, Wenping Wang, Yong-jin Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09469)] \\\n14 Oct 2023\n\n**Unseen Image Synthesis with Diffusion Models** \\\n*Ye Zhu, Yu Wu, Zhiwei Deng, Olga Russakovsky, Yan Yan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09213)] \\\n13 Oct 2023\n\n**Debias the Training of Diffusion Models** \\\n*Hu Yu, Li Shen, Jie Huang, Man Zhou, Hongsheng Li, Feng Zhao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08442)] \\\n12 Oct 2023\n\n**Neural Diffusion Models** \\\n*Grigory Bartosh, Dmitry Vetrov, Christian A. Naesseth* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08337)] \\\n12 Oct 2023\n\n**Efficient Integrators for Diffusion Generative Models** \\\n*Kushagra Pandey, Maja Rudolph, Stephan Mandt* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07894)] \\\n11 Oct 2023\n\n\n**Learning Stackable and Skippable LEGO Bricks for Efficient, Reconfigurable, and Variable-Resolution Diffusion Modeling** \\\n*Huangjie Zheng, Zhendong Wang, Jianbo Yuan, Guanghan Ning, Pengcheng He, Quanzeng You, Hongxia Yang, Mingyuan Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06389)] \\\n10 Oct 2023\n\n**Language Model Beats Diffusion -- Tokenizer is Key to Visual Generation** \\\n*Lijun Yu, José Lezama, Nitesh B. Gundavarapu, Luca Versari, Kihyuk Sohn, David Minnen, Yong Cheng, Agrim Gupta, Xiuye Gu, Alexander G. Hauptmann, Boqing Gong, Ming-Hsuan Yang, Irfan Essa, David A. Ross, Lu Jiang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05737)] [[Github](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fmagvit2-pytorch)] \\\n9 Oct 2023\n\n**The Emergence of Reproducibility and Consistency in Diffusion Models** \\\n*Huijie Zhang, Jinfan Zhou, Yifu Lu, Minzhe Guo, Liyue Shen, Qing Qu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05264)] \\\n8 Oct 2023\n\n**DiffNAS: Bootstrapping Diffusion Models by Prompting for Better Architectures** \\\n*Wenhao Li, Xiu Su, Shan You, Fei Wang, Chen Qian, Chang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04750)] \\\n7 Oct 2023\n\n**Observation-Guided Diffusion Probabilistic Models** \\\n*Junoh Kang, Jinyoung Choi, Sungik Choi, Bohyung Han* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04041)] \\\n6 Oct 2023\n\n**Latent Consistency Models: Synthesizing High-Resolution Images with Few-Step Inference** \\\n*Simian Luo, Yiqin Tan, Longbo Huang, Jian Li, Hang Zhao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04378)] \\\n6 Oct 2023\n\n**Denoising Diffusion Step-aware Models** \\\n*Shuai Yang, Yukang Chen, Luozhou Wang, Shu Liu, Yingcong Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03337)] \\\n5 Oct 2023\n\n\n**EfficientDM: Efficient Quantization-Aware Fine-Tuning of Low-Bit Diffusion Models** \\\n*Yefei He, Jing Liu, Weijia Wu, Hong Zhou, Bohan Zhuang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03270)] \\\n5 Oct 2023\n\n**Learning Energy-Based Prior Model with Diffusion-Amortized MCMC** \\\n*Peiyu Yu, Yaxuan Zhu, Sirui Xie, Xiaojian Ma, Ruiqi Gao, Song-Chun Zhu, Ying Nian Wu* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03218)] [[Github](https:\u002F\u002Fgithub.com\u002FyuPeiyu98\u002FDiffusion-Amortized-MCMC)] \\\n5 Oct 2023\n\n**On Memorization in Diffusion Models** \\\n*Xiangming Gu, Chao Du, Tianyu Pang, Chongxuan Li, Min Lin, Ye Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02664)] [[Github](https:\u002F\u002Fgithub.com\u002Fsail-sg\u002FDiffMemorize)] \\\n4 Oct 2023\n\n\n**Sequential Data Generation with Groupwise Diffusion Process** \\\n*Sangyun Lee, Gayoung Lee, Hyunsu Kim, Junho Kim, Youngjung Uh* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01400)] \\\n2 Oct 2023\n\n**Consistency Trajectory Models: Learning Probability Flow ODE Trajectory of Diffusion** \\\n*Dongjun Kim, Chieh-Hsin Lai, Wei-Hsiang Liao, Naoki Murata, Yuhta Takida, Toshimitsu Uesaka, Yutong He, Yuki Mitsufuji, Stefano Ermon* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02279)] \\\n1 Oct 2023\n\n**Completing Visual Objects via Bridging Generation and Segmentation** \\\n*Xiang Li, Yinpeng Chen, Chung-Ching Lin, Rita Singh, Bhiksha Raj, Zicheng Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00808)] \\\n1 Oct 2023\n\n**Decoding Realistic Images from Brain Activity with Contrastive Self-supervision and Latent Diffusion** \\\n*Jingyuan Sun, Mingxiao Li, Marie-Francine Moens* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00318)] \\\n30 Sep 2023\n\n**FashionFlow: Leveraging Diffusion Models for Dynamic Fashion Video Synthesis from Static Imagery** \\\n*Tasin Islam, Alina Miron, XiaoHui Liu, Yongmin Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00106)] \\\n29 Sep 2023\n\n**Denoising Diffusion Bridge Models** \\\n*Linqi Zhou, Aaron Lou, Samar Khanna, Stefano Ermon* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16948)] \\\n29 Sep 2023\n\n\n**DeeDiff: Dynamic Uncertainty-Aware Early Exiting for Accelerating Diffusion Model Generation** \\\n*Shengkun Tang, Yaqing Wang, Caiwen Ding, Yi Liang, Yao Li, Dongkuan Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.17074)] \\\n29 Sep 2023\n\n\n**Distilling ODE Solvers of Diffusion Models into Smaller Steps** \\\n*Sanghwan Kim, Hao Tang, Fisher Yu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16421)] \\\n28 Sep 2023\n\n**Factorized Diffusion Architectures for Unsupervised Image Generation and Segmentation** \\\n*Xin Yuan, Michael Maire* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15726)] \\\n27 Sep 2023\n\n**Generative Escher Meshes** \\\n*Noam Aigerman, Thibault Groueix* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14564)] \\\n25 Sep 2023\n\n**Soft Mixture Denoising: Beyond the Expressive Bottleneck of Diffusion Models** \\\n*Yangming Li, Boris van Breugel, Mihaela van der Schaar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14068)] \\\n25 Sep 2023\n\n**GLOBER: Coherent Non-autoregressive Video Generation via GLOBal Guided Video DecodER** \\\n*Mingzhen Sun, Weining Wang, Zihan Qin, Jiahui Sun, Sihan Chen, Jing Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13274)] [[Github](https:\u002F\u002Fgithub.com\u002Fiva-mzsun\u002Fglober)] \\\n23 Sep 2023\n\n**Score Mismatching for Generative Modeling** \\\n*Senmao Ye, Fei Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11043)] \\\n20 Sep 2023\n\n**Generalised Probabilistic Diffusion Scale-Spaces** \\\n*Pascal Peter* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.08511)] \\\n15 Sep 2023\n\n**Generative Image Dynamics** \\\n*Zhengqi Li, Richard Tucker, Noah Snavely, Aleksander Holynski* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07906)] [[Project](https:\u002F\u002Fgenerative-dynamics.github.io\u002F)] \\\n14 Sep 2023\n\n**Beta Diffusion** \\\n*Mingyuan Zhou, Tianqi Chen, Zhendong Wang, Huangjie Zheng* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07867)] \\\n14 Sep 2023\n\n**Adapt and Diffuse: Sample-adaptive Reconstruction via Latent Diffusion Models** \\\n*Zalan Fabian, Berk Tinaz, Mahdi Soltanolkotabi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06642)] \\\n12 Sep 2023\n\n**Elucidating the solution space of extended reverse-time SDE for diffusion models** \\\n*Qinpeng Cui, Xinyi Zhang, Zongqing Lu, Qingmin Liao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06169)] \\\n12 Sep 2023\n\n\n**Learning Energy-Based Models by Cooperative Diffusion Recovery Likelihood** \\\n*Yaxuan Zhu, Jianwen Xie, Yingnian Wu, Ruiqi Gao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05153)] \\\n10 Sep 2023\n\n**Relay Diffusion: Unifying diffusion process across resolutions for image synthesis** \\\n*Jiayan Teng, Wendi Zheng, Ming Ding, Wenyi Hong, Jianqiao Wangni, Zhuoyi Yang, Jie Tang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03350)] \\\n4 Sep 2023\n\n**Gradient Domain Diffusion Models for Image Synthesis** \\\n*Yuanhao Gong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01875)] \\\n5 Sep 2023\n\n\n**Hierarchical Masked 3D Diffusion Model for Video Outpainting** \\\n*Fanda Fan, Chaoxu Guo, Litong Gong, Biao Wang, Tiezheng Ge, Yuning Jiang, Chunjie Luo, Jianfeng Zhan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02119)] [[Github](https:\u002F\u002Ffanfanda.github.io\u002FM3DDM\u002F)] \\\n5 Sep 2023\n\n**Diffusion Models with Deterministic Normalizing Flow Priors** \\\n*Mohsen Zand, Ali Etemad, Michael Greenspan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01274)] [[Github](https:\u002F\u002Fgithub.com\u002FMohsenZand\u002FDiNof)] \\\n3 Sep 2023\n\n**Diffusion Inertial Poser: Human Motion Reconstruction from Arbitrary Sparse IMU Configurations** \\\n*Tom Van Wouwe, Seunghwan Lee, Antoine Falisse, Scott Delp, C. Karen Liu* \\\nAAAI 2024. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16682)] \\\n31 Aug 2023\n\n**Conditioning Score-Based Generative Models by Neuro-Symbolic Constraints** \\\n*Davide Scassola, Sebastiano Saccani, Ginevra Carbone, Luca Bortolussi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16534)] \\\n31 Aug 2023\n\n**Elucidating the Exposure Bias in Diffusion Models** \\\n*Mang Ning, Mingxiao Li, Jianlin Su, Albert Ali Salah, Itir Onal Ertugrul* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15321)] \\\n29 Aug 2023\n\n**Residual Denoising Diffusion Models** \\\n*Jiawei Liu, Qiang Wang, Huijie Fan, Yinong Wang, Yandong Tang, Liangqiong Qu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13712)] [[Github](https:\u002F\u002Fgithub.com\u002Fnachifur\u002FRDDM)] \\\n25 Aug 2023\n\n**Efficient Transfer Learning in Diffusion Models via Adversarial Noise** \\\n*Xiyu Wang, Baijiong Lin, Daochang Liu, Chang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11948)] \\\n23 Aug 2023\n\n**Boosting Diffusion Models with an Adaptive Momentum Sampler** \\\n*Xiyu Wang, Anh-Dung Dinh, Daochang Liu, Chang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11941)] \\\n23 Aug 2023\n\n**Make-It-4D: Synthesizing a Consistent Long-Term Dynamic Scene Video from a Single Image** \\\n*Liao Shen, Xingyi Li, Huiqiang Sun, Juewen Peng, Ke Xian, Zhiguo Cao, Guosheng Lin* \\\nACM MM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10257)] \\\n20 Aug 2023\n\n**Spiking-Diffusion: Vector Quantized Discrete Diffusion Model with Spiking Neural Networks** \\\n*Mingxuan Liu, Rui Wen, Hong Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10187)] \\\n20 Aug 2023\n\n**SciRE-Solver: Efficient Sampling of Diffusion Probabilistic Models by Score-integrand Solver with Recursive Derivative Estimation** \\\n*Shigui Li, Wei Chen, Delu Zeng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07896)] \\\n15 Aug 2023\n\n**Improved Order Analysis and Design of Exponential Integrator for Diffusion Models Sampling** \\\n*Qinsheng Zhang, Jiaming Song, Yongxin Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02157)] \\\n4 Aug 2023\n\n**Patched Denoising Diffusion Models For High-Resolution Image Synthesis** \\\n*Zheng Ding, Mengqi Zhang, Jiajun Wu, Zhuowen Tu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01316)] \\\n2 Aug 2023\n\n**Spatial-Frequency U-Net for Denoising Diffusion Probabilistic Models** \\\n*Xin Yuan, Linjie Li, Jianfeng Wang, Zhengyuan Yang, Kevin Lin, Zicheng Liu, Lijuan Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14648)] \\\n27 Jul 2023\n\n**Synthesis of Batik Motifs using a Diffusion -- Generative Adversarial Network** \\\n*One Octadion, Novanto Yudistira, Diva Kurnianingtyas* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12122)] \\\n22 Jul 2023\n\n**DPM-OT: A New Diffusion Probabilistic Model Based on Optimal Transport** \\\n*Zezeng Li, ShengHao Li, Zhanpeng Wang, Na Lei, Zhongxuan Luo, Xianfeng Gu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11308)] [[Github](https:\u002F\u002Fgithub.com\u002Fcognaclee\u002FDPM-OT)] \\\n21 Jul 2023\n\n**Diffusion Sampling with Momentum for Mitigating Divergence Artifacts** \\\n*Suttisak Wizadwongsa, Worameth Chinchuthakun, Pramook Khungurn, Amit Raj, Supasorn Suwajanakorn* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11118)] \\\n20 Jul 2023\n\n**Flow Matching in Latent Space** \\\n*Quan Dao, Hao Phung, Binh Nguyen, Anh Tran* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08698)] [[Project](https:\u002F\u002Fvinairesearch.github.io\u002FLFM\u002F)] \\\n17 Jul 2023\n\n**Manifold-Guided Sampling in Diffusion Models for Unbiased Image Generation** \\\n*Xingzhe Su, Wenwen Qiang, Zeen Song, Hang Gao, Fengge Wu, Changwen Zheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08199)] \\\n17 Jul 2023\n\n**Complexity Matters: Rethinking the Latent Space for Generative Modeling** \\\n*Tianyang Hu, Fei Chen, Haonan Wang, Jiawei Li, Wenjia Wang, Jiacheng Sun, Zhenguo Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08283)] \\\n17 Jul 2023\n\n**Collaborative Score Distillation for Consistent Visual Synthesis** \\\n*Subin Kim, Kyungmin Lee, June Suk Choi, Jongheon Jeong, Kihyuk Sohn, Jinwoo Shin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04787)] [[Project](https:\u002F\u002Fsubin-kim-cv.github.io\u002FCSD\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fsubin-kim-cv\u002FCSD)] \\\n4 Jul 2023\n\n**ProtoDiffusion: Classifier-Free Diffusion Guidance with Prototype Learning** \\\n*Gulcin Baykal, Halil Faruk Karagoz, Taha Binhuraib, Gozde Unal* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01924)] \\\n4 Jul 2023\n\n**SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis** \\\n*Dustin Podell, Zion English, Kyle Lacey, Andreas Blattmann, Tim Dockhorn, Jonas Müller, Joe Penna, Robin Rombach* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01952)] [[Github](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fgenerative-models)] \\\n4 Jul 2023\n\n**Bidirectional Temporal Diffusion Model for Temporally Consistent Human Animation** \\\n*Tserendorj Adiya, Sanghun Kim, Jung Eun Lee, Jae Shin Yoon, Hwasup Lim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00574)] \\\n2 Jul 2023\n\n\n**Spiking Denoising Diffusion Probabilistic Models** \\\n*Jiahang Cao, Ziqing Wang, Hanzhong Guo, Hao Cheng, Qiang Zhang, Renjing Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17046)] \\\n29 Jun 2023\n\n**DomainStudio: Fine-Tuning Diffusion Models for Domain-Driven Image Generation using Limited Data** \\\n*Jingyuan Zhu, Huimin Ma, Jiansheng Chen, Jian Yuan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14153)] \\\n25 Jun 2023\n\n**Decoupled Diffusion Models with Explicit Transition Probability** \\\n*Yuhang Huang, Zheng Qin, Xinwang Liu, Kai Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13720)] \\\n23 Jun 2023\n\n**Continuous Layout Editing of Single Images with Diffusion Models** \\\n*Zhiyuan Zhang, Zhitong Huang, Jing Liao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13078)] \\\n22 Jun 2023\n\n**Semi-Implicit Denoising Diffusion Models (SIDDMs)** \\\n*Yanwu Xu, Mingming Gong, Shaoan Xie, Wei Wei, Matthias Grundmann, kayhan Batmanghelich, Tingbo Hou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12511)] \\\n21 Jun 2023\n\n**Eliminating Lipschitz Singularities in Diffusion Models** \\\n*Zhantao Yang, Ruili Feng, Han Zhang, Yujun Shen, Kai Zhu, Lianghua Huang, Yifei Zhang, Yu Liu, Deli Zhao, Jingren Zhou, Fan Cheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11251)] \\\n20 Jun 2023\n\n**GD-VDM: Generated Depth for better Diffusion-based Video Generation** \\\n*Ariel Lapid, Idan Achituve, Lior Bracha, Ethan Fetaya* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11173)] \\\n19 Jun 2023\n\n**Image Harmonization with Diffusion Model** \\\n*Jiajie Li, Jian Wang, Chen Wang, Jinjun Xiong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10441)] \\\n17 Jun 2023\n\n\n**Training Diffusion Classifiers with Denoising Assistance** \\\n*Chandramouli Sastry, Sri Harsha Dumpala, Sageev Oore* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09192)] \\\n15 Jun 2023\n\n\n**Conditional Human Sketch Synthesis with Explicit Abstraction Control** \\\n*Dar-Yen Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09274)] \\\n15 Jun 2023\n\n**Fast Training of Diffusion Models with Masked Transformers** \\\n*Hongkai Zheng, Weili Nie, Arash Vahdat, Anima Anandkumar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09305)] [[Github](https:\u002F\u002Fgithub.com\u002FAnima-Lab\u002FMaskDiT)] \\\n15 Jun 2023\n\n\n**Relation-Aware Diffusion Model for Controllable Poster Layout Generation** \\\n*Fengheng Li, An Liu, Wei Feng, Honghe Zhu, Yaoyu Li, Zheng Zhang, Jingjing Lv, Xin Zhu, Junjie Shen, Zhangang Lin, Jingping Shao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09086)] \\\n15 Jun 2023\n\n**OMS-DPM: Optimizing the Model Schedule for Diffusion Probabilistic Models** \\\n*Enshu Liu, Xuefei Ning, Zinan Lin, Huazhong Yang, Yu Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08860)] \\\n15 Jun 2023\n\n\n**DORSal: Diffusion for Object-centric Representations of Scenes $\\textit{et al.}$** \\\n*Allan Jabri, Sjoerd van Steenkiste, Emiel Hoogeboom, Mehdi S. M. Sajjadi, Thomas Kipf* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08068)] \\\n13 Jun 2023\n\n\n**Fast Diffusion Model** \\\n*Zike Wu, Pan Zhou, Kenji Kawaguchi, Hanwang Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.06991)] [[Github](https:\u002F\u002Fgithub.com\u002Fsail-sg\u002FFDM)] \\\n12 Jun 2023\n\n**ADDP: Learning General Representations for Image Recognition and Generation with Alternating Denoising Diffusion Process** \\\n*Changyao Tian, Chenxin Tao, Jifeng Dai, Hao Li, Ziheng Li, Lewei Lu, Xiaogang Wang, Hongsheng Li, Gao Huang, Xizhou Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05423)] \\\n8 Jun 2023\n\n**Multi-Architecture Multi-Expert Diffusion Models** \\\n*Yunsung Lee, Jin-Young Kim, Hyojun Go, Myeongho Jeong, Shinhyeok Oh, Seungtaek Choi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04990)] \\\n8 Jun 2023\n\n**Interpreting and Improving Diffusion Models Using the Euclidean Distance Function** \\\n*Frank Permenter, Chenyang Yuan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04848)] \\\n8 Jun 2023\n\n**Video Diffusion Models with Local-Global Context Guidance** \\\n*Siyuan Yang, Lu Zhang, Yu Liu, Zhizhuo Jiang, You He* \\\nIJCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02562)] [[Github](https:\u002F\u002Fgithub.com\u002Fexisas\u002FLGC-VD)] \\\n5 Jun 2023\n\n**Brain Diffusion for Visual Exploration: Cortical Discovery using Large Scale Generative Models** \\\n*Andrew F. Luo, Margaret M. Henderson, Leila Wehbe, Michael J. Tarr* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03089)] \\\n5 Jun 2023\n\n**Faster Training of Diffusion Models and Improved Density Estimation via Parallel Score Matching** \\\n*Etrit Haxholli, Marco Lorenzi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02658)] \\\n5 Jun 2023\n\n**Temporal Dynamic Quantization for Diffusion Models** \\\n*Junhyuk So, Jungwon Lee, Daehyun Ahn, Hyungjun Kim, Eunhyeok Park* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02316)] \\\n4 Jun 2023\n\n**Conditional Generation from Unconditional Diffusion Models using Denoiser Representations** \\\n*Alexandros Graikos, Srikar Yellapragada, Dimitris Samaras* \\\nBMVC 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01900)] [[Github](https:\u002F\u002Fgithub.com\u002Fcvlab-stonybrook\u002Ffewshot-conditional-diffusion)] \\\n2 Jun 2023\n\n**Conditioning Diffusion Models via Attributes and Semantic Masks for Face Generation** \\\n*Nico Giambi, Giuseppe Lisanti* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00914)] \\\n1 Jun 2023\n\n**Differential Diffusion: Giving Each Pixel Its Strength** \\\n*Eran Levin, Ohad Fried* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00950)] \\\n1 Jun 2023\n\n\n**Addressing Discrepancies in Semantic and Visual Alignment in Neural Networks** \\\n*Natalie Abreu, Nathan Vaska, Victoria Helus* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01148)] \\\n1 Jun 2023\n\n\n**Addressing Negative Transfer in Diffusion Models** \\\n*Hyojun Go, JinYoung Kim, Yunsung Lee, Seunghyun Lee, Shinhyeok Oh, Hyeongdon Moon, Seungtaek Choi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00354)] \\\n1 Jun 2023\n\n**A Geometric Perspective on Diffusion Models** \\\n*Defang Chen, Zhenyu Zhou, Jian-Ping Mei, Chunhua Shen, Chun Chen, Can Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19947)] \\\n31 May 2023\n\n\n\n**Spontaneous symmetry breaking in generative diffusion models** \\\n*Gabriel Raya, Luca Ambrogioni* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19693)] \\\n31 May 2023\n\n**Perturbation-Assisted Sample Synthesis: A Novel Approach for Uncertainty Quantification** \\\n*Yifei Liu, Rex Shen, Xiaotong Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18671)] \\\n30 May 2023\n\n**One-Line-of-Code Data Mollification Improves Optimization of Likelihood-based Generative Models** \\\n*Ba-Hien Tran, Giulio Franzese, Pietro Michiardi, Maurizio Filippone* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18900)] \\\n30 May 2023\n\n**Ambient Diffusion: Learning Clean Distributions from Corrupted Data** \\\n*Giannis Daras, Kulin Shah, Yuval Dagan, Aravind Gollakota, Alexandros G. Dimakis, Adam Klivans* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19256)] \\\n30 May 2023\n\n**Towards Accurate Data-free Quantization for Diffusion Models** \\\n*Changyuan Wang, Ziwei Wang, Xiuwei Xu, Yansong Tang, Jie Zhou, Jiwen Lu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18723)] \\\n30 May 2023\n\n**BRIGHT: Bi-level Feature Representation of Image Collections using Groups of Hash Tables** \\\n*Dingdong Yang, Yizhi Wang, Ali Mahdavi-Amiri, Hao Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18601)] [[Project](https:\u002F\u002Fbright-project01.github.io\u002F)] \\\n29 May 2023\n\n**Diff-Instruct: A Universal Approach for Transferring Knowledge From Pre-trained Diffusion Models** \\\n*Weijian Luo, Tianyang Hu, Shifeng Zhang, Jiacheng Sun, Zhenguo Li, Zhihua Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18455)] \\\n29 May 2023\n\n**Learning to Jump: Thinning and Thickening Latent Counts for Generative Modeling** \\\n*Tianqi Chen, Mingyuan Zhou* \\\nICML 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18375)] [[Github](https:\u002F\u002Fgithub.com\u002Ftqch\u002Fpoisson-jump)] \\\n28 May 2023\n\n**Reconstructing the Mind's Eye: fMRI-to-Image with Contrastive Learning and Diffusion Priors** \\\n*Paul S. Scotti, Atmadeep Banerjee, Jimmie Goode, Stepan Shabalin, Alex Nguyen, Ethan Cohen, Aidan J. Dempster, Nathalie Verlinde, Elad Yundler, David Weisberg, Kenneth A. Norman, Tanishq Mathew Abraham* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18274)] [[Github](https:\u002F\u002Fmedarc-ai.github.io\u002Fmindeye\u002F)] \\\n29 May 2023\n\n**Contrast, Attend and Diffuse to Decode High-Resolution Images from Brain Activities** \\\n*Jingyuan Sun, Mingxiao Li, Zijiao Chen, Yunhao Zhang, Shaonan Wang, Marie-Francine Moens* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17214)] \\\n26 May 2023\n\n**Parallel Sampling of Diffusion Models** \\\n*Andy Shih, Suneel Belkhale, Stefano Ermon, Dorsa Sadigh, Nima Anari* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16317)] [[Github](https:\u002F\u002Fgithub.com\u002FAndyShih12\u002Fparadigms)] \\\n25 May 2023\n\n**Trans-Dimensional Generative Modeling via Jump Diffusion Models** \\\n*Andrew Campbell, William Harvey, Christian Weilbach, Valentin De Bortoli, Tom Rainforth, Arnaud Doucet* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16261)] \\\n25 May 2023\n\n**UDPM: Upsampling Diffusion Probabilistic Models** \\\n*Shady Abu-Hussein, Raja Giryes* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16269)] \\\n25 May 2023\n\n\n**Unifying GANs and Score-Based Diffusion as Generative Particle Models** \\\n*Jean-Yves Franceschi, Mike Gartrell, Ludovic Dos Santos, Thibaut Issenhuth, Emmanuel de Bézenac, Mickaël Chen, Alain Rakotomamonjy* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16150)] \\\n25 May 2023\n\n**DuDGAN: Improving Class-Conditional GANs via Dual-Diffusion** \\\n*Taesun Yeom, Minhyeok Lee* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14849)] \\\n24 May 2023\n\n**Alleviating Exposure Bias in Diffusion Models through Sampling with Shifted Time Steps** \\\n*Mingxiao Li, Tingyu Qu, Wei Sun, Marie-Francine Moens* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15583)] \\\n24 May 2023\n\n\n**Robust Classification via a Single Diffusion Model** \\\n*Huanran Chen, Yinpeng Dong, Zhengyi Wang, Xiao Yang, Chengqi Duan, Hang Su, Jun Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15241)] \\\n24 May 2023\n\n**On the Generalization of Diffusion Model** \\\n*Mingyang Yi, Jiacheng Sun, Zhenguo Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14712)] \\\n24 May 2023\n\n**VDT: An Empirical Study on Video Diffusion with Transformers** \\\n*Haoyu Lu, Guoxing Yang, Nanyi Fei, Yuqi Huo, Zhiwu Lu, Ping Luo, Mingyu Ding* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13311)] [[Github](https:\u002F\u002Fgithub.com\u002FRERV\u002FVDT)] \\\n22 May 2023\n\n**Cinematic Mindscapes: High-quality Video Reconstruction from Brain Activity** \\\n*Zijiao Chen, Jiaxin Qing, Juan Helen Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11675)] [[Project](https:\u002F\u002Fmind-video.com\u002F)] \\\n19 May 2023\n\n**PTQD: Accurate Post-Training Quantization for Diffusion Models** \\\n*Yefei He, Luping Liu, Jing Liu, Weijia Wu, Hong Zhou, Bohan Zhuang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10657)] \\\n18 May 2023\n\n**Blackout Diffusion: Generative Diffusion Models in Discrete-State Spaces** \\\n*Javier E Santos, Zachary R. Fox, Nicholas Lubbers, Yen Ting Lin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11089)] \\\n18 May 2023\n\n**Structural Pruning for Diffusion Models** \\\n*Gongfan Fang, Xinyin Ma, Xinchao Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10924)] [[Github](https:\u002F\u002Fgithub.com\u002FVainF\u002FDiff-Pruning)] \\\n18 May 2023\n\n\n**Catch-Up Distillation: You Only Need to Train Once for Accelerating Sampling** \\\n*Shitong Shao, Xu Dai, Shouyi Yin, Lujun Li, Huanran Chen, Yang Hu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10769)] \\\n18 May 2023\n\n**Controllable Mind Visual Diffusion Model** \\\n*Bohan Zeng, Shanglin Li, Xuhui Liu, Sicheng Gao, Xiaolong Jiang, Xu Tang, Yao Hu, Jianzhuang Liu, Baochang Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10135)] \\\n17 May 2023\n\n**Analyzing Bias in Diffusion-based Face Generation Models** \\\n*Malsha V. Perera, Vishal M. Patel* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06402)] \\\n10 May 2023\n\n\n**Improved Techniques for Maximum Likelihood Estimation for Diffusion ODEs** \\\n*Kaiwen Zheng, Cheng Lu, Jianfei Chen, Jun Zhu* \\\nICML 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03935)] \\\n6 May 2023\n\n**LEO: Generative Latent Image Animator for Human Video Synthesis** \\\n*Yaohui Wang, Xin Ma, Xinyuan Chen, Antitza Dantcheva, Bo Dai, Yu Qiao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03989)] [[Project](https:\u002F\u002Fwyhsirius.github.io\u002FLEO-project\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fwyhsirius\u002FLEO)] \\\n6 May 2023\n\n**Iterative α-(de)Blending: a Minimalist Deterministic Diffusion Model** \\\n*Eric Heitz, Laurent Belcour, Thomas Chambon* \\\nSIGGRAPH 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03486)] \\\n5 May 2023\n\n\n**Reconstructing seen images from human brain activity via guided stochastic search** \\\n*Reese Kneeland, Jordyn Ojeda, Ghislain St-Yves, Thomas Naselaris* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00556)] \\\n30 Apr 2023\n\n\n**Motion-Conditioned Diffusion Model for Controllable Video Synthesis** \\\n*Tsai-Shien Chen, Chieh Hubert Lin, Hung-Yu Tseng, Tsung-Yi Lin, Ming-Hsuan Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14404)] [[Project](https:\u002F\u002Ftsaishien-chen.github.io\u002FMCDiff\u002F)] \\\n27 Apr 2023\n\n**Score-based Generative Modeling Through Backward Stochastic Differential Equations: Inversion and Generation** \\\n*Zihao Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.13224)] \\\n26 Apr 2023\n\n**Exploring Compositional Visual Generation with Latent Classifier Guidance** \\\n*Changhao Shi, Haomiao Ni, Kai Li, Shaobo Han, Mingfu Liang, Martin Renqiang Min* \\\nCVPR Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12536)] \\\n25 Apr 2023\n\n**Patch Diffusion: Faster and More Data-Efficient Training of Diffusion Models** \\\n*Zhendong Wang, Yifan Jiang, Huangjie Zheng, Peihao Wang, Pengcheng He, Zhangyang Wang, Weizhu Chen, Mingyuan Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12526)] \\\n25 Apr 2023\n\n\n**Variational Diffusion Auto-encoder: Deep Latent Variable Model with Unconditional Diffusion Prior** \\\n*Georgios Batzolis, Jan Stanczuk, Carola-Bibiane Schönlieb* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12141)] \\\n24 Apr 2023\n\n\n**LaMD: Latent Motion Diffusion for Video Generation** \\\n*Yaosi Hu, Zhenzhong Chen, Chong Luo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.11603)] \\\n23 Apr 2023\n\n\n**Lookahead Diffusion Probabilistic Models for Refining Mean Estimation** \\\n*Guoqiang Zhang, Niwa Kenta, W. Bastiaan Kleijn* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.11312)] [[Github](https:\u002F\u002Fgithub.com\u002Fguoqiang-zhang-x\u002FLA-DPM)] \\\n22 Apr 2023\n\n**NeuralField-LDM: Scene Generation with Hierarchical Latent Diffusion Models** \\\n*Seung Wook Kim, Bradley Brown, Kangxue Yin, Karsten Kreis, Katja Schwarz, Daiqing Li, Robin Rombach, Antonio Torralba, Sanja Fidler* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09787)] \\\n19 Apr 2023\n\n**Attributing Image Generative Models using Latent Fingerprints** \\\n*Guangyu Nie, Changhoon Kim, Yezhou Yang, Yi Ren* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09752)] \\\n17 Apr 2023\n\n\n**Identity Encoder for Personalized Diffusion** \\\n*Yu-Chuan Su, Kelvin C.K. Chan, Yandong Li, Yang Zhao, Han Zhang, Boqing Gong, Huisheng Wang, Xuhui Jia* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.07429)] \\\n14 Apr 2023\n\n**Memory Efficient Diffusion Probabilistic Models via Patch-based Generation** \\\n*Shinei Arakawa, Hideki Tsunashima, Daichi Horita, Keitaro Tanaka, Shigeo Morishima* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.07087)] \\\n14 Apr 2023\n\n**DCFace: Synthetic Face Generation with Dual Condition Diffusion Model** \\\n*Minchul Kim, Feng Liu, Anil Jain, Xiaoming Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.07060)] [[Github](https:\u002F\u002Fgithub.com\u002Fmk-minchul\u002Fdcface)] \\\n14 Apr 2023\n\n**DiffFit: Unlocking Transferability of Large Diffusion Models via Simple Parameter-Efficient Fine-Tuning** \\\n*Enze Xie, Lewei Yao, Han Shi, Zhili Liu, Daquan Zhou, Zhaoqiang Liu, Jiawei Li, Zhenguo Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06648)] \\\n13 Apr 2023\n\n**RAFT: Reward rAnked FineTuning for Generative Foundation Model Alignment** \\\n*Hanze Dong, Wei Xiong, Deepanshu Goyal, Rui Pan, Shizhe Diao, Jipeng Zhang, Kashun Shum, Tong Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06767)] \\\n13 Apr 2023\n\n**DreamPose: Fashion Image-to-Video Synthesis via Stable Diffusion** \\\n*Johanna Karras, Aleksander Holynski, Ting-Chun Wang, Ira Kemelmacher-Shlizerman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06025)] [[Project](https:\u002F\u002Fgrail.cs.washington.edu\u002Fprojects\u002Fdreampose\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fjohannakarras\u002FDreamPose)] \\\n12 Apr 2023\n\n**Reflected Diffusion Models** \\\n*Aaron Lou, Stefano Ermon* \\\nICML 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04740)] [[Project](https:\u002F\u002Faaronlou.com\u002Fblog\u002F2023\u002Freflected-diffusion\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Flouaaron\u002FReflected-Diffusion)] \\\n10 Apr 2023\n\n**Binary Latent Diffusion** \\\n*Ze Wang, Jiang Wang, Zicheng Liu, Qiang Qiu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04820)] \\\n10 Apr 2023\n\n\n**Diffusion Models as Masked Autoencoders** \\\n*Chen Wei, Karttikeya Mangalam, Po-Yao Huang, Yanghao Li, Haoqi Fan, Hu Xu, Huiyu Wang, Cihang Xie, Alan Yuille, Christoph Feichtenhofer* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03283)] [[Project](https:\u002F\u002Fweichen582.github.io\u002Fdiffmae.html)] \\\n6 Apr 2023\n\n**Few-shot Semantic Image Synthesis with Class Affinity Transfer** \\\n*Marlène Careil, Jakob Verbeek, Stéphane Lathuilière* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02321)] \\\n5 Apr 2023\n\n\n**EGC: Image Generation and Classification via a Diffusion Energy-Based Model** \\\n*Qiushan Guo, Chuofan Ma, Yi Jiang, Zehuan Yuan, Yizhou Yu, Ping Luo* \\\narxiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02012)] [[Project](https:\u002F\u002Fguoqiushan.github.io\u002Fegc.github.io\u002F)] \\\n4 Apr 2023\n\n\n\n**Token Merging for Fast Stable Diffusion** \\\n*Daniel Bolya, Judy Hoffman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17604)] [[Github](https:\u002F\u002Fgithub.com\u002Fdbolya\u002Ftomesd)] \\\n30 Mar 2023\n\n**A Closer Look at Parameter-Efficient Tuning in Diffusion Models** \\\n*Chendong Xiang, Fan Bao, Chongxuan Li, Hang Su, Jun Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.18181)] \\\n31 Mar 2023\n\n**-Diff: Infinite Resolution Diffusion with Subsampled Mollified States** \\\n*Sam Bond-Taylor, Chris G. Willcocks* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.18242)] \\\n31 Mar 2023\n\n**3D-aware Image Generation using 2D Diffusion Models** \\\n*Jianfeng Xiang, Jiaolong Yang, Binbin Huang, Xin Tong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17905)] [[Project](https:\u002F\u002Fjeffreyxiang.github.io\u002Fivid\u002F)] \\\n31 Mar 2023\n\n**Consistent View Synthesis with Pose-Guided Diffusion Models** \\\n*Hung-Yu Tseng, Qinbo Li, Changil Kim, Suhib Alsisan, Jia-Bin Huang, Johannes Kopf* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17598)] \\\n30 Mar 2023\n\n\n**DiffCollage: Parallel Generation of Large Content with Diffusion Models** \\\n*Qinsheng Zhang, Jiaming Song, Xun Huang, Yongxin Chen, Ming-Yu Liu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17076)] [[Project](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Fdir\u002Fdiffcollage\u002F)] \\\n30 Mar 2023\n\n**Masked Diffusion Transformer is a Strong Image Synthesizer** \\\n*Shanghua Gao, Pan Zhou, Ming-Ming Cheng, Shuicheng Yan* \\\narXiv 2023.  [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14389)] [[Github](https:\u002F\u002Fgithub.com\u002Fsail-sg\u002FMDT)] \\\n25 Mar 2023\n\n**Conditional Image-to-Video Generation with Latent Flow Diffusion Models** \\\n*Haomiao Ni, Changhao Shi, Kai Li, Sharon X. Huang, Martin Renqiang Min* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13744)] [[Github](https:\u002F\u002Fgithub.com\u002Fnihaomiao\u002FCVPR23_LFDM)] \\\n24 Mar 2023\n\n**NUWA-XL: Diffusion over Diffusion for eXtremely Long Video Generation** \\\n*Shengming Yin, Chenfei Wu, Huan Yang, Jianfeng Wang, Xiaodong Wang, Minheng Ni, Zhengyuan Yang, Linjie Li, Shuguang Liu, Fan Yang, Jianlong Fu, Gong Ming, Lijuan Wang, Zicheng Liu, Houqiang Li, Nan Duan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12346)] [[Project](https:\u002F\u002Fmsra-nuwa.azurewebsites.net\u002F#\u002F)] \\\n22 Mar 2023\n\n**Object-Centric Slot Diffusion** \\\n*Jindong Jiang, Fei Deng, Gautam Singh, Sungjin Ahn* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10834)] \\\n20 Mar 2023\n\n\n**LDMVFI: Video Frame Interpolation with Latent Diffusion Models** \\\n*Duolikun Danier, Fan Zhang, David Bull* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09508)] \\\n16 Mar 2023\n\n**Efficient Diffusion Training via Min-SNR Weighting Strategy** \\\n*Tiankai Hang, Shuyang Gu, Chen Li, Jianmin Bao, Dong Chen, Han Hu, Xin Geng, Baining Guo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09556)] \\\n16 Mar 2023\n\n**VideoFusion: Decomposed Diffusion Models for High-Quality Video Generation** \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08320)] \\\n15 Mar 2023\n\n**Interpretable ODE-style Generative Diffusion Model via Force Field Construction** \\\n*Weiyang Jin, Yongpei Zhu, Yuxi Peng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08063)] \\\n14 Mar 2023\n\n**Regularized Vector Quantization for Tokenized Image Synthesis** \\\n*Jiahui Zhang, Fangneng Zhan, Christian Theobalt, Shijian Lu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06424)] \\\n11 Mar 2023\n\n\n**PARASOL: Parametric Style Control for Diffusion Image Synthesis** \\\n*Gemma Canet Tarrés, Dan Ruta, Tu Bui, John Collomosse* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06464)] \\\n11 Mar 2023\n\n**Brain-Diffuser: Natural scene reconstruction from fMRI signals using generative latent diffusion** \\\n*Furkan Ozcelik, Rufin VanRullen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05334)] \\\n9 Mar 2023\n\n**Multilevel Diffusion: Infinite Dimensional Score-Based Diffusion Models for Image Generation** \\\n*Paul Hagemann, Lars Ruthotto, Gabriele Steidl, Nicole Tianjiao Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04772)] \\\n8 Mar 2023\n\n\n**TRACT: Denoising Diffusion Models with Transitive Closure Time-Distillation** \\\n*David Berthelot, Arnaud Autef, Jierui Lin, Dian Ang Yap, Shuangfei Zhai, Siyuan Hu, Daniel Zheng, Walter Talbott, Eric Gu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04248)] \\\n7 Mar 2023\n\n**Generative Diffusions in Augmented Spaces: A Complete Recipe** \\\n*Kushagra Pandey, Stephan Mandt* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.01748)] \\\n3 Mar 2023\n\n**Consistency Models** \\\n*Yang Song, Prafulla Dhariwal, Mark Chen, Ilya Sutskever* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.01469)] \\\n2 Mar 2023\n\n**Diffusion Probabilistic Fields** \\\n*Peiye Zhuang, Samira Abnar, Jiatao Gu, Alex Schwing, Joshua M. Susskind, Miguel Ángel Bautista* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.00165)] \\\n1 Mar 2023\n\n**Unsupervised Discovery of Semantic Latent Directions in Diffusion Models** \\\n*Yong-Hyun Park, Mingi Kwon, Junghyo Jo, Youngjung Uh* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.12469)] \\\n24 Feb 2023\n\n**Reduce, Reuse, Recycle: Compositional Generation with Energy-Based Diffusion Models and MCMC** \\\n*Yilun Du, Conor Durkan, Robin Strudel, Joshua B. Tenenbaum, Sander Dieleman, Rob Fergus, Jascha Sohl-Dickstein, Arnaud Doucet, Will Grathwohl* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11552)] [[Project](https:\u002F\u002Fenergy-based-model.github.io\u002Freduce-reuse-recycle\u002F)] \\\n22 Feb 2023\n\n**Learning 3D Photography Videos via Self-supervised Diffusion on Single Images** \\\n*Xiaodong Wang, Chenfei Wu, Shengming Yin, Minheng Ni, Jianfeng Wang, Linjie Li, Zhengyuan Yang, Fan Yang, Lijuan Wang, Zicheng Liu, Yuejian Fang, Nan Duan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10781)] \\\n21 Feb 2023\n\n**On Calibrating Diffusion Probabilistic Models** \\\n*Tianyu Pang, Cheng Lu, Chao Du, Min Lin, Shuicheng Yan, Zhijie Deng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10688)] [[Github](https:\u002F\u002Fgithub.com\u002Fthudzj\u002FCalibrated-DPMs)] \\\n21 Feb 2023\n\n**Diffusion Models and Semi-Supervised Learners Benefit Mutually with Few Labels** \\\n*Zebin You, Yong Zhong, Fan Bao, Jiacheng Sun, Chongxuan Li, Jun Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10586)] \\\n21 Feb 2023\n\n**Cross-domain Compositing with Pretrained Diffusion Models** \\\n*Roy Hachnochi, Mingrui Zhao, Nadav Orzech, Rinon Gal, Ali Mahdavi-Amiri, Daniel Cohen-Or, Amit Haim Bermano* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10167)] [[Github](https:\u002F\u002Fgithub.com\u002Fcross-domain-compositing\u002Fcross-domain-compositing)] \\\n20 Feb 2023\n\n\n\n**Restoration based Generative Models** \\\n*Jaemoo Choi, Yesom Park, Myungjoo Kang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05456)] \\\n20 Feb 2023\n\n\n\n**Consistent Diffusion Models: Mitigating Sampling Drift by Learning to be Consistent** \\\n*Giannis Daras, Yuval Dagan, Alexandros G. Dimakis, Constantinos Daskalakis* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.09057)] [[Github](https:\u002F\u002Fgithub.com\u002Fgiannisdaras\u002Fcdm)] \\\n17 Feb 2023\n\n**LayoutDiffuse: Adapting Foundational Diffusion Models for Layout-to-Image Generation** \\\n*Jiaxin Cheng, Xiao Liang, Xingjian Shi, Tong He, Tianjun Xiao, Mu Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08908)] \\\n16 Feb 2023\n\n**Video Probabilistic Diffusion Models in Projected Latent Space** \\\n*Sihyun Yu, Kihyuk Sohn, Subin Kim, Jinwoo Shin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.07685)] [[Github](https:\u002F\u002Fsihyun.me\u002FPVDM\u002F)] \\\n15 Feb 2023\n\n**DiffFaceSketch: High-Fidelity Face Image Synthesis with Sketch-Guided Latent Diffusion Model** \\\n*Yichen Peng, Chunqi Zhao, Haoran Xie, Tsukasa Fukusato, Kazunori Miyata* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.06908)] \\\n14 Feb 2023\n\n**Where to Diffuse, How to Diffuse, and How to Get Back: Automated Learning for Multivariate Diffusions** \\\n*Raghav Singhal, Mark Goldstein, Rajesh Ranganath* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.07261)] \\\n14 Feb 2023\n\n\n**Preconditioned Score-based Generative Models** \\\n*Li Zhang, Hengyuan Ma, Xiatian Zhu, Jianfeng Feng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.06504)] [Github](https:\u002F\u002Fgithub.com\u002Ffudan-zvg\u002FPDS)] \\\n13 Feb 2023\n\n**Star-Shaped Denoising Diffusion Probabilistic Models** \\\n*Andrey Okhotin, Dmitry Molchanov, Vladimir Arkhipkin, Grigory Bartosh, Aibek Alanov, Dmitry Vetrov* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.05259)] \\\n10 Feb 2023 \n\n\n**UniPC: A Unified Predictor-Corrector Framework for Fast Sampling of Diffusion Models** \\\n*Wenliang Zhao, Lujia Bai, Yongming Rao, Jie Zhou, Jiwen Lu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04867)] [[Project](https:\u002F\u002Funipc.ivg-research.xyz)] [[Github](https:\u002F\u002Fgithub.com\u002Fwl-zhao\u002FUniPC)] \\\n9 Feb 2023\n\n**Geometry of Score Based Generative Models** \\\n*Sandesh Ghimire, Jinyang Liu, Armand Comas, Davin Hill, Aria Masoomi, Octavia Camps, Jennifer Dy* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04411)] \\\n9 Feb 2023\n\n**Q-Diffusion: Quantizing Diffusion Models** \\\n*Xiuyu Li, Long Lian, Yijiang Liu, Huanrui Yang, Zhen Dong, Daniel Kang, Shanghang Zhang, Kurt Keutzer* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04304)] \\\n8 Feb 2023\n\n**PFGM++: Unlocking the Potential of Physics-Inspired Generative Models** \\\n*Yilun Xu, Ziming Liu, Yonglong Tian, Shangyuan Tong, Max Tegmark, Tommi Jaakkola* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04265)] [[Github](https:\u002F\u002Fgithub.com\u002FNewbeeer\u002Fpfgmpp)] \\\n8 Feb 2023\n\n**Long Horizon Temperature Scaling** \\\n*Andy Shih, Dorsa Sadigh, Stefano Ermon* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03686)] \\\n7 Feb 2023\n\n**Spatial Functa: Scaling Functa to ImageNet Classification and Generation** \\\n*Matthias Bauer, Emilien Dupont, Andy Brock, Dan Rosenbaum, Jonathan Schwarz, Hyunjik Kim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03130)] \\\n6 Feb 2023\n\n**ShiftDDPMs: Exploring Conditional Diffusion Models by Shifting Diffusion Trajectories** \\\n*Zijian Zhang, Zhou Zhao, Jun Yu, Qi Tian* \\\nAAAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02373)] \\\n5 Feb 2023\n\n**Divide and Compose with Score Based Generative Models** \\\n*Sandesh Ghimire, Armand Comas, Davin Hill, Aria Masoomi, Octavia Camps, Jennifer Dy* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02272)] [[Github](https:\u002F\u002Fgithub.com\u002Fsandeshgh\u002FScore-based-disentanglement)] \\\n5 Feb 2023\n\n\n**Stable Target Field for Reduced Variance Score Estimation in Diffusion Models** \\\n*Yilun Xu, Shangyuan Tong, Tommi Jaakkola* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.00670)] [[Github](https:\u002F\u002Fgithub.com\u002FNewbeeer\u002Fstf)] \\\n1 Feb 2023\n\n**DisDiff: Unsupervised Disentanglement of Diffusion Probabilistic Models** \\\n*Tao Yang, Yuwang Wang, Yan Lv, Nanning Zheng* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13721)] \\\n31 Jan 2023\n\n\n**Optimizing DDPM Sampling with Shortcut Fine-Tuning** \\\n*Ying Fan, Kangwook Lee* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13362)] \\\n31 Jan 2023\n\n**Learning Data Representations with Joint Diffusion Models** \\\n*Kamil Deja, Tomasz Trzcinski, Jakub M. Tomczak* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13622)] \\\n31 Jan 2023\n\n**ERA-Solver: Error-Robust Adams Solver for Fast Sampling of Diffusion Probabilistic Models** \\\n*Shengmeng Li, Luping Liu, Zenghao Chai, Runnan Li, Xu Tan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12935)] \\\n30 Jan 2023\n\n**Don't Play Favorites: Minority Guidance for Diffusion Models** \\\n*Soobin Um, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12334)] [[Github](https:\u002F\u002Fgithub.com\u002Fsangyun884\u002Ffast-ode)] \\\n29 Jan 2023\n\n**Accelerating Guided Diffusion Sampling with Splitting Numerical Methods** \\\n*Suttisak Wizadwongsa, Supasorn Suwajanakorn* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11558)] \\\n27 Jan 2023\n\n**Input Perturbation Reduces Exposure Bias in Diffusion Models** \\\n*Mang Ning, Enver Sangineto, Angelo Porrello, Simone Calderara, Rita Cucchiara* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11706)] [[Github](https:\u002F\u002Fgithub.com\u002Fforever208\u002FDDPM-IP)] \\\n27 Jan 2023\n\n**Minimizing Trajectory Curvature of ODE-based Generative Models** \\\n*Sangyun Lee, Beomsu Kim, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12003)] \\\n27 Jan 2023\n\n\n**On the Importance of Noise Scheduling for Diffusion Models** \\\n*Ting Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.10972)] \\\n26 Jan 2023\n\n**simple diffusion: End-to-end diffusion for high resolution images** \\\n*Emiel Hoogeboom, Jonathan Heek, Tim Salimans* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11093)] \\\n26 Jan 2023\n\n**Fast Inference in Denoising Diffusion Models via MMD Finetuning** \\\n*Emanuele Aiello, Diego Valsesia, Enrico Magli* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.07969)] [[Github](https:\u002F\u002Fgithub.com\u002Fdiegovalsesia\u002FMMD-DDM)] \\\n19 Jan 2023\n\n**Exploring Transformer Backbones for Image Diffusion Models** \\\n*Princy Chahal* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.14678)] \\\n27 Dec 2022\n\n**Unsupervised Representation Learning from Pre-trained Diffusion Probabilistic Models** \\\n*Zijian Zhang, Zhou Zhao, Zhijie Lin* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.12990)] \\\n26 Dec 2022\n\n\n**Scalable Adaptive Computation for Iterative Generation** \\\n*Allan Jabri, David Fleet, Ting Chen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.11972)] \\\n22 Dec 2022\n\n**Hierarchically branched diffusion models for efficient and interpretable multi-class conditional generation** \\\n*Alex M. Tseng, Tommaso Biancalani, Max Shen, Gabriele Scalia* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.10777)] \\\n21 Dec 2022\n\n\n**MM-Diffusion: Learning Multi-Modal Diffusion Models for Joint Audio and Video Generation** \\\n*Ludan Ruan, Yiyang Ma, Huan Yang, Huiguo He, Bei Liu, Jianlong Fu, Nicholas Jing Yuan, Qin Jin, Baining Guo* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.09478)] [[Github](https:\u002F\u002Fgithub.com\u002Fresearchmm\u002FMM-Diffusion)] \\\n19 Dec 2022\n\n\n**Scalable Diffusion Models with Transformers** \\\n*William Peebles, Saining Xie* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.09748)] [[Project](https:\u002F\u002Fwww.wpeebles.com\u002FDiT)] [[Github](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FDiT)] \\\n19 Dec 2022\n\n\n**DAG: Depth-Aware Guidance with Denoising Diffusion Probabilistic Models** \\\n*Gyeongnyeon Kim, Wooseok Jang, Gyuseong Lee, Susung Hong, Junyoung Seo, Seungryong Kim* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08861)] [[Project](https:\u002F\u002Fku-cvlab.github.io\u002FDAG\u002F)] \\\n17 Dec 2022\n\n\n**Towards Practical Plug-and-Play Diffusion Models** \\\n*Hyojun Go, Yunsung Lee, Jin-Young Kim, Seunghyun Lee, Myeongho Jeong, Hyun Seung Lee, Seungtaek Choi* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05973)] \\\n12 Dec 2022\n\n**Semantic Brain Decoding: from fMRI to conceptually similar image reconstruction of visual stimuli** \\\n*Matteo Ferrante, Tommaso Boccato, Nicola Toschi* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06726)] \\\n13 Dec 2022\n\n**MAGVIT: Masked Generative Video Transformer** \\\n*Lijun Yu, Yong Cheng, Kihyuk Sohn, José Lezama, Han Zhang, Huiwen Chang, Alexander G. Hauptmann, Ming-Hsuan Yang, Yuan Hao, Irfan Essa, Lu Jiang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05199)] [Project](https:\u002F\u002Fmagvit.cs.cmu.edu\u002F)] \\\n10 Dec 2022\n\n**Diffusion Video Autoencoders: Toward Temporally Consistent Face Video Editing via Disentangled Video Encoding** \\\n*Gyeongman Kim, Hajin Shim, Hyunsu Kim, Yunjey Choi, Junho Kim, Eunho Yang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02802)] \\\n6 Dec 2022\n\n**Fine-grained Image Editing by Pixel-wise Guidance Using Diffusion Models** \\\n*Naoki Matsunaga, Masato Ishii, Akio Hayakawa, Kenji Suzuki, Takuya Narihira* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02024)] \\\n5 Dec 2022\n\n\n**VIDM: Video Implicit Diffusion Models** \\\n*Kangfu Mei, Vishal M. Patel* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00235)] [[Project](https:\u002F\u002Fkfmei.page\u002Fvidm\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FMKFMIKU\u002FVIDM)] \\\n1 Dec 2022\n\n**Why Are Conditional Generative Models Better Than Unconditional Ones?** \\\n*Fan Bao, Chongxuan Li, Jiacheng Sun, Jun Zhu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00362)] \\\n1 Dec 2022\n\n\n**High-Fidelity Guided Image Synthesis with Latent Diffusion Models** \\\n*Jaskirat Singh, Stephen Gould, Liang Zheng* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.17084)] [[Project](https:\u002F\u002F1jsingh.github.io\u002Fgradop)] \\\n30 Nov 2022\n\n\n**Score-based Continuous-time Discrete Diffusion Models** \\\n*Haoran Sun, Lijun Yu, Bo Dai, Dale Schuurmans, Hanjun Dai* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16750)] \\\n30 Nov 2022\n\n**Wavelet Diffusion Models are fast and scalable Image Generators** \\\n*Hao Phung, Quan Dao, Anh Tran* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16152)] \\\n29 Nov 2022\n\n\n**Dimensionality-Varying Diffusion Process** \\\n*Han Zhang, Ruili Feng, Zhantao Yang, Lianghua Huang, Yu Liu, Yifei Zhang, Yujun Shen, Deli Zhao, Jingren Zhou, Fan Cheng* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16032)] \\\n29 Nov 2022\n\n**Refining Generative Process with Discriminator Guidance in Score-based Diffusion Models** \\\n*Dongjun Kim, Yeongmin Kim, Wanmo Kang, Il-Chul Moon* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.17091)] \\\n28 Nov 2022\n\n\n\n**Diffusion Probabilistic Model Made Slim** \\\n*Xingyi Yang, Daquan Zhou, Jiashi Feng, Xinchao Wang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.17106)] \\\n27 Nov 2022\n\n\n**Fast Sampling of Diffusion Models via Operator Learning** \\\n*Hongkai Zheng, Weili Nie, Arash Vahdat, Kamyar Azizzadenesheli, Anima Anandkumar* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13449)] \\\n24 Nov 2022\n\n**Latent Video Diffusion Models for High-Fidelity Video Generation with Arbitrary Lengths** \\\n*Yingqing He, Tianyu Yang, Yong Zhang, Ying Shan, Qifeng Chen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13221)] \\\n23 Nov 2022\n\n\n\n**Paint by Example: Exemplar-based Image Editing with Diffusion Models** \\\n*Binxin Yang, Shuyang Gu, Bo Zhang, Ting Zhang, Xuejin Chen, Xiaoyan Sun, Dong Chen, Fang Wen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13227)] \\\n23 Nov 2022\n\n\n**SinDiffusion: Learning a Diffusion Model from a Single Natural Image** \\\n*Weilun Wang, Jianmin Bao, Wengang Zhou, Dongdong Chen, Dong Chen, Lu Yuan, Houqiang Li* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12445)] [[Github](https:\u002F\u002Fgithub.com\u002FWeilunWang\u002FSinDiffusion)] \\\n22 Nov 2022\n\n**Accelerating Diffusion Sampling with Classifier-based Feature Distillation** \\\n*Wujie Sun, Defang Chen, Can Wang, Deshi Ye, Yan Feng, Chun Chen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12039)] \\\n22 Nov 2022\n\n**SceneComposer: Any-Level Semantic Image Synthesis** \\\n*Yu Zeng, Zhe Lin, Jianming Zhang, Qing Liu, John Collomosse, Jason Kuen, Vishal M. Patel* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11742)] [[Project](https:\u002F\u002Fzengyu.me\u002Fscenec\u002F)] \\\n21 Nov 2022\n\n**Diffusion-Based Scene Graph to Image Generation with Masked Contrastive Pre-Training** \\\n*Ling Yang, Zhilin Huang, Yang Song, Shenda Hong, Guohao Li, Wentao Zhang, Bin Cui, Bernard Ghanem, Ming-Hsuan Yang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11138)] \\\n21 Nov 2022\n\n**SinFusion: Training Diffusion Models on a Single Image or Video** \\\n*Yaniv Nikankin, Niv Haim, Michal Irani* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11743)] \\\n21 Nov 2022\n\n**MagicVideo: Efficient Video Generation With Latent Diffusion Models** \\\n*Daquan Zhou, Weimin Wang, Hanshu Yan, Weiwei Lv, Yizhe Zhu, Jiashi Feng* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11018)] [[Project](https:\u002F\u002Fmagicvideo.github.io\u002F)] \\\n20 Nov 2022\n\n**Seeing Beyond the Brain: Conditional Diffusion Model with Sparse Masked Modeling for Vision Decoding** \\\n*Zijiao Chen, Jiaxin Qing, Tiange Xiang, Wan Lin Yue, Juan Helen Zhou* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06956)] [[Project](https:\u002F\u002Fmind-vis.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fzjc062\u002Fmind-vis)] \\\n13 Nov 2022\n\n**Few-shot Image Generation with Diffusion Models** \\\n*Jingyuan Zhu, Huimin Ma, Jiansheng Chen, Jian Yuan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03264)] \\\n7 Nov 2022\n\n**From Denoising Diffusions to Denoising Markov Models** \\\n*Joe Benton, Yuyang Shi, Valentin De Bortoli, George Deligiannidis, Arnaud Doucet* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03595)] [[Github](https:\u002F\u002Fgithub.com\u002Fyuyang-shi\u002Fgeneralized-diffusion)] \\\n7 Nov 2022\n\n\n**Efficient Spatially Sparse Inference for Conditional GANs and Diffusion Models** \\\n*Muyang Li, Ji Lin, Chenlin Meng, Stefano Ermon, Song Han, Jun-Yan Zhu* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.02048)] [[Github](https:\u002F\u002Fgithub.com\u002Flmxyy\u002Fsige)] \\\n4 Nov 2022\n\n**An optimal control perspective on diffusion-based generative modeling** \\\n*Julius Berner, Lorenz Richter, Karen Ullrich* \\\nNeurIPS Workshop 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01364)] \\\n2 Nov 2022\n\n**Entropic Neural Optimal Transport via Diffusion Processes** \\\n*Nikita Gushchin, Alexander Kolesov, Alexander Korotin, Dmitry Vetrov, Evgeny Burnaev* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01156)] \\\n2 Nov 2022\n\n**DPM-Solver++: Fast Solver for Guided Sampling of Diffusion Probabilistic Models** \\\n*Cheng Lu, Yuhao Zhou, Fan Bao, Jianfei Chen, Chongxuan Li, Jun Zhu* \\\nNeurIPS 2022 (Oral). [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01095)] [[Github](https:\u002F\u002Fgithub.com\u002FLuChengTHU\u002Fdpm-solver)] \\\n2 Nov 2022\n\n**Score-based Denoising Diffusion with Non-Isotropic Gaussian Noise Models** \\\n*Vikram Voleti, Christopher Pal, Adam Oberman* \\\nNeurIPS Workshop 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12254)] \\\n21 Oct 2022\n\n\n**Deep Equilibrium Approaches to Diffusion Models** \\\n*Ashwini Pokle, Zhengyang Geng, Zico Kolter* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12867)] [[Github](https:\u002F\u002Fgithub.com\u002Flocuslab\u002Fdeq-ddim)] \\\n23 Oct 2022\n\n**Representation Learning with Diffusion Models** \\\n*Jeremias Traub* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.11058)] [[Github](https:\u002F\u002Fgithub.com\u002Fjeremiastraub\u002Fdiffusion)] \\\n20 Oct 2022\n\n**Self-Guided Diffusion Models** \\\n*Vincent Tao Hu, David W Zhang, Yuki M. Asano, Gertjan J. Burghouts, Cees G. M. Snoek* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.06462)] [[Project](http:\u002F\u002Ftaohu.me\u002Fsgdm\u002F)] \\\n12 Oct 2022\n\n**GENIE: Higher-Order Denoising Diffusion Solvers** \\\n*Tim Dockhorn, Arash Vahdat, Karsten Kreis* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05475)] [[Project](https:\u002F\u002Fnv-tlabs.github.io\u002FGENIE\u002F) [[Github](https:\u002F\u002Fgithub.com\u002Fnv-tlabs\u002FGENIE)] \\\n11 Oct 2022\n\n**f-DM: A Multi-stage Diffusion Model via Progressive Signal Transformation** \\\n*Jiatao Gu, Shuangfei Zhai, Yizhe Zhang, Miguel Angel Bautista, Josh Susskind* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.04955)] [[Project](http:\u002F\u002Fjiataogu.me\u002Ffdm\u002F)] \\\n10 Oct 2022\n\n**On Distillation of Guided Diffusion Models** \\\n*Chenlin Meng, Ruiqi Gao, Diederik P. Kingma, Stefano Ermon, Jonathan Ho, Tim Salimans* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.03142)] \\\n6 Oct 2022\n\n\n**Improving Sample Quality of Diffusion Model Using Self-Attention Guidance** \\\n*Susung Hong, Gyuseong Lee, Wooseok Jang, Seungryong Kim* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.00939)] [[Project](https:\u002F\u002Fku-cvlab.github.io\u002FSelf-Attention-Guidance\u002F)] \\\n3 Oct 2022\n\n**OCD: Learning to Overfit with Conditional Diffusion Models** \\\n*Shahar Shlomo Lutati, Lior Wolf* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.00471)] [[Github](https:\u002F\u002Fgithub.com\u002FShaharLutatiPersonal\u002FOCD)] \\\n2 Oct 2022\n\n**Generated Faces in the Wild: Quantitative Comparison of Stable Diffusion, Midjourney and DALL-E 2** \\\n*Ali Borji* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.00586)] [[Github](https:\u002F\u002Fgithub.com\u002Faliborji\u002FGFW)] \\\n2 Oct 2022\n\n**Denoising MCMC for Accelerating Diffusion-Based Generative Models** \\\n*Beomsu Kim, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14593)] [[Github](https:\u002F\u002Fgithub.com\u002F1202kbs\u002FDMCMC)] \\\n29 Sep 2022\n\n**All are Worth Words: a ViT Backbone for Score-based Diffusion Models** \\\n*Fan Bao, Chongxuan Li, Yue Cao, Jun Zhu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.12152)] \\\n25 Sep 2022\n\n\n**Neural Wavelet-domain Diffusion for 3D Shape Generation** \\\n*Ka-Hei Hui, Ruihui Li, Jingyu Hu, Chi-Wing Fu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.08725)] \\\n19 Sep 2022\n\n**Can segmentation models be trained with fully synthetically generated data?** \\\n*Virginia Fernandez, Walter Hugo Lopez Pinaya, Pedro Borges, Petru-Daniel Tudosiu, Mark S Graham, Tom Vercauteren, M Jorge Cardoso* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.08256)] \\\n17 Sep 2022\n\n**Blurring Diffusion Models** \\\n*Emiel Hoogeboom, Tim Salimans* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.05557)] \\\n12 Sep 2022\n\n**Soft Diffusion: Score Matching for General Corruptions** \\\n*Giannis Daras, Mauricio Delbracio, Hossein Talebi, Alexandros G. Dimakis, Peyman Milanfar* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.05442)] \\\n12 Sep 2022\n\n**Improved Masked Image Generation with Token-Critic** \\\n*José Lezama, Huiwen Chang, Lu Jiang, Irfan Essa* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04439)] \\\n9 Sep 2022\n\n\n**Let us Build Bridges: Understanding and Extending Diffusion Generative Models** \\\n*Xingchao Liu, Lemeng Wu, Mao Ye, Qiang Liu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.14699)] \\\n31 Aug 2022\n\n**Frido: Feature Pyramid Diffusion for Complex Scene Image Synthesis** \\\n*Wan-Cyuan Fan, Yen-Chun Chen, DongDong Chen, Yu Cheng, Lu Yuan, Yu-Chiang Frank Wang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.13753)] \\\n29 Aug 2022\n\n\n**Adaptively-Realistic Image Generation from Stroke and Sketch with Diffusion Model** \\\n*Shin-I Cheng, Yu-Jie Chen, Wei-Chen Chiu, Hsin-Ying Lee, Hung-Yu Tseng* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.12675)] [[Project](https:\u002F\u002Fcyj407.github.io\u002FDiSS\u002F)] \\\n26 Aug 2022\n\n**Cold Diffusion: Inverting Arbitrary Image Transforms Without Noise** \\\n*Arpit Bansal, Eitan Borgnia, Hong-Min Chu, Jie S. Li, Hamid Kazemi, Furong Huang, Micah Goldblum, Jonas Geiping, Tom Goldstein* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.09392)] [[Github](https:\u002F\u002Fgithub.com\u002Farpitbansal297\u002FCold-Diffusion-Models)] \\\n19 Aug 2022\n\n**Enhancing Diffusion-Based Image Synthesis with Robust Classifier Guidance** \\\n*Bahjat Kawar, Roy Ganz, Michael Elad* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.08664)] \\\n18 Aug 2022\n\n**Your ViT is Secretly a Hybrid Discriminative-Generative Diffusion Model** \\\n*Xiulong Yang, Sheng-Min Shih, Yinlin Fu, Xiaoting Zhao, Shihao Ji* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.07791)] [[Github](https:\u002F\u002Fgithub.com\u002Fsndnyang\u002FDiffusion_ViT)] \\\n16 Aug 2022\n\n\n\n**Applying Regularized Schrödinger-Bridge-Based Stochastic Process in Generative Modeling** \\\n*Ki-Ung Song* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.07131)] [[Github](https:\u002F\u002Fgithub.com\u002FKiUngSong\u002FRSB)] \\\n15 Aug 2022\n\n**Analog Bits: Generating Discrete Data using Diffusion Models with Self-Conditioning** \\\n*Ting Chen, Ruixiang Zhang, Geoffrey Hinton* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.04202)] \\\n8 Aug 2022\n\n\n**Pyramidal Denoising Diffusion Probabilistic Models** \\\n*Dohoon Ryu, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.01864)] \\\n3 Aug 2022\n\n**Progressive Deblurring of Diffusion Models for Coarse-to-Fine Image Synthesis** \\\n*Sangyun Lee, Hyungjin Chung, Jaehyeon Kim, Jong Chul Ye* \\\narxiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.11192)] [[Github](https:\u002F\u002Fgithub.com\u002Fsangyun884\u002Fblur-diffusion)] \\\n16 Jul 2022\n\n**Improving Diffusion Model Efficiency Through Patching** \\\n*Troy Luhman, Eric Luhman* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.04316)] [[Github](https:\u002F\u002Fgithub.com\u002Fericl122333\u002FPatchDiffusion-Pytorch)] \\\n9 Jul 2022\n\n**Accelerating Score-based Generative Models with Preconditioned Diffusion Sampling** \\\n*Hengyuan Ma, Li Zhang, Xiatian Zhu, Jianfeng Feng* \\\nECCV 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.02196)] \\\n5 Jul 2022\n\n**SPI-GAN: Distilling Score-based Generative Models with Straight-Path Interpolations** \\\n*Jinsung Jeon, Noseong Park* \\\narxiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.14464)] \\\n29 Jun 2022\n\n**Entropy-driven Sampling and Training Scheme for Conditional Diffusion Generation** \\\n*Shengming Li, Guangcong Zheng, Hui Wang, Taiping Yao, Yang Chen, Shoudong Ding, Xi Li* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.11474)] \\\n23 Jun 2022\n\n**Generative Modelling With Inverse Heat Dissipation** \\\n*Severi Rissanen, Markus Heinonen, Arno Solin* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.13397)] [[Project](https:\u002F\u002Faaltoml.github.io\u002Fgenerative-inverse-heat-dissipation\u002F)] \\\n21 Jun 2022\n\n**Diffusion models as plug-and-play priors** \\\n*Alexandros Graikos, Nikolay Malkin, Nebojsa Jojic, Dimitris Samaras* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.09012)] [[Github](https:\u002F\u002Fgithub.com\u002Falexgraikos\u002Fdiffusion_priors)] \\\n17 Jun 2022\n\n**A Flexible Diffusion Model** \\\n*Weitao Du, Tao Yang, He Zhang, Yuanqi Du* \\\nICML 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.10365)] \\\n17 Jun 2022\n\n**Lossy Compression with Gaussian Diffusion** \\\n*Lucas Theis, Tim Salimans, Matthew D. Hoffman, Fabian Mentzer* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.08889)] \\\n17 Jun 2022\n\n**Maximum Likelihood Training for Score-Based Diffusion ODEs by High-Order Denoising Score Matching** \\\n*Cheng Lu, Kaiwen Zheng, Fan Bao, Jianfei Chen, Chongxuan Li, Jun Zhu* \\\nICML 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.08265)] [[Github](https:\u002F\u002Fgithub.com\u002FLuChengTHU\u002Fmle_score_ode)] \\\n16 Jun 2022\n\n**Estimating the Optimal Covariance with Imperfect Mean in Diffusion Probabilistic Models** \\\n*Fan Bao, Chongxuan Li, Jiacheng Sun, Jun Zhu, Bo Zhang* \\\nICML 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07309)] [[Github](https:\u002F\u002Fgithub.com\u002Fbaofff\u002FExtended-Analytic-DPM)] \\\n15 Jun 2022\n\n\n**Diffusion Models for Video Prediction and Infilling** \\\n*Tobias Höppe, Arash Mehrjou, Stefan Bauer, Didrik Nielsen, Andrea Dittadi* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07696)] \\\n15 Jun 2022\n\n**Discrete Contrastive Diffusion for Cross-Modal and Conditional Generation** \\\n*Ye Zhu, Yu Wu, Kyle Olszewski, Jian Ren, Sergey Tulyakov, Yan Yan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07771)] [[Github](https:\u002F\u002Fgithub.com\u002FL-YeZhu\u002FCDCD)] \\\n15 Jun 2022\n\n**gDDIM: Generalized denoising diffusion implicit models** \\\n*Qinsheng Zhang, Molei Tao, Yongxin Chen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.05564)] [[Github](https:\u002F\u002Fgithub.com\u002Fqsh-zh\u002FgDDIM)] \\\n11 Jun 2022\n\n**How Much is Enough? A Study on Diffusion Times in Score-based Generative Models** \\\n*Giulio Franzese, Simone Rossi, Lixuan Yang, Alessandro Finamore, Dario Rossi, Maurizio Filippone, Pietro Michiardi* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.05173)] \\\n10 Jun 2022\n\n**Image Generation with Multimodal Priors using Denoising Diffusion Probabilistic Models** \\\n*Nithin Gopalakrishnan Nair, Wele Gedara Chaminda Bandara, Vishal M Patel* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.05039)] \\\n10 Jun 2022\n\n**Accelerating Score-based Generative Models for High-Resolution Image Synthesis** \\\n*Hengyuan Ma, Li Zhang, Xiatian Zhu, Jingfeng Zhang, Jianfeng Feng* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.04029)] \\\n8 Jun 2022\n\n**Diffusion-GAN: Training GANs with Diffusion** \\\n*Zhendong Wang, Huangjie Zheng, Pengcheng He, Weizhu Chen, Mingyuan Zhou* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.02262)] \\\n5 Jun 2022\n\n**DPM-Solver: A Fast ODE Solver for Diffusion Probabilistic Model Sampling in Around 10 Steps** \\\n*Cheng Lu, Yuhao Zhou, Fan Bao, Jianfei Chen, Chongxuan Li, Jun Zhu* \\\nNeurrIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00927)] [[Github](https:\u002F\u002Fgithub.com\u002FLuChengTHU\u002Fdpm-solver)] \\\n2 Jun 2022\n\n**Elucidating the Design Space of Diffusion-Based Generative Models** \\\n*Tero Karras, Miika Aittala, Timo Aila, Samuli Laine* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00364)] \\\n1 Jun 2022\n\n**On Analyzing Generative and Denoising Capabilities of Diffusion-based Deep Generative Models** \\\n*Kamil Deja, Anna Kuzina, Tomasz Trzciński, Jakub M. Tomczak* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00070)] \\\n31 May 2022\n\n**Few-Shot Diffusion Models** \\\n*Giorgio Giannone, Didrik Nielsen, Ole Winther* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.15463)] \\\n30 May 2022\n\n**A Continuous Time Framework for Discrete Denoising Models** \\\n*Andrew Campbell, Joe Benton, Valentin De Bortoli, Tom Rainforth, George Deligiannidis, Arnaud Doucet* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.14987)] \\\n30 May 2022\n\n**Maximum Likelihood Training of Implicit Nonlinear Diffusion Models** \\\n*Dongjun Kim, Byeonghu Na, Se Jung Kwon, Dongsoo Lee, Wanmo Kang, Il-Chul Moon* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.13699)] \\\n27 May 2022\n\n**Accelerating Diffusion Models via Early Stop of the Diffusion Process** \\\n*Zhaoyang Lyu, Xudong XU, Ceyuan Yang, Dahua Lin, Bo Dai* \\\nICML 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.12524)] \\\n25 May 2022\n\n\n\n**Flexible Diffusion Modeling of Long Videos** \\\n*William Harvey, Saeid Naderiparizi, Vaden Masrani, Christian Weilbach, Frank Wood* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.11495)] [[Github](https:\u002F\u002Fgithub.com\u002Fplai-group\u002Fflexible-video-diffusion-modeling)] \\\n23 May 2022\n\n**MCVD: Masked Conditional Video Diffusion for Prediction, Generation, and Interpolation** \\\n*Vikram Voleti, Alexia Jolicoeur-Martineau, Christopher Pal* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.09853)] [[Github](https:\u002F\u002Fgithub.com\u002Fvoletiv\u002Fmcvd-pytorch)] \\\n19 May 2022\n\n**On Conditioning the Input Noise for Controlled Image Generation with Diffusion Models** \\\n*Vedant Singh, Surgan Jandial, Ayush Chopra, Siddharth Ramesh, Balaji Krishnamurthy, Vineeth N. Balasubramanian* \\\nCVPR Workshop 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.03859)] \\\n8 May 2022\n\n**Subspace Diffusion Generative Models** \\\n*Bowen Jing, Gabriele Corso, Renato Berlinghieri, Tommi Jaakkola* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.01490)] [[Github](https:\u002F\u002Fgithub.com\u002Fbjing2016\u002Fsubspace-diffusion)] \\\n3 May 2022\n\n**Fast Sampling of Diffusion Models with Exponential Integrator** \\\n*Qinsheng Zhang, Yongxin Chen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.13902)] \\\n29 Apr 2022\n\n**Semi-Parametric Neural Image Synthesis** \\\n*Andreas Blattmann, Robin Rombach, Kaan Oktay, Jonas Müller, Björn Ommer* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.11824)] \\\n25 Apr 2022\n\n\n**Video Diffusion Models** \\\n*Jonathan Ho, Tim Salimans, Alexey Gritsenko, William Chan, Mohammad Norouzi, David J. Fleet* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.03458)] \\\n7 Apr 2022\n\n**Perception Prioritized Training of Diffusion Models** \\\n*Jooyoung Choi, Jungbeom Lee, Chaehun Shin, Sungwon Kim, Hyunwoo Kim, Sungroh Yoon* \\\nCVPR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.00227)] [[Github](https:\u002F\u002Fgithub.com\u002Fjychoi118\u002FP2-weighting)] \\\n1 Apr 2022\n\n**Generating High Fidelity Data from Low-density Regions using Diffusion Models** \\\n*Vikash Sehwag, Caner Hazirbas, Albert Gordo, Firat Ozgenel, Cristian Canton Ferrer* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.17260)] \\\n31 Mar 2022\n\n**Diffusion Models for Counterfactual Explanations** \\\n*Guillaume Jeanneret, Loïc Simon, Frédéric Jurie* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.15636)] \\\n29 Mar 2022\n\n**Denoising Likelihood Score Matching for Conditional Score-based Data Generation** \\\n*Chen-Hao Chao, Wei-Fang Sun, Bo-Wun Cheng, Yi-Chen Lo, Chia-Che Chang, Yu-Lun Liu, Yu-Lin Chang, Chia-Ping Chen, Chun-Yi Lee* \\\nICLR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.14206)] \\\n27 Mar 2022\n\n**Diffusion Probabilistic Modeling for Video Generation** \\\n*Ruihan Yang, Prakhar Srivastava, Stephan Mandt* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.09481)] [[Github](https:\u002F\u002Fgithub.com\u002Fbuggyyang\u002Frvd)] \\\n16 Mar 2022\n\n**Dynamic Dual-Output Diffusion Models** \\\n*Yaniv Benny, Lior Wolf* \\\nCVPR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.04304)] \\\n8 Mar 2022\n\n**Conditional Simulation Using Diffusion Schrödinger Bridges** \\\n*Yuyang Shi, Valentin De Bortoli, George Deligiannidis, Arnaud Doucet* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.13460)] \\\n27 Feb 2022\n\n**Diffusion Causal Models for Counterfactual Estimation** \\\n*Pedro Sanchez, Sotirios A. Tsaftaris* \\\nPMLR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.10166)] \\\n21 Feb 2022\n\n**Pseudo Numerical Methods for Diffusion Models on Manifolds** \\\n*Luping Liu, Yi Ren, Zhijie Lin, Zhou Zhao* \\\nICLR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.09778)] [[Github](https:\u002F\u002Fgithub.com\u002Fluping-liu\u002FPNDM)] \\\n20 Feb 2022\n\n**Truncated Diffusion Probabilistic Models** \\\n*Huangjie Zheng, Pengcheng He, Weizhu Chen, Mingyuan Zhou* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.09671)] \\\n19 Feb 2022\n\n**Understanding DDPM Latent Codes Through Optimal Transport** \\\n*Valentin Khrulkov, Ivan Oseledets* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.07477)] \\\n14 Feb 2022\n\n**Learning Fast Samplers for Diffusion Models by Differentiating Through Sample Quality** \\\n*Daniel Watson, William Chan, Jonathan Ho, Mohammad Norouzi* \\\nICLR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.05830)] \\\n11 Feb 2022\n\n\n**Diffusion bridges vector quantized Variational AutoEncoders** \\\n*Max Cohen, Guillaume Quispe, Sylvain Le Corff, Charles Ollion, Eric Moulines* \\\nICML 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.04895)] \\\n10 Feb 2022\n\n**Progressive Distillation for Fast Sampling of Diffusion Models** \\\n*Tim Salimans, Jonathan Ho* \\\nICLR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.00512)] \\\n1 Feb 2022\n\n**Analytic-DPM: an Analytic Estimate of the Optimal Reverse Variance in Diffusion Probabilistic Models** \\\n*Fan Bao, Chongxuan Li, Jun Zhu, Bo Zhang* \\\nICLR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.06503)] \\\n17 Jan 2022\n\n**DiffuseVAE: Efficient, Controllable and High-Fidelity Generation from Low-Dimensional Latents** \\\n*Kushagra Pandey, Avideep Mukherjee, Piyush Rai, Abhishek Kumar* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.00308)] [[Github](https:\u002F\u002Fgithub.com\u002Fkpandey008\u002FDiffuseVAE)] \\\n2 Jan 2022\n\n**Itô-Taylor Sampling Scheme for Denoising Diffusion Probabilistic Models using Ideal Derivatives** \\\n*Hideyuki Tachibana, Mocho Go, Muneyoshi Inahara, Yotaro Katayama, Yotaro Watanabe* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.13339)] \\\n26 Dec 2021\n\n**GLIDE: Towards Photorealistic Image Generation and Editing with Text-Guided Diffusion Models** \\\n*Alex Nichol, Prafulla Dhariwal, Aditya Ramesh, Pranav Shyam, Pamela Mishkin, Bob McGrew, Ilya Sutskever, Mark Chen* \\\nICML 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.10741)] [[Github](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fglide-text2im)] \\\n20 Dec 2021\n\n**High-Resolution Image Synthesis with Latent Diffusion Models** \\\n*Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, Björn Ommer* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.10752)] [[Github](https:\u002F\u002Fgithub.com\u002FCompVis\u002Flatent-diffusion)] \\\n20 Dec 2021\n\n**Heavy-tailed denoising score matching** \\\n*Jacob Deasy, Nikola Simidjievski, Pietro Liò* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.09788)] \\\n17 Dec 2021\n\n**High Fidelity Visualization of What Your Self-Supervised Representation Knows About** \\\n*Florian Bordes, Randall Balestriero, Pascal Vincent* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.09164)] \\\n16 Dec 2021\n\n**Tackling the Generative Learning Trilemma with Denoising Diffusion GANs** \\\n*Zhisheng Xiao, Karsten Kreis, Arash Vahdat* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.07804)] [[Project](https:\u002F\u002Fnvlabs.github.io\u002Fdenoising-diffusion-gan)] \\\n15 Dec 2021\n\n**Score-Based Generative Modeling with Critically-Damped Langevin Diffusion** \\\n*Tim Dockhorn, Arash Vahdat, Karsten Kreis* \\\nICLR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.07068)] [[Project](https:\u002F\u002Fnv-tlabs.github.io\u002FCLD-SGM\u002F)] \\\n14 Dec 2021\n\n**More Control for Free! Image Synthesis with Semantic Diffusion Guidance** \\\n*Xihui Liu, Dong Huk Park, Samaneh Azadi, Gong Zhang, Arman Chopikyan, Yuxiao Hu, Humphrey Shi, Anna Rohrbach, Trevor Darrell* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.05744)] \\\n10 Dec 2021\n\n**Global Context with Discrete Diffusion in Vector Quantised Modelling for Image Generation** \\\n*Minghui Hu, Yujie Wang, Tat-Jen Cham, Jianfei Yang, P.N.Suganthan* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.01799)] \\\n3 Dec 2021\n\n**Diffusion Autoencoders: Toward a Meaningful and Decodable Representation** \\\n*Konpat Preechakul, Nattanat Chatthee, Suttisak Wizadwongsa, Supasorn Suwajanakorn* \\\nCVPR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15640)] [[Project](https:\u002F\u002Fdiff-ae.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fphizaz\u002Fdiffae)] \\\n30 Dec 2021\n\n**Conditional Image Generation with Score-Based Diffusion Models** \\\n*Georgios Batzolis, Jan Stanczuk, Carola-Bibiane Schönlieb, Christian Etmann* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.13606)] \\\n26 Nov 2021\n\n**Unleashing Transformers: Parallel Token Prediction with Discrete Absorbing Diffusion for Fast High-Resolution Image Generation from Vector-Quantized Codes** \\\n*Sam Bond-Taylor, Peter Hessey, Hiroshi Sasaki, Toby P. Breckon, Chris G. Willcocks* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.12701)] [[Github](https:\u002F\u002Fgithub.com\u002Fsamb-t\u002Funleashing-transformers)] \\\n24 Nov 2021\n\n**Diffusion Normalizing Flow** \\\n*Qinsheng Zhang, Yongxin Chen* \\\nNeurIPS 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.07579)] [[Github](https:\u002F\u002Fgithub.com\u002Fqsh-zh\u002FDiffFlow)] \\\n14 Oct 2021\n\n**Denoising Diffusion Gamma Models** \\\n*Eliya Nachmani, Robin San Roman, Lior Wolf* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.05948)] \\\n10 Oct 2021\n\n**Score-based Generative Neural Networks for Large-Scale Optimal Transport** \\\n*Max Daniels, Tyler Maunu, Paul Hand* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.03237)] \\\n7 Oct 2021\n\n**Score-Based Generative Classifiers** \\\n*Roland S. Zimmermann, Lukas Schott, Yang Song, Benjamin A. Dunn, David A. Klindt* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.00473)] \\\n1 Oct 2021\n\n**Classifier-Free Diffusion Guidance** \\\n*Jonathan Ho, Tim Salimans* \\\nNeurIPS Workshop 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.12598)] \\\n28 Sep 2021\n\n\n**Bilateral Denoising Diffusion Models** \\\n*Max W. Y. Lam, Jun Wang, Rongjie Huang, Dan Su, Dong Yu* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.11514)] [[Project](https:\u002F\u002Fbilateral-denoising-diffusion-model.github.io)] \\\n26 Aug 2021\n\n**ImageBART: Bidirectional Context with Multinomial Diffusion for Autoregressive Image Synthesis** \\\n*Patrick Esser, Robin Rombach, Andreas Blattmann, Björn Ommer* \\\nNeurIPS 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.08827)] [[Project](https:\u002F\u002Fcompvis.github.io\u002Fimagebart\u002F)] \\\n19 Aug 2021\n\n**ILVR: Conditioning Method for Denoising Diffusion Probabilistic Models** \\\n*Jooyoung Choi, Sungwon Kim, Yonghyun Jeong, Youngjune Gwon, Sungroh Yoon* \\\nICCV 2021 (Oral). [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.02938)] [[Github](https:\u002F\u002Fgithub.com\u002Fjychoi118\u002Filvr_adm)] \\\n6 Aug 2021\n\n**SDEdit: Guided Image Synthesis and Editing with Stochastic Differential Equations** \\\n*Chenlin Meng, Yutong He, Yang Song, Jiaming Song, Jiajun Wu, Jun-Yan Zhu, Stefano Ermon* \\\nICLR  2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.01073)] [[Project](https:\u002F\u002Fsde-image-editing.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fermongroup\u002FSDEdit)] \\\n2 Aug 2021\n\n**Structured Denoising Diffusion Models in Discrete State-Spaces** \\\n*Jacob Austin, Daniel D. Johnson, Jonathan Ho, Daniel Tarlow, Rianne van den Berg* \\\nNeurIPS 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.03006)] \\\n7 Jul 2021 \n\n**Variational Diffusion Models** \\\n*Diederik P. Kingma, Tim Salimans, Ben Poole, Jonathan Ho* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.00630)] [[Github](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fvdm)] \\\n1 Jul 2021 \n\n**Diffusion Priors In Variational Autoencoders** \\\n*Antoine Wehenkel, Gilles Louppe* \\\nICML Workshop 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.15671)] \\\n29 Jun 2021\n\n**Deep Generative Learning via Schrödinger Bridge** \\\n*Gefei Wang, Yuling Jiao, Qian Xu, Yang Wang, Can Yang* \\\nICML 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.10410)] \\\n19 Jun 2021\n\n**Non Gaussian Denoising Diffusion Models** \\\n*Eliya Nachmani, Robin San Roman, Lior Wolf* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.07582)] [[Project](https:\u002F\u002Fenk100.github.io\u002FNon-Gaussian-Denoising-Diffusion-Models\u002F)] \\\n14 Jun 2021 \n\n**D2C: Diffusion-Denoising Models for Few-shot Conditional Generation** \\\n*Abhishek Sinha, Jiaming Song, Chenlin Meng, Stefano Ermon* \\\nNeurIPS 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.06819)] [[Project](https:\u002F\u002Fd2c-model.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fd2c-model\u002Fd2c-model.github.io)] \\\n12 Jun 2021\n\n**Score-based Generative Modeling in Latent Space** \\\n*Arash Vahdat, Karsten Kreis, Jan Kautz* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.05931)] \\\n10 Jun 2021\n\n**Learning to Efficiently Sample from Diffusion Probabilistic Models** \\\n*Daniel Watson, Jonathan Ho, Mohammad Norouzi, William Chan* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.03802)] \\\n7 Jun 2021 \n\n**A Variational Perspective on Diffusion-Based Generative Models and Score Matching** \\\n*Chin-Wei Huang, Jae Hyun Lim, Aaron Courville* \\\nNeurIPS 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.02808)] [[Github](https:\u002F\u002Fgithub.com\u002FCW-Huang\u002Fsdeflow-light)] \\\n5 Jun 2021 \n\n**Soft Truncation: A Universal Training Technique of Score-based Diffusion Model for High Precision Score Estimation** \\\n*Dongjun Kim, Seungjae Shin, Kyungwoo Song, Wanmo Kang, Il-Chul Moon* \\\nICML 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.05527)] \\\n10 Jun 2021\n\n**Diffusion Schrödinger Bridge with Applications to Score-Based Generative Modeling** \\\n*Valentin De Bortoli, James Thornton, Jeremy Heng, Arnaud Doucet* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.01357)] [[Project](https:\u002F\u002Fjtt94.github.io\u002Fpapers\u002Fschrodinger_bridge)] [[Github](https:\u002F\u002Fgithub.com\u002FJTT94\u002Fdiffusion_schrodinger_bridge)] \\\n1 Jun 2021\n\n**On Fast Sampling of Diffusion Probabilistic Models** \\\n*Zhifeng Kong, Wei Ping* \\\nICML Workshop 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.00132)] [[Github](https:\u002F\u002Fgithub.com\u002FFengNiMa\u002FFastDPM_pytorch)] \\\n31 May 2021 \n\n**Cascaded Diffusion Models for High Fidelity Image Generation** \\\n*Jonathan Ho, Chitwan Saharia, William Chan, David J. Fleet, Mohammad Norouzi, Tim Salimans* \\\nJMLR 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.15282)] [[Project](https:\u002F\u002Fcascaded-diffusion.github.io\u002F)] \\\n30 May 2021 \n\n**Gotta Go Fast When Generating Data with Score-Based Models** \\\n*Alexia Jolicoeur-Martineau, Ke Li, Rémi Piché-Taillefer, Tal Kachman, Ioannis Mitliagkas* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.14080)] [[Github](https:\u002F\u002Fgithub.com\u002FAlexiaJM\u002Fscore_sde_fast_sampling)] \\\n28 May 2021\n\n**Diffusion Models Beat GANs on Image Synthesis** \\\n*Prafulla Dhariwal, Alex Nichol* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.05233)] [[Github](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fguided-diffusion)] \\\n11 May 2021 \n\n**Image Super-Resolution via Iterative Refinement** \\\n*Chitwan Saharia, Jonathan Ho, William Chan, Tim Salimans, David J. Fleet, Mohammad Norouzi* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.07636)] [[Project](https:\u002F\u002Fiterative-refinement.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FJanspiry\u002FImage-Super-Resolution-via-Iterative-Refinement)] \\\n15 Apr 2021 \n\n**Noise Estimation for Generative Diffusion Models** \\\n*Robin San-Roman, Eliya Nachmani, Lior Wolf* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.02600)] \\\n6 Apr 2021 \n\n**Improved Denoising Diffusion Probabilistic Models** \\\n*Alex Nichol, Prafulla Dhariwal* \\\nICLR 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.09672)] [[Github](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fimproved-diffusion)] \\\n18 Feb 2021 \n\n**Maximum Likelihood Training of Score-Based Diffusion Models** \\\n*Yang Song, Conor Durkan, Iain Murray, Stefano Ermon* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.09258)] \\\n22 Jan 2021 \n\n**Knowledge Distillation in Iterative Generative Models for Improved Sampling Speed** \\\n*Eric Luhman, Troy Luhman* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.02388)] [[Github](https:\u002F\u002Fgithub.com\u002Ftcl9876\u002FDenoising_Student)] \\\n7 Jan 2021\n\n**Learning Energy-Based Models by Diffusion Recovery Likelihood** \\\n*Ruiqi Gao, Yang Song, Ben Poole, Ying Nian Wu, Diederik P. Kingma* \\\nICLR 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.08125)] [[Github](https:\u002F\u002Fgithub.com\u002Fruiqigao\u002Frecovery_likelihood)] \\\n15 Dec 2020 \n\n**Score-Based Generative Modeling through Stochastic Differential Equations** \\\n*Yang Song, Jascha Sohl-Dickstein, Diederik P. Kingma, Abhishek Kumar, Stefano Ermon, Ben Poole* \\\nICLR 2021 (Oral). [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.13456)] [[Github](https:\u002F\u002Fgithub.com\u002Fyang-song\u002Fscore_sde)] \\\n26 Nov 2020 \n\n**Variational (Gradient) Estimate of the Score Function in Energy-based Latent Variable Models** \\\n*Fan Bao, Kun Xu, Chongxuan Li, Lanqing Hong, Jun Zhu, Bo Zhang* \\\nICML 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.08258)] \\\n16 Oct 2020\n\n**Denoising Diffusion Implicit Models**  \\\n*Jiaming Song, Chenlin Meng, Stefano Ermon* \\\nICLR 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.02502)] [[Github](https:\u002F\u002Fgithub.com\u002Fermongroup\u002Fddim)] \\\n6 Oct 2020\n\n**Adversarial score matching and improved sampling for image generation** \\\n*Alexia Jolicoeur-Martineau, Rémi Piché-Taillefer, Rémi Tachet des Combes, Ioannis Mitliagkas* \\\nICLR 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.05475)] [[Github](https:\u002F\u002Fgithub.com\u002FAlexiaJM\u002FAdversarialConsistentScoreMatching)] \\\n11 Sep 2020\n\n**Denoising Diffusion Probabilistic Models** \\\n*Jonathan Ho, Ajay Jain, Pieter Abbeel* \\\nNeurIPS 2020. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.11239)] [[Github](https:\u002F\u002Fgithub.com\u002Fhojonathanho\u002Fdiffusion)] [[Github2](https:\u002F\u002Fgithub.com\u002Fpesser\u002Fpytorch_diffusion)] \\\n19 Jun 2020 \n\n**Improved Techniques for Training Score-Based Generative Models** \\\n*Yang Song, Stefano Ermon* \\\nNeurIPS 2020. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.09011)] [[Github](https:\u002F\u002Fgithub.com\u002Fermongroup\u002Fncsnv2)] \\\n16 Jun 2020 \n\n**Generative Modeling by Estimating Gradients of the Data Distribution** \\\n*Yang Song, Stefano Ermon* \\\nNeurIPS 2019. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1907.05600)] [[Project](https:\u002F\u002Fyang-song.github.io\u002Fblog\u002F2021\u002Fscore\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fermongroup\u002Fncsn)] \\\n12 Jul 2019 \n\n**Neural Stochastic Differential Equations: Deep Latent Gaussian Models in the Diffusion Limit** \\\n*Belinda Tzen, Maxim Raginsky* \\\narXiv 2019. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.09883)] \\\n23 May 2019 \n\n**Deep Unsupervised Learning using Nonequilibrium Thermodynamics** \\\n*Jascha Sohl-Dickstein, Eric A. Weiss, Niru Maheswaranathan, Surya Ganguli* \\\nICML 2015. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1503.03585)] [[Github](https:\u002F\u002Fgithub.com\u002FSohl-Dickstein\u002FDiffusion-Probabilistic-Models)] \\\n2 Mar 2015\n\n### Classification\n\n**Likelihood-based Out-of-Distribution Detection with Denoising Diffusion Probabilistic Models** \\\n*Joseph Goodier, Neill D. F. Campbell* \\\nBMVC 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17432)] \\\n26 Oct 2023\n\n**Multi-scale Diffusion Denoised Smoothing** \\\n*Jongheon Jeong, Jinwoo Shin* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16779)] \\\n25 Oct 2023\n\n**DiffRef3D: A Diffusion-based Proposal Refinement Framework for 3D Object Detection** \\\n*Se-Ho Kim, Inyong Koo, Inyoung Lee, Byeongjun Park, Changick Kim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16349)] \\\n25 Oct 2023\n\n**Denoising Task Routing for Diffusion Models** \\\n*Byeongjun Park, Sangmin Woo, Hyojun Go, Jin-Young Kim, Changick Kim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07138)] \\\n11 Oct 2023\n\n**Leveraging Diffusion-Based Image Variations for Robust Training on Poisoned Data** \\\n*Lukas Struppek, Martin B. Hentschel, Clifton Poth, Dominik Hintersdorf, Kristian Kersting* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06372)] [[Github](https:\u002F\u002Fgithub.com\u002FLukasStruppek\u002FRobust_Training_on_Poisoned_Samples)] \\\n10 Oct 2023\n\n**Dream the Impossible: Outlier Imagination with Diffusion Models** \\\n*Xuefeng Du, Yiyou Sun, Xiaojin Zhu, Yixuan Li* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13415)] [[Github](https:\u002F\u002Fgithub.com\u002Fdeeplearning-wisc\u002Fdream-ood)] \\\n23 Sep 2023\n\n**Zero-Shot Object Counting with Language-Vision Models** \\\n*Jingyi Xu, Hieu Le, Dimitris Samaras* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13097)] [[Github](https:\u002F\u002Fgithub.com\u002Fcvlab-stonybrook\u002Fzero-shot-counting)] \\\n22 Sep 2023\n\n**PSDiff: Diffusion Model for Person Search with Iterative and Collaborative Refinement** \\\n*Chengyou Jia, Minnan Luo, Zhuohang Dang, Guang Dai, Xiaojun Chang, Jingdong Wang, Qinghua Zheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11125)] \\\n20 Sep 2023\n\n**Beyond Generation: Harnessing Text to Image Models for Object Detection and Segmentation** \\\n*Yunhao Ge, Jiashu Xu, Brian Nlong Zhao, Neel Joshi, Laurent Itti, Vibhav Vineet* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05956)] [[Github](https:\u002F\u002Fgithub.com\u002Fgyhandy\u002FText2Image-for-Detection)] \\\n12 Sep 2023\n\n**DiffusionEngine: Diffusion Model is Scalable Data Engine for Object Detection** \\\n*Manlin Zhang, Jie Wu, Yuxi Ren, Ming Li, Jie Qin, Xuefeng Xiao, Wei Liu, Rui Wang, Min Zheng, Andy J. Ma* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03893)] [[Project](https:\u002F\u002Fmettyz.github.io\u002FDiffusionEngine\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fbytedance\u002FDiffusionEngine)] \\\n7 Sep 2023\n\n**Diffusion-based 3D Object Detection with Random Boxes** \\\n*Xin Zhou, Jinghua Hou, Tingting Yao, Dingkang Liang, Zhe Liu, Zhikang Zou, Xiaoqing Ye, Jianwei Cheng, Xiang Bai* \\\nPRCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02049)] \\\n5 Sep 2023\n\n**Diffusion Model as Representation Learner** \\\n*Xingyi Yang, Xinchao Wang* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10916)] \\\n21 Aug 2023\n\n**DiffusionTrack: Diffusion Model For Multi-Object Tracking** \\\n*Run Luo, Zikai Song, Lintao Ma, Jinlin Wei, Wei Yang, Min Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09905)] \\\n19 Aug 2023\n\n**DiffGuard: Semantic Mismatch-Guided Out-of-Distribution Detection using Pre-trained Diffusion Models** \\\n*Ruiyuan Gao, Chenchen Zhao, Lanqing Hong, Qiang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07687)] \\\n15 Aug 2023\n\n**IDiff-Face: Synthetic-based Face Recognition through Fizzy Identity-Conditioned Diffusion Models** \\\n*Fadi Boutros, Jonas Henry Grebe, Arjan Kuijper, Naser Damer* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04995)] \\\n9 Aug 2023\n\n**Exploiting Synthetic Data for Data Imbalance Problems: Baselines from a Data Perspective** \\\n*Moon Ye-Bin, Nam Hyeon-Woo, Wonseok Choi, Nayeong Kim, Suha Kwak, Tae-Hyun Oh* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00994)] \\\n2 Aug 2023\n\n**Diffusion Model for Camouflaged Object Detection** \\\n*Zhennan Chen, Rongrong Gao, Tian-Zhu Xiang, Fan Lin* \\\nECAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00303)] \\\n1 Aug 2023\n\n**DiffPose: SpatioTemporal Diffusion Model for Video-Based Human Pose Estimation** \\\n*Runyang Feng, Yixing Gao, Tze Ho Elden Tse, Xueqing Ma, Hyung Jin Chang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16687)] \\\n31 Jul 2023\n\n**MetaDiff: Meta-Learning with Conditional Diffusion for Few-Shot Learning** \\\n*Baoquan Zhang, Demin Yu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16424)] \\\n31 Jul 2023\n\n**Generative Prompt Model for Weakly Supervised Object Localization** \\\n*Yuzhong Zhao, Qixiang Ye, Weijia Wu, Chunhua Shen, Fang Wan* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09756)] [[Github](https:\u002F\u002Fgithub.com\u002Fcallsys\u002FGenPromp)] \\\n19 Jul 2023\n\n**Diffusion Models Beat GANs on Image Classification** \\\n*Soumik Mukhopadhyay, Matthew Gwilliam, Vatsal Agarwal, Namitha Padmanabhan, Archana Swaminathan, Srinidhi Hegde, Tianyi Zhou, Abhinav Shrivastava* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08702)] \\\n17 Jul 2023\n\n**Diffusion to Confusion: Naturalistic Adversarial Patch Generation Based on Diffusion Model for Object Detector** \\\n*Shuo-Yen Lin, Ernie Chu, Che-Hsien Lin, Jun-Cheng Chen, Jia-Ching Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08076)] \\\n16 Jul 2023\n\n**DreamTeacher: Pretraining Image Backbones with Deep Generative Models** \\\n*Daiqing Li, Huan Ling, Amlan Kar, David Acuna, Seung Wook Kim, Karsten Kreis, Antonio Torralba, Sanja Fidler* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07487)] [[Project](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Ftoronto-ai\u002FDreamTeacher\u002F)] \\\n14 Jul 2023\n\n**ProtoDiff: Learning to Learn Prototypical Networks by Task-Guided Diffusion** \\\n*Yingjun Du, Zehao Xiao, Shengcai Liao, Cees Snoek* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14770)] \\\n26 Jun 2023\n\n**Masked Diffusion Models are Fast Learners** \\\n*Jiachen Lei, Peng Cheng, Zhongjie Ba, Kui Ren* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11363)] \\\n20 Jun 2023\n\n\n**Renderers are Good Zero-Shot Representation Learners: Exploring Diffusion Latents for Metric Learning** \\\n*Michael Tang, David Shustin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10721)] \\\n19 Jun 2023\n\n**The Big Data Myth: Using Diffusion Models for Dataset Generation to Train Deep Detection Models** \\\n*Roy Voetman, Maya Aghaei, Klaas Dijkstra* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09762)] \\\n16 Jun 2023\n\n**When Hyperspectral Image Classification Meets Diffusion Models: An Unsupervised Feature Learning Framework** \\\n*Jingyi Zhou, Jiamu Sheng, Jiayuan Fan, Peng Ye, Tong He, Bin Wang, Tao Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08964)] \\\n15 Jun 2023\n\n**DDLP: Unsupervised Object-Centric Video Prediction with Deep Dynamic Latent Particles** \\\n*Tal Daniel, Aviv Tamar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05957)] \\\n9 Jun 2023\n\n**ADDP: Learning General Representations for Image Recognition and Generation with Alternating Denoising Diffusion Process** \\\n*Changyao Tian, Chenxin Tao, Jifeng Dai, Hao Li, Ziheng Li, Lewei Lu, Xiaogang Wang, Hongsheng Li, Gao Huang, Xizhou Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05423)] \\\n8 Jun 2023\n\n**Conditional Generation from Unconditional Diffusion Models using Denoiser Representations** \\\n*Alexandros Graikos, Srikar Yellapragada, Dimitris Samaras* \\\nBMVC 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01900)] [[Github](https:\u002F\u002Fgithub.com\u002Fcvlab-stonybrook\u002Ffewshot-conditional-diffusion)] \\\n2 Jun 2023\n\n**DiffCLIP: Leveraging Stable Diffusion for Language Grounded 3D Classification** \\\n*Sitian Shen, Zilin Zhu, Linqian Fan, Harry Zhang, Xinxiao Wu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15957)] \\\n25 May 2023\n\n\n**Training on Thin Air: Improve Image Classification with Generated Data** \\\n*Yongchao Zhou, Hshmat Sahak, Jimmy Ba* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15316)] [[Project](https:\u002F\u002Fsites.google.com\u002Fview\u002Fdiffusion-inversion)] [[Github](https:\u002F\u002Fgithub.com\u002Fyongchao97\u002Fdiffusion_inversion)] \\\n24 May 2023\n\n**Is Synthetic Data From Diffusion Models Ready for Knowledge Distillation?** \\\n*Zheng Li, Yuxuan Li, Penghai Zhao, Renjie Song, Xiang Li, Jian Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12954)] [[Github](https:\u002F\u002Fgithub.com\u002Fzhengli97\u002FDM-KD)] \\\n22 May 2023\n\n**Boosting Human-Object Interaction Detection with Text-to-Image Diffusion Model** \\\n*Jie Yang, Bingliang Li, Fengyu Yang, Ailing Zeng, Lei Zhang, Ruimao Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12252)] \\\n20 May 2023\n\n\n**Meta-DM: Applications of Diffusion Models on Few-Shot Learning** \\\n*Wentao Hu, Xiurong Jiang, Jiarun Liu, Yuqi Yang, Hui Tian* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08092)] \\\n14 May 2023\n\n**Class-Balancing Diffusion Models** \\\n*Yiming Qin, Huangjie Zheng, Jiangchao Yao, Mingyuan Zhou, Ya Zhang* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00562)] \\\n30 Apr 2023\n\n**Synthetic Data from Diffusion Models Improves ImageNet Classification** \\\n*Shekoofeh Azizi, Simon Kornblith, Chitwan Saharia, Mohammad Norouzi, David J. Fleet* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08466)] \\\n17 Apr 2023\n\n\n\n**OVTrack: Open-Vocabulary Multiple Object Tracking** \\\n*Siyuan Li, Tobias Fischer, Lei Ke, Henghui Ding, Martin Danelljan, Fisher Yu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08408)] \\\n17 Apr 2023\n\n**Your Diffusion Model is Secretly a Zero-Shot Classifier** \\\n*Alexander C. Li, Mihir Prabhudesai, Shivam Duggal, Ellis Brown, Deepak Pathak* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16203)] [[Project](https:\u002F\u002Fdiffusion-classifier.github.io\u002F)] \\\n28 Mar 2023\n\n\n**Text-to-Image Diffusion Models are Zero-Shot Classifiers** \\\n*Kevin Clark, Priyank Jaini* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15233)] \\\n27 Mar 2023\n\n**Diffusion Denoised Smoothing for Certified and Adversarial Robust Out-Of-Distribution Detection** \\\n*Nicola Franco, Daniel Korth, Jeanette Miriam Lorenz, Karsten Roscher, Stephan Guennemann* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14961)] \\\n27 Mar 2023\n\n\n\n**CIFAKE: Image Classification and Explainable Identification of AI-Generated Synthetic Images** \\\n*Jordan J. Bird, Ahmad Lotfi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14126)] \\\n24 Mar 2023\n\n\n\n**Denoising Diffusion Autoencoders are Unified Self-supervised Learners** \\\n*Weilai Xiang, Hongyu Yang, Di Huang, Yunhong Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09769)] )] \\\n17 Mar 2023\n\n**Boosting Zero-shot Classification with Synthetic Data Diversity via Stable Diffusion** \\\n*Jordan Shipard, Arnold Wiliem, Kien Nguyen Thanh, Wei Xiang, Clinton Fookes* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03298)] \\\n7 Feb 2023\n\n**Fake it till you make it: Learning(s) from a synthetic ImageNet clone** \\\n*Mert Bulent Sariyildiz, Karteek Alahari, Diane Larlus, Yannis Kalantidis* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08420)] [[Project](https:\u002F\u002Feurope.naverlabs.com\u002Fresearch\u002Fcomputer-vision\u002Fimagenet-sd\u002F)] \\\n16 Dec 2022\n\n**DiffAlign : Few-shot learning using diffusion based synthesis and alignment** \\\n*Aniket Roy, Anshul Shah, Ketul Shah, Anirban Roy, Rama Chellappa* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05404)] \\\n11 Dec 2022\n\n\n**Diffusion Denoising Process for Perceptron Bias in Out-of-distribution Detection** \\\n*Luping Liu, Yi Ren, Xize Cheng, Zhou Zhao* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11255)] [[Github](https:\u002F\u002Fgithub.com\u002Fluping-liu\u002FDiffOOD)] \\\n21 Nov 2022\n\n\n**DiffusionDet: Diffusion Model for Object Detection** \\\n*Shoufa Chen, Peize Sun, Yibing Song, Ping Luo* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09788)] [[Github](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet)] \\\n17 Nov 2022\n\n\n\n**Denoising Diffusion Models for Out-of-Distribution Detection** \\\n*Mark S. Graham, Walter H.L. Pinaya, Petru-Daniel Tudosiu, Parashkev Nachev, Sebastien Ourselin, M. Jorge Cardoso* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.07740)] [[Github](https:\u002F\u002Fgithub.com\u002Fmarksgraham\u002Fddpm-ood)] \\\n14 Nov 2022\n\n\n\n**A simple, efficient and scalable contrastive masked autoencoder for learning visual representations** \\\n*Shlok Mishra, Joshua Robinson, Huiwen Chang, David Jacobs, Aaron Sarna, Aaron Maschinot, Dilip Krishnan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.16870)] \\\n30 Oct 2022\n\n**From Points to Functions: Infinite-dimensional Representations in Diffusion Models** \\\n*Sarthak Mittal, Guillaume Lajoie, Stefan Bauer, Arash Mehrjou* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.13774)] [[Github](https:\u002F\u002Fgithub.com\u002Fsarthmit\u002Ftraj_drl)] \\\n25 Oct 2022\n\n\n**Boomerang: Local sampling on image manifolds using diffusion models** \\\n*Lorenzo Luzi, Ali Siahkoohi, Paul M Mayer, Josue Casco-Rodriguez, Richard Baraniuk* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12100)] [[Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1PV5Z6b14HYZNx1lHCaEVhId-Y4baKXwt)] \\\n21 Oct 2022\n\n\n**Meta-Learning via Classifier(-free) Guidance** \\\n*Elvis Nava, Seijin Kobayashi, Yifei Yin, Robert K. Katzschmann, Benjamin F. Grewe* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.08942)] \\\n17 Oct 2022\n\n\n### Segmentation\n\n**One-shot Localization and Segmentation of Medical Images with Foundation Models** \\\n*Deepa Anand, Gurunath Reddy M, Vanika Singhal, Dattesh D. Shanbhag, Shriram KS, Uday Patil, Chitresh Bhushan, Kavitha Manickam, Dawei Gui, Rakesh Mullick, Avinash Gopal, Parminder Bhatia, Taha Kass-Hout* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18642)] \\\n28 Oct 2023\n\n**Semantic-preserving image coding based on Conditional Diffusion models** \\\n*Francesco Pezone, Osman Musa, Giuseppe Caire, Sergio Barbarossa* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15737)] \\\n24 Oct 2023\n\n**Diffusion-based Data Augmentation for Nuclei Image Segmentation** \\\n*Xinyi Yu, Guanbin Li, Wei Lou, Siqi Liu, Xiang Wan, Yan Chen, Haofeng Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14197)] \\\n22 Oct 2023\n\n**EMIT-Diff: Enhancing Medical Image Segmentation via Text-Guided Diffusion Model** \\\n*Zheyuan Zhang, Lanhong Yao, Bin Wang, Debesh Jha, Elif Keles, Alpay Medetalibeyoglu, Ulas Bagci* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12868)] \\\n19 Oct 2023\n\n**Towards Training-free Open-world Segmentation via Image Prompting Foundation Models** \\\n*Lv Tang, Peng-Tao Jiang, Hao-Ke Xiao, Bo Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10912)] \\\n17 Oct 2023\n\n**Towards Generic Semi-Supervised Framework for Volumetric Medical Image Segmentation** \\\n*Haonan Wang, Xiaomeng Li* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11320)] [[Github](https:\u002F\u002Fgithub.com\u002Fxmed-lab\u002FGenericSSL)] \\\n17 Oct 2023\n\n**Image Augmentation with Controlled Diffusion for Weakly-Supervised Semantic Segmentation** \\\n*Wangyu Wu, Tianhong Dai, Xiaowei Huang, Fei Ma, Jimin Xiao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09760)] \\\n15 Oct 2023\n\n\n**Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional Image Synthesis** \\\n*Nithin Gopalakrishnan Nair, Anoop Cherian, Suhas Lohit, Ye Wang, Toshiaki Koike-Akino, Vishal M. Patel, Tim K. Marks* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00224)] \\\n30 Sep 2023\n\n**Factorized Diffusion Architectures for Unsupervised Image Generation and Segmentation** \\\n*Xin Yuan, Michael Maire* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15726)] \\\n27 Sep 2023\n\n**Dataset Diffusion: Diffusion-based Synthetic Dataset Generation for Pixel-Level Semantic Segmentation** \\\n*Quang Nguyen, Truong Vu, Anh Tran, Khoi Nguyen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14303)] \\\n25 Sep 2023\n\n**MosaicFusion: Diffusion Models as Data Augmenters for Large Vocabulary Instance Segmentation** \\\n*Jiahao Xie, Wei Li, Xiangtai Li, Ziwei Liu, Yew Soon Ong, Chen Change Loy* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13042)] [[Github](https:\u002F\u002Fgithub.com\u002FJiahao000\u002FMosaicFusion)] \\\n22 Sep 2023\n\n**Beyond Generation: Harnessing Text to Image Models for Object Detection and Segmentation** \\\n*Yunhao Ge, Jiashu Xu, Brian Nlong Zhao, Neel Joshi, Laurent Itti, Vibhav Vineet* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05956)] [[Github](https:\u002F\u002Fgithub.com\u002Fgyhandy\u002FText2Image-for-Detection)] \\\n12 Sep 2023\n\n**Introducing Shape Prior Module in Diffusion Model for Medical Image Segmentation** \\\n*Zhiqing Zhang, Guojia Fan, Tianyong Liu, Nan Li, Yuyang Liu, Ziyu Liu, Canwei Dong, Shoujun Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05929)] \\\n12 Sep 2023\n\n**From Text to Mask: Localizing Entities Using the Attention of Text-to-Image Diffusion Models** \\\n*Changming Xiao, Qi Yang, Feng Zhou, Changshui Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04109)] \\\n8 Sep 2023\n\n**SLiMe: Segment Like Me** \\\n*Aliasghar Khani, Saeid Asgari Taghanaki, Aditya Sanghi, Ali Mahdavi Amiri, Ghassan Hamarneh* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03179)] [[Github](https:\u002F\u002Fgithub.com\u002Faliasgharkhani\u002FSLiMe)] \\\n6 Sep 2023\n\n**Diffusion Model is Secretly a Training-free Open Vocabulary Semantic Segmenter** \\\n*Jinglong Wang, Xiawei Li, Jing Zhang, Qingyuan Xu, Qin Zhou, Qian Yu, Lu Sheng, Dong Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02773)] \\\n6 Sep 2023\n\n\n**GenSelfDiff-HIS: Generative Self-Supervision Using Diffusion for Histopathological Image Segmentation** \\\n*Vishnuvardhan Purma, Suhas Srinath, Seshan Srirangarajan, Aanchal Kakkar, Prathosh A. P* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01487)] [[Github](https:\u002F\u002Fgithub.com\u002FPurmaVishnuVardhanReddy\u002FGenSelfDiff-HIS)] \\\n4 Sep 2023\n\n**Attention as Annotation: Generating Images and Pseudo-masks for Weakly Supervised Semantic Segmentation with Diffusion** \\\n*Ryota Yoshihashi, Yuya Otsuka, Kenji Doi, Tomohiro Tanaka* \\\nAAAI 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01369)] \\\n4 Sep 2023\n\n**ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic Diffusion Models** \\\n*Yuhao Du, Yuncheng Jiang, Shuangyi Tan, Xusheng Wu, Qi Dou, Zhen Li, Guanbin Li, Xiang Wan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01111)] \\\n3 Sep 2023\n\n**Ref-Diff: Zero-shot Referring Image Segmentation with Generative Models** \\\n*Minheng Ni, Yabo Zhang, Kailai Feng, Xiaoming Li, Yiwen Guo, Wangmeng Zuo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16777)] \\\n31 Aug 2023\n\n**Modality Cycles with Masked Conditional Diffusion for Unsupervised Anomaly Segmentation in MRI** \\\n*Ziyun Liang, Harry Anthony, Felix Wagner, Konstantinos Kamnitsas* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16150)] \\\n30 Aug 2023\n\n**A Recycling Training Strategy for Medical Image Segmentation with Diffusion Denoising Models** \\\n*Yunguan Fu, Yiwen Li, Shaheer U Saeed, Matthew J Clarkson, Yipeng Hu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16355)] [[Github](https:\u002F\u002Fgithub.com\u002Fmathpluscode\u002FImgX-DiffSeg)] \\\n30 Aug 2023\n\n**Diffuse, Attend, and Segment: Unsupervised Zero-Shot Segmentation using Stable Diffusion** \\\n*Junjiao Tian, Lavisha Aggarwal, Andrea Colaco, Zsolt Kira, Mar Gonzalez-Franco* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12469)] \\\n23 Aug 2023\n\n**Diffusion-based Image Translation with Label Guidance for Domain Adaptive Semantic Segmentation** \\\n*Duo Peng, Ping Hu, Qiuhong Ke, Jun Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12350)] \\\n23 Aug 2023\n\n**DMCVR: Morphology-Guided Diffusion Model for 3D Cardiac Volume Reconstruction** \\\n*Xiaoxiao He, Chaowei Tan, Ligong Han, Bo Liu, Leon Axel, Kang Li, Dimitris N. Metaxas* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09223)] [[Github](https:\u002F\u002Fgithub.com\u002Fhexiaoxiao-cs\u002FDMCVR)] \\\n18 Aug 2023\n\n**Masked Diffusion as Self-supervised Representation Learner** \\\n*Zixuan Pan, Jianxu Chen, Yiyu Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05695)] \\\n10 Aug 2023\n\n**DermoSegDiff: A Boundary-aware Segmentation Diffusion Model for Skin Lesion Delineation** \\\n*Afshin Bozorgpour, Yousef Sadegheih, Amirhossein Kazerouni, Reza Azad, Dorit Merhof* \\\nMICCAI Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02959)] [[Github](https:\u002F\u002Fgithub.com\u002Fmindflow-institue\u002Fdermosegdiff)] \\\n5 Aug 2023\n\n**DiffusePast: Diffusion-based Generative Replay for Class Incremental Semantic Segmentation** \\\n*Jingfan Chen, Yuxi Wang, Pengfei Wang, Xiao Chen, Zhaoxiang Zhang, Zhen Lei, Qing Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01127)] \\\n2 Aug 2023\n\n**DAVIS: High-Quality Audio-Visual Separation with Generative Diffusion Models** \\\n*Chao Huang, Susan Liang, Yapeng Tian, Anurag Kumar, Chenliang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00122)] \\\n31 Jul 2023\n\n**Pre-Training with Diffusion models for Dental Radiography segmentation** \\\n*Jérémy Rousseau, Christian Alaka, Emma Covili, Hippolyte Mayard, Laura Misrachi, Willy Au* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14066)] \\\n26 Jul 2023\n\n**FEDD -- Fair, Efficient, and Diverse Diffusion-based Lesion Segmentation and Malignancy Classification** \\\n*Héctor Carrión, Narges Norouzi* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11654)] [[Github](https:\u002F\u002Fgithub.com\u002Fhectorcarrion\u002Ffedd)] \\\n21 Jul 2023\n\n**DreamTeacher: Pretraining Image Backbones with Deep Generative Models** \\\n*Daiqing Li, Huan Ling, Amlan Kar, David Acuna, Seung Wook Kim, Karsten Kreis, Antonio Torralba, Sanja Fidler* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07487)] [[Project](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Ftoronto-ai\u002FDreamTeacher\u002F)] \\\n14 Jul 2023\n\n**Prompting Diffusion Representations for Cross-Domain Semantic Segmentation** \\\n*Rui Gong, Martin Danelljan, Han Sun, Julio Delgado Mangas, Luc Van Gool* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.02138)] \\\n5 Jul 2023\n\n**DifFSS: Diffusion Model for Few-Shot Semantic Segmentation** \\\n*Weimin Tan, Siyuan Chen, Bo Yan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00773)] \\\n3 Jul 2023\n\n\n\n**Towards Better Certified Segmentation via Diffusion Models** \\\n*Othmane Laousy, Alexandre Araujo, Guillaume Chassagnon, Marie-Pierre Revel, Siddharth Garg, Farshad Khorrami, Maria Vakalopoulou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09949)] \\\n16 Jun 2023\n\n**Diffusion Models for Zero-Shot Open-Vocabulary Segmentation** \\\n*Laurynas Karazija, Iro Laina, Andrea Vedaldi, Christian Rupprecht* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09316)] \\\n15 Jun 2023\n\n\n**Annotator Consensus Prediction for Medical Image Segmentation with Diffusion Models** \\\n*Tomer Amit, Shmuel Shichrur, Tal Shaharabany, Lior Wolf* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09004)] \\\n15 Jun 2023\n\n\n**Generative Semantic Communication: Diffusion Models Beyond Bit Recovery** \\\n*Eleonora Grassucci, Sergio Barbarossa, Danilo Comminiello* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04321)] [[Github](https:\u002F\u002Fgithub.com\u002Fispamm\u002FGESCO)] \\\n7 Jun 2023\n\n**Conditional Diffusion Models for Weakly Supervised Medical Image Segmentation** \\\n*Xinrong Hu, Yu-Jen Chen, Tsung-Yi Ho, Yiyu Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03878)] \\\n6 Jun 2023\n\n**DFormer: Diffusion-guided Transformer for Universal Image Segmentation** \\\n*Hefeng Wang, Jiale Cao, Rao Muhammad Anwer, Jin Xie, Fahad Shahbaz Khan, Yanwei Pang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03437)] [[Github](https:\u002F\u002Fgithub.com\u002Fcp3wan\u002FDFormer)] \\\n6 Jun 2023\n\n**Denoising Diffusion Semantic Segmentation with Mask Prior Modeling** \\\n*Zeqiang Lai, Yuchen Duan, Jifeng Dai, Ziheng Li, Ying Fu, Hongsheng Li, Yu Qiao, Wenhai Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01721)] \\\n2 Jun 2023\n\n**Multi-Level Global Context Cross Consistency Model for Semi-Supervised Ultrasound Image Segmentation with Diffusion Model** \\\n*Fenghe Tang, Jianrui Ding, Lingtao Wang, Min Xian, Chunping Ning* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09447)] [[Github](https:\u002F\u002Fgithub.com\u002FFengheTan9\u002FMulti-Level-Global-Context-Cross-Consistency)] \\\n16 May 2023\n\n**Echo from noise: synthetic ultrasound image generation using diffusion models for real image segmentation** \\\n*David Stojanovski, Uxio Hermida, Pablo Lamata, Arian Beqiri, Alberto Gomez* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05424)] \\\n9 May 2023\n\n**Personalize Segment Anything Model with One Shot** \\\n*Renrui Zhang, Zhengkai Jiang, Ziyu Guo, Shilin Yan, Junting Pan, Hao Dong, Peng Gao, Hongsheng Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03048)] [[Github](https:\u002F\u002Fgithub.com\u002FZrrSkywalker\u002FPersonalize-SAM)] \\\n4 May 2023\n\n\n**Personalize Segment Anything Model with One Shot** \\\n*Renrui Zhang, Zhengkai Jiang, Ziyu Guo, Shilin Yan, Junting Pan, Hao Dong, Peng Gao, Hongsheng Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03048)] [[Github](https:\u002F\u002Fgithub.com\u002FZrrSkywalker\u002FPersonalize-SAM)] \\\n4 May 2023\n\n**Unsupervised Discovery of 3D Hierarchical Structure with Generative Diffusion Features** \\\n*Nurislam Tursynbek, Marc Niethammer* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00067)] \\\n28 Apr 2023\n\n**DiffuseExpand: Expanding dataset for 2D medical image segmentation using diffusion models** \\\n*Shitong Shao, Xiaohan Yuan, Zhen Huang, Ziming Qiu, Shuai Wang, Kevin Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.13416)] [[Github](https:\u002F\u002Fanonymous.4open.science\u002Fr\u002FDiffuseExpand\u002FREADME.md)] \\\n26 Apr 2023\n\n\n\n**Realistic Data Enrichment for Robust Image Segmentation in Histopathology** \\\n*Sarah Cechnicka, James Ball, Callum Arthurs, Candice Roufosse, Bernhard Kainz* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09534)] \\\n19 Apr 2023\n\n**Denoising Diffusion Medical Models** \\\n*Pham Ngoc Huy, Tran Minh Quan* \\\nIEEE ISBI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09383)] \\\n19 Apr 2023\n\n\n**Ambiguous Medical Image Segmentation using Diffusion Models** \\\n*Aimon Rahman, Jeya Maria Jose Valanarasu, Ilker Hacihaliloglu, Vishal M Patel* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04745)] [[Github](https:\u002F\u002Fgithub.com\u002Faimansnigdha\u002FAmbiguous-Medical-Image-Segmentation-using-Diffusion-Models)] \\\n10 Apr 2023\n\n**BerDiff: Conditional Bernoulli Diffusion Model for Medical Image Segmentation** \\\n*Tao Chen, Chenhui Wang, Hongming Shan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04429)] \\\n10 Apr 2023\n\n\n**Distribution Aligned Diffusion and Prototype-guided network for Unsupervised Domain Adaptive Segmentation** \\\n*Haipeng Zhou, Lei Zhu, Yuyin Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12313)] \\\n22 Mar 2023\n\n**Semantic Latent Space Regression of Diffusion Autoencoders for Vertebral Fracture Grading** \\\n*Matthias Keicher, Matan Atad, David Schinz, Alexandra S. Gersing, Sarah C. Foreman, Sophia S. Goller, Juergen Weissinger, Jon Rischewski, Anna-Sophia Dietrich, Benedikt Wiestler, Jan S. Kirschke, Nassir Navab* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12031)] \\\n21 Mar 2023\n\n**LD-ZNet: A Latent Diffusion Approach for Text-Based Image Segmentation** \\\n*Koutilya Pnvr, Bharat Singh, Pallabi Ghosh, Behjat Siddiquie, David Jacobs* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12343)] \\\n22 Mar 2023\n\n**DiffuMask: Synthesizing Images with Pixel-level Annotations for Semantic Segmentation Using Diffusion Models** \\\n*Weijia Wu, Yuzhong Zhao, Mike Zheng Shou, Hong Zhou, Chunhua Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11681)] [[Project](https:\u002F\u002Fweijiawu.github.io\u002FDiffusionMask\u002F)] \\\n21 Mar 2023\n\n**Object-Centric Slot Diffusion** \\\n*Jindong Jiang, Fei Deng, Gautam Singh, Sungjin Ahn* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10834)] \\\n20 Mar 2023\n\n\n**Diff-UNet: A Diffusion Embedded Network for Volumetric Segmentation** \\\n*Zhaohu Xing, Liang Wan, Huazhu Fu, Guang Yang, Lei Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10326)] [[Github](https:\u002F\u002Fgithub.com\u002Fge-xing\u002FDiff-UNet)] \\\n18 Mar 2023\n\n**DiffusionSeg: Adapting Diffusion Towards Unsupervised Object Discovery** \\\n*Chaofan Ma, Yuhuan Yang, Chen Ju, Fei Zhang, Jinxiang Liu, Yu Wang, Ya Zhang, Yanfeng Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09813)] \\\n17 Mar 2023\n\n**Stochastic Segmentation with Conditional Categorical Diffusion Models** \\\n*Lukas Zbinden, Lars Doorenbos, Theodoros Pissas, Raphael Sznitman, Pablo Márquez-Neila* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08888)] [[Github](https:\u002F\u002Fgithub.com\u002FLarsDoorenbos\u002Fccdm-stochastic-segmentation)] \\\n15 Mar 2023\n\n**DiffBEV: Conditional Diffusion Model for Bird's Eye View Perception** \\\n*Jiayu Zou, Zheng Zhu, Yun Ye, Xingang Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08333)] \\\n15 Mar 2023\n\n**Importance of Aligning Training Strategy with Evaluation for Diffusion Models in 3D Multiclass Segmentation** \\\n*Yunguan Fu, Yiwen Li, Shaheer U. Saeed, Matthew J. Clarkson, Yipeng Hu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06040)] [[Github](https:\u002F\u002Fgithub.com\u002Fmathpluscode\u002FImgX-DiffSeg)] \\\n10 Mar 2023\n\n**MaskDiff: Modeling Mask Distribution with Diffusion Probabilistic Model for Few-Shot Instance Segmentation** \\\n*Minh-Quan Le, Tam V. Nguyen, Trung-Nghia Le, Thanh-Toan Do, Minh N. Do, Minh-Triet Tran* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05105)] \\\n9 Mar 2023\n\n\n**Open-Vocabulary Panoptic Segmentation with Text-to-Image Diffusion Models** \\\n*Jiarui Xu, Sifei Liu, Arash Vahdat, Wonmin Byeon, Xiaolong Wang, Shalini De Mello* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04803)] [[Project](https:\u002F\u002Fjerryxu.net\u002FODISE\u002F)] \\\n8 Mar 2023\n\n\n**MedSegDiff-V2: Diffusion based Medical Image Segmentation with Transformer** \\\n*Junde Wu, Rao Fu, Huihui Fang, Yu Zhang, Yanwu Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11798)] \\\n19 Jan 2023\n\n**DiffusionInst: Diffusion Model for Instance Segmentation** \\\n*Zhangxuan Gu, Haoxing Chen, Zhuoer Xu, Jun Lan, Changhua Meng, Weiqiang Wang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02773)] [[Github](https:\u002F\u002Fgithub.com\u002Fchenhaoxing\u002FDiffusionInst)] \\\n6 DEc 2022\n\n**Multi-Class Segmentation from Aerial Views using Recursive Noise Diffusion** \\\n*Benedikt Kolbeinsson, Krystian Mikolajczyk* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00787)] \\\n1 Dec 2022\n\n**Peekaboo: Text to Image Diffusion Models are Zero-Shot Segmentors** \\\n*Ryan Burgert, Kanchana Ranasinghe, Xiang Li, Michael S. Ryoo* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13224)] \\\n23 Nov 2022\n\n**Improved HER2 Tumor Segmentation with Subtype Balancing using Deep Generative Networks** \\\n*Mathias Öttl, Jana Mönius, Matthias Rübner, Carol I. Geppert, Jingna Qiu, Frauke Wilm, Arndt Hartmann, Matthias W. Beckmann, Peter A. Fasching, Andreas Maier, Ramona Erber, Katharina Breininger* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06150)] \\\n11 Nov 2022\n\n**MedSegDiff: Medical Image Segmentation with Diffusion Probabilistic Model** \\\n*Junde Wu, Huihui Fang, Yu Zhang, Yehui Yang, Yanwu Xu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.00611)] \\\n1 Nov 2022\n\n**Accelerating Diffusion Models via Pre-segmentation Diffusion Sampling for Medical Image Segmentation** \\\n*Xutao Guo, Yanwu Yang, Chenfei Ye, Shang Lu, Yang Xiang, Ting Ma* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.17408)] \\\n27 Oct 2022\n\n**Anatomically constrained CT image translation for heterogeneous blood vessel segmentation** \\\n*Giammarco La Barbera, Haithem Boussaid, Francesco Maso, Sabine Sarnacki, Laurence Rouet, Pietro Gori, Isabelle Bloch* \\\nBMVC 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.01713)] \\\n4 Oct 2022\n\n**Diffusion Adversarial Representation Learning for Self-supervised Vessel Segmentation** \\\n*Boah Kim, Yujin Oh, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14566)] \\\n29 Sep 2022\n\n**Can segmentation models be trained with fully synthetically generated data?** \\\n*Virginia Fernandez, Walter Hugo Lopez Pinaya, Pedro Borges, Petru-Daniel Tudosiu, Mark S Graham, Tom Vercauteren, M Jorge Cardoso* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.08256)] \\\n17 Sep 2022\n\n**Let us Build Bridges: Understanding and Extending Diffusion Generative Models** \\\n*Xingchao Liu, Lemeng Wu, Mao Ye, Qiang Liu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.14699)] \\\n31 Aug 2022\n\n\n**Semantic Image Synthesis via Diffusion Models** \\\n*Weilun Wang, Jianmin Bao, Wengang Zhou, Dongdong Chen, Dong Chen, Lu Yuan, Houqiang Li* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.00050)] \\\n30 Jun 2022\n\n\n**Remote Sensing Change Detection (Segmentation) using Denoising Diffusion Probabilistic Models** \\\n*Wele Gedara Chaminda Bandara, Nithin Gopalakrishnan Nair, Vishal M. Patel* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.11892)] [[Github](https:\u002F\u002Fgithub.com\u002Fwgcban\u002Fddpm-cd)] \\\n23 Jun 2022\n\n\n\n**Diffusion models as plug-and-play priors** \\\n*Alexandros Graikos, Nikolay Malkin, Nebojsa Jojic, Dimitris Samaras* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.09012)] \\\n17 Jun 2022\n\n\n**Fast Unsupervised Brain Anomaly Detection and Segmentation with Diffusion Models** \\\n*Walter H. L. Pinaya, Mark S. Graham, Robert Gray, Pedro F Da Costa, Petru-Daniel Tudosiu, Paul Wright, Yee H. Mah, Andrew D. MacKinnon, James T. Teo, Rolf Jager, David Werring, Geraint Rees, Parashkev Nachev, Sebastien Ourselin, M. Jorge Cardos* \\\nMICCAI 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.03461)] \\\n7 Jun 2022\n\n\n**Decoder Denoising Pretraining for Semantic Segmentation** \\\n*Emmanuel Brempong Asiedu, Simon Kornblith, Ting Chen, Niki Parmar, Matthias Minderer, Mohammad Norouzi* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.11423)] \\\n23 May 2022\n\n**Diffusion Models for Implicit Image Segmentation Ensembles** \\\n*Julia Wolleb, Robin Sandkühler, Florentin Bieder, Philippe Valmaggia, Philippe C. Cattin* \\\nMIDL 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.03145)] \\\n6 Dec 2021\n\n**Label-Efficient Semantic Segmentation with Diffusion Models** \\\n*Dmitry Baranchuk, Ivan Rubachev, Andrey Voynov, Valentin Khrulkov, Artem Babenko* \\\nICLR 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.03126)] [[Github](https:\u002F\u002Fgithub.com\u002Fyandex-research\u002Fddpm-segmentation)] \\\n6 Dec 2021\n\n**SegDiff: Image Segmentation with Diffusion Probabilistic Models** \\\n*Tomer Amit, Eliya Nachmani, Tal Shaharbany, Lior Wolf* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.00390)] \\\n1 Dec 2021\n\n\n**Argmax Flows and Multinomial Diffusion: Learning Categorical Distributions** \\\n*Emiel Hoogeboom, Didrik Nielsen, Priyank Jaini, Patrick Forré, Max Welling* \\\nNeurIPS 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.05379)] \\\n10 Feb 2021\n\n\n\n\n### Image Translation\n\n**Latent Diffusion Counterfactual Explanations** \\\n*Karim Farid, Simon Schrodi, Max Argus, Thomas Brox* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06668)] \\\n10 Oct 2023\n\n**Phasic Content Fusing Diffusion Model with Directional Distribution Consistency for Few-Shot Model Adaption** \\\n*Teng Hu, Jiangning Zhang, Liang Liu, Ran Yi, Siqi Kou, Haokun Zhu, Xu Chen, Yabiao Wang, Chengjie Wang, Lizhuang Ma* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03729)] \\\n7 Sep 2023\n\n**Latent Painter** \\\n*Shih-Chieh Su* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16490)] \\\n31 Aug 2023\n\n**Zero-shot Inversion Process for Image Attribute Editing with Diffusion Models** \\\n*Zhanbo Feng, Zenan Ling, Ci Gong, Feng Zhou, Jie Li, Robert C. Qiu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15854)] \\\n30 Aug 2023\n\n**DiffI2I: Efficient Diffusion Model for Image-to-Image Translation** \\\n*Bin Xia, Yulun Zhang, Shiyin Wang, Yitong Wang, Xinglong Wu, Yapeng Tian, Wenming Yang, Radu Timotfe, Luc Van Gool* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13767)] \\\n26 Aug 2023\n\n**SSMG: Spatial-Semantic Map Guided Diffusion Model for Free-form Layout-to-Image Generation** \\\n*Chengyou Jia, Minnan Luo, Zhuohang Dang, Guang Dai, Xiaojun Chang, Mengmeng Wang, Jingdong Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10156)] \\\n20 Aug 2023\n\n**MeDM: Mediating Image Diffusion Models for Video-to-Video Translation with Temporal Correspondence Guidance** \\\n*Ernie Chu, Tzuhsuan Huang, Shuo-Yen Lin, Jun-Cheng Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10079)] [[Project](https:\u002F\u002Fmedm2023.github.io\u002F)] \\\n19 Aug 2023\n\n**StyleDiffusion: Controllable Disentangled Style Transfer via Diffusion Models** \\\n*Zhizhong Wang, Lei Zhao, Wei Xing* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07863)] \\\n15 Aug 2023\n\n**Inversion-by-Inversion: Exemplar-based Sketch-to-Photo Synthesis via Stochastic Differential Equations without Training** \\\n*Ximing Xing, Chuang Wang, Haitao Zhou, Zhihao Hu, Chongxuan Li, Dong Xu, Qian Yu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07665)] \\\n15 Aug 2023\n\n**Taming the Power of Diffusion Models for High-Quality Virtual Try-On with Appearance Flow** \\\n*Junhong Gou, Siyu Sun, Jianfu Zhang, Jianlou Si, Chen Qian, Liqing Zhang* \\\nACM MM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06101)] \\\n11 Aug 2023\n\n**Head Rotation in Denoising Diffusion Models** \\\n*Andrea Asperti, Gabriele Colasuonno, Antonio Guerra* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06057)] \\\n11 Aug 2023\n\n**Photorealistic and Identity-Preserving Image-Based Emotion Manipulation with Latent Diffusion Models** \\\n*Ioannis Pikoulis, Panagiotis P. Filntisis, Petros Maragos* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03183)] \\\n6 Aug 2023\n\n**SDDM: Score-Decomposed Diffusion Models on Manifolds for Unpaired Image-to-Image Translation** \\\n*Shikun Sun, Longhui Wei, Junliang Xing, Jia Jia, Qi Tian* \\\nICML 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02154)] \\\n4 Aug 2023\n\n**Interpolating between Images with Diffusion Models** \\\n*Clinton J. Wang, Polina Golland* \\\nICML Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12560)] [[Project](https:\u002F\u002Fclintonjwang.github.io\u002Finterpolation)] [[Github](https:\u002F\u002Fgithub.com\u002Fclintonjwang\u002FControlNet)] \\\n24 Jul 2023\n\n**TF-ICON: Diffusion-Based Training-Free Cross-Domain Image Composition** \\\n*Shilin Lu, Yanzhu Liu, Adams Wai-Kin Kong* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12493)] [[Github](https:\u002F\u002Fgithub.com\u002FShilin-LU\u002FTF-ICON)] \\\n24 Jul 2023\n\n**DiffuseGAE: Controllable and High-fidelity Image Manipulation from Disentangled Representation** \\\n*Yipeng Leng, Qiangjuan Huang, Zhiyuan Wang, Yangyang Liu, Haoyu Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.05899)] \\\n12 Jul 2023\n\n\n**DIFF-NST: Diffusion Interleaving For deFormable Neural Style Transfer** \\\n*Dan Ruta, Gemma Canet Tarrés, Andrew Gilbert, Eli Shechtman, Nicholas Kolkin, John Collomosse* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04157)] \\\n9 Jul 2023\n\n**Applying a Color Palette with Local Control using Diffusion Models** \\\n*Vaibhav Vavilala, David Forsyth* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.02698)] \\\n6 Jul 2023\n\n\n**DragonDiffusion: Enabling Drag-style Manipulation on Diffusion Models** \\\n*Chong Mou, Xintao Wang, Jiechong Song, Ying Shan, Jian Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.02421)] [[Project](https:\u002F\u002Fmc-e.github.io\u002Fproject\u002FDragonDiffusion\u002F)] \\\n5 Jul 2023\n\n**DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing** \\\n*Yujun Shi, Chuhui Xue, Jiachun Pan, Wenqing Zhang, Vincent Y. F. Tan, Song Bai* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14435)] \\\n26 Jun 2023\n\n**ArtFusion: Controllable Arbitrary Style Transfer using Dual Conditional Latent Diffusion Models** \\\n*Dar-Yen Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09330)] [[Github](https:\u002F\u002Fgithub.com\u002FChenDarYen\u002FArtFusion)] \\\n15 Jun 2023\n\n\n**InfoDiffusion: Representation Learning Using Information Maximizing Diffusion Models** \\\n*Yingheng Wang, Yair Schiff, Aaron Gokaslan, Weishen Pan, Fei Wang, Christopher De Sa, Volodymyr Kuleshov* \\\nICML 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08757)] \\\n14 Jun 2023\n\n**TryOnDiffusion: A Tale of Two UNets** \\\n*Luyang Zhu, Dawei Yang, Tyler Zhu, Fitsum Reda, William Chan, Chitwan Saharia, Mohammad Norouzi, Ira Kemelmacher-Shlizerman* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08276)] \\\n14 Jun 2023\n\n\n**Improving Diffusion-based Image Translation using Asymmetric Gradient Guidance** \\\n*Gihyun Kwon, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04396)] \\\n7 Jun 2023\n\n\n**DiffSketching: Sketch Control Image Synthesis with Diffusion Models** \\\n*Qiang Wang, Di Kong, Fengyin Lin, Yonggang Qi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18812)] \\\n30 May 2023\n\n**Real-World Image Variation by Aligning Diffusion Inversion Chain** \\\n*Yuechen Zhang, Jinbo Xing, Eric Lo, Jiaya Jia* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18729)] \\\n30 May 2023\n\n**Photoswap: Personalized Subject Swapping in Images** \\\n*Jing Gu, Yilin Wang, Nanxuan Zhao, Tsu-Jui Fu, Wei Xiong, Qing Liu, Zhifei Zhang, He Zhang, Jianming Zhang, HyunJoon Jung, Xin Eric Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18286)] [[Project](https:\u002F\u002Fphotoswap.github.io\u002F)] \\\n29 May 2023\n\n**Diversify Your Vision Datasets with Automatic Diffusion-Based Augmentation** \\\n*Lisa Dunlap, Alyssa Umino, Han Zhang, Jiezhi Yang, Joseph E. Gonzalez, Trevor Darrell* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16289)] [[Github](https:\u002F\u002Fgithub.com\u002Flisadunlap\u002FALIA)] \\\n25 May 2023\n\n**Unpaired Image-to-Image Translation via Neural Schrödinger Bridge** \\\n*Beomsu Kim, Gihyun Kwon, Kwanyoung Kim, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15086)] [[Github](https:\u002F\u002Fgithub.com\u002Fcyclomon\u002FUNSB)] \\\n24 May 2023\n\n**SAR-to-Optical Image Translation via Thermodynamics-inspired Network** \\\n*Mingjin Zhang, Jiamin Xu, Chengyu He, Wenteng Shang, Yunsong Li, Xinbo Gao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13839)] \\\n23 May 2023\n\n\n**Null-text Guidance in Diffusion Models is Secretly a Cartoon-style Creator** \\\n*Jing Zhao, Heliang Zheng, Chaoyue Wang, Long Lan, Wanrong Huang, Wenjing Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06710)] [[Project](https:\u002F\u002Fnulltextforcartoon.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FNullTextforCartoon\u002FNullTextforCartoon)] \\\n11 May 2023\n\n\n**ReGeneration Learning of Diffusion Models with Rich Prompts for Zero-Shot Image Translation** \\\n*Yupei Lin, Sen Zhang, Xiaojun Yang, Xiao Wang, Yukai Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04651)] [[Project](https:\u002F\u002Fyupeilin2388.github.io\u002Fpublication\u002FReDiffuser)] \\\n8 May 2023\n\n**Hierarchical Diffusion Autoencoders and Disentangled Image Manipulation** \\\n*Zeyu Lu, Chengyue Wu, Xinyuan Chen, Yaohui Wang, Yu Qiao, Xihui Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.11829)] \\\n24 Apr 2023\n\n**DiffusionRig: Learning Personalized Priors for Facial Appearance Editing** \\\n*Zheng Ding, Xuaner Zhang, Zhihao Xia, Lars Jebe, Zhuowen Tu, Xiuming Zhang* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06711)] [[Project](https:\u002F\u002Fdiffusionrig.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fadobe-research\u002Fdiffusion-rig)] \\\n13 Apr 2023\n\n\n\n**Face Animation with an Attribute-Guided Diffusion Model** \\\n*Bohan Zeng, Xuhui Liu, Sicheng Gao, Boyu Liu, Hong Li, Jianzhuang Liu, Baochang Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03199)] \\\n6 Apr 2023\n\n\n\n**Reference-based Image Composition with Sketch via Structure-aware Diffusion Model** \\\n*Kangyeol Kim, Sunghyun Park, Junsoo Lee, Jaegul Choo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09748)] \\\n31 Mar 2023\n\n**Training-free Style Transfer Emerges from h-space in Diffusion models** \\\n*Jaeseok Jeong, Mingi Kwon, Youngjung Uh* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15403)] [[Project](https:\u002F\u002Fcurryjung.github.io\u002FDiffStyle\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fcurryjung\u002FDiffStyle_official)] \\\n27 Mar 2023\n\n**Diffusion-based Target Sampler for Unsupervised Domain Adaptation** \\\n*Yulong Zhang, Shuhao Chen, Yu Zhang, Jiangang Lu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12724)] \\\n17 Mar 2023\n\n**StyO: Stylize Your Face in Only One-Shot** \\\n*Bonan Li, Zicheng Zhang, Xuecheng Nie, Congying Han, Yinhan Hu, Tiande Guo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.03231)] \\\n6 Mar 2023\n\n\n**DiffFashion: Reference-based Fashion Design with Structure-aware Transfer by Diffusion Models** \\\n*Shidong Cao, Wenhao Chai, Shengyu Hao, Yanting Zhang, Hangyue Chen, Gaoang Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.06826)] \\\n14 Feb 2023\n\n**I2SB: Image-to-Image Schrödinger Bridge** \\\n*Guan-Horng Liu, Arash Vahdat, De-An Huang, Evangelos A. Theodorou, Weili Nie, Anima Anandkumar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.05872)] [[Project](https:\u002F\u002Fi2sb.github.io\u002F)] \\\n12 Feb 2023\n\n**Zero-shot-Learning Cross-Modality Data Translation Through Mutual Information Guided Stochastic Diffusion** \\\n*Zihao Wang, Yingyu Yang, Maxime Sermesant, Hervé Delingette, Ona Wu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13743)] \\\n31 Jan 2023\n\n**DiffFace: Diffusion-based Face Swapping with Facial Guidance** \\\n*Kihong Kim, Yunho Kim, Seokju Cho, Junyoung Seo, Jisu Nam, Kychul Lee, Seungryong Kim, KwangHee Lee* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.13344)] [[Project](https:\u002F\u002Fhxngiee.github.io\u002FDiffFace\u002F)] \\\n27 Dec 2022\n\n**HS-Diffusion: Learning a Semantic-Guided Diffusion Model for Head Swapping** \\\n*Qinghe Wang, Lijie Liu, Miao Hua, Qian He, Pengfei Zhu, Bing Cao, Qinghua Hu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06458)] \\\n13 Dec 2022\n\n\n**Inversion-Based Creativity Transfer with Diffusion Models** \\\n*Yuxin Zhang, Nisha Huang, Fan Tang, Haibin Huang, Chongyang Ma, Weiming Dong, Changsheng Xu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13203)] [[Github](https:\u002F\u002Fgithub.com\u002FzyxElsa\u002FInST)] \\\n23 Nov 2022\n\n\n**Person Image Synthesis via Denoising Diffusion Model** \\\n*Ankan Kumar Bhunia, Salman Khan, Hisham Cholakkal, Rao Muhammad Anwer, Jorma Laaksonen, Mubarak Shah, Fahad Shahbaz Khan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12500)] \\\n22 Nov 2022\n\n**Unifying Diffusion Models' Latent Space, with Applications to CycleDiffusion and Guidance** \\\n*Chen Henry Wu, Fernando De la Torre* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05559)] [[Github-1](https:\u002F\u002Fgithub.com\u002FChenWu98\u002Fcycle-diffusion)] [[Github-2](https:\u002F\u002Fgithub.com\u002FChenWu98\u002Funified-generative-zoo)] \\\n11 Oct 2022\n\n\n**Anatomically constrained CT image translation for heterogeneous blood vessel segmentation** \\\n*Giammarco La Barbera, Haithem Boussaid, Francesco Maso, Sabine Sarnacki, Laurence Rouet, Pietro Gori, Isabelle Bloch* \\\nBMVC 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.01713)] \\\n4 Oct 2022\n\n\n**Diffusion-based Image Translation using Disentangled Style and Content Representation** \\\n*Gihyun Kwon, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.15264)] \\\n30 Sep 2022\n\n\n**MIDMs: Matching Interleaved Diffusion Models for Exemplar-based Image Translation** \\\n*Junyoung Seo, Gyuseong Lee, Seokju Cho, Jiyoung Lee, Seungryong Kim* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.11047)] [[Project](https:\u002F\u002Fku-cvlab.github.io\u002FMIDMs\u002F)] \\\n22 Sep 2022\n\n\n**Restoring Vision in Adverse Weather Conditions with Patch-Based Denoising Diffusion Models** \\\n*Ozan Özdenizci, Robert Legenstein* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.14626)] \\\n29 Jul 2022\n\n**Non-Uniform Diffusion Models** \\\n*Georgios Batzolis, Jan Stanczuk, Carola-Bibiane Schönlieb, Christian Etmann* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.09786)] \\\n20 Jul 2022\n\n**Unsupervised Medical Image Translation with Adversarial Diffusion Models** \\\n*Muzaffer Özbey, Salman UH Dar, Hasan A Bedel, Onat Dalmaz, Şaban Özturk, Alper Güngör, Tolga Çukur* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.08208)] \\\n17 Jul 2022\n\n**EGSDE: Unpaired Image-to-Image Translation via Energy-Guided Stochastic Differential Equations** \\\n*Min Zhao, Fan Bao, Chongxuan Li, Jun Zhu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.06635)] \\\n14 Jul 2022\n\n**Discrete Contrastive Diffusion for Cross-Modal and Conditional Generation** \\\n*Ye Zhu, Yu Wu, Kyle Olszewski, Jian Ren, Sergey Tulyakov, Yan Yan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07771)] [[Github](https:\u002F\u002Fgithub.com\u002FL-YeZhu\u002FCDCD)] \\\n15 Jun 2022\n\n**Pretraining is All You Need for Image-to-Image Translation** \\\n*Tengfei Wang, Ting Zhang, Bo Zhang, Hao Ouyang, Dong Chen, Qifeng Chen, Fang Wen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.12952)] [[Project](https:\u002F\u002Ftengfei-wang.github.io\u002FPITI\u002Findex.html)] [[Github](https:\u002F\u002Fgithub.com\u002FPITI-Synthesis\u002FPITI)] \\\n25 May 2022\n\n**VQBB: Image-to-image Translation with Vector Quantized Brownian Bridge** \\\n*Bo Li, Kaitao Xue, Bin Liu, Yu-Kun Lai* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.07680)] \\\n16 May 2022\n\n**The Swiss Army Knife for Image-to-Image Translation: Multi-Task Diffusion Models** \\\n*Julia Wolleb, Robin Sandkühler, Florentin Bieder, Philippe C. Cattin* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.02641)] \\\n6 Apr 2022\n\n\n**Dual Diffusion Implicit Bridges for Image-to-Image Translation** \\\n*Xuan Su, Jiaming Song, Chenlin Meng, Stefano Ermon* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.08382)] \\\n16 Mar 2022\n\n**Denoising Diffusion Restoration Models** \\\n*Bahjat Kawar, Michael Elad, Stefano Ermon, Jiaming Song* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.11793)] \\\n27 Jan 2022\n\n**DiffuseMorph: Unsupervised Deformable Image Registration Along Continuous Trajectory Using Diffusion Models** \\\n*Boah Kim, Inhwa Han, Jong Chul Ye* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.05149)] \\\n9 Dec 2021\n\n**Diffusion Autoencoders: Toward a Meaningful and Decodable Representation** \\\n*Konpat Preechakul, Nattanat Chatthee, Suttisak Wizadwongsa, Supasorn Suwajanakorn* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15640)] [[Project](https:\u002F\u002Fdiff-ae.github.io\u002F)] \\\n30 Dec 2021\n\n**Conditional Image Generation with Score-Based Diffusion Models** \\\n*Georgios Batzolis, Jan Stanczuk, Carola-Bibiane Schönlieb, Christian Etmann* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.13606)] \\\n26 Nov 2021\n\n**ILVR: Conditioning Method for Denoising Diffusion Probabilistic Models** \\\n*Jooyoung Choi, Sungwon Kim, Yonghyun Jeong, Youngjune Gwon, Sungroh Yoon* \\\nICCV 2021 (Oral). [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.02938)] [[Github](https:\u002F\u002Fgithub.com\u002Fjychoi118\u002Filvr_adm)] \\\n6 Aug 2021\n\n**UNIT-DDPM: UNpaired Image Translation with Denoising Diffusion Probabilistic Models**  \\\n*Hiroshi Sasaki, Chris G. Willcocks, Toby P. Breckon* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.05358)] \\\n12 Apr 2021\n\n### Inverse Problems\n\n**EDiffSR: An Efficient Diffusion Probabilistic Model for Remote Sensing Image Super-Resolution** \\\n*Yi Xiao, Qiangqiang Yuan, Kui Jiang, Jiang He, Xianyu Jin, Liangpei Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19288)] \\\n30 Oct 2023\n\n\n**Global Structure-Aware Diffusion Process for Low-Light Image Enhancement** \\\n*Jinhui Hou, Zhiyu Zhu, Junhui Hou, Hui Liu, Huanqiang Zeng, Hui Yuan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17577)] \\\n26 Oct 2023\n\n\n**From Posterior Sampling to Meaningful Diversity in Image Restoration** \\\n*Noa Cohen, Hila Manor, Yuval Bahat, Tomer Michaeli* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16047)] \\\n24 Oct 2023\n\n**Diffusion-Model-Assisted Supervised Learning of Generative Models for Density Estimation** \\\n*Yanfang Liu, Minglei Yang, Zezhong Zhang, Feng Bao, Yanzhao Cao, Guannan Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14458)] \\\n22 Oct 2023\n\n**High-Quality 3D Face Reconstruction with Affine Convolutional Networks** \\\n*Zhiqian Lin, Jiangke Lin, Lincheng Li, Yi Yuan, Zhengxia Zou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14237)] \\\n22 Oct 2023\n\n**Image Super-resolution Via Latent Diffusion: A Sampling-space Mixture Of Experts And Frequency-augmented Decoder Approach** \\\n*Feng Luo, Jinxi Xiang, Jun Zhang, Xiao Han, Wei Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12004)] \\\n18 Oct 2023\n\n**Towards image compression with perfect realism at ultra-low bitrates** \\\n*Marlène Careil, Matthew J. Muckley, Jakob Verbeek, Stéphane Lathuilière* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10325)] \\\n16 Oct 2023\n\n**AutoDIR: Automatic All-in-One Image Restoration with Latent Diffusion** \\\n*Yitong Jiang, Zhaoyang Zhang, Tianfan Xue, Jinwei Gu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10123)] \\\n16 Oct 2023\n\n**Exploring the Design Space of Diffusion Autoencoders for Face Morphing** \\\n*Zander Blasingame, Chen Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09484)] \\\n14 Oct 2023\n\n**Diffusion Prior Regularized Iterative Reconstruction for Low-dose CT** \\\n*Wenjun Xia, Yongyi Shi, Chuang Niu, Wenxiang Cong, Ge Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06949)] \\\n10 Oct 2023\n\n\n**SMRD: SURE-based Robust MRI Reconstruction with Diffusion Models** \\\n*Batu Ozturkler, Chao Liu, Benjamin Eckart, Morteza Mardani, Jiaming Song, Jan Kautz* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01799)] [[Github](https:\u002F\u002Fgithub.com\u002FNVlabs\u002FSMRD)] \\\n3 Oct 2023\n\n**Conditional Diffusion Distillation** \\\n*Kangfu Mei, Mauricio Delbracio, Hossein Talebi, Zhengzhong Tu, Vishal M. Patel, Peyman Milanfar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01407)] \\\n2 Oct 2023\n\n**CommIN: Semantic Image Communications as an Inverse Problem with INN-Guided Diffusion Models** \\\n*Jiakang Chen, Di You, Deniz Gündüz, Pier Luigi Dragotti* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01130)] \\\n2 Oct 2023\n\n\n**Prompt-tuning latent diffusion models for inverse problems** \\\n*Hyungjin Chung, Jong Chul Ye, Peyman Milanfar, Mauricio Delbracio* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01110)] \\\n2 Oct 2023\n\n**Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional Image Synthesis** \\\n*Nithin Gopalakrishnan Nair, Anoop Cherian, Suhas Lohit, Ye Wang, Toshiaki Koike-Akino, Vishal M. Patel, Tim K. Marks* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00224)] \\\n30 Sep 2023\n\n**Generating Visual Scenes from Touch** \\\n*Fengyu Yang, Jiacheng Zhang, Andrew Owens* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15117)] [[Project](https:\u002F\u002Ffredfyyang.github.io\u002Fvision-from-touch\u002F)] \\\n26 Sep 2023\n\n**Bootstrap Diffusion Model Curve Estimation for High Resolution Low-Light Image Enhancement** \\\n*Jiancheng Huang, Yifan Liu, Shifeng Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14709)] \\\n26 Sep 2023\n\n**Multiple Noises in Diffusion Model for Semi-Supervised Multi-Domain Translation** \\\n*Tsiry Mayet, Simon Bernard, Clement Chatelain, Romain Herault* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14394)] \\\n25 Sep 2023\n\n**Domain-Guided Conditional Diffusion Model for Unsupervised Domain Adaptation** \\\n*Yulong Zhang, Shuhao Chen, Weisen Jiang, Yu Zhang, Jiangang Lu, James T. Kwok* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14360)] \\\n23 Sep 2023\n\n**License Plate Super-Resolution Using Diffusion Models** \\\n*Sawsan AlHalawani, Bilel Benjdira, Adel Ammar, Anis Koubaa, Anas M. Ali* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.12506)] \\\n21 Sep 2023\n\n**Deshadow-Anything: When Segment Anything Model Meets Zero-shot shadow removal** \\\n*Xiao Feng Zhang, Tian Yi Song, Jia Wei Yao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11715)] \\\n21 Sep 2023\n\n\n**Face Aging via Diffusion-based Editing** \\\n*Xiangyi Chen, Stéphane Lathuilière* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11321)] \\\n20 Sep 2023\n\n**PGDiff: Guiding Diffusion Models for Versatile Face Restoration via Partial Guidance** \\\n*Peiqing Yang, Shangchen Zhou, Qingyi Tao, Chen Change Loy* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10810)] [[Github](https:\u002F\u002Fgithub.com\u002Fpq-yang\u002FPGDiff)] \\\n19 Sep 2023\n\n**Reconstruct-and-Generate Diffusion Model for Detail-Preserving Image Denoising** \\\n*Yujin Wang, Lingen Li, Tianfan Xue, Jinwei Gu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10714)] \\\n19 Sep 2023\n\n**Gradpaint: Gradient-Guided Inpainting with Diffusion Models** \\\n*Asya Grechka, Guillaume Couairon, Matthieu Cord* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09614)] \\\n18 Sep 2023\n\n\n\n**AdBooster: Personalized Ad Creative Generation using Stable Diffusion Outpainting** \\\n*Veronika Shilova, Ludovic Dos Santos, Flavian Vasile, Gaëtan Racic, Ugo Tanielian* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11507)] \\\n8 Sep 2023\n\n**Underwater Image Enhancement by Transformer-based Diffusion Model with Non-uniform Sampling for Skip Strategy** \\\n*Yi Tang, Takafumi Iwaguchi, Hiroshi Kawasaki* \\\nACM MM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03445)] [[Github](https:\u002F\u002Fgithub.com\u002Fpiggy2009\u002FDM_underwater)] \\\n7 Sep 2023\n\n**Efficient Bayesian Computational Imaging with a Surrogate Score-Based Prior** \\\n*Berthy T. Feng, Katherine L. Bouman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01949)] \\\n5 Sep 2023\n\n**Diffusion Modeling with Domain-conditioned Prior Guidance for Accelerated MRI and qMRI Reconstruction** \\\n*Wanyu Bian, Albert Jang, Fang Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00783)] \\\n2 Sep 2023\n\n**Correlated and Multi-frequency Diffusion Modeling for Highly Under-sampled MRI Reconstruction** \\\n*Yu Guan, Chuanming Yu, Shiyu Lu, Zhuoxu Cui, Dong Liang, Qiegen Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00853)] [[Github](https:\u002F\u002Fgithub.com\u002Fyqx7150\u002FCM-DM)] \\\n2 Sep 2023\n\n**Fast Diffusion EM: a diffusion model for blind inverse problems with application to deconvolution** \\\n*Charles Laroche, Andrés Almansa, Eva Coupete* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00287)] [[Github](https:\u002F\u002Fanonymous.4open.science\u002Fr\u002FFastDiffusionEM-26BE\u002FREADME.md)] \\\n1 Sep 2023\n\n**Unsupervised CT Metal Artifact Reduction by Plugging Diffusion Priors in Dual Domains** \\\n*Xuan Liu, Yaoqin Xie, Songhui Diao, Shan Tan, Xiaokun Liang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16742)] \\\n31 Aug 2023\n\n**Stage-by-stage Wavelet Optimization Refinement Diffusion Model for Sparse-View CT Reconstruction** \\\n*Kai Xu, Shiyu Lu, Bin Huang, Weiwen Wu, Qiegen Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15942)] \\\n30 Aug 2023\n\n**Physics-Informed DeepMRI: Bridging the Gap from Heat Diffusion to k-Space Interpolation** \\\n*Zhuo-Xu Cui, Congcong Liu, Xiaohong Fan, Chentao Cao, Jing Cheng, Qingyong Zhu, Yuanyuan Liu, Sen Jia, Yihang Zhou, Haifeng Wang, Yanjie Zhu, Jianping Zhang, Qiegen Liu, Dong Liang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15918)] \\\n30 Aug 2023\n\n**DiffBIR: Towards Blind Image Restoration with Generative Diffusion Prior** \\\n*Xinqi Lin, Jingwen He, Ziyan Chen, Zhaoyang Lyu, Ben Fei, Bo Dai, Wanli Ouyang, Yu Qiao, Chao Dong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15070)] [[Github](https:\u002F\u002Fgithub.com\u002FXPixelGroup\u002FDiffBIR)] \\\n29 Aug 2023\n\n**Pixel-Aware Stable Diffusion for Realistic Image Super-resolution and Personalized Stylization** \\\n*Tao Yang, Peiran Ren, Xuansong Xie, Lei Zhang* \\\nAAAI 2024. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14469)] \\\n28 Aug 2023\n\n**Data-iterative Optimization Score Model for Stable Ultra-Sparse-View CT Reconstruction** \\\n*Weiwen Wu, Yanyang Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14437)] \\\n28 Aug 2023\n\n**Residual Denoising Diffusion Models** \\\n*Jiawei Liu, Qiang Wang, Huijie Fan, Yinong Wang, Yandong Tang, Liangqiong Qu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13712)] [[Github](https:\u002F\u002Fgithub.com\u002Fnachifur\u002FRDDM)] \\\n25 Aug 2023\n\n**Diff-Retinex: Rethinking Low-light Image Enhancement with A Generative Diffusion Model** \\\n*Xunpeng Yi, Han Xu, Hao Zhang, Linfeng Tang, Jiayi Ma* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13164)] \\\n25 Aug 2023\n\n**Full-dose PET Synthesis from Low-dose PET Using High-efficiency Diffusion Denoising Probabilistic Model** \\\n*Shaoyan Pan, Elham Abouei, Junbo Peng, Joshua Qian, Jacob F Wynne, Tonghe Wang, Chih-Wei Chang, Justin Roper, Jonathon A Nye, Hui Mao, Xiaofeng Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13072)] \\\n24 Aug 2023\n\n**InverseSR: 3D Brain MRI Super-Resolution Using a Latent Diffusion Model** \\\n*Jueqi Wang, Jacob Levman, Walter Hugo Lopez Pinaya, Petru-Daniel Tudosiu, M. Jorge Cardoso, Razvan Marinescu* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12465)] [[Github](https:\u002F\u002Fgithub.com\u002FBioMedAI-UCSC\u002FInverseSR)] \\\n23 Aug 2023\n\n**High-quality Image Dehazing with Diffusion Model** \\\n*Hu Yu, Jie Huang, Kaiwen Zheng, Man Zhou, Feng Zhao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11949)] \\\n23 Aug 2023\n\n**Frequency Compensated Diffusion Model for Real-scene Dehazing** \\\n*Jing Wang, Songtao Wu, Kuanhong Xu, Zhiqiang Yuan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10510)] \\\n21 Aug 2023\n\n\n\n**Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine PET Reconstruction** \\\n*Zeyu Han, Yuhan Wang, Luping Zhou, Peng Wang, Binyu Yan, Jiliu Zhou, Yan Wang, Dinggang Shen* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10157)] [[Github](https:\u002F\u002Fgithub.com\u002FShow-han\u002FPET-Reconstruction)] \\\n20 Aug 2023\n\n**DiffLLE: Diffusion-guided Domain Calibration for Unsupervised Low-light Image Enhancement** \\\n*Shuzhou Yang, Xuanyu Zhang, Yinhuai Wang, Jiwen Yu, Yuhan Wang, Jian Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09279)] \\\n18 Aug 2023\n\n**Learning A Coarse-to-Fine Diffusion Transformer for Image Restoration** \\\n*Liyan Wang, Qinyu Yang, Cong Wang, Wei Wang, Jinshan Pan, Zhixun Su* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08730)] \\\n17 Aug 2023\n\n**Monte Carlo guided Diffusion for Bayesian linear inverse problems** \\\n*Gabriel Cardoso, Yazid Janati El Idrissi, Sylvain Le Corff, Eric Moulines* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07983)] \\\n15 Aug 2023\n\n**Geometry of the Visual Cortex with Applications to Image Inpainting and Enhancement** \\\n*Francesco Ballerin, Erlend Grong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07652)] [[Github](https:\u002F\u002Fgithub.com\u002Fballerin\u002Fv1diffusion)] \\\n15 Aug 2023\n\n**YODA: You Only Diffuse Areas. An Area-Masked Diffusion Approach For Image Super-Resolution** \\\n*Brian B. Moser, Stanislav Frolov, Federico Raue, Sebastian Palacio, Andreas Dengel* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07977)] \\\n15 Aug 2023\n\n**TextDiff: Mask-Guided Residual Diffusion Models for Scene Text Image Super-Resolution** \\\n*Baolin Liu, Zongyuan Yang, Pengfei Wang, Junjie Zhou, Ziqi Liu, Ziyi Song, Yan Liu, Yongping Xiong* \\\nAAAI 2024. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06743)] \\\n13 Aug 2023\n\n**CLE Diffusion: Controllable Light Enhancement Diffusion Model** \\\n*Yuyang Yin, Dejia Xu, Chuangchuang Tan, Ping Liu, Yao Zhao, Yunchao Wei* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06725)] [[Project](https:\u002F\u002Fyuyangyin.github.io\u002FCLEDiffusion\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FYuyangYin\u002FCLEDiffusion)] \\\n13 Aug 2023\n\n**Diffusion-Augmented Depth Prediction with Sparse Annotations** \\\n*Jiaqi Li, Yiran Wang, Zihao Huang, Jinghong Zheng, Ke Xian, Zhiguo Cao, Jianming Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02283)] \\\n4 Aug 2023\n\n**Painterly Image Harmonization using Diffusion Model** \\\n*Lingxiao Lu, Jiangtong Li, Junyan Cao, Li Niu, Liqing Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02228)] \\\n4 Aug 2023\n\n**Reference-Free Isotropic 3D EM Reconstruction using Diffusion Models** \\\n*Kyungryun Lee, Won-Ki Jeong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01594)] \\\n3 Aug 2023\n\n\n\n**Learning Fourier-Constrained Diffusion Bridges for MRI Reconstruction** \\\n*Muhammad U. Mirza, Onat Dalmaz, Hasan A. Bedel, Gokberk Elmas, Yilmaz Korkmaz, Alper Gungor, Salman UH Dar, Tolga Çukur* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01096)] \\\n2 Aug 2023\n\n\n**Ultrasound Image Reconstruction with Denoising Diffusion Restoration Models** \\\n*Yuxin Zhang, Clément Huneau, Jérôme Idier, Diana Mateus* \\\nMICCAI Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.15990)] [[Github](https:\u002F\u002Fgithub.com\u002FYuxin-Zhang-Jasmine\u002FDRUS-v1)] \\\n29 Jul 2023\n\n**LLDiffusion: Learning Degradation Representations in Diffusion Models for Low-Light Image Enhancement** \\\n*Tao Wang, Kaihao Zhang, Ziqian Shao, Wenhan Luo, Bjorn Stenger, Tae-Kyun Kim, Wei Liu, Hongdong Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14659)] \\\n27 Jul 2023\n\n**Artifact Restoration in Histology Images with Diffusion Probabilistic Models** \\\n*Zhenqi He, Junjun He, Jin Ye, Yiqing Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14262)] [[Github](https:\u002F\u002Fgithub.com\u002Fzhenqi-he\u002FArtiFusion)] \\\n26 Jul 2023\n\n**ResShift: Efficient Diffusion Model for Image Super-resolution by Residual Shifting** \\\n*Zongsheng Yue, Jianyi Wang, Chen Change Loy* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12348)] [[Github](https:\u002F\u002Fgithub.com\u002FzsyOAOA\u002FResShift)] \\\n23 Jul 2023\n\n\n**Iterative Reconstruction Based on Latent Diffusion Model for Sparse Data Reconstruction** \\\n*Linchao He, Hongyu Yan, Mengting Luo, Kunming Luo, Wang Wang, Wenchao Du, Hu Chen, Hongyu Yang, Yi Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12070)] \\\n22 Jul 2023\n\n**PartDiff: Image Super-resolution with Partial Diffusion Models** \\\n*Kai Zhao, Alex Ling Yu Hung, Kaifeng Pang, Haoxin Zheng, Kyunghyun Sung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11926)] \\\n21 Jul 2023\n\n**Reference-based Painterly Inpainting via Diffusion: Crossing the Wild Reference Domain Gap** \\\n*Dejia Xu, Xingqian Xu, Wenyan Cong, Humphrey Shi, Zhangyang Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10584)] [[Project](https:\u002F\u002Fvita-group.github.io\u002FRefPaint\u002F)] \\\n20 Jul 2023\n\n**AnyDoor: Zero-shot Object-level Image Customization** \\\n*Xi Chen, Lianghua Huang, Yu Liu, Yujun Shen, Deli Zhao, Hengshuang Zhao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09481)] [[Project](https:\u002F\u002Fdamo-vilab.github.io\u002FAnyDoor-Page\u002F)] \\\n18 Jul 2023\n\n**Towards Authentic Face Restoration with Iterative Diffusion Models and Beyond** \\\n*Yang Zhao, Tingbo Hou, Yu-Chuan Su, Xuhui Jia. Yandong Li, Matthias Grundmann* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08996)] \\\n18 Jul 2023\n\n\n\n**Flow Matching in Latent Space** \\\n*Quan Dao, Hao Phung, Binh Nguyen, Anh Tran* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08698)] [[Project](https:\u002F\u002Fvinairesearch.github.io\u002FLFM\u002F)] \\\n17 Jul 2023\n\n**Identity-Preserving Aging of Face Images via Latent Diffusion Models** \\\n*Sudipta Banerjee, Govind Mittal, Ameya Joshi, Chinmay Hegde, Nasir Memon* \\\nIJCB 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08585)] \\\n17 Jul 2023\n\n\n\n**Solving Inverse Problems with Latent Diffusion Models via Hard Data Consistency** \\\n*Bowen Song, Soo Min Kwon, Zecheng Zhang, Xinyu Hu, Qing Qu, Liyue Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08123)] \\\n16 Jul 2023\n\n**ExposureDiffusion: Learning to Expose for Low-light Image Enhancement** \\\n*Yufei Wang, Yi Yu, Wenhan Yang, Lanqing Guo, Lap-Pui Chau, Alex C. Kot, Bihan Wen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07710)] \\\n15 Jul 2023\n\n**DDGM: Solving inverse problems by Diffusive Denoising of Gradient-based Minimization** \\\n*Kyle Luther, H. Sebastian Seung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04946)] \\\n11 Jul 2023\n\n**Stimulating the Diffusion Model for Image Denoising via Adaptive Embedding and Ensembling** \\\n*Tong Li, Hansen Feng, Lizhi Wang, Zhiwei Xiong, Hua Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03992)] \\\n8 Jul 2023\n\n**IPO-LDM: Depth-aided 360-degree Indoor RGB Panorama Outpainting via Latent Diffusion Model** \\\n*Tianhao Wu, Chuanxia Zheng, Tat-Jen Cham* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03177)] [[Github](https:\u002F\u002Fsm0kywu.github.io\u002Fipoldm\u002F)] \\\n6 Jul 2023\n\n**Single Image LDR to HDR Conversion using Conditional Diffusion** \\\n*Dwip Dalal, Gautam Vashishtha, Prajwal Singh, Shanmuganathan Raman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.02814)] \\\n6 Jul 2023\n\n**ACDMSR: Accelerated Conditional Diffusion Models for Single Image Super-Resolution** \\\n*Axi Niu, Pham Xuan Trung, Kang Zhang, Jinqiu Sun, Yu Zhu, In So Kweon, Yanning Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00781)] \\\n3 Jul 2023\n\n**LEDITS: Real Image Editing with DDPM Inversion and Semantic Guidance** \\\n*Linoy Tsaban, Apolinário Passos* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00522)] \\\n2 Jul 2023\n\n\n**Solving Linear Inverse Problems Provably via Posterior Sampling with Latent Diffusion Models** \\\n*Litu Rout, Negin Raoof, Giannis Daras, Constantine Caramanis, Alexandros G. Dimakis, Sanjay Shakkottai* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00619)] [[Github](https:\u002F\u002Fgithub.com\u002FLituRout\u002FPSLD)] \\\n2 Jul 2023\n\n**Content-Preserving Diffusion Model for Unsupervised AS-OCT image Despeckling** \\\n*Li Sanqian, Higashita Risa, Fu Huazhu, Li Heng, Niu Jingxuan, Liu Jiang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17717)] \\\n30 Jun 2023\n\n\n**Self-Supervised MRI Reconstruction with Unrolled Diffusion Models** \\\n*Yilmaz Korkmaz, Tolga Cukur, Vishal Patel* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16654)] \\\n29 Jun 2023\n\n**SVNR: Spatially-variant Noise Removal with Denoising Diffusion** \\\n*Naama Pearl, Yaron Brodsky, Dana Berman, Assaf Zomet, Alex Rav Acha, Daniel Cohen-Or, Dani Lischinski* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16052)] \\\n28 Jun 2023\n\n\n**Easing Color Shifts in Score-Based Diffusion Models** \\\n*Katherine Deck, Tobias Bischoff* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.15832)] \\\n27 Jun 2023\n\n**Diffusion Model Based Low-Light Image Enhancement for Space Satellite** \\\n*Yiman Zhu, Lu Wang, Jingyi Yuan, Yu Guo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14227)] \\\n25 Jun 2023\n\n**DiffInfinite: Large Mask-Image Synthesis via Parallel Random Patch Diffusion in Histopathology** \\\n*Marco Aversa, Gabriel Nobis, Miriam Hägele, Kai Standvoss, Mihaela Chirica, Roderick Murray-Smith, Ahmed Alaa, Lukas Ruff, Daniela Ivanova, Wojciech Samek, Frederick Klauschen, Bruno Sanguinetti, Luis Oala* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13384)] \\\n23 Jun 2023\n\n\n**Wind Noise Reduction with a Diffusion-based Stochastic Regeneration Model** \\\n*Jean-Marie Lemercier, Joachim Thiemann, Raphael Koning, Timo Gerkmann* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12867)] \\\n22 Jun 2023\n\n\n**DiffuseIR:Diffusion Models For Isotropic Reconstruction of 3D Microscopic Images** \\\n*Mingjie Pan, Yulu Gan, Fangxu Zhou, Jiaming Liu, Aimin Wang, Shanghang Zhang, Dawei Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12109)] \\\n21 Jun 2023\n\n\n**HSR-Diff:Hyperspectral Image Super-Resolution via Conditional Diffusion Models** \\\n*Chanyue Wu, Dong Wang, Hanyu Mao, Ying Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12085)] \\\n21 Jun 2023\n\n\n**Diffusion with Forward Models: Solving Stochastic Inverse Problems Without Direct Supervision** \\\n*Ayush Tewari, Tianwei Yin, George Cazenavette, Semon Rezchikov, Joshua B. Tenenbaum, Frédo Durand, William T. Freeman, Vincent Sitzmann* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11719)] \\\n20 Jun 2023\n\n**Deep Ultrasound Denoising Using Diffusion Probabilistic Models** \\\n*Hojat Asgariandehkordi, Sobhan Goudarzi, Adrian Basarab, Hassan Rivaz* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07440)] \\\n12 Jun 2023\n\n**Towards Visual Foundational Models of Physical Scenes** \\\n*Chethan Parameshwara, Alessandro Achille, Matthew Trager, Xiaolong Li, Jiawei Mo, Matthew Trager, Ashwin Swaminathan, CJ Taylor, Dheera Venkatraman, Xiaohan Fei, Stefano Soatto* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03727)] \\\n6 Jun 2023\n\n\n**INDigo: An INN-Guided Probabilistic Diffusion Algorithm for Inverse Problems** \\\n*Di You, Andreas Floros, Pier Luigi Dragotti* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02949)] \\\n5 Jun 2023\n\n**The Surprising Effectiveness of Diffusion Models for Optical Flow and Monocular Depth Estimation** \\\n*Saurabh Saxena, Charles Herrmann, Junhwa Hur, Abhishek Kar, Mohammad Norouzi, Deqing Sun, David J. Fleet* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01923)] \\\n2 Jun 2023\n\n**Dissecting Arbitrary-scale Super-resolution Capability from Pre-trained Diffusion Generative Models** \\\n*Ruibin Li, Qihua Zhou, Song Guo, Jie Zhang, Jingcai Guo, Xinyang Jiang, Yifei Shen, Zhenhua Han* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00714)] \\\n1 Jun 2023\n\n**Low-Light Image Enhancement with Wavelet-based Diffusion Models** \\\n*Hai Jiang, Ao Luo, Songchen Han, Haoqiang Fan, Shuaicheng Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00306)] \\\n1 Jun 2023\n\n**A Unified Conditional Framework for Diffusion-based Image Restoration** \\\n*Yi Zhang, Xiaoyu Shi, Dasong Li, Xiaogang Wang, Jian Wang, Hongsheng Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.20049)] \\\n31 May 2023\n\n**Direct Diffusion Bridge using Data Consistency for Inverse Problems** \\\n*Hyungjin Chung, Jeongsol Kim, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19809)] \\\n31 May 2023\n\n**Accelerating Diffusion Models for Inverse Problems through Shortcut Sampling** \\\n*Gongye Liu, Haoze Sun, Jiayi Li, Fei Yin, Yujiu Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16965)] \\\n26 May 2023\n\n**Look Ma, No Hands! Agent-Environment Factorization of Egocentric Videos** \\\n*Matthew Chang, Aditya Prakash, Saurabh Gupta* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16301)] [[Project](https:\u002F\u002Fmatthewchang.github.io\u002Fvidm\u002F)] \\\n25 May 2023\n\n**A Diffusion Probabilistic Prior for Low-Dose CT Image Denoising** \\\n*Xuan Liu, Yaoqin Xie, Songhui Diao, Shan Tan, Xiaokun Liang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15887)] \\\n25 May 2023\n\n**Solving Diffusion ODEs with Optimal Boundary Conditions for Better Image Super-Resolution** \\\n*Yiyang Ma, Huan Yang, Wenhan Yang, Jianlong Fu, Jiaying Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15357)] \\\n24 May 2023\n\n**WaveDM: Wavelet-Based Diffusion Models for Image Restoration** \\\n*Yi Huang, Jiancheng Huang, Jianzhuang Liu, Yu Dong, Jiaxi Lv, Shifeng Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13819)] \\\n23 May 2023\n\n**Dual-Diffusion: Dual Conditional Denoising Diffusion Probabilistic Models for Blind Super-Resolution Reconstruction in RSIs** \\\n*Mengze Xu, Jie Ma, Yuanyuan Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12170)] [[Github](https:\u002F\u002Fgithub.com\u002FLincoln20030413\u002FDDSR)] \\\n20 May 2023\n\n**UniControl: A Unified Diffusion Model for Controllable Visual Generation In the Wild** \\\n*Can Qin, Shu Zhang, Ning Yu, Yihao Feng, Xinyi Yang, Yingbo Zhou, Huan Wang, Juan Carlos Niebles, Caiming Xiong, Silvio Savarese, Stefano Ermon, Yun Fu, Ran Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11147)] \\\n18 May 2023\n\n**Pyramid Diffusion Models For Low-light Image Enhancement** \\\n*Dewei Zhou, Zongxin Yang, Yi Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10028)] \\\n17 May 2023\n\n**A Conditional Denoising Diffusion Probabilistic Model for Radio Interferometric Image Reconstruction** \\\n*Ruoqi Wang, Zhuoyang Chen, Qiong Luo, Feng Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09121)]\n16 May 2023\n\n**Denoising Diffusion Models for Plug-and-Play Image Restoration** \\\n*Yuanzhi Zhu, Kai Zhang, Jingyun Liang, Jiezhang Cao, Bihan Wen, Radu Timofte, Luc Van Gool* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08995)] [[Github](https:\u002F\u002Fgithub.com\u002Fyuanzhi-zhu\u002FDiffPIR)] \\\n15 May 2023\n\n\n**Exploiting Diffusion Prior for Real-World Image Super-Resolution** \\\n*Jianyi Wang, Zongsheng Yue, Shangchen Zhou, Kelvin C.K. Chan, Chen Change Loy* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.07015)] [[Project](https:\u002F\u002Ficeclear.github.io\u002Fprojects\u002Fstablesr\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FIceClear\u002FStableSR)] \\\n11 May 2023\n\n**Atmospheric Turbulence Correction via Variational Deep Diffusion** \\\n*Xijun Wang, Santiago López-Tapia, Aggelos K. Katsaggelos* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05077)] \\\n8 May 2023\n\n**Controllable Light Diffusion for Portraits** \\\n*David Futschik, Kelvin Ritland, James Vecore, Sean Fanello, Sergio Orts-Escolano, Brian Curless, Daniel Sýkora, Rohit Pandey* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04745)] \\\n8 May 2023\n\n**DiffBFR: Bootstrapping Diffusion Model Towards Blind Face Restoration** \\\n*Xinmin Qiu, Congying Han, ZiCheng Zhang, Bonan Li, Tiande Guo, Xuecheng Nie* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04517)] \\\n8 May 2023\n\n**Real-World Denoising via Diffusion Model** \\\n*Cheng Yang, Lijing Liang, Zhixun Su* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04457)] \\\n8 May 2023\n\n**A Variational Perspective on Solving Inverse Problems with Diffusion Models** \\\n*Morteza Mardani, Jiaming Song, Jan Kautz, Arash Vahdat* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04391)] \\\n7 May 2023\n\n**Synthesizing PET images from High-field and Ultra-high-field MR images Using Joint Diffusion Attention Model** \\\n*Taofeng Xie, Chentao Cao, Zhuoxu Cui, Yu Guo, Caiying Wu, Xuemei Wang, Qingneng Li, Zhanli Hu, Tao Sun, Ziru Sang, Yihang Zhou, Yanjie Zhu, Dong Liang, Qiyu Jin, Guoqing Chen, Haifeng Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03901)] \\\n6 May 2023\n\n\n\n**DocDiff: Document Enhancement via Residual Diffusion Models** \\\n*Zongyuan Yang, Baolin Liu, Yongping Xiong, Lan Yi, Guibin Wu, Xiaojun Tang, Ziqi Liu, Junjie Zhou, Xing Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03892)] [[Github](https:\u002F\u002Fgithub.com\u002FRoyalvice\u002FDocDiff)] \\\n6 May 2023\n\n**Solving Inverse Problems with Score-Based Generative Priors learned from Noisy Data** \\\n*Asad Aali, Marius Arvinte, Sidharth Kumar, Jonathan I. Tamir* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01166)] \\\n2 May 2023\n\n**Self-similarity-based super-resolution of photoacoustic angiography from hand-drawn doodles** \\\n*Yuanzheng Ma, Wangting Zhou, Rui Ma, Sihua Yang, Yansong Tang, Xun Guan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01165)] \\\n2 May 2023\n\n**Score-Based Diffusion Models as Principled Priors for Inverse Imaging** \\\n*Berthy T. Feng, Jamie Smith, Michael Rubinstein, Huiwen Chang, Katherine L. Bouman, William T. Freeman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.11751)] \\\n23 Apr 2023\n\n**Improved Diffusion-based Image Colorization via Piggybacked Models** \\\n*Hanyuan Liu, Jinbo Xing, Minshan Xie, Chengze Li, Tien-Tsin Wong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.11105)] [[Project](https:\u002F\u002Fpiggyback-color.github.io\u002F)] \\\n21 Apr 2023\n\n**DiFaReli: Diffusion Face Relighting** \\\n*Puntawat Ponglertnapakorn, Nontawat Tritrong, Supasorn Suwajanakorn* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09479)] [[Project](https:\u002F\u002Fdiffusion-face-relighting.github.io\u002F)] \\\n19 Apr 2023\n\n**Inpaint Anything: Segment Anything Meets Image Inpainting** \\\n*Tao Yu, Runseng Feng, Ruoyu Feng, Jinming Liu, Xin Jin, Wenjun Zeng, Zhibo Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06790)] [[Github](https:\u002F\u002Fgithub.com\u002Fgeekyutao\u002FInpaint-Anything)] \\\n13 Apr 2023\n\n**Refusion: Enabling Large-Size Realistic Image Restoration with Latent-Space Diffusion Models** \\\n*Ziwei Luo, Fredrik K. Gustafsson, Zheng Zhao, Jens Sjölund, Thomas B. Schön* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08291)] [[Github](https:\u002F\u002Fgithub.com\u002FAlgolzw\u002Fimage-restoration-sde)] \\\n17 Apr 2023\n\n\n**SPIRiT-Diffusion: Self-Consistency Driven Diffusion Model for Accelerated MRI** \\\n*Zhuo-Xu Cui, Chentao Cao, Jing Cheng, Sen Jia, Hairong Zheng, Dong Liang, Yanjie Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05060)] \\\n11 Apr 2023\n\n**Zero-shot CT Field-of-view Completion with Unconditional Generative Diffusion Prior** \\\n*Kaiwen Xu, Aravind R. Krishnan, Thomas Z. Li, Yuankai Huo, Kim L. Sandler, Fabien Maldonado, Bennett A. Landman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03760)] \\\n7 Apr 2023\n\n**SketchFFusion: Sketch-guided image editing with diffusion model** \\\n*Weihang Mao, Bo Han, Zihao Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03174)] \\\n6 Apr 2023\n\n\n**Inst-Inpaint: Instructing to Remove Objects with Diffusion Models** \\\n*Ahmet Burak Yildirim, Vedat Baday, Erkut Erdem, Aykut Erdem, Aysegul Dundar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03246)] [[Project](http:\u002F\u002Finstinpaint.abyildirim.com\u002F)] \\\n6 Apr 2023\n\n**Towards Coherent Image Inpainting Using Denoising Diffusion Implicit Models** \\\n*Guanhua Zhang, Jiabao Ji, Yang Zhang, Mo Yu, Tommi Jaakkola, Shiyu Chang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03322)] [[Github](https:\u002F\u002Fgithub.com\u002FUCSB-NLP-Chang\u002FCoPaint\u002F)] \\\n6 Apr 2023\n\n**Zero-shot Medical Image Translation via Frequency-Guided Diffusion Models** \\\n*Yunxiang Li, Hua-Chieh Shao, Xiao Liang, Liyuan Chen, Ruiqi Li, Steve Jiang, Jing Wang, You Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02742)] \\\n5 Apr 2023\n\n**Waving Goodbye to Low-Res: A Diffusion-Wavelet Approach for Image Super-Resolution** \\\n*Brian Moser, Stanislav Frolov, Federico Raue, Sebastian Palacio, Andreas Dengel* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01994)] \\\n4 Apr 2023\n\n\n**CoreDiff: Contextual Error-Modulated Generalized Diffusion Model for Low-Dose CT Denoising and Generalization** \\\n*Qi Gao, Zilong Li, Junping Zhang, Yi Zhang, Hongming Shan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01814)] \\\n4 Apr 2023\n\n\n**Generative Diffusion Prior for Unified Image Restoration and Enhancement** \\\n*Ben Fei, Zhaoyang Lyu, Liang Pan, Junzhe Zhang, Weidong Yang, Tianyue Luo, Bo Zhang, Bo Dai* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01247)] \\\n3 Apr 2023\n\n**Implicit Diffusion Models for Continuous Super-Resolution** \\\n*Sicheng Gao, Xuhui Liu, Bohan Zeng, Sheng Xu, Yanjing Li, Xiaoyan Luo, Jianzhuang Liu, Xiantong Zhen, Baochang Zhang* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16491)] \\\n29 Mar 2023\n\n\n**DiracDiffusion: Denoising and Incremental Reconstruction with Assured Data-Consistency** \\\n*Zalan Fabian, Berk Tinaz, Mahdi Soltanolkotabi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14353)] \\\n25 Mar 2023\n\n**MindDiffuser: Controlled Image Reconstruction from Human Brain Activity with Semantic and Structural Diffusion** \\\n*Yizhuo Lu, Changde Du, Dianpeng Wang, Huiguang He* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14139)] \\\n24 Mar 2023\n\n**DisC-Diff: Disentangled Conditional Diffusion Model for Multi-Contrast MRI Super-Resolution** \\\n*Ye Mao, Lan Jiang, Xi Chen, Chao Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13933)] \\\n23 Mar 2023\n\n\n**Sub-volume-based Denoising Diffusion Probabilistic Model for Cone-beam CT Reconstruction from Incomplete Data** \\\n*Wenjun Xia, Chuang Niu, Wenxiang Cong, Ge Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12861)] \\\n22 Mar 2023\n\n\n\n**A Perceptual Quality Assessment Exploration for AIGC Images** \\\n*Zicheng Zhang, Chunyi Li, Wei Sun, Xiaohong Liu, Xiongkuo Min, Guangtao Zhai* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12618)] \\\n22 Mar 2023\n\n**Inversion by Direct Iteration: An Alternative to Denoising Diffusion for Image Restoration** \\\n*Mauricio Delbracio, Peyman Milanfar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11435)] \\\n20 Mar 2023\n\n**Efficient Neural Generation of 4K Masks for Homogeneous Diffusion Inpainting** \\\n*Karl Schrader, Pascal Peter, Niklas Kämper, Joachim Weickert* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10096)] \\\n17 Mar 2023\n\n**Denoising Diffusion Post-Processing for Low-Light Image Enhancement** \\\n*Savvas Panagiotou, Anna S. Bosman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09627)] \\\n16 Mar 2023\n\n**SUD2: Supervision by Denoising Diffusion Models for Image Reconstruction** \\\n*Matthew A. Chan, Sean I. Young, Christopher A. Metzler* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09642)] \\\n16 Mar 2023\n\n**DiffIR: Efficient Diffusion Model for Image Restoration** \\\n*Bin Xia, Yulun Zhang, Shiyin Wang, Yitong Wang, Xinglong Wu, Yapeng Tian, Wenming Yang, Luc Van Gool* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09472)] \\\n16 Mar 2023\n\n**ResDiff: Combining CNN and Diffusion Model for Image Super-Resolution** \\\n*Shuyao Shang, Zhengyang Shan, Guangxing Liu, Jinglin Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08714)] \\\n15 Mar 2023\n\n**Class-Guided Image-to-Image Diffusion: Cell Painting from Brightfield Images with Class Labels** \\\n*Jan Oscar Cross-Zamirski, Praveen Anand, Guy Williams, Elizabeth Mouchet, Yinhai Wang, Carola-Bibiane Schönlieb* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08863)] [[Github](https:\u002F\u002Fgithub.com\u002Fcrosszamirski\u002Fguided-I2I)] \\\n15 Mar 2023\n\n\n**Diffusion Models for Contrast Harmonization of Magnetic Resonance Images** \\\n*Alicia Durrer, Julia Wolleb, Florentin Bieder, Tim Sinnecker, Matthias Weigel, Robin Sandkühler, Cristina Granziera, Özgür Yaldizli, Philippe C. Cattin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08189)] \\\n14 Mar 2023\n\n**Synthesizing Realistic Image Restoration Training Pairs: A Diffusion Approach** \\\n*Tao Yang, Peiran Ren, Xuansong xie, Lei Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06994)] \\\n13 Mar 2023\n\n**DR2: Diffusion-based Robust Degradation Remover for Blind Face Restoration** \\\n*Zhixin Wang, Xiaoyun Zhang, Ziying Zhang, Huangjie Zheng, Mingyuan Zhou, Ya Zhang, Yanfeng Wang* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06885)] \\\n13 Mar 2023\n\n**DDS2M: Self-Supervised Denoising Diffusion Spatio-Spectral Model for Hyperspectral Image Restoration** \\\n*Yuchun Miao, Lefei Zhang, Liangpei Zhang, Dacheng Tao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06682)] \\\n12 Mar 2023\n\n\n**Fast Diffusion Sampler for Inverse Problems by Geometric Decomposition** \\\n*Hyungjin Chung, Suhyeon Lee, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05754)] \\\n10 Mar 2023\n\n**Generalized Diffusion MRI Denoising and Super-Resolution using Swin Transformers** \\\n*Amir Sadikov, Jamie Wren-Jarvis, Xinlei Pan, Lanya T. Cai, Pratik Mukherjee* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05686)] \\\n10 Mar 2023\n\n**DiffusionDepth: Diffusion Denoising Approach for Monocular Depth Estimation** \\\n*Yiqun Duan, Zheng Zhu, Xianda Guo* \\\narxiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05021)] [[Github](https:\u002F\u002Fgithub.com\u002Fduanyiqun\u002FDiffusionDepth)] \\\n9 Mar 2023\n\n**Learning Enhancement From Degradation: A Diffusion Model For Fundus Image Enhancement** \\\n*Puijin Cheng, Li Lin, Yijin Huang, Huaqing He, Wenhan Luo, Xiaoying Tang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04603)] [[Github](https:\u002F\u002Fgithub.com\u002FQtacierP\u002FLED)] \\\n8 Mar 2023\n\n**Unlimited-Size Diffusion Restoration** \\\n*Yinhuai Wang, Jiwen Yu, Runyi Yu, Jian Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.00354)] \\\n1 Mar 2023\n\n**Unsupervised Out-of-Distribution Detection with Diffusion Inpainting** \\\n*Zhenzhen Liu, Jin Peng Zhou, Yufan Wang, Kilian Q. Weinberger* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10326)] \\\n20 Feb 2023\n\n**Restoration based Generative Models** \\\n*Jaemoo Choi, Yesom Park, Myungjoo Kang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05456)] \\\n20 Feb 2023\n\n**Explicit Diffusion of Gaussian Mixture Model Based Image Priors** \\\n*Martin Zach, Thomas Pock, Erich Kobler, Antonin Chambolle* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08411)] \\\n16 Feb 2023\n\n**Denoising Diffusion Probabilistic Models for Robust Image Super-Resolution in the Wild** \\\n*Hshmat Sahak, Daniel Watson, Chitwan Saharia, David Fleet* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.07864)] \\\n15 Feb 2023\n\n\n\n**CDPMSR: Conditional Diffusion Probabilistic Models for Single Image Super-Resolution** \\\n*Axi Niu, Kang Zhang, Trung X. Pham, Jinqiu Sun, Yu Zhu, In So Kweon, Yanning Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.12831)] \\\n14 Feb 2023\n\n**How to Trust Your Diffusion Model: A Convex Optimization Approach to Conformal Risk Control** \\\n*Jacopo Teneggi, Matt Tivnan, J Webster Stayman, Jeremias Sulam* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03791)] \\\n7 Feb 2023\n\n**DDM2: Self-Supervised Diffusion MRI Denoising with Generative Diffusion Models** \\\n*Tiange Xiang, Mahmut Yurt, Ali B Syed, Kawin Setsompop, Akshay Chaudhari* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03018)] [[Github](https:\u002F\u002Fgithub.com\u002FStanfordMIMI\u002FDDM2)] \\\n6 Feb 2023\n\n\n\n\n**Diffusion Model for Generative Image Denoising** \\\n*Yutong Xie, Minne Yuan, Bin Dong, Quanzheng Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02398)] \\\n5 Feb 2023\n\n\n\n**A Theoretical Justification for Image Inpainting using Denoising Diffusion Probabilistic Models** \\\n*Litu Rout, Advait Parulekar, Constantine Caramanis, Sanjay Shakkottai* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.01217)] \\\n2 Feb 2023\n\n**GibbsDDRM: A Partially Collapsed Gibbs Sampler for Solving Blind Inverse Problems with Denoising Diffusion Restoration** \\\n*Naoki Murata, Koichi Saito, Chieh-Hsin Lai, Yuhta Takida, Toshimitsu Uesaka, Yuki Mitsufuji, Stefano Ermon* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12686)] \\\n30 Jan 2023\n\n\n**Accelerating Guided Diffusion Sampling with Splitting Numerical Methods** \\\n*Suttisak Wizadwongsa, Supasorn Suwajanakorn* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11558)] \\\n27 Jan 2023\n\n**Diffusion Denoising for Low-Dose-CT Model** \\\n*Runyi Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11482)] \\\n27 Jan 2023\n\n**Screen Space Indirect Lighting with Visibility Bitmask** \\\n*Olivier Therrien, Yannick Levesque, Guillaume Gilet* \\\nVisual Computer 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11376)] \\\n26 Jan 2023\n\n\n**Dual Diffusion Architecture for Fisheye Image Rectification: Synthetic-to-Real Generalization** \\\n*Shangrong Yang, Chunyu Lin, Kang Liao, Yao Zhao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11785)] \\\n26 Jan 2023\n\n**RainDiffusion:When Unsupervised Learning Meets Diffusion Models for Real-world Image Deraining** \\\n*Mingqiang Wei, Yiyang Shen, Yongzhen Wang, Haoran Xie, Fu Lee Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.09430)] \\\n23 Jan 2023\n\n**Dif-Fusion: Towards High Color Fidelity in Infrared and Visible Image Fusion with Diffusion Models** \\\n*Mingqiang Wei, Yiyang Shen, Yongzhen Wang, Haoran Xie, Fu Lee Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.09430)] \\\n23 Jan 2023\n\n**Removing Structured Noise with Diffusion Models** \\\n*Tristan S.W. Stevens, Jean-Luc Robert, Faik C. Meral Jason Yu, Jun Seob Shin, Ruud J.G. van Sloun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.05290)] \\\n20 Jan 2023\n\n**Image Restoration with Mean-Reverting Stochastic Differential Equations** \\\n*Ziwei Luo, Fredrik K. Gustafsson, Zheng Zhao, Jens Sjölund, Thomas B. Schön* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11699)] [[Github](https:\u002F\u002Fgithub.com\u002FAlgolzw\u002Fimage-restoration-sde)] \\\n20 Jan 2023\n\n\n**DiffusionCT: Latent Diffusion Model for CT Image Standardization** \\\n*Md Selim, Jie Zhang, Michael A. Brooks, Ge Wang, Jin Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.08815)] \\\n20 Jan 2023\n\n**Targeted Image Reconstruction by Sampling Pre-trained Diffusion Model** \\\n*Jiageng Zheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.07557)] \\\n18 Jan 2023\n\n**Annealed Score-Based Diffusion Model for MR Motion Artifact Reduction** \\\n*Gyutaek Oh, Jeong Eun Lee, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.03027)] \\\n8 Jan 2023\n\n**Exploring Vision Transformers as Diffusion Learners** \\\n*He Cao, Jianan Wang, Tianhe Ren, Xianbiao Qi, Yihao Chen, Yuan Yao, Lei Zhang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.13771)] \\\n28 Dec 2022\n\n\n**Towards Blind Watermarking: Combining Invertible and Non-invertible Mechanisms** \\\n*Rui Ma, Mengxi Guo, Yi Hou, Fan Yang, Yuan Li, Huizhu Jia, Xiaodong Xie* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.12678)] [[Github](https:\u002F\u002Fgithub.com\u002Frmpku\u002FCIN)] \\\n24 Dec 2022\n\n**Bi-Noising Diffusion: Towards Conditional Diffusion Models with Generative Restoration Priors** \\\n*Kangfu Mei, Nithin Gopalakrishnan Nair, Vishal M. Patel* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.07352)] [[Project](https:\u002F\u002Fkfmei.page\u002Fbi-noising\u002F)] \\\n14 Dec 2022\n\n**SPIRiT-Diffusion: SPIRiT-driven Score-Based Generative Modeling for Vessel Wall imaging** \\\n*Chentao Cao, Zhuo-Xu Cui, Jing Cheng, Sen Jia, Hairong Zheng, Dong Liang, Yanjie Zhu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.11274)] \\\n14 Dec 2022\n\n**Universal Generative Modeling in Dual-domain for Dynamic MR Imaging** \\\n*Chuanming Yu, Yu Guan, Ziwen Ke, Dong Liang, Qiegen Liu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.07599)] \\\n15 Dec 2022\n\n**DifFace: Blind Face Restoration with Diffused Error Contraction** \\\n*Zongsheng Yue, Chen Change Loy* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06512)] [[Github](https:\u002F\u002Fgithub.com\u002FzsyOAOA\u002FDifFace)] \\\n13 Dec 2022\n\n**ShadowDiffusion: When Degradation Prior Meets Diffusion Model for Shadow Removal** \\\n*Lanqing Guo, Chong Wang, Wenhan Yang, Siyu Huang, Yufei Wang, Hanspeter Pfister, Bihan Wen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04711)] \\\n9 Dec 2022\n\n\n**One Sample Diffusion Model in Projection Domain for Low-Dose CT Imaging** \\\n*Bin Huang, Liu Zhang, Shiyu Lu, Boyu Lin, Weiwen Wu, Qiegen Liu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03630)] \\\n7 Dec 2022\n\n**SDM: Spatial Diffusion Model for Large Hole Image Inpainting** \\\n*Wenbo Li, Xin Yu, Kun Zhou, Yibing Song, Zhe Lin, Jiaya Jia* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02963)] \\\n6 Dec 2022\n\n**ADIR: Adaptive Diffusion for Image Reconstruction** \\\n*Shady Abu-Hussein, Tom Tirer, Raja Giryes* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03221)] [[Project](https:\u002F\u002Fshadyabh.github.io\u002FADIR\u002F)] \\\n6 Dec 2022\n\n**Image Deblurring with Domain Generalizable Diffusion Models** \\\n*Mengwei Ren, Mauricio Delbracio, Hossein Talebi, Guido Gerig, Peyman Milanfar* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.01789)] \\\n4 Dec 2022\n\n\n**Zero-Shot Image Restoration Using Denoising Diffusion Null-Space Model** \\\n*Yinhuai Wang, Jiwen Yu, Jian Zhang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00490)] [[Github](https:\u002F\u002Fgithub.com\u002Fwyhuai\u002FDDNM)] \\\n1 Dec 2022\n\n\n**FREDSR: Fourier Residual Efficient Diffusive GAN for Single Image Super Resolution** \\\n*Kyoungwan Woo, Achyuta Rajaram* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16678)] \\\n30 Nov 2022\n\n**CHIMLE: Conditional Hierarchical IMLE for Multimodal Conditional Image Synthesis** \\\n*Shichong Peng, Alireza Moazeni, Ke Li* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.14286)] \\\n25 Nov 2022\n\n\n\n**DOLCE: A Model-Based Probabilistic Diffusion Framework for Limited-Angle CT Reconstruction** \\\n*Jiaming Liu, Rushil Anirudh, Jayaraman J. Thiagarajan, Stewart He, K. Aditya Mohan, Ulugbek S. Kamilov, Hyojin Kim* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12340)] \\\n22 Nov 2022\n\n**Diffusion Model Based Posterior Sampling for Noisy Linear Inverse Problems** \\\n*Xiangming Meng, Yoshiyuki Kabashima* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12343)] [[Github](https:\u002F\u002Fgithub.com\u002Fmengxiangming\u002Fdmps)] \\\n20 Nov 2022\n\n**Parallel Diffusion Models of Operator and Image for Blind Inverse Problems** \\\n*Hyungjin Chung, Jeongsol Kim, Sehui Kim, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10656)] \\\n19 Nov 2022\n\n\n**Solving 3D Inverse Problems using Pre-trained 2D Diffusion Models** \\\n*Hyungjin Chung, Dohoon Ryu, Michael T. McCann, Marc L. Klasky, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10655)] \\\n19 Nov 2022\n\n**Patch-Based Denoising Diffusion Probabilistic Model for Sparse-View CT Reconstruction** \\\n*Wenjun Xia, Wenxiang Cong, Ge Wang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10388)] \\\n18 Nov 2022\n\n\n**A Structure-Guided Diffusion Model for Large-Hole Diverse Image Completion** \\\n*Daichi Horita, Jiaolong Yang, Dong Chen, Yuki Koyama, Kiyoharu Aizawa* \\\nBMVC 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10437)] \\\n18 Nov 2022\n\n\n**Conffusion: Confidence Intervals for Diffusion Models** \\\n*Eliahu Horwitz, Yedid Hoshen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09795)] \\\n17 Nov 2022\n\n**Superresolution Reconstruction of Single Image for Latent features** \\\n*Xin Wang, Jing-Ke Yan, Jing-Ye Cai, Jian-Hua Deng, Qin Qin, Qin Wang, Heng Xiao, Yao Cheng, Peng-Fei Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12845)] \\\n16 Nov 2022\n\n\n\n**Learning to Kindle the Starlight** \\\n*Yu Yuan, Jiaqi Wu, Lindong Wang, Zhongliang Jing, Henry Leung, Shuyuan Zhu, Han Pan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09206)] \\\n16 Nov 2022\n\n\n**ShadowDiffusion: Diffusion-based Shadow Removal using Classifier-driven Attention and Structure Preservation** \\\n*Yeying Jin, Wenhan Yang, Wei Ye, Yuan Yuan, Robby T. Tan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.08089)] \\\n15 Nov 2022\n\n\n**DriftRec: Adapting diffusion models to blind image restoration tasks** \\\n*Simon Welker, Henry N. Chapman, Timo Gerkmann* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06757)] \\\n12 Nov 2022\n\n**From Denoising Diffusions to Denoising Markov Models** \\\n*Joe Benton, Yuyang Shi, Valentin De Bortoli, George Deligiannidis, Arnaud Doucet* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03595)] [[Github](https:\u002F\u002Fgithub.com\u002Fyuyang-shi\u002Fgeneralized-diffusion)] \\\n7 Nov 2022\n\n\n\n**Quantized Compressed Sensing with Score-Based Generative Models** \\\n*Xiangming Meng, Yoshiyuki Kabashima* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13006)] [[Github](https:\u002F\u002Fgithub.com\u002Fmengxiangming\u002FQCS-SGM)] \\\n2 Nov 2022\n\n\n\n\n**Intelligent Painter: Picture Composition With Resampling Diffusion Model** \\\n*Wing-Fung Ku, Wan-Chi Siu, Xi Cheng, H. Anthony Chan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.17106)] \\\n31 Oct 2022\n\n**Multitask Brain Tumor Inpainting with Diffusion Models: A Methodological Report** \\\n*Pouria Rouzrokh, Bardia Khosravi, Shahriar Faghani, Mana Moassefi, Sanaz Vahdati, Bradley J. Erickson* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12113)] [[Github](https:\u002F\u002Fgithub.com\u002FMayo-Radiology-Informatics-Lab\u002FMBTI)] \\\n21 Oct 2022\n\n\n**DiffGAR: Model-Agnostic Restoration from Generative Artifacts Using Image-to-Image Diffusion Models** \\\n*Yueqin Yin, Lianghua Huang, Yu Liu, Kaiqi Huang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.08573)] \\\n16 Oct 2022\n\n**Low-Dose CT Using Denoising Diffusion Probabilistic Model for 20× Speedup** \\\n*Wenjun Xia, Qing Lyu, Ge Wang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.15136)] \\\n29 Sep 2022\n\n**Diffusion Posterior Sampling for General Noisy Inverse Problems** \\\n*Hyungjin Chung, Jeongsol Kim, Michael T. Mccann, Marc L. Klasky, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14687)] [[Github](https:\u002F\u002Fgithub.com\u002FDPS2022\u002Fdiffusion-posterior-sampling)] \\\n29 Sep 2022\n\n**Face Super-Resolution Using Stochastic Differential Equations** \\\n*Marcelo dos Santos, Rayson Laroca, Rafael O. Ribeiro, João Neves, Hugo Proença, David Menotti* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.12064)] [[Github](https:\u002F\u002Fgithub.com\u002Fmarcelowds\u002Fsr-sde)] \\\n24 Sep 2022\n\n\n**JPEG Artifact Correction using Denoising Diffusion Restoration Models** \\\n*Bahjat Kawar, Jiaming Song, Stefano Ermon, Michael Elad* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.11888)] \\\n23 Sep 2022\n\n\n\n\n**T2V-DDPM: Thermal to Visible Face Translation using Denoising Diffusion Probabilistic Models** \\\n*Nithin Gopalakrishnan Nair, Vishal M. Patel* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.08814)] \\\n19 Sep 2022\n\n\n**Delving Globally into Texture and Structure for Image Inpainting** \\\n*Haipeng Liu, Yang Wang, Meng Wang, Yong Rui* \\\nACM 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.08217)] [[Github](https:\u002F\u002Fgithub.com\u002Fhtyjers\u002FDGTS-Inpainting)] \\\n17 Sep 2022\n\n\n**PET image denoising based on denoising diffusion probabilistic models** \\\n*Kuang Gong, Keith A. Johnson, Georges El Fakhri, Quanzheng Li, Tinsu Pan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.06167)] \\\n13 Sep 2022\n\n**Self-Score: Self-Supervised Learning on Score-Based Models for MRI Reconstruction** \\\n*Zhuo-Xu Cui, Chentao Cao, Shaonan Liu, Qingyong Zhu, Jing Cheng, Haifeng Wang, Yanjie Zhu, Dong Liang* \\\nIEEE TMI 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.00835)] \\\n2 Sep 2022\n\n**AT-DDPM: Restoring Faces degraded by Atmospheric Turbulence using Denoising Diffusion Probabilistic Models** \\\n*Nithin Gopalakrishnan Nair, Kangfu Mei, Vishal M Patel* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.11284)] \\\n24 Aug 2022\n\n**Cold Diffusion: Inverting Arbitrary Image Transforms Without Noise** \\\n*Arpit Bansal, Eitan Borgnia, Hong-Min Chu, Jie S. Li, Hamid Kazemi, Furong Huang, Micah Goldblum, Jonas Geiping, Tom Goldstein* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.09392)] [[Github](https:\u002F\u002Fgithub.com\u002Farpitbansal297\u002FCold-Diffusion-Models)] \\\n19 Aug 2022\n\n\n\n**High-Frequency Space Diffusion Models for Accelerated MRI** \\\n*Chentao Cao, Zhuo-Xu Cui, Shaonan Liu, Dong Liang, Yanjie Zhu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.05481)] \\\n10 Aug 2022\n\n\n**Restoring Vision in Adverse Weather Conditions with Patch-Based Denoising Diffusion Models** \\\n*Ozan Özdenizci, Robert Legenstein* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.14626)] [[Github](https:\u002F\u002Fgithub.com\u002FIGITUGraz\u002FWeatherDiffusion)] \\\n29 Jul 2022\n\n\n\n\n\n**Non-Uniform Diffusion Models** \\\n*Georgios Batzolis, Jan Stanczuk, Carola-Bibiane Schönlieb, Christian Etmann* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.09786)] \\\n20 Jul 2022\n\n\n**Unsupervised Medical Image Translation with Adversarial Diffusion Models** \\\n*Muzaffer Özbey, Salman UH Dar, Hasan A Bedel, Onat Dalmaz, Şaban Özturk, Alper Güngör, Tolga Çukur* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.08208)] \\\n17 Jul 2022\n\n**Adaptive Diffusion Priors for Accelerated MRI Reconstruction** \\\n*Salman UH Dar, Şaban Öztürk, Yilmaz Korkmaz, Gokberk Elmas, Muzaffer Özbey, Alper Güngör, Tolga Çukur* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.05876)] \\\n12 Jul 2022\n\n**A Novel Unified Conditional Score-based Generative Framework for Multi-modal Medical Image Completion** \\\n*Xiangxi Meng, Yuning Gu, Yongsheng Pan, Nizhuan Wang, Peng Xue, Mengkang Lu, Xuming He, Yiqiang Zhan, Dinggang Shen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.03430)] \\\n7 Jul 2022\n\n\n**SAR Despeckling using a Denoising Diffusion Probabilistic Model** \\\n*Malsha V. Perera, Nithin Gopalakrishnan Nair, Wele Gedara Chaminda Bandara, Vishal M. Patel* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.04514)] \\\n9 Jun 2022\n\n\n**Improving Diffusion Models for Inverse Problems using Manifold Constraints** \\\n*Hyungjin Chung, Byeongsu Sim, Dohoon Ryu, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00941)] \\\n2 Jun 2022\n\n\n**The Swiss Army Knife for Image-to-Image Translation: Multi-Task Diffusion Models** \\\n*Julia Wolleb, Robin Sandkühler, Florentin Bieder, Philippe C. Cattin* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.02641)] \\\n6 Apr 2022\n\n**MR Image Denoising and Super-Resolution Using Regularized Reverse Diffusion** \\\n*Hyungjin Chung, Eun Sun Lee, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.12621)] \\\n23 Mar 2022\n\n\n**Towards performant and reliable undersampled MR reconstruction via diffusion model sampling** \\\n*Cheng Peng, Pengfei Guo, S. Kevin Zhou, Vishal Patel, Rama Chellappa* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.04292)] [[Github](https:\u002F\u002Fgithub.com\u002Fcpeng93\u002Fdiffuserecon)] \\\n8 Mar 2022\n\n**Measurement-conditioned Denoising Diffusion Probabilistic Model for Under-sampled Medical Image Reconstruction** \\\n*Yutong Xie, Quanzheng Li* \\\nMICCAI 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.03623)] [[Github](https:\u002F\u002Fgithub.com\u002FTheodore-PKU\u002FMC-DDPM)] \\\n5 Mar 2022\n\n**MRI Reconstruction via Data Driven Markov Chain with Joint Uncertainty Estimation** \\\n*Guanxiong Luo, Martin Heide, Martin Uecker* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.01479)] [[Github](https:\u002F\u002Fgithub.com\u002Fmrirecon\u002Fspreco)] \\\n3 Feb 2022\n\n**Unsupervised Denoising of Retinal OCT with Diffusion Probabilistic Model** \\\n*Dewei Hu, Yuankai K. Tao, Ipek Oguz* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.11760)] [[Github](https:\u002F\u002Fgithub.com\u002FDeweiHu\u002FOCT_DDPM)] \\\n27 Jan 2022\n\n**Denoising Diffusion Restoration Models** \\\n*Bahjat Kawar, Michael Elad, Stefano Ermon, Jiaming Song* \\\nICLR 2022 Workshop (Oral). [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.11793)] \\\n27 Jan 2022\n\n\n\n**RePaint: Inpainting using Denoising Diffusion Probabilistic Models** \\\n*Andreas Lugmayr, Martin Danelljan, Andres Romero, Fisher Yu, Radu Timofte, Luc Van Gool* \\\nCVPR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.09865)] [[Github](https:\u002F\u002Fgithub.com\u002Fandreas128\u002FRePaint)] \\\n24 Jan 2022\n\n**DiffuseVAE: Efficient, Controllable and High-Fidelity Generation from Low-Dimensional Latents** \\\n*Kushagra Pandey, Avideep Mukherjee, Piyush Rai, Abhishek Kumar* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.00308)] [[Github](https:\u002F\u002Fgithub.com\u002Fkpandey008\u002FDiffuseVAE)] \\\n2 Jan 2022\n\n**High-Resolution Image Synthesis with Latent Diffusion Models** \\\n*Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, Björn Ommer* \\\nCVPR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.10752)] [[Github](https:\u002F\u002Fgithub.com\u002FCompVis\u002Flatent-diffusion)] \\\n20 Dec 2021\n\n\n**Come-Closer-Diffuse-Faster: Accelerating Conditional Diffusion Models for Inverse Problems through Stochastic Contraction** \\\n*Hyungjin Chung, Byeongsu Sim, Jong Chul Ye* \\\nCVPR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.05146)] \\\n9 Dec 2021\n\n**Deblurring via Stochastic Refinement** \\\n*Jay Whang, Mauricio Delbracio, Hossein Talebi, Chitwan Saharia, Alexandros G. Dimakis, Peyman Milanfar* \\\nCVPR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.02475)]  \\\n5 Dec 2021\n\n**Conditional Image Generation with Score-Based Diffusion Models** \\\n*Georgios Batzolis, Jan Stanczuk, Carola-Bibiane Schönlieb, Christian Etmann* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.13606)] \\\n26 Nov 2021\n\n**Solving Inverse Problems in Medical Imaging with Score-Based Generative Models** \\\n*Yang Song, Liyue Shen, Lei Xing, Stefano Ermon* \\\nNeurIPS Workshop 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.08005)] [[Github](https:\u002F\u002Fgithub.com\u002Fyang-song\u002Fscore_inverse_problems)] \\\n15 Nov 2021\n\n\n**S3RP: Self-Supervised Super-Resolution and Prediction for Advection-Diffusion Process** \\\n*Chulin Wang, Kyongmin Yeo, Xiao Jin, Andres Codas, Levente J. Klein, Bruce Elmegreen* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.04639)] \\\n8 Nov 2021\n\n\n\n**Score-based diffusion models for accelerated MRI** \\\n*Hyungjin Chung, Jong chul Ye* \\\nMIA 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.05243)] [[Github](https:\u002F\u002Fgithub.com\u002FHJ-harry\u002Fscore-MRI)] \\\n8 Oct 2021\n\n**Autoregressive Diffusion Models** \\\n*Emiel Hoogeboom, Alexey A. Gritsenko, Jasmijn Bastings, Ben Poole, Rianne van den Berg, Tim Salimans* \\\nICLR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.02037)] \\\n5 Oct 2021\n\n**ILVR: Conditioning Method for Denoising Diffusion Probabilistic Models** \\\n*Jooyoung Choi, Sungwon Kim, Yonghyun Jeong, Youngjune Gwon, Sungroh Yoon* \\\nICCV 2021 (Oral). [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.02938)] [[Github](https:\u002F\u002Fgithub.com\u002Fjychoi118\u002Filvr_adm)] \\\n6 Aug 2021 \n\n**Cascaded Diffusion Models for High Fidelity Image Generation**  \\\n*Jonathan Ho, Chitwan Saharia, William Chan, David J. Fleet, Mohammad Norouzi, Tim Salimans* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.15282)] [[Project](https:\u002F\u002Fcascaded-diffusion.github.io\u002F)] \\\n30 May 2021\n\n**SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models** \\\n*Haoying Li, Yifan Yang, Meng Chang, Huajun Feng, Zhihai Xu, Qi Li, Yueting Chen* \\\nACM 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.14951)] \\\n30 Apr 2021\n\n\n**Image Super-Resolution via Iterative Refinement**  \\\n*Chitwan Saharia, Jonathan Ho, William Chan, Tim Salimans, David J. Fleet, Mohammad Norouzi* \\\narXiv 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.07636)] [[Project](https:\u002F\u002Fiterative-refinement.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FJanspiry\u002FImage-Super-Resolution-via-Iterative-Refinement)] \\\n15 Apr 2021\n\n\n\n### Medical Imaging\n\n**Diffusion-based Data Augmentation for Nuclei Image Segmentation** \\\n*Xinyi Yu, Guanbin Li, Wei Lou, Siqi Liu, Xiang Wan, Yan Chen, Haofeng Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14197)] \\\n22 Oct 2023\n\n**EMIT-Diff: Enhancing Medical Image Segmentation via Text-Guided Diffusion Model** \\\n*Zheyuan Zhang, Lanhong Yao, Bin Wang, Debesh Jha, Elif Keles, Alpay Medetalibeyoglu, Ulas Bagci* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12868)] \\\n19 Oct 2023\n\n\n\n**Towards Generic Semi-Supervised Framework for Volumetric Medical Image Segmentation** \\\n*Haonan Wang, Xiaomeng Li* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11320)] [[Github](https:\u002F\u002Fgithub.com\u002Fxmed-lab\u002FGenericSSL)] \\\n17 Oct 2023\n\n**Self-supervised Fetal MRI 3D Reconstruction Based on Radiation Diffusion Generation Model** \\\n*Junpeng Tan, Xin Zhang, Yao Lv, Xiangmin Xu, Gang Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10209)] \\\n16 Oct 2023\n\n**JSMoCo: Joint Coil Sensitivity and Motion Correction in Parallel MRI with a Self-Calibrating Score-Based Diffusion Model** \\\n*Lixuan Chen, Xuanyu Tian, Jiangjie Wu, Ruimin Feng, Guoyan Lao, Yuyao Zhang, Hongjiang Wei* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09625)] \\\n14 Oct 2023\n\n**Histogram- and Diffusion-Based Medical Out-of-Distribution Detection** \\\n*Evi M. C. Huijben, Sina Amirrajab, Josien P. W. Pluim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08654)] \\\n12 Oct 2023\n\n**Echocardiography video synthesis from end diastolic semantic map via diffusion model** \\\n*Phi Nguyen Van, Duc Tran Minh, Hieu Pham Huy, Long Tran Quoc* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07131)] \\\n11 Oct 2023\n\n\n**Diffusion Prior Regularized Iterative Reconstruction for Low-dose CT** \\\n*Wenjun Xia, Yongyi Shi, Chuang Niu, Wenxiang Cong, Ge Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06949)] \\\n10 Oct 2023\n\n**Image Compression and Decompression Framework Based on Latent Diffusion Model for Breast Mammography** \\\n*InChan Hwang, MinJae Woo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05299)] \\\n8 Oct 2023\n\n\n**Latent Diffusion Model for Medical Image Standardization and Enhancement** \\\n*Md Selim, Jie Zhang, Faraneh Fathi, Michael A. Brooks, Ge Wang, Guoqiang Yu, Jin Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05237)] \\\n8 Oct 2023\n\n**Characterizing the Features of Mitotic Figures Using a Conditional Diffusion Probabilistic Model** \\\n*Cagla Deniz Bahadir, Benjamin Liechty, David J. Pisapia, Mert R. Sabuncu* \\\nMICCAI Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03893)] \\\n5 Oct 2023\n\n**MedSyn: Text-guided Anatomy-aware Synthesis of High-Fidelity 3D CT Images** \\\n*Yanwu Xu, Li Sun, Wei Peng, Shyam Visweswaran, Kayhan Batmanghelich* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03559)] \\\n5 Oct 2023\n\n\n**Blind CT Image Quality Assessment Using DDPM-derived Content and Transformer-based Evaluator** \\\n*Yongyi Shi, Wenjun Xia, Ge Wang, Xuanqin Mou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03118)] \\\n4 Oct 2023\n\n\n**SMRD: SURE-based Robust MRI Reconstruction with Diffusion Models** \\\n*Batu Ozturkler, Chao Liu, Benjamin Eckart, Morteza Mardani, Jiaming Song, Jan Kautz* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01799)] [[Github](https:\u002F\u002Fgithub.com\u002FNVlabs\u002FSMRD)] \\\n3 Oct 2023\n\n**DiffGAN-F2S: Symmetric and Efficient Denoising Diffusion GANs for Structural Connectivity Prediction from Brain fMRI** \\\n*Qiankun Zuo, Ruiheng Li, Yi Di, Hao Tian, Changhong Jing, Xuhang Chen, Shuqiang Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16205)] \\\n28 Sep 2023\n\n**Enhancing Knee Osteoarthritis severity level classification using diffusion augmented images** \\\n*Paleti Nikhil Chowdary, Gorantla V N S L Vishnu Vardhan, Menta Sai Akshay, Menta Sai Aashish, Vadlapudi Sai Aravind, Garapati Venkata Krishna Rayalu, Aswathy P* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09328)] \\\n17 Sep 2023\n\n**Introducing Shape Prior Module in Diffusion Model for Medical Image Segmentation** \\\n*Zhiqing Zhang, Guojia Fan, Tianyong Liu, Nan Li, Yuyang Liu, Ziyu Liu, Canwei Dong, Shoujun Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05929)] \\\n12 Sep 2023\n\n**Treatment-aware Diffusion Probabilistic Model for Longitudinal MRI Generation and Diffuse Glioma Growth Prediction** \\\n*Qinghui Liu, Elies Fuster-Garcia, Ivar Thokle Hovden, Donatas Sederevicius, Karoline Skogen, Bradley J MacIntosh, Edvard Grødem, Till Schellhorn, Petter Brandal, Atle Bjørnerud, Kyrre Eeg Emblem* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05406)] \\\n11 Sep 2023\n\n**Efficient Bayesian Computational Imaging with a Surrogate Score-Based Prior** \\\n*Berthy T. Feng, Katherine L. Bouman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01949)] \\\n5 Sep 2023\n\n**Segmentation of 3D pore space from CT images using curvilinear skeleton: application to numerical simulation of microbial decomposition** \\\n*Olivier Monga, Zakaria Belghali, Mouad Klai, Lucie Druoton, Dominique Michelucci, Valerie Pot* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01611)] \\\n4 Sep 2023\n\n\n\n**GenSelfDiff-HIS: Generative Self-Supervision Using Diffusion for Histopathological Image Segmentation** \\\n*Vishnuvardhan Purma, Suhas Srinath, Seshan Srirangarajan, Aanchal Kakkar, Prathosh A. P* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01487)] [[Github](https:\u002F\u002Fgithub.com\u002FPurmaVishnuVardhanReddy\u002FGenSelfDiff-HIS)] \\\n4 Sep 2023\n\n**Correlated and Multi-frequency Diffusion Modeling for Highly Under-sampled MRI Reconstruction** \\\n*Yu Guan, Chuanming Yu, Shiyu Lu, Zhuoxu Cui, Dong Liang, Qiegen Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00853)] [[Github](https:\u002F\u002Fgithub.com\u002Fyqx7150\u002FCM-DM)] \\\n2 Sep 2023\n\n**Diffusion Modeling with Domain-conditioned Prior Guidance for Accelerated MRI and qMRI Reconstruction** \\\n*Wanyu Bian, Albert Jang, Fang Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00783)] \\\n2 Sep 2023\n\n**PathLDM: Text conditioned Latent Diffusion Model for Histopathology** \\\n*Srikar Yellapragada, Alexandros Graikos, Prateek Prasanna, Tahsin Kurc, Joel Saltz, Dimitris Samaras* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00748)] \\\n1 Sep 2023\n\n\n**Unsupervised CT Metal Artifact Reduction by Plugging Diffusion Priors in Dual Domains** \\\n*Xuan Liu, Yaoqin Xie, Songhui Diao, Shan Tan, Xiaokun Liang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16742)] \\\n31 Aug 2023\n\n**A Recycling Training Strategy for Medical Image Segmentation with Diffusion Denoising Models** \\\n*Yunguan Fu, Yiwen Li, Shaheer U Saeed, Matthew J Clarkson, Yipeng Hu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16355)] [[Github](https:\u002F\u002Fgithub.com\u002Fmathpluscode\u002FImgX-DiffSeg)] \\\n30 Aug 2023\n\n**Physics-Informed DeepMRI: Bridging the Gap from Heat Diffusion to k-Space Interpolation** \\\n*Zhuo-Xu Cui, Congcong Liu, Xiaohong Fan, Chentao Cao, Jing Cheng, Qingyong Zhu, Yuanyuan Liu, Sen Jia, Yihang Zhou, Haifeng Wang, Yanjie Zhu, Jianping Zhang, Qiegen Liu, Dong Liang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15918)] \\\n30 Aug 2023\n\n\n**Stage-by-stage Wavelet Optimization Refinement Diffusion Model for Sparse-View CT Reconstruction** \\\n*Kai Xu, Shiyu Lu, Bin Huang, Weiwen Wu, Qiegen Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15942)] \\\n30 Aug 2023\n\n**Modality Cycles with Masked Conditional Diffusion for Unsupervised Anomaly Segmentation in MRI** \\\n*Ziyun Liang, Harry Anthony, Felix Wagner, Konstantinos Kamnitsas* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16150)] \\\n30 Aug 2023\n\n\n\n**Data-iterative Optimization Score Model for Stable Ultra-Sparse-View CT Reconstruction** \\\n*Weiwen Wu, Yanyang Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14437)] \\\n28 Aug 2023\n\n\n\n**Full-dose PET Synthesis from Low-dose PET Using High-efficiency Diffusion Denoising Probabilistic Model** \\\n*Shaoyan Pan, Elham Abouei, Junbo Peng, Joshua Qian, Jacob F Wynne, Tonghe Wang, Chih-Wei Chang, Justin Roper, Jonathon A Nye, Hui Mao, Xiaofeng Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13072)] \\\n24 Aug 2023\n\n**Augmenting medical image classifiers with synthetic data from latent diffusion models** \\\n*Luke W. Sagers, James A. Diao, Luke Melas-Kyriazi, Matthew Groh, Pranav Rajpurkar, Adewole S. Adamson, Veronica Rotemberg, Roxana Daneshjou, Arjun K. Manrai* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12453)] \\\n23 Aug 2023\n\n**InverseSR: 3D Brain MRI Super-Resolution Using a Latent Diffusion Model** \\\n*Jueqi Wang, Jacob Levman, Walter Hugo Lopez Pinaya, Petru-Daniel Tudosiu, M. Jorge Cardoso, Razvan Marinescu* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12465)] [[Github](https:\u002F\u002Fgithub.com\u002FBioMedAI-UCSC\u002FInverseSR)] \\\n23 Aug 2023\n\n**Texture Generation on 3D Meshes with Point-UV Diffusion** \\\n*Xin Yu, Peng Dai, Wenbo Li, Lan Ma, Zhengzhe Liu, Xiaojuan Qi* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10490)] \\\n21 Aug 2023\n\n**Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine PET Reconstruction** \\\n*Zeyu Han, Yuhan Wang, Luping Zhou, Peng Wang, Binyu Yan, Jiliu Zhou, Yan Wang, Dinggang Shen* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10157)] [[Github](https:\u002F\u002Fgithub.com\u002FShow-han\u002FPET-Reconstruction)] \\\n20 Aug 2023\n\n**Denoising diffusion-based MR to CT image translation enables whole spine vertebral segmentation in 2D and 3D without manual annotations** \\\n*Robert Graf, Joachim Schmitt, Sarah Schlaeger, Hendrik Kristian Möller, Vasiliki Sideri-Lampretsa, Anjany Sekuboyina, Sandro Manuel Krieg, Benedikt Wiestler, Bjoern Menze, Daniel Rueckert, Jan Stefan Kirschke* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09345)] \\\n18 Aug 2023\n\n**DMCVR: Morphology-Guided Diffusion Model for 3D Cardiac Volume Reconstruction** \\\n*Xiaoxiao He, Chaowei Tan, Ligong Han, Bo Liu, Leon Axel, Kang Li, Dimitris N. Metaxas* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09223)] [[Github](https:\u002F\u002Fgithub.com\u002Fhexiaoxiao-cs\u002FDMCVR)] \\\n18 Aug 2023\n\n**Denoising Diffusion Probabilistic Model for Retinal Image Generation and Segmentation** \\\n*Alnur Alimanov, Md Baharul Islam* \\\nICCP 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08339)] \\\n16 Aug 2023\n\n**Shape-guided Conditional Latent Diffusion Models for Synthesising Brain Vasculature** \\\n*Yash Deo, Haoran Dou, Nishant Ravikumar, Alejandro F. Frangi, Toni Lassila* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06781)] \\\n13 Aug 2023\n\n**Masked Diffusion as Self-supervised Representation Learner** \\\n*Zixuan Pan, Jianxu Chen, Yiyu Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05695)] \\\n10 Aug 2023\n\n**Synthetic Augmentation with Large-scale Unconditional Pre-training** \\\n*Jiarong Ye, Haomiao Ni, Peng Jin, Sharon X. Huang, Yuan Xue* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04020)] [[Github](https:\u002F\u002Fgithub.com\u002Fkarenyyy\u002FHistoDiffAug)] \\\n8 Aug 2023\n\n**Energy-Guided Diffusion Model for CBCT-to-CT Synthesis** \\\n*Linjie Fu, Xia Li, Xiuding Cai, Dong Miao, Yu Yao, Yali Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03354)] \\\n7 Aug 2023\n\n\n**DermoSegDiff: A Boundary-aware Segmentation Diffusion Model for Skin Lesion Delineation** \\\n*Afshin Bozorgpour, Yousef Sadegheih, Amirhossein Kazerouni, Reza Azad, Dorit Merhof* \\\nMICCAI Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02959)] [[Github](https:\u002F\u002Fgithub.com\u002Fmindflow-institue\u002Fdermosegdiff)] \\\n5 Aug 2023\n\n**Synthesising Rare Cataract Surgery Samples with Guided Diffusion Models** \\\n*Yannik Frisch, Moritz Fuchs, Antoine Sanner, Felix Anton Ucar, Marius Frenzel, Joana Wasielica-Poslednik, Adrian Gericke, Felix Mathias Wagner, Thomas Dratsch, Anirban Mukhopadhyay* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02587)] \\\n3 Aug 2023\n\n**Diffusion Models for Counterfactual Generation and Anomaly Detection in Brain Images** \\\n*Alessandro Fontanella, Grant Mair, Joanna Wardlaw, Emanuele Trucco, Amos Storkey* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02062)] \\\n3 Aug 2023\n\n**Reference-Free Isotropic 3D EM Reconstruction using Diffusion Models** \\\n*Kyungryun Lee, Won-Ki Jeong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01594)] \\\n3 Aug 2023\n\n**A vision transformer-based framework for knowledge transfer from multi-modal to mono-modal lymphoma subtyping models** \\\n*Bilel Guetarni, Feryal Windal, Halim Benhabiles, Marianne Petit, Romain Dubois, Emmanuelle Leteurtre, Dominique Collard* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01328)] \\\n2 Aug 2023\n\n**Learning Fourier-Constrained Diffusion Bridges for MRI Reconstruction** \\\n*Muhammad U. Mirza, Onat Dalmaz, Hasan A. Bedel, Gokberk Elmas, Yilmaz Korkmaz, Alper Gungor, Salman UH Dar, Tolga Çukur* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01096)] \\\n2 Aug 2023\n\n\n**C-DARL: Contrastive diffusion adversarial representation learning for label-free blood vessel segmentation** \\\n*Boah Kim, Yujin Oh, Bradford J. Wood, Ronald M. Summers, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00193)] \\\n31 Jul 2023\n\n**Ultrasound Image Reconstruction with Denoising Diffusion Restoration Models** \\\n*Yuxin Zhang, Clément Huneau, Jérôme Idier, Diana Mateus* \\\nMICCAI Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.15990)] [[Github](https:\u002F\u002Fgithub.com\u002FYuxin-Zhang-Jasmine\u002FDRUS-v1)] \\\n29 Jul 2023\n\n\n**Pre-Training with Diffusion models for Dental Radiography segmentation** \\\n*Jérémy Rousseau, Christian Alaka, Emma Covili, Hippolyte Mayard, Laura Misrachi, Willy Au* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14066)] \\\n26 Jul 2023\n\n\n**Iterative Reconstruction Based on Latent Diffusion Model for Sparse Data Reconstruction** \\\n*Linchao He, Hongyu Yan, Mengting Luo, Kunming Luo, Wang Wang, Wenchao Du, Hu Chen, Hongyu Yang, Yi Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12070)] \\\n22 Jul 2023\n\n**FSDiffReg: Feature-wise and Score-wise Diffusion-guided Unsupervised Deformable Image Registration for Cardiac Images** \\\n*Yi Qin, Xiaomeng Li* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12035)] [[Github](https:\u002F\u002Fgithub.com\u002Fxmed-lab\u002FFSDiffReg)] \\\n22 Jul 2023\n\n**FEDD -- Fair, Efficient, and Diverse Diffusion-based Lesion Segmentation and Malignancy Classification** \\\n*Héctor Carrión, Narges Norouzi* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11654)] [[Github](https:\u002F\u002Fgithub.com\u002Fhectorcarrion\u002Ffedd)] \\\n21 Jul 2023\n\n\n\n**PartDiff: Image Super-resolution with Partial Diffusion Models** \\\n*Kai Zhao, Alex Ling Yu Hung, Kaifeng Pang, Haoxin Zheng, Kyunghyun Sung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11926)] \\\n21 Jul 2023\n\n**Make-A-Volume: Leveraging Latent Diffusion Models for Cross-Modality 3D Brain MRI Synthesis** \\\n*Lingting Zhu, Zeyue Xue, Zhenchao Jin, Xian Liu, Jingzhen He, Ziwei Liu, Lequan Yu* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10094)] \\\n19 Jul 2023\n\n**DiffDP: Radiotherapy Dose Prediction via a Diffusion Model** \\\n*Zhenghao Feng, Lu Wen, Peng Wang, Binyu Yan, Xi Wu, Jiliu Zhou, Yan Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09794)] \\\n19 Jul 2023\n\n**DreaMR: Diffusion-driven Counterfactual Explanation for Functional MRI** \\\n*Hasan Atakan Bedel, Tolga Çukur* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09547)] \\\n18 Jul 2023\n\n**TractCloud: Registration-free tractography parcellation with a novel local-global streamline point cloud representation** \\\n*Tengfei Xue, Yuqian Chen, Chaoyi Zhang, Alexandra J. Golby, Nikos Makris, Yogesh Rathi, Weidong Cai, Fan Zhang, Lauren J. O'Donnell* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09000)] [[Project](https:\u002F\u002Ftractcloud.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FSlicerDMRI\u002FTractCloud)] \\\n18 Jul 2023\n\n\n**Solving Inverse Problems with Latent Diffusion Models via Hard Data Consistency** \\\n*Bowen Song, Soo Min Kwon, Zecheng Zhang, Xinyu Hu, Qing Qu, Liyue Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08123)] \\\n16 Jul 2023\n\n**Fast Adaptation with Bradley-Terry Preference Models in Text-To-Image Classification and Generation** \\\n*Victor Gallego* \\\nEYSM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07929)] \\\n15 Jul 2023\n\n**Improving Nonalcoholic Fatty Liver Disease Classification Performance With Latent Diffusion Models** \\\n*Romain Hardy, Cornelia Ilin, Joe Klepich, Ryan Mitchell, Steve Hall, Jericho Villareal* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.06507)] \\\n13 Jul 2023\n\n\n\n**DDGM: Solving inverse problems by Diffusive Denoising of Gradient-based Minimization** \\\n*Kyle Luther, H. Sebastian Seung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04946)] \\\n11 Jul 2023\n\n**LLCaps: Learning to Illuminate Low-Light Capsule Endoscopy with Curved Wavelet Attention and Reverse Diffusion** \\\n*Long Bai, Tong Chen, Yanan Wu, An Wang, Mobarakol Islam, Hongliang Ren* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.02452)] [[Github](https:\u002F\u002Fgithub.com\u002Flongbai1006\u002FLLCaps)] \\\n5 Jul 2023\n\n**Synchronous Image-Label Diffusion Probability Model with Application to Stroke Lesion Segmentation on Non-contrast CT** \\\n*Jianhai Zhang, Tonghua Wan, Ethan MacDonald, Bijoy Menon, Aravind Ganesh, Qiu Wu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01740)] \\\n4 Jul 2023\n\n**Investigating Data Memorization in 3D Latent Diffusion Models for Medical Image Synthesis** \\\n*Salman Ul Hassan Dar, Arman Ghanaat, Jannik Kahmann, Isabelle Ayx, Theano Papavassiliu, Stefan O. Schoenberg, Sandy Engelhardt* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01148)] \\\n3 Jul 2023\n\n**Content-Preserving Diffusion Model for Unsupervised AS-OCT image Despeckling** \\\n*Li Sanqian, Higashita Risa, Fu Huazhu, Li Heng, Niu Jingxuan, Liu Jiang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17717)] \\\n30 Jun 2023\n\n**Self-Supervised MRI Reconstruction with Unrolled Diffusion Models** \\\n*Yilmaz Korkmaz, Tolga Cukur, Vishal Patel* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16654)] \\\n29 Jun 2023\n\n**DoseDiff: Distance-aware Diffusion Model for Dose Prediction in Radiotherapy** \\\n*Yiwen Zhang, Chuanpu Li, Liming Zhong, Zeli Chen, Wei Yang, Xuetao Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16324)] \\\n28 Jun 2023\n\n**DiffMix: Diffusion Model-based Data Synthesis for Nuclei Segmentation and Classification in Imbalanced Pathology Image Datasets** \\\n*Hyun-Jic Oh, Won-Ki Jeong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14132)] \\\n25 Jun 2023\n\n\n**DiffInfinite: Large Mask-Image Synthesis via Parallel Random Patch Diffusion in Histopathology** \\\n*Marco Aversa, Gabriel Nobis, Miriam Hägele, Kai Standvoss, Mihaela Chirica, Roderick Murray-Smith, Ahmed Alaa, Lukas Ruff, Daniela Ivanova, Wojciech Samek, Frederick Klauschen, Bruno Sanguinetti, Luis Oala* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13384)] \\\n23 Jun 2023\n\n\n**DiffuseIR:Diffusion Models For Isotropic Reconstruction of 3D Microscopic Images** \\\n*Mingjie Pan, Yulu Gan, Fangxu Zhou, Jiaming Liu, Aimin Wang, Shanghang Zhang, Dawei Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12109)] \\\n21 Jun 2023\n\n**TauPETGen: Text-Conditional Tau PET Image Synthesis Based on Latent Diffusion Models** \\\n*Se-In Jang, Cristina Lois, Emma Thibault, J. Alex Becker, Yafei Dong, Marc D. Normandin, Julie C. Price, Keith A. Johnson, Georges El Fakhri, Kuang Gong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11984)] \\\n21 Jun 2023\n\n**SANO: Score-Based Diffusion Model for Anomaly Localization in Dermatology** \\\n*Alvaro Gonzalez-Jimenez, Simone Lionetti, Marc Pouly, Alexander A. Navarini* \\\nCVPR Workshop 2023. [[Paper](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2023W\u002FVAND\u002Fhtml\u002FGonzalez-Jimenez_SANO_Score-Based_Diffusion_Model_for_Anomaly_Localization_in_Dermatology_CVPRW_2023_paper.html)] \\\n18 Jun 2023\n\n\n**Aligning Synthetic Medical Images with Clinical Knowledge using Human Feedback** \\\n*Shenghuan Sun, Gregory M. Goldgof, Atul Butte, Ahmed M. Alaa* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12438)] \\\n16 Jun 2023\n\n**Annotator Consensus Prediction for Medical Image Segmentation with Diffusion Models** \\\n*Tomer Amit, Shmuel Shichrur, Tal Shaharabany, Lior Wolf* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09004)] \\\n15 Jun 2023\n\n**Deep Ultrasound Denoising Using Diffusion Probabilistic Models** \\\n*Hojat Asgariandehkordi, Sobhan Goudarzi, Adrian Basarab, Hassan Rivaz* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07440)] \\\n12 Jun 2023\n\n**Conditional Diffusion Models for Weakly Supervised Medical Image Segmentation** \\\n*Xinrong Hu, Yu-Jen Chen, Tsung-Yi Ho, Yiyu Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03878)] \\\n6 Jun 2023\n\n**Interpretable Alzheimer's Disease Classification Via a Contrastive Diffusion Autoencoder** \\\n*Ayodeji Ijishakin, Ahmed Abdulaal, Adamos Hadjivasiliou, Sophie Martin, James Cole* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03022)] \\\n5 Jun 2023\n\n**Optimizing Sampling Patterns for Compressed Sensing MRI with Diffusion Generative Models** \\\n*Sriram Ravula, Brett Levac, Ajil Jalal, Jonathan I. Tamir, Alexandros G. Dimakis* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03284)] \\\n5 Jun 2023\n\n**Brain tumor segmentation using synthetic MR images -- A comparison of GANs and diffusion models** \\\n*Muhammad Usman Akbar, Måns Larsson, Anders Eklund* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02986)] \\\n5 Jun 2023\n\n\n**Unsupervised Anomaly Detection in Medical Images Using Masked Diffusion Model** \\\n*Hasan Iqbal, Umar Khalid, Jing Hua, Chen Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19867)] \\\n31 May 2023\n\n**Mask, Stitch, and Re-Sample: Enhancing Robustness and Generalizability in Anomaly Detection through Automatic Diffusion Models** \\\n*Cosmin I. Bercea, Michael Neumayr, Daniel Rueckert, Julia A. Schnabel* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19643)] \\\n31 May 2023\n\n**Synthetic CT Generation from MRI using 3D Transformer-based Denoising Diffusion Model** \\\n*Shaoyan Pan, Elham Abouei, Jacob Wynne, Tonghe Wang, Richard L. J. Qiu, Yuheng Li, Chih-Wei Chang, Junbo Peng, Justin Roper, Pretesh Patel, David S. Yu, Hui Mao, Xiaofeng Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19467)] \\\n31 May 2023\n\n\n**Conditional Diffusion Models for Semantic 3D Medical Image Synthesis** \\\n*Zolnamar Dorjsembe, Hsing-Kuo Pao, Sodtavilan Odonchimed, Furen Xiao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18453)] \\\n29 May 2023\n\n\n**GenerateCT: Text-Guided 3D Chest CT Generation** \\\n*Ibrahim Ethem Hamamci, Sezgin Er, Enis Simsar, Alperen Tezcan, Ayse Gulnihan Simsek, Furkan Almas, Sevval Nil Esirgun, Hadrien Reynaud, Sarthak Pati, Christian Bluethgen, Bjoern Menze* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16037)] [[Github](https:\u002F\u002Fgithub.com\u002Fibrahimethemhamamci\u002FGenerateCT)] \\\n25 May 2023\n\n**A Diffusion Probabilistic Prior for Low-Dose CT Image Denoising** \\\n*Xuan Liu, Yaoqin Xie, Songhui Diao, Shan Tan, Xiaokun Liang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15887)] \\\n25 May 2023\n\n**Multi-Level Global Context Cross Consistency Model for Semi-Supervised Ultrasound Image Segmentation with Diffusion Model** \\\n*Fenghe Tang, Jianrui Ding, Lingtao Wang, Min Xian, Chunping Ning* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09447)] [[Github](https:\u002F\u002Fgithub.com\u002FFengheTan9\u002FMulti-Level-Global-Context-Cross-Consistency)] \\\n16 May 2023\n\n**Beware of diffusion models for synthesizing medical images -- A comparison with GANs in terms of memorizing brain tumor images** \\\n*Muhammad Usman Akbar, Wuhao Wang, Anders Eklund* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.07644)] \\\n12 May 2023\n\n**Generation of Structurally Realistic Retinal Fundus Images with Diffusion Models** \\\n*Sojung Go, Younghoon Ji, Sang Jun Park, Soochahn Lee* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06813)] \\\n11 May 2023\n\n**Echo from noise: synthetic ultrasound image generation using diffusion models for real image segmentation** \\\n*David Stojanovski, Uxio Hermida, Pablo Lamata, Arian Beqiri, Alberto Gomez* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05424)] \\\n9 May 2023\n\n**Synthesizing PET images from High-field and Ultra-high-field MR images Using Joint Diffusion Attention Model** \\\n*Taofeng Xie, Chentao Cao, Zhuoxu Cui, Yu Guo, Caiying Wu, Xuemei Wang, Qingneng Li, Zhanli Hu, Tao Sun, Ziru Sang, Yihang Zhou, Yanjie Zhu, Dong Liang, Qiyu Jin, Guoqing Chen, Haifeng Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03901)] \\\n6 May 2023\n\n**Solving Inverse Problems with Score-Based Generative Priors learned from Noisy Data** \\\n*Asad Aali, Marius Arvinte, Sidharth Kumar, Jonathan I. Tamir* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01166)] \\\n2 May 2023\n\n**Self-similarity-based super-resolution of photoacoustic angiography from hand-drawn doodles** \\\n*Yuanzheng Ma, Wangting Zhou, Rui Ma, Sihua Yang, Yansong Tang, Xun Guan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01165)] \\\n2 May 2023\n\n\n**High-Fidelity Image Synthesis from Pulmonary Nodule Lesion Maps using Semantic Diffusion Model** \\\n*Xuan Zhao, Benjamin Hou* \\\nMIDL 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01138)] \\\n2 May 2023\n\n**Unsupervised Discovery of 3D Hierarchical Structure with Generative Diffusion Features** \\\n*Nurislam Tursynbek, Marc Niethammer* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00067)] \\\n28 Apr 2023\n\n**Cycle-guided Denoising Diffusion Probability Model for 3D Cross-modality MRI Synthesis** \\\n*Shaoyan Pan, Chih-Wei Chang, Junbo Peng, Jiahan Zhang, Richard L.J. Qiu, Tonghe Wang, Justin Roper, Tian Liu, Hui Mao, Xiaofeng Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00042)] \\\n28 Apr 2023\n\n**DiffuseExpand: Expanding dataset for 2D medical image segmentation using diffusion models** \\\n*Shitong Shao, Xiaohan Yuan, Zhen Huang, Ziming Qiu, Shuai Wang, Kevin Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.13416)] [[Github](https:\u002F\u002Fanonymous.4open.science\u002Fr\u002FDiffuseExpand\u002FREADME.md)] \\\n26 Apr 2023\n\n\n**Realistic Data Enrichment for Robust Image Segmentation in Histopathology** \\\n*Sarah Cechnicka, James Ball, Callum Arthurs, Candice Roufosse, Bernhard Kainz* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09534)] \\\n19 Apr 2023\n\n**Denoising Diffusion Medical Models** \\\n*Pham Ngoc Huy, Tran Minh Quan* \\\nIEEE ISBI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09383)] \\\n19 Apr 2023\n\n**A Multi-Institutional Open-Source Benchmark Dataset for Breast Cancer Clinical Decision Support using Synthetic Correlated Diffusion Imaging Data** \\\n*Chi-en Amy Tai, Hayden Gunraj, Alexander Wong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05623)] \\\n12 Apr 2023\n\n**Cancer-Net BCa-S: Breast Cancer Grade Prediction using Volumetric Deep Radiomic Features from Synthetic Correlated Diffusion Imaging** \\\n*Chi-en Amy Tai, Hayden Gunraj, Alexander Wong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05899)] \\\n12 Apr 2023\n\n**SPIRiT-Diffusion: Self-Consistency Driven Diffusion Model for Accelerated MRI** \\\n*Zhuo-Xu Cui, Chentao Cao, Jing Cheng, Sen Jia, Hairong Zheng, Dong Liang, Yanjie Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05060)] \\\n11 Apr 2023\n \n**Mask-conditioned latent diffusion for generating gastrointestinal polyp images** \\\n*Roman Macháček, Leila Mozaffari, Zahra Sepasdar, Sravanthi Parasa, Pål Halvorsen, Michael A. Riegler, Vajira Thambawita* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05233)] \\\n11 Apr 2023\n\n\n\n**BerDiff: Conditional Bernoulli Diffusion Model for Medical Image Segmentation** \\\n*Tao Chen, Chenhui Wang, Hongming Shan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04429)] \\\n10 Apr 2023\n\n\n**Ambiguous Medical Image Segmentation using Diffusion Models** \\\n*Aimon Rahman, Jeya Maria Jose Valanarasu, Ilker Hacihaliloglu, Vishal M Patel* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04745)] [[Github](https:\u002F\u002Fgithub.com\u002Faimansnigdha\u002FAmbiguous-Medical-Image-Segmentation-using-Diffusion-Models)] \\\n10 Apr 2023\n\n**MedGen3D: A Deep Generative Framework for Paired 3D Image and Mask Generation** \\\n*Kun Han, Yifeng Xiong, Chenyu You, Pooya Khosravi, Shanlin Sun, Xiangyi Yan, James Duncan, Xiaohui Xie* \\\narxiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04106)] [[Project](https:\u002F\u002Fkrishan999.github.io\u002FMedGen3D\u002F)] \\\n8 Apr 2023\n\n**Towards Realistic Ultrasound Fetal Brain Imaging Synthesis** \\\n*Michelle Iskandar, Harvey Mannering, Zhanxiang Sun, Jacqueline Matthew, Hamideh Kerdegari, Laura Peralta, Miguel Xochicale* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03941)] [[Gitub](https:\u002F\u002Fgithub.com\u002Fbudai4medtech\u002Fmidl2023)] \\\n8 Apr 2023\n\n\n**Zero-shot CT Field-of-view Completion with Unconditional Generative Diffusion Prior** \\\n*Kaiwen Xu, Aravind R. Krishnan, Thomas Z. Li, Yuankai Huo, Kim L. Sandler, Fabien Maldonado, Bennett A. Landman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03760)] \\\n7 Apr 2023\n\n\n**Zero-shot Medical Image Translation via Frequency-Guided Diffusion Models** \\\n*Yunxiang Li, Hua-Chieh Shao, Xiao Liang, Liyuan Chen, Ruiqi Li, Steve Jiang, Jing Wang, You Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02742)] \\\n5 Apr 2023\n\n\n\n\n**CoreDiff: Contextual Error-Modulated Generalized Diffusion Model for Low-Dose CT Denoising and Generalization** \\\n*Qi Gao, Zilong Li, Junping Zhang, Yi Zhang, Hongming Shan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01814)] \\\n4 Apr 2023\n\n**ViT-DAE: Transformer-driven Diffusion Autoencoder for Histopathology Image Analysis** \\\n*Xuan Xu, Saarthak Kapse, Rajarsi Gupta, Prateek Prasanna* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01053)] \\\n3 Apr 2023\n\n\n**Pay Attention: Accuracy Versus Interpretability Trade-off in Fine-tuned Diffusion Models** \\\n*Mischa Dombrowski, Hadrien Reynaud, Johanna P. Müller, Matthew Baugh, Bernhard Kainz* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17908)] \\\n31 Mar 2023\n\n**DDMM-Synth: A Denoising Diffusion Model for Cross-modal Medical Image Synthesis with Sparse-view Measurement Embedding** \\\n*Xiaoyue Li, Kai Shang, Gaoang Wang, Mark D. Butala* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15770)] \\\n28 Mar 2023\n\n**Diffusion Models for Memory-efficient Processing of 3D Medical Images** \\\n*Florentin Bieder, Julia Wolleb, Alicia Durrer, Robin Sandkühler, Philippe C. Cattin* \\\nMIDL 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15288)] \\\n27 Mar 2023\n\n**Multi-task Learning of Histology and Molecular Markers for Classifying Diffuse Glioma** \\\n*Xiaofei Wang, Stephen Price, Chao Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14845)] \\\n26 Mar 2023\n\n**CoLa-Diff: Conditional Latent Diffusion Model for Multi-Modal MRI Synthesis** \\\n*Lan Jiang, Ye Mao, Xi Chen, Xiangfeng Wang, Chao Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14081)] \\\n24 Mar 2023\n\n**DisC-Diff: Disentangled Conditional Diffusion Model for Multi-Contrast MRI Super-Resolution** \\\n*Ye Mao, Lan Jiang, Xi Chen, Chao Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13933)] \\\n23 Mar 2023\n\n**Medical diffusion on a budget: textual inversion for medical image generation** \\\n*Bram de Wilde, Anindo Saha, Richard P.G. ten Broek, Henkjan Huisman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13430)] \\\n23 Mar 2023\n\n**Sub-volume-based Denoising Diffusion Probabilistic Model for Cone-beam CT Reconstruction from Incomplete Data** \\\n*Wenjun Xia, Chuang Niu, Wenxiang Cong, Ge Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12861)] \\\n22 Mar 2023\n\n\n**Feature-Conditioned Cascaded Video Diffusion Models for Precise Echocardiogram Synthesis** \\\n*Hadrien Reynaud, Mengyun Qiao, Mischa Dombrowski, Thomas Day, Reza Razavi, Alberto Gomez, Paul Leeson, Bernhard Kainz* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12644)] \\\n22 Mar 2023\n\n\n\n\n**Distribution Aligned Diffusion and Prototype-guided network for Unsupervised Domain Adaptive Segmentation** \\\n*Haipeng Zhou, Lei Zhu, Yuyin Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12313)] \\\n22 Mar 2023\n\n**Semantic Latent Space Regression of Diffusion Autoencoders for Vertebral Fracture Grading** \\\n*Matthias Keicher, Matan Atad, David Schinz, Alexandra S. Gersing, Sarah C. Foreman, Sophia S. Goller, Juergen Weissinger, Jon Rischewski, Anna-Sophia Dietrich, Benedikt Wiestler, Jan S. Kirschke, Nassir Navab* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12031)] \\\n21 Mar 2023\n\n\n**NASDM: Nuclei-Aware Semantic Histopathology Image Generation Using Diffusion Models** \\\n*Aman Shrivastava, P. Thomas Fletcher* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11477)] \\\n20 Mar 2023\n\n**Cascaded Latent Diffusion Models for High-Resolution Chest X-ray Synthesis** \\\n*Tobias Weber, Michael Ingrisch, Bernd Bischl, David Rügamer* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11224)] \\\n20 Mar 2023\n\n**DiffMIC: Dual-Guidance Diffusion Network for Medical Image Classification** \\\n*Yijun Yang, Huazhu Fu, Angelica Aviles-Rivero, Carola-Bibiane Schönlieb, Lei Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10610)] \\\n19 Mar 2023\n\n**Diff-UNet: A Diffusion Embedded Network for Volumetric Segmentation** \\\n*Zhaohu Xing, Liang Wan, Huazhu Fu, Guang Yang, Lei Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10326)] [[Github](https:\u002F\u002Fgithub.com\u002Fge-xing\u002FDiff-UNet)] \\\n18 Mar 2023\n\n**Reversing the Abnormal: Pseudo-Healthy Generative Networks for Anomaly Detection** \\\n*Cosmin I Bercea, Benedikt Wiestler, Daniel Rueckert, Julia A Schnabel* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08452)] \\\n15 Mar 2023\n\n\n\n**Improving 3D Imaging with Pre-Trained Perpendicular 2D Diffusion Models** \\\n*Suhyeon Lee, Hyungjin Chung, Minyoung Park, Jonghyuk Park, Wi-Sun Ryu, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08440)] \\\n15 Mar 2023\n\n**Class-Guided Image-to-Image Diffusion: Cell Painting from Brightfield Images with Class Labels** \\\n*Jan Oscar Cross-Zamirski, Praveen Anand, Guy Williams, Elizabeth Mouchet, Yinhai Wang, Carola-Bibiane Schönlieb* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08863)] [[Github](https:\u002F\u002Fgithub.com\u002Fcrosszamirski\u002Fguided-I2I)] \\\n15 Mar 2023\n\n\n**Stochastic Segmentation with Conditional Categorical Diffusion Models** \\\n*Lukas Zbinden, Lars Doorenbos, Theodoros Pissas, Raphael Sznitman, Pablo Márquez-Neila* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08888)] [[Github](https:\u002F\u002Fgithub.com\u002FLarsDoorenbos\u002Fccdm-stochastic-segmentation)] \\\n15 Mar 2023\n\n**Diffusion Models for Contrast Harmonization of Magnetic Resonance Images** \\\n*Alicia Durrer, Julia Wolleb, Florentin Bieder, Tim Sinnecker, Matthias Weigel, Robin Sandkühler, Cristina Granziera, Özgür Yaldizli, Philippe C. Cattin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08189)] \\\n14 Mar 2023\n\n\n**Efficiently Training Vision Transformers on Structural MRI Scans for Alzheimer's Disease Detection** \\\n*Nikhil J. Dhinagar, Sophia I. Thomopoulos, Emily Laltoo, Paul M. Thompson* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08216)] \\\n14 Mar 2023\n\n\n**Diffusion-Based Hierarchical Multi-Label Object Detection to Analyze Panoramic Dental X-rays** \\\n*Ibrahim Ethem Hamamci, Sezgin Er, Enis Simsar, Anjany Sekuboyina, Mustafa Gundogar, Bernd Stadlinger, Albert Mehl, Bjoern Menze* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06500)] \\\n11 Mar 2023\n\n**AugDiff: Diffusion based Feature Augmentation for Multiple Instance Learning in Whole Slide Image** \\\n*Zhuchen Shao, Liuxi Dai, Yifeng Wang, Haoqian Wang, Yongbing Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06371)] \\\n11 Mar 2023\n\n**Brain Diffuser: An End-to-End Brain Image to Brain Network Pipeline** \\\n*Xuhang Chen, Baiying Lei, Chi-Man Pun, Shuqiang Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06410)] \\\n11 Mar 2023\n\n**Fast Diffusion Sampler for Inverse Problems by Geometric Decomposition** \\\n*Hyungjin Chung, Suhyeon Lee, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05754)] \\\n10 Mar 2023\n\n**Generalized Diffusion MRI Denoising and Super-Resolution using Swin Transformers** \\\n*Amir Sadikov, Jamie Wren-Jarvis, Xinlei Pan, Lanya T. Cai, Pratik Mukherjee* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05686)] \\\n10 Mar 2023\n\n**Importance of Aligning Training Strategy with Evaluation for Diffusion Models in 3D Multiclass Segmentation** \\\n*Yunguan Fu, Yiwen Li, Shaheer U. Saeed, Matthew J. Clarkson, Yipeng Hu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06040)] [[Github](https:\u002F\u002Fgithub.com\u002Fmathpluscode\u002FImgX-DiffSeg)] \\\n10 Mar 2023\n\n**Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI** \\\n*Finn Behrendt, Debayan Bhattacharya, Julia Krüger, Roland Opfer, Alexander Schlaefer* \\\nMIDL 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.03758)] \\\n7 Mar 2023\n\n\n**Bi-parametric prostate MR image synthesis using pathology and sequence-conditioned stable diffusion** \\\n*Shaheer U. Saeed, Tom Syer, Wen Yan, Qianye Yang, Mark Emberton, Shonit Punwani, Matthew J. Clarkson, Dean C. Barratt, Yipeng Hu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.02094)] \\\n3 Mar 2023\n\n**Dissolving Is Amplifying: Towards Fine-Grained Anomaly Detection** \\\n*Jian Shi, Pengyi Zhang, Ni Zhang, Hakim Ghazzai, Yehia Massoud* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.14696)] \\\n28 Feb 2023\n\n**DDM2: Self-Supervised Diffusion MRI Denoising with Generative Diffusion Models** \\\n*Tiange Xiang, Mahmut Yurt, Ali B Syed, Kawin Setsompop, Akshay Chaudhari* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03018)] [[Github](https:\u002F\u002Fgithub.com\u002FStanfordMIMI\u002FDDM2)] \\\n6 Feb 2023\n\n\n**Zero-shot-Learning Cross-Modality Data Translation Through Mutual Information Guided Stochastic Diffusion** \\\n*Zihao Wang, Yingyu Yang, Maxime Sermesant, Hervé Delingette, Ona Wu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13743)] \\\n31 Jan 2023\n\n**Diffusion Denoising for Low-Dose-CT Model** \\\n*Runyi Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11482)] \\\n27 Jan 2023\n\n**DiffusionCT: Latent Diffusion Model for CT Image Standardization** \\\n*Md Selim, Jie Zhang, Michael A. Brooks, Ge Wang, Jin Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.08815)] \\\n20 Jan 2023\n\n**MedSegDiff-V2: Diffusion based Medical Image Segmentation with Transformer** \\\n*Junde Wu, Rao Fu, Huihui Fang, Yu Zhang, Yanwu Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11798)] \\\n19 Jan 2023\n\n**The role of noise in denoising models for anomaly detection in medical images** \\\n*Antanas Kascenas, Pedro Sanchez, Patrick Schrempf, Chaoyang Wang, William Clackett, Shadia S. Mikhael, Jeremy P. Voisey, Keith Goatman, Alexander Weir, Nicolas Pugeault, Sotirios A. Tsaftaris, Alison Q. O'Neil* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.08330)] [[Github](https:\u002F\u002Fgithub.com\u002FAntanasKascenas\u002FDenoisingAE)] \\\n19 Jan 2023\n\n\n\n**Diffusion-based Data Augmentation for Skin Disease Classification: Impact Across Original Medical Datasets to Fully Synthetic Images** \\\n*Mohamed Akrout, Bálint Gyepesi, Péter Holló, Adrienn Poór, Blága Kincső, Stephen Solis, Katrina Cirone, Jeremy Kawahara, Dekker Slade, Latif Abid, Máté Kovács, István Fazekas* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.04802)] \\\n12 Jan 2023\n\n**Annealed Score-Based Diffusion Model for MR Motion Artifact Reduction** \\\n*Gyutaek Oh, Jeong Eun Lee, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.03027)] \\\n8 Jan 2023\n\n**Denoising Diffusion Probabilistic Models for Generation of Realistic Fully-Annotated Microscopy Image Data Sets** \\\n*Dennis Eschweiler, Johannes Stegmaier* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.10227)] \\\n2 Jan 2023\n\n**Diffusion Model based Semi-supervised Learning on Brain Hemorrhage Images for Efficient Midline Shift Quantification** \\\n*Shizhan Gong, Cheng Chen, Yuqi Gong, Nga Yan Chan, Wenao Ma, Calvin Hoi-Kwan Mak, Jill Abrigo, Qi Dou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.00409)] \\\n1 Jan 2023\n\n\n**SADM: Sequence-Aware Diffusion Model for Longitudinal Medical Image Generation** \\\n*Jee Seok Yoon, Chenghao Zhang, Heung-Il Suk, Jia Guo, Xiaoxiao Li* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08228)] \\\n16 Dec 2022\n\n**Universal Generative Modeling in Dual-domain for Dynamic MR Imaging** \\\n*Chuanming Yu, Yu Guan, Ziwen Ke, Dong Liang, Qiegen Liu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.07599)] \\\n15 Dec 2022\n\n**Generating Realistic 3D Brain MRIs Using a Conditional Diffusion Probabilistic Model** \\\n*Wei Peng, Ehsan Adeli, Qingyu Zhao, Kilian M. Pohl* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08034)] [[Github](https:\u002F\u002Fgithub.com\u002FProject-MONAI\u002FGenerativeModels\u002Ftree\u002F260-add-cdpm-model)] \\\n15 Dec 2022\n\n\n**SPIRiT-Diffusion: SPIRiT-driven Score-Based Generative Modeling for Vessel Wall imaging** \\\n*Chentao Cao, Zhuo-Xu Cui, Jing Cheng, Sen Jia, Hairong Zheng, Dong Liang, Yanjie Zhu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.11274)] \\\n14 Dec 2022\n\n**Diffusion Probabilistic Models beat GANs on Medical Images** \\\n*Gustav Müller-Franzes, Jan Moritz Niehues, Firas Khader, Soroosh Tayebi Arasteh, Christoph Haarburger, Christiane Kuhl, Tianci Wang, Tianyu Han, Sven Nebelung, Jakob Nikolas Kather, Daniel Truhn* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.07501)] \\\n14 Dec 2022\n\n\n**One Sample Diffusion Model in Projection Domain for Low-Dose CT Imaging** \\\n*Bin Huang, Liu Zhang, Shiyu Lu, Boyu Lin, Weiwen Wu, Qiegen Liu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03630)] \\\n7 Dec 2022\n\n\n\n**Neural Cell Video Synthesis via Optical-Flow Diffusion** \\\n*Manuel Serna-Aguilera, Khoa Luu, Nathaniel Harris, Min Zou* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03250)] \\\n6 Dec 2022\n\n**Improving dermatology classifiers across populations using images generated by large diffusion models** \\\n*Luke W. Sagers, James A. Diao, Matthew Groh, Pranav Rajpurkar, Adewole S. Adamson, Arjun K. Manrai* \\\nNeurIPS Workshop 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13352)] \\\n23 Nov 2022\n\n**RoentGen: Vision-Language Foundation Model for Chest X-ray Generation** \\\n*Pierre Chambon, Christian Bluethgen, Jean-Benoit Delbrouck, Rogier Van der Sluijs, Małgorzata Połacin, Juan Manuel Zambrano Chaves, Tanishq Mathew Abraham, Shivanshu Purohit, Curtis P. Langlotz, Akshay Chaudhari* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12737)] \\\n23 Nov 2022\n\n**DOLCE: A Model-Based Probabilistic Diffusion Framework for Limited-Angle CT Reconstruction** \\\n*Jiaming Liu, Rushil Anirudh, Jayaraman J. Thiagarajan, Stewart He, K. Aditya Mohan, Ulugbek S. Kamilov, Hyojin Kim* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12340)] \\\n22 Nov 2022\n\n\n\n**Solving 3D Inverse Problems using Pre-trained 2D Diffusion Models** \\\n*Hyungjin Chung, Dohoon Ryu, Michael T. McCann, Marc L. Klasky, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10655)] \\\n19 Nov 2022\n\n**Patch-Based Denoising Diffusion Probabilistic Model for Sparse-View CT Reconstruction** \\\n*Wenjun Xia, Wenxiang Cong, Ge Wang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10388)] \\\n18 Nov 2022\n\n\n**Brain PET Synthesis from MRI Using Joint Probability Distribution of Diffusion Model at Ultrahigh Fields** \\\n*Xie Taofeng, Cao Chentao, Cui Zhuoxu, Li Fanshi, Wei Zidong, Zhu Yanjie, Li Ye, Liang Dong, Jin Qiyu, Chen Guoqing, Wang Haifeng* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.08901)] \\\n16 Nov 2022\n\n**Improved HER2 Tumor Segmentation with Subtype Balancing using Deep Generative Networks** \\\n*Mathias Öttl, Jana Mönius, Matthias Rübner, Carol I. Geppert, Jingna Qiu, Frauke Wilm, Arndt Hartmann, Matthias W. Beckmann, Peter A. Fasching, Andreas Maier, Ramona Erber, Katharina Breininger* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06150)] \\\n11 Nov 2022\n\n\n\n**An unobtrusive quality supervision approach for medical image annotation** \\\n*Sonja Kunzmann, Mathias Öttl, Prathmesh Madhu, Felix Denzinger, Andreas Maier* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06146)] \\\n11 Nov 2022\n\n\n**Medical Diffusion -- Denoising Diffusion Probabilistic Models for 3D Medical Image Generation** \\\n*Firas Khader, Gustav Mueller-Franzes, Soroosh Tayebi Arasteh, Tianyu Han, Christoph Haarburger, Maximilian Schulze-Hagen, Philipp Schad, Sandy Engelhardt, Bettina Baessler, Sebastian Foersch, Johannes Stegmaier, Christiane Kuhl, Sven Nebelung, Jakob Nikolas Kather, Daniel Truhn* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03364)] \\\n7 Nov 2022\n\n**Generation of Anonymous Chest Radiographs Using Latent Diffusion Models for Training Thoracic Abnormality Classification Systems** \\\n*Kai Packhäuser, Lukas Folle, Florian Thamm, Andreas Maier* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01323)] \\\n2 Nov 2022\n\n**Spot the fake lungs: Generating Synthetic Medical Images using Neural Diffusion Models** \\\n*Hazrat Ali, Shafaq Murad, Zubair Shah* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.00902)] [[Project](https:\u002F\u002Fwww.kaggle.com\u002Fdatasets\u002Fhazrat\u002Fawesomelungs)] \\\n2 Nov 2022\n\n\n**MedSegDiff: Medical Image Segmentation with Diffusion Probabilistic Model** \\\n*Junde Wu, Huihui Fang, Yu Zhang, Yehui Yang, Yanwu Xu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.00611)] \\\n1 Nov 2022\n\n**Accelerating Diffusion Models via Pre-segmentation Diffusion Sampling for Medical Image Segmentation** \\\n*Xutao Guo, Yanwu Yang, Chenfei Ye, Shang Lu, Yang Xiang, Ting Ma* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.17408)] \\\n27 Oct 2022\n\n**Multitask Brain Tumor Inpainting with Diffusion Models: A Methodological Report** \\\n*Pouria Rouzrokh, Bardia Khosravi, Shahriar Faghani, Mana Moassefi, Sanaz Vahdati, Bradley J. Erickson* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12113)] [[Github](https:\u002F\u002Fgithub.com\u002FMayo-Radiology-Informatics-Lab\u002FMBTI)] \\\n21 Oct 2022\n\n\n**Adapting Pretrained Vision-Language Foundational Models to Medical Imaging Domains** \\\n*Pierre Chambon, Christian Bluethgen, Curtis P. Langlotz, Akshay Chaudhari* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.04133)] \\\n9 Oct 2022\n\n**Anatomically constrained CT image translation for heterogeneous blood vessel segmentation** \\\n*Giammarco La Barbera, Haithem Boussaid, Francesco Maso, Sabine Sarnacki, Laurence Rouet, Pietro Gori, Isabelle Bloch* \\\nBMVC 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.01713)] \\\n4 Oct 2022\n\n**Low-Dose CT Using Denoising Diffusion Probabilistic Model for 20× Speedup** \\\n*Wenjun Xia, Qing Lyu, Ge Wang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.15136)] \\\n29 Sep 2022\n\n\n**Diffusion Adversarial Representation Learning for Self-supervised Vessel Segmentation** \\\n*Boah Kim, Yujin Oh, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14566)] \\\n29 Sep 2022\n\n**Conversion Between CT and MRI Images Using Diffusion and Score-Matching Models** \\\n*Qing Lyu, Ge Wang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.12104)] \\\n24 Sep 2022\n\n**Brain Imaging Generation with Latent Diffusion Models** \\\n*Walter H. L. Pinaya, Petru-Daniel Tudosiu, Jessica Dafflon, Pedro F da Costa, Virginia Fernandez, Parashkev Nachev, Sebastien Ourselin, M. Jorge Cardoso* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.07162)] \\\n15 Sep 2022\n\n**PET image denoising based on denoising diffusion probabilistic models** \\\n*Kuang Gong, Keith A. Johnson, Georges El Fakhri, Quanzheng Li, Tinsu Pan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.06167)] \\\n13 Sep 2022\n\n**Self-Score: Self-Supervised Learning on Score-Based Models for MRI Reconstruction** \\\n*Zhuo-Xu Cui, Chentao Cao, Shaonan Liu, Qingyong Zhu, Jing Cheng, Haifeng Wang, Yanjie Zhu, Dong Liang* \\\nIEEE TMI 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.00835)] \\\n2 Sep 2022\n\n**High-Frequency Space Diffusion Models for Accelerated MRI** \\\n*Chentao Cao, Zhuo-Xu Cui, Shaonan Liu, Dong Liang, Yanjie Zhu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.05481)] \\\n10 Aug 2022\n\n**What is Healthy? Generative Counterfactual Diffusion for Lesion Localization** \\\n*Pedro Sanchez, Antanas Kascenas, Xiao Liu, Alison Q. O'Neil, Sotirios A. Tsaftaris* \\\nMICCAI 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.12268)] [[Github](https:\u002F\u002Fgithub.com\u002Fvios-s\u002FDiff-SCM)] \\\n25 Jul 2022\n\n\n**Unsupervised Medical Image Translation with Adversarial Diffusion Models** \\\n*Muzaffer Özbey, Salman UH Dar, Hasan A Bedel, Onat Dalmaz, Şaban Özturk, Alper Güngör, Tolga Çukur* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.08208)] \\\n17 Jul 2022\n\n**Adaptive Diffusion Priors for Accelerated MRI Reconstruction** \\\n*Salman UH Dar, Şaban Öztürk, Yilmaz Korkmaz, Gokberk Elmas, Muzaffer Özbey, Alper Güngör, Tolga Çukur* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.05876)] \\\n12 Jul 2022\n\n**A Novel Unified Conditional Score-based Generative Framework for Multi-modal Medical Image Completion** \\\n*Xiangxi Meng, Yuning Gu, Yongsheng Pan, Nizhuan Wang, Peng Xue, Mengkang Lu, Xuming He, Yiqiang Zhan, Dinggang Shen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.03430)] \\\n7 Jul 2022\n\n\n**Cross-Modal Transformer GAN: A Brain Structure-Function Deep Fusing Framework for Alzheimer's Disease** \\\n*Junren Pan, Shuqiang Wang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.13393)] \\\n20 Jun 2022\n\n**Diffusion Deformable Model for 4D Temporal Medical Image Generation** \\\n*Boah Kim, Jong Chul Ye* \\\nMICCAI 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.13295)] [[Github](https:\u002F\u002Fgithub.com\u002Ftorchddm\u002Fddm)] \\\n27 Jun 2022\n\n\n**Fast Unsupervised Brain Anomaly Detection and Segmentation with Diffusion Models** \\\n*Walter H. L. Pinaya, Mark S. Graham, Robert Gray, Pedro F Da Costa, Petru-Daniel Tudosiu, Paul Wright, Yee H. Mah, Andrew D. MacKinnon, James T. Teo, Rolf Jager, David Werring, Geraint Rees, Parashkev Nachev, Sebastien Ourselin, M. Jorge Cardos* \\\nMICCAI 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.03461)] \\\n7 Jun 2022\n\n**Improving Diffusion Models for Inverse Problems using Manifold Constraints** \\\n*Hyungjin Chung, Byeongsu Sim, Dohoon Ryu, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00941)] \\\n2 Jun 2022\n\n**AnoDDPM: Anomaly Detection with Denoising Diffusion Probabilistic Models using Simplex Noise** \\\n*Julian Wyatt, Adam Leach, Sebastian M. Schmon, Chris G. Willcocks* \\\nCVPR Workshop 2022. [[Paper](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2022W\u002FNTIRE\u002Fpapers\u002FWyatt_AnoDDPM_Anomaly_Detection_With_Denoising_Diffusion_Probabilistic_Models_Using_Simplex_CVPRW_2022_paper.pdf)] [[Github](https:\u002F\u002Fgithub.com\u002FJulian-Wyatt\u002FAnoDDPM)] \\\n1 Jun 2022\n\n**The Swiss Army Knife for Image-to-Image Translation: Multi-Task Diffusion Models** \\\n*Julia Wolleb, Robin Sandkühler, Florentin Bieder, Philippe C. Cattin* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.02641)] \\\n6 Apr 2022\n\n**MR Image Denoising and Super-Resolution Using Regularized Reverse Diffusion** \\\n*Hyungjin Chung, Eun Sun Lee, Jong Chul Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.12621)] \\\n23 Mar 2022\n\n**Diffusion Models for Medical Anomaly Detection** \\\n*Julia Wolleb, Florentin Bieder, Robin Sandkühler, Philippe C. Cattin* \\\nMICCAI 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.04306)] [[Github](https:\u002F\u002Fgithub.com\u002FJuliaWolleb\u002Fdiffusion-anomaly)] \\\n8 Mar 2022\n\n**Towards performant and reliable undersampled MR reconstruction via diffusion model sampling** \\\n*Cheng Peng, Pengfei Guo, S. Kevin Zhou, Vishal Patel, Rama Chellappa* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.04292)] [[Github](https:\u002F\u002Fgithub.com\u002Fcpeng93\u002Fdiffuserecon)] \\\n8 Mar 2022\n\n**Measurement-conditioned Denoising Diffusion Probabilistic Model for Under-sampled Medical Image Reconstruction** \\\n*Yutong Xie, Quanzheng Li* \\\nMICCAI 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.03623)] [[Github](https:\u002F\u002Fgithub.com\u002FTheodore-PKU\u002FMC-DDPM)] \\\n5 Mar 2022\n\n**MRI Reconstruction via Data Driven Markov Chain with Joint Uncertainty Estimation** \\\n*Guanxiong Luo, Martin Heide, Martin Uecker* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.01479)] [[Github](https:\u002F\u002Fgithub.com\u002Fmrirecon\u002Fspreco)] \\\n3 Feb 2022\n\n**Unsupervised Denoising of Retinal OCT with Diffusion Probabilistic Model** \\\n*Dewei Hu, Yuankai K. Tao, Ipek Oguz* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.11760)] [[Github](https:\u002F\u002Fgithub.com\u002FDeweiHu\u002FOCT_DDPM)] \\\n27 Jan 2022\n\n**Come-Closer-Diffuse-Faster: Accelerating Conditional Diffusion Models for Inverse Problems through Stochastic Contraction** \\\n*Hyungjin Chung, Byeongsu Sim, Jong Chul Ye* \\\nCVPR 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.05146)] \\\n9 Dec 2021\n\n**Solving Inverse Problems in Medical Imaging with Score-Based Generative Models** \\\n*Yang Song, Liyue Shen, Lei Xing, Stefano Ermon* \\\nNeurIPS Workshop 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.08005)] [[Github](https:\u002F\u002Fgithub.com\u002Fyang-song\u002Fscore_inverse_problems)] \\\n15 Nov 2021\n\n**Score-based diffusion models for accelerated MRI** \\\n*Hyungjin Chung, Jong chul Ye* \\\nMIA 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.05243)] [[Github](https:\u002F\u002Fgithub.com\u002FHJ-harry\u002Fscore-MRI)] \\\n8 Oct 2021\n\n\n\n\n### Multi-modal Learning\n\n\n**IterInv: Iterative Inversion for Pixel-Level T2I Models** \\\n*Chuanming Tang, Kai Wang, Joost van de Weijer* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19540)] \\\n30 Oct 2023\n\n\n**VideoCrafter1: Open Diffusion Models for High-Quality Video Generation** \\\n*Haoxin Chen, Menghan Xia, Yingqing He, Yong Zhang, Xiaodong Cun, Shaoshu Yang, Jinbo Xing, Yaofang Liu, Qifeng Chen, Xintao Wang, Chao Weng, Ying Shan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19512)] \\\n30 Oct 2023\n\n**IMPRESS: Evaluating the Resilience of Imperceptible Perturbations Against Unauthorized Data Usage in Diffusion-Based Generative AI** \\\n*Bochuan Cao, Changjiang Li, Ting Wang, Jinyuan Jia, Bo Li, Jinghui Chen* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19248)] \\\n30 Oct 2023\n\n\n**CustomNet: Zero-shot Object Customization with Variable-Viewpoints in Text-to-Image Diffusion Models** \\\n*Ziyang Yuan, Mingdeng Cao, Xintao Wang, Zhongang Qi, Chun Yuan, Ying Shan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19784)] \\\n30 Oct 2023\n\n\n**Seeing Through the Conversation: Audio-Visual Speech Separation based on Diffusion Model** \\\n*Suyeon Lee, Chaeyoung Jung, Youngjoon Jang, Jaehun Kim, Joon Son Chung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19581)] \\\n30 Oct 2023\n\n\n**Text-to-3D with Classifier Score Distillation** \\\n*Xin Yu, Yuan-Chen Guo, Yangguang Li, Ding Liang, Song-Hai Zhang, Xiaojuan Qi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19415)] \\\n30 Oct 2023\n\n**Customizing 360-Degree Panoramas through Text-to-Image Diffusion Models** \\\n*Hai Wang, Xiaoyu Xiang, Yuchen Fan, Jing-Hao Xue* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18840)] \\\n28 Oct 2023\n\n**SD4Match: Learning to Prompt Stable Diffusion Model for Semantic Matching** \\\n*Xinghui Li, Jingyi Lu, Kai Han, Victor Prisacariu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17569)] \\\n26 Oct 2023\n\n\n\n\n\n**CADS: Unleashing the Diversity of Diffusion Models through Condition-Annealed Sampling** \\\n*Seyedmorteza Sadat, Jakob Buhmann, Derek Bradely, Otmar Hilliges, Romann M. Weber* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17347)] \\\n26 Oct 2023\n\n**Exploring Iterative Refinement with Diffusion Models for Video Grounding** \\\n*Xiao Liang, Tao Shi, Yaoyuan Liang, Te Tao, Shao-Lun Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17189)] \\\n26 Oct 2023\n\n**A Picture is Worth a Thousand Words: Principled Recaptioning Improves Image Generation** \\\n*Eyal Segalis, Dani Valevski, Danny Lumen, Yossi Matias, Yaniv Leviathan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16656)] \\\n25 Oct 2023\n\n\n\n**CommonCanvas: An Open Diffusion Model Trained with Creative-Commons Images** \\\n*Aaron Gokaslan, A. Feder Cooper, Jasmine Collins, Landan Seguin, Austin Jacobson, Mihir Patel, Jonathan Frankle, Cory Stephenson, Volodymyr Kuleshov* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16825)] \\\n25 Oct 2023\n\n\n**On the Proactive Generation of Unsafe Images From Text-To-Image Models Using Benign Prompts** \\\n*Yixin Wu, Ning Yu, Michael Backes, Yun Shen, Yang Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16613)] \\\n25 Oct 2023\n\n**Fuse Your Latents: Video Editing with Multi-source Latent Diffusion Models** \\\n*Tianyi Lu, Xing Zhang, Jiaxi Gu, Hang Xu, Renjing Pei, Songcen Xu, Zuxuan Wu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16400)] \\\n25 Oct 2023\n\n\n\n**Adapt Anything: Tailor Any Image Classifiers across Domains And Categories Using Text-to-Image Diffusion Models** \\\n*Weijie Chen, Haoyu Wang, Shicai Yang, Lei Zhang, Wei Wei, Yanning Zhang, Luojun Lin, Di Xie, Yueting Zhuang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16573)] \\\n25 Oct 2023\n\n**Text Guided Video Editing Competition** \\\n*Jay Zhangjie Wu, Xiuyu Li, Difei Gao, Zhen Dong, Jinbin Bai, Aishani Singh, Xiaoyu Xiang, Youzeng Li, Zuwei Huang, Yuanxi Sun, Rui He, Feng Hu, Junhua Hu, Hai Huang, Hanyu Zhu, Xu Cheng, Jie Tang, Mike Zheng Shou, Kurt Keutzer, Forrest Iandola* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16003)] \\\n24 Oct 2023\n\n**Language-driven Scene Synthesis using Multi-conditional Diffusion Model** \\\n*An Vuong, Minh Nhat Vu, Toan Tien Nguyen, Baoru Huang, Dzung Nguyen, Thieu Vo, Anh Nguyen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15948)] \\\n24 Oct 2023\n\n**FreeNoise: Tuning-Free Longer Video Diffusion via Noise Rescheduling** \\\n*Haonan Qiu, Menghan Xia, Yong Zhang, Yingqing He, Xintao Wang, Ying Shan, Ziwei Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15169)] [[Project](http:\u002F\u002Fhaonanqiu.com\u002Fprojects\u002FFreeNoise.html)] \\\n23 Oct 2023\n\n**SyncFusion: Multimodal Onset-synchronized Video-to-Audio Foley Synthesis** \\\n*Marco Comunità, Riccardo F. Gramaccioni, Emilian Postolache, Emanuele Rodolà, Danilo Comminiello, Joshua D. Reiss* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15247)] \\\n23 Oct 2023\n\n\n**Matryoshka Diffusion Models** \\\n*Jiatao Gu, Shuangfei Zhai, Yizhe Zhang, Josh Susskind, Navdeep Jaitly* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15111)] \\\n23 Oct 2023\n\n**Large Language Models can Share Images, Too!** \\\n*Young-Jun Lee, Jonghwan Hyeon, Ho-Jin Choi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14804)] \\\n23 Oct 2023\n\n**Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models** \\\n*Shawn Shan, Wenxin Ding, Josephine Passananti, Haitao Zheng, Ben Y. Zhao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13828)] \\\n20 Oct 2023\n\n\n**TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion Models** \\\n*Tianshi Cao, Karsten Kreis, Sanja Fidler, Nicholas Sharp, Kangxue Yin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13772)] \\\n20 Oct 2023\n\n\n\n**DPM-Solver-v3: Improved Diffusion ODE Solver with Empirical Model Statistics** \\\n*Kaiwen Zheng, Cheng Lu, Jianfei Chen, Jun Zhu* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13268)] [[Project](https:\u002F\u002Fml.cs.tsinghua.edu.cn\u002Fdpmv3\u002F)] \\\n20 Oct 2023\n\n\n**Localizing and Editing Knowledge in Text-to-Image Generative Models** \\\n*Samyadeep Basu, Nanxuan Zhao, Vlad Morariu, Soheil Feizi, Varun Manjunatha* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13730)] \\\n20 Oct 2023\n\n**TapMo: Shape-aware Motion Generation of Skeleton-free Characters** \\\n*Jiaxu Zhang, Shaoli Huang, Zhigang Tu, Xin Chen, Xiaohang Zhan, Gang Yu, Ying Shan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12678)] \\\n19 Oct 2023\n\n**CycleNet: Rethinking Cycle Consistency in Text-Guided Diffusion for Image Manipulation** \\\n*Sihan Xu, Ziqiao Ma, Yidong Huang, Honglak Lee, Joyce Chai* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13165)] \\\n19 Oct 2023\n\n\n**DreamSpace: Dreaming Your Room Space with Text-Driven Panoramic Texture Propagation** \\\n*Bangbang Yang, Wenqi Dong, Lin Ma, Wenbo Hu, Xiao Liu, Zhaopeng Cui, Yuewen Ma* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13119)] \\\n19 Oct 2023\n\n**EMIT-Diff: Enhancing Medical Image Segmentation via Text-Guided Diffusion Model** \\\n*Zheyuan Zhang, Lanhong Yao, Bin Wang, Debesh Jha, Elif Keles, Alpay Medetalibeyoglu, Ulas Bagci* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12868)] \\\n19 Oct 2023\n\n**Diverse Diffusion: Enhancing Image Diversity in Text-to-Image Generation** \\\n*Mariia Zameshina, Olivier Teytaud, Laurent Najman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12583)] \\\n19 Oct 2023\n\n**DynamiCrafter: Animating Open-domain Images with Video Diffusion Priors** \\\n*Jinbo Xing, Menghan Xia, Yong Zhang, Haoxin Chen, Xintao Wang, Tien-Tsin Wong, Ying Shan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12190)] \\\n18 Oct 2023\n\n**Progressive3D: Progressively Local Editing for Text-to-3D Content Creation with Complex Semantic Prompts** \\\n*Xinhua Cheng, Tianyu Yang, Jianan Wang, Yu Li, Lei Zhang, Jian Zhang, Li Yuan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11784)] \\\n18 Oct 2023\n\n\n**Language Agents for Detecting Implicit Stereotypes in Text-to-image Models at Scale** \\\n*Qichao Wang, Tian Bian, Yian Yin, Tingyang Xu, Hong Cheng, Helen M. Meng, Zibin Zheng, Liang Chen, Bingzhe Wu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11778)] \\\n18 Oct 2023\n\n**Elucidating The Design Space of Classifier-Guided Diffusion Generation** \\\n*Jiajun Ma, Tianyang Hu, Wenjia Wang, Jiacheng Sun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11311)] [[Github](https:\u002F\u002Fgithub.com\u002Falexmaols\u002Felucd)] \\\n17 Oct 2023\n\n**BayesDiff: Estimating Pixel-wise Uncertainty in Diffusion via Bayesian Inference** \\\n*Siqi Kou, Lei Gan, Dequan Wang, Chongxuan Li, Zhijie Deng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11142)] \\\n17 Oct 2023\n\n**GenEval: An Object-Focused Framework for Evaluating Text-to-Image Alignment** \\\n*Dhruba Ghosh, Hanna Hajishirzi, Ludwig Schmidt* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11513)] \\\n17 Oct 2023\n\n**Towards Training-free Open-world Segmentation via Image Prompting Foundation Models** \\\n*Lv Tang, Peng-Tao Jiang, Hao-Ke Xiao, Bo Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10912)] \\\n17 Oct 2023\n\n**LAMP: Learn A Motion Pattern for Few-Shot-Based Video Generation** \\\n*Ruiqi Wu, Liangyu Chen, Tong Yang, Chunle Guo, Chongyi Li, Xiangyu Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10769)] [[Project](https:\u002F\u002Frq-wu.github.io\u002Fprojects\u002FLAMP\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FRQ-Wu\u002FLAMP)] \\\n16 Oct 2023\n\n**Scene Graph Conditioning in Latent Diffusion** \\\n*Frank Fundel* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10338)] [[Github](https:\u002F\u002Fgithub.com\u002FFrankFundel\u002FSGCond)] \\\n16 Oct 2023\n\n\n**Ring-A-Bell! How Reliable are Concept Removal Methods for Diffusion Models?** \\\n*Yu-Lin Tsai, Chia-Yi Hsu, Chulin Xie, Chih-Hsun Lin, Jia-You Chen, Bo Li, Pin-Yu Chen, Chia-Mu Yu, Chun-Ying Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10012)] \\\n16 Oct 2023\n\n**Zero-Shot Robotic Manipulation with Pretrained Image-Editing Diffusion Models** \\\n*Kevin Black, Mitsuhiko Nakamoto, Pranav Atreya, Homer Walke, Chelsea Finn, Aviral Kumar, Sergey Levine* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10639)] \\\n16 Oct 2023\n\n**ViPE: Visualise Pretty-much Everything** \\\n*Hassan Shahmohammadi, Adhiraj Ghosh, Hendrik P. A. Lensch* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10543)] \\\n16 Oct 2023\n\n\n**TOSS:High-quality Text-guided Novel View Synthesis from a Single Image** \\\n*Yukai Shi, Jianan Wang, He Cao, Boshi Tang, Xianbiao Qi, Tianyu Yang, Yukun Huang, Shilong Liu, Lei Zhang, Heung-Yeung Shum* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10644)] \\\n16 Oct 2023\n\n\n**LLM Blueprint: Enabling Text-to-Image Generation with Complex and Detailed Prompts** \\\n*Hanan Gani, Shariq Farooq Bhat, Muzammal Naseer, Salman Khan, Peter Wonka* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10640)] \\\n16 Oct 2023\n\n\n**LOVECon: Text-driven Training-Free Long Video Editing with ControlNet** \\\n*Zhenyi Liao, Zhijie Deng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09711)] \\\n15 Oct 2023\n\n**PaintHuman: Towards High-fidelity Text-to-3D Human Texturing via Denoised Score Distillation** \\\n*Jianhui Yu, Hao Zhu, Liming Jiang, Chen Change Loy, Weidong Cai, Wayne Wu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09458)] \\\n14 Oct 2023\n\n**Compositional Abilities Emerge Multiplicatively: Exploring Diffusion Models on a Synthetic Task** \\\n*Maya Okawa, Ekdeep Singh Lubana, Robert P. Dick, Hidenori Tanaka* \\\nICML Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09336)] \\\n13 Oct 2023\n\n**Hypernymy Understanding Evaluation of Text-to-Image Models via WordNet Hierarchy** \\\n*Anton Baryshnikov, Max Ryabinin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09247)] \\\n13 Oct 2023\n\n**Making Multimodal Generation Easier: When Diffusion Models Meet LLMs** \\\n*Xiangyu Zhao, Bo Liu, Qijiong Liu, Guangyuan Shi, Xiao-Ming Wu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08949)] \\\n13 Oct 2023\n\n\n**R&B: Region and Boundary Aware Zero-shot Grounded Text-to-image Generation** \\\n*Jiayu Xiao, Liang Li, Henglei Lv, Shuhui Wang, Qingming Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08872)] \\\n13 Oct 2023\n\n**DeltaSpace: A Semantic-aligned Feature Space for Flexible Text-guided Image Editing** \\\n*Yueming Lyu, Kang Zhao, Bo Peng, Yue Jiang, Yingya Zhang, Jing Dong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08785)] \\\n12 Oct 2023\n\n\n**OmniControl: Control Any Joint at Any Time for Human Motion Generation** \\\n*Yiming Xie, Varun Jampani, Lei Zhong, Deqing Sun, Huaizu Jiang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08580)] [[Project](https:\u002F\u002Fneu-vi.github.io\u002Fomnicontrol\u002F)] \\\n12 Oct 2023\n\n\n**HyperHuman: Hyper-Realistic Human Generation with Latent Structural Diffusion** \\\n*Xian Liu, Jian Ren, Aliaksandr Siarohin, Ivan Skorokhodov, Yanyu Li, Dahua Lin, Xihui Liu, Ziwei Liu, Sergey Tulyakov* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08579)] [[Project](https:\u002F\u002Fsnap-research.github.io\u002FHyperHuman\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fsnap-research\u002FHyperHuman)] \\\n12 Oct 2023\n\n**GaussianDreamer: Fast Generation from Text to 3D Gaussian Splatting with Point Cloud Priors** \\\n*Taoran Yi, Jiemin Fang, Guanjun Wu, Lingxi Xie, Xiaopeng Zhang, Wenyu Liu, Qi Tian, Xinggang Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08529)] \\\n12 Oct 2023\n\n\n**MotionDirector: Motion Customization of Text-to-Video Diffusion Models** \\\n*Rui Zhao, Yuchao Gu, Jay Zhangjie Wu, David Junhao Zhang, Jiawei Liu, Weijia Wu, Jussi Keppo, Mike Zheng Shou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08465)] \\\n12 Oct 2023\n\n**Interpretable Diffusion via Information Decomposition** \\\n*Xianghao Kong, Ollie Liu, Han Li, Dani Yogatama, Greg Ver Steeg* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07972)] \\\n12 Oct 2023\n\n**DrivingDiffusion: Layout-Guided multi-view driving scene video generation with latent diffusion model** \\\n*Xiaofan Li, Yifu Zhang, Xiaoqing Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07771)] [[Project](https:\u002F\u002Fdrivingdiffusion.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fshalfun\u002FDrivingDiffusion)] \\\n11 Oct 2023\n\n**ScaleCrafter: Tuning-free Higher-Resolution Visual Generation with Diffusion Models** \\\n*Yingqing He, Shaoshu Yang, Haoxin Chen, Xiaodong Cun, Menghan Xia, Yong Zhang, Xintao Wang, Ran He, Qifeng Chen, Ying Shan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07702)] [[Project](https:\u002F\u002Fyingqinghe.github.io\u002Fscalecrafter\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FYingqingHe\u002FScaleCrafter)] \\\n11 Oct 2023\n\n**ConditionVideo: Training-Free Condition-Guided Text-to-Video Generation** \\\n*Bo Peng, Xinyuan Chen, Yaohui Wang, Chaochao Lu, Yu Qiao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07697)] \\\n11 Oct 2023\n\n\n**Mini-DALLE3: Interactive Text to Image by Prompting Large Language Models** \\\n*Zeqiang Lai, Xizhou Zhu, Jifeng Dai, Yu Qiao, Wenhai Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07653)] \\\n11 Oct 2023\n\n**Multi-Concept T2I-Zero: Tweaking Only The Text Embeddings and Nothing Else** \\\n*Hazarapet Tunanyan, Dejia Xu, Shant Navasardyan, Zhangyang Wang, Humphrey Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07419)] \\\n11 Oct 2023\n\n**Uni-paint: A Unified Framework for Multimodal Image Inpainting with Pretrained Diffusion Model** \\\n*Shiyuan Yang, Xiaodong Chen, Jing Liao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07222)] \\\n11 Oct 2023\n\n**ObjectComposer: Consistent Generation of Multiple Objects Without Fine-tuning** \\\n*Alec Helbling, Evan Montoya, Duen Horng Chau* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06968)] \\\n10 Oct 2023\n\n\n**JointNet: Extending Text-to-Image Diffusion for Dense Distribution Modeling** \\\n*Jingyang Zhang, Shiwei Li, Yuanxun Lu, Tian Fang, David McKinnon, Yanghai Tsin, Long Quan, Yao Yao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06347)] \\\n10 Oct 2023\n\n**Improving Compositional Text-to-image Generation with Large Vision-Language Models** \\\n*Song Wen, Guian Fang, Renrui Zhang, Peng Gao, Hao Dong, Dimitris Metaxas* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06311)] \\\n10 Oct 2023\n\n**Geom-Erasing: Geometry-Driven Removal of Implicit Concept in Diffusion Models** \\\n*Zhili Liu, Kai Chen, Yifan Zhang, Jianhua Han, Lanqing Hong, Hang Xu, Zhenguo Li, Dit-Yan Yeung, James Kwok* \\\narXiv 2023 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05873)] \\\n9 Oct 2023\n\n\n**FLATTEN: optical FLow-guided ATTENtion for consistent text-to-video editing** \\\n*Yuren Cong, Mengmeng Xu, Christian Simon, Shoufa Chen, Jiawei Ren, Yanping Xie, Juan-Manuel Perez-Rua, Bodo Rosenhahn, Tao Xiang, Sen He* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05922)] \\\n9 Oct 2023\n\n**Language Model Beats Diffusion -- Tokenizer is Key to Visual Generation** \\\n*Lijun Yu, José Lezama, Nitesh B. Gundavarapu, Luca Versari, Kihyuk Sohn, David Minnen, Yong Cheng, Agrim Gupta, Xiuye Gu, Alexander G. Hauptmann, Boqing Gong, Ming-Hsuan Yang, Irfan Essa, David A. Ross, Lu Jiang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05737)] [[Github](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fmagvit2-pytorch)] \\\n9 Oct 2023\n\n**IPDreamer: Appearance-Controllable 3D Object Generation with Image Prompts** \\\n*Bohan Zeng, Shanglin Li, Yutang Feng, Hong Li, Sicheng Gao, Jiaming Liu, Huaxia Li, Xu Tang, Jianzhuang Liu, Baochang Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05375)] \\\n9 Oct 2023\n\n\n**Diffusion Models as Masked Audio-Video Learners** \\\n*Elvis Nunez, Yanzi Jin, Mohammad Rastegari, Sachin Mehta, Maxwell Horton* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03937)] \\\n5 Oct 2023\n\n**Aligning Text-to-Image Diffusion Models with Reward Backpropagation** \\\n*Mihir Prabhudesai, Anirudh Goyal, Deepak Pathak, Katerina Fragkiadaki* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03739)] \\\n5 Oct 2023\n\n**Ctrl-Room: Controllable Text-to-3D Room Meshes Generation with Layout Constraints** \\\n*Chuan Fang, Xiaotao Hu, Kunming Luo, Ping Tan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03602)] \\\n5 Oct 2023\n\n\n**MedSyn: Text-guided Anatomy-aware Synthesis of High-Fidelity 3D CT Images** \\\n*Yanwu Xu, Li Sun, Wei Peng, Shyam Visweswaran, Kayhan Batmanghelich* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03559)] \\\n5 Oct 2023\n\n\n**Kandinsky: an Improved Text-to-Image Synthesis with Image Prior and Latent Diffusion** \\\n*Anton Razzhigaev, Arseniy Shakhmatov, Anastasia Maltseva, Vladimir Arkhipkin, Igor Pavlov, Ilya Ryabov, Angelina Kuts, Alexander Panchenko, Andrey Kuznetsov, Denis Dimitrov* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03502)] \\\n5 Oct 2023\n\n**Realistic Speech-to-Face Generation with Speech-Conditioned Latent Diffusion Model with Face Prior** \\\n*Jinting Wang, Li Liu, Jun Wang, Hei Victor Cheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03363)] \\\n5 Oct 2023\n\n**T$^3$Bench: Benchmarking Current Progress in Text-to-3D Generation** \\\n*Yuze He, Yushi Bai, Matthieu Lin, Wang Zhao, Yubin Hu, Jenny Sheng, Ran Yi, Juanzi Li, Yong-Jin Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02977)] [[Project](https:\u002F\u002Ft3bench.com\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FTHU-LYJ-Lab\u002FT3Bench)] \\\n4 Oct 2023\n\n**Boosting Dermatoscopic Lesion Segmentation via Diffusion Models with Visual and Textual Prompts** \\\n*Shiyi Du, Xiaosong Wang, Yongyi Lu, Yuyin Zhou, Shaoting Zhang, Alan Yuille, Kang Li, Zongwei Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02906)] \\\n4 Oct 2023\n\n\n**Magicremover: Tuning-free Text-guided Image inpainting with Diffusion Models** \\\n*Siyuan Yang, Lu Zhang, Liqian Ma, Yu Liu, JingJing Fu, You He* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02848)] \\\n4 Oct 2023\n\n\n**ED-NeRF: Efficient Text-Guided Editing of 3D Scene using Latent Space NeRF** \\\n*Jangho Park, Gihyun Kwon, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02712)] \\\n4 Oct 2023\n\n**SweetDreamer: Aligning Geometric Priors in 2D Diffusion for Consistent Text-to-3D** \\\n*Weiyu Li, Rui Chen, Xuelin Chen, Ping Tan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02596)] [[Project](https:\u002F\u002Fsweetdreamer3d.github.io\u002F)] \\\n4 Oct 2023\n\n**EditVal: Benchmarking Diffusion Based Text-Guided Image Editing Methods** \\\n*Samyadeep Basu, Mehrdad Saberi, Shweta Bhardwaj, Atoosa Malemir Chegini, Daniela Massiceti, Maziar Sanjabi, Shell Xu Hu, Soheil Feizi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02426)] [[Project](https:\u002F\u002Fdeep-ml-research.github.io\u002Feditval\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fdeep-ml-research\u002Feditval_code)] \\\n3 Oct 2023\n\n\n**FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models** \\\n*Yingqian Cui, Jie Ren, Yuping Lin, Han Xu, Pengfei He, Yue Xing, Wenqi Fan, Hui Liu, Jiliang Tang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02401)] \\\n3 Oct 2023\n\n\n**Amazing Combinatorial Creation: Acceptable Swap-Sampling for Text-to-Image Generation** \\\n*Jun Li, Zedong Zhang, Jian Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01819)] [[Project](https:\u002F\u002Fasst2i.github.io\u002Fanon\u002F)] \\\n3 Oct 2023\n\n**Transcending Domains through Text-to-Image Diffusion: A Source-Free Approach to Domain Adaptation** \\\n*Shivang Chopra, Suraj Kothawade, Houda Aynaou, Aman Chadha* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01701)] \\\n2 Oct 2023\n\n\n**Conditional Diffusion Distillation** \\\n*Kangfu Mei, Mauricio Delbracio, Hossein Talebi, Zhengzhong Tu, Vishal M. Patel, Peyman Milanfar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01407)] \\\n2 Oct 2023\n\n**Direct Inversion: Boosting Diffusion-based Editing with 3 Lines of Code** \\\n*Xuan Ju, Ailing Zeng, Yuxuan Bian, Shaoteng Liu, Qiang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01506)] \\\n2 Oct 2023\n\n\n**Prompt-tuning latent diffusion models for inverse problems** \\\n*Hyungjin Chung, Jong Chul Ye, Peyman Milanfar, Mauricio Delbracio* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01110)] \\\n2 Oct 2023\n\n\n**DataInf: Efficiently Estimating Data Influence in LoRA-tuned LLMs and Diffusion Models** \\\n*Yongchan Kwon, Eric Wu, Kevin Wu, James Zou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00902)] \\\n2 Oct 2023\n\n**Ground-A-Video: Zero-shot Grounded Video Editing using Text-to-image Diffusion Models** \\\n*Hyeonho Jeong, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01107)] [[Github](https:\u002F\u002Fgithub.com\u002FGround-A-Video\u002FGround-A-Video)] \\\n2 Oct 2023\n\n**Music- and Lyrics-driven Dance Synthesis** \\\n*Wenjie Yin, Qingyuan Yao, Yi Yu, Hang Yin, Danica Kragic, Mårten Björkman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00455)] \\\n30 Sep 2023\n\n**DiffPoseTalk: Speech-Driven Stylistic 3D Facial Animation and Head Pose Generation via Diffusion Models** \\\n*Zhiyao Sun, Tian Lv, Sheng Ye, Matthieu Gaetan Lin, Jenny Sheng, Yu-Hui Wen, Minjing Yu, Yong-jin Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00434)] [[Project](https:\u002F\u002Fraineggplant.github.io\u002FDiffPoseTalk\u002F)] \\\n30 Sep 2023\n\n**PixArt-$\\alpha$: Fast Training of Diffusion Transformer for Photorealistic Text-to-Image Synthesis** \\\n*Junsong Chen, Jincheng Yu, Chongjian Ge, Lewei Yao, Enze Xie, Yue Wu, Zhongdao Wang, James Kwok, Ping Luo, Huchuan Lu, Zhenguo Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00426)] [[Project](https:\u002F\u002Fpixart-alpha.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FPixArt-alpha\u002FPixArt-alpha)] \\\n30 Sep 2023\n\n\n**InstructCV: Instruction-Tuned Text-to-Image Diffusion Models as Vision Generalists** \\\n*Yulu Gan, Sungwoo Park, Alexander Schubert, Anthony Philippakis, Ahmed M. Alaa* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00390)] \\\n30 Sep 2023\n\n**Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional Image Synthesis** \\\n*Nithin Gopalakrishnan Nair, Anoop Cherian, Suhas Lohit, Ye Wang, Toshiaki Koike-Akino, Vishal M. Patel, Tim K. Marks* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00224)] \\\n30 Sep 2023\n\n**Directly Fine-Tuning Diffusion Models on Differentiable Rewards** \\\n*Kevin Clark, Paul Vicol, Kevin Swersky, David J Fleet* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.17400)] \\\n29 Sep 2023\n\n**Text-image Alignment for Diffusion-based Perception** \\\n*Neehar Kondapaneni, Markus Marks, Manuel Knott, Rogério Guimarães, Pietro Perona* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00031)] \\\n29 Sep 2023\n\n\n**LLM-grounded Video Diffusion Models** \\\n*Long Lian, Baifeng Shi, Adam Yala, Trevor Darrell, Boyi Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.17444)] [[Project](https:\u002F\u002Fllm-grounded-diffusion.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FTonyLianLong\u002FLLM-groundedDiffusion)] \\\n29 Sep 2023\n\n**KV Inversion: KV Embeddings Learning for Text-Conditioned Real Image Action Editing** \\\n*Jiancheng Huang, Yifan Liu, Jin Qin, Shifeng Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16608)] \\\n28 Sep 2023\n\n\n**CCEdit: Creative and Controllable Video Editing via Diffusion Models** \\\n*Ruoyu Feng, Wenming Weng, Yanhui Wang, Yuhui Yuan, Jianmin Bao, Chong Luo, Zhibo Chen, Baining Guo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16496)] \\\n28 Sep 2023\n\n**Show-1: Marrying Pixel and Latent Diffusion Models for Text-to-Video Generation** \\\n*David Junhao Zhang, Jay Zhangjie Wu, Jia-Wei Liu, Rui Zhao, Lingmin Ran, Yuchao Gu, Difei Gao, Mike Zheng Shou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15818)] \\\n27 Sep 2023\n\n**Dynamic Prompt Learning: Addressing Cross-Attention Leakage for Text-Based Image Editing** \\\n*Kai Wang, Fei Yang, Shiqi Yang, Muhammad Atif Butt, Joost van de Weijer* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15664)] \\\n27 Sep 2023\n\n**DreamCom: Finetuning Text-guided Inpainting Model for Image Composition** \\\n*Lingxiao Lu, Bo Zhang, Li Niu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15508)] \\\n27 Sep 2023\n\n**Learning Using Generated Privileged Information by Text-to-Image Diffusion Models** \\\n*Rafael-Edy Menadil, Mariana-Iuliana Georgescu, Radu Tudor Ionescu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15238)] \\\n26 Sep 2023\n\n**LAVIE: High-Quality Video Generation with Cascaded Latent Diffusion Models** \\\n*Yaohui Wang, Xinyuan Chen, Xin Ma, Shangchen Zhou, Ziqi Huang, Yi Wang, Ceyuan Yang, Yinan He, Jiashuo Yu, Peiqing Yang, Yuwei Guo, Tianxing Wu, Chenyang Si, Yuming Jiang, Cunjian Chen, Chen Change Loy, Bo Dai, Dahua Lin, Yu Qiao, Ziwei Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15103)] [[Project](https:\u002F\u002Fvchitect.github.io\u002FLaVie-project\u002F)] \\\n26 Sep 2023\n\n**Learning Using Generated Privileged Information by Text-to-Image Diffusion Models** \\\n*Rafael-Edy Menadil, Mariana-Iuliana Georgescu, Radu Tudor Ionescu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15238)] \\\n26 Sep 2023\n\n**FEC: Three Finetuning-free Methods to Enhance Consistency for Real Image Editing** \\\n*Songyan Chen, Jiancheng Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14934)] \\\n26 Sep 2023\n\n**Navigating Text-To-Image Customization:From LyCORIS Fine-Tuning to Model Evaluation** \\\n*Shin-Ying Yeh, Yu-Guan Hsieh, Zhidong Gao, Bernard B W Yang, Giyeong Oh, Yanmin Gong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14859)] \\\n26 Sep 2023\n\n**Text-image guided Diffusion Model for generating Deepfake celebrity interactions** \\\n*Yunzhuo Chen, Nur Al Hasan Haldar, Naveed Akhtar, Ajmal Mian* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14751)] \\\n26 Sep 2023\n\n**Free-Bloom: Zero-Shot Text-to-Video Generator with LLM Director and LDM Animator** \\\n*Hanzhuo Huang, Yufan Feng, Cheng Shi, Lan Xu, Jingyi Yu, Sibei Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14494)] \\\n25 Sep 2023\n\n**COCO-Counterfactuals: Automatically Constructed Counterfactual Examples for Image-Text Pairs** \\\n*Tiep Le, Vasudev Lal, Phillip Howard* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14356)] \\\n23 Sep 2023\n\n**Zero-Shot Object Counting with Language-Vision Models** \\\n*Jingyi Xu, Hieu Le, Dimitris Samaras* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13097)] [[Github](https:\u002F\u002Fgithub.com\u002Fcvlab-stonybrook\u002Fzero-shot-counting)] \\\n22 Sep 2023\n\n**MosaicFusion: Diffusion Models as Data Augmenters for Large Vocabulary Instance Segmentation** \\\n*Jiahao Xie, Wei Li, Xiangtai Li, Ziwei Liu, Yew Soon Ong, Chen Change Loy* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13042)] [[Github](https:\u002F\u002Fgithub.com\u002FJiahao000\u002FMosaicFusion)] \\\n22 Sep 2023\n\n**DurIAN-E: Duration Informed Attention Network For Expressive Text-to-Speech Synthesis** \\\n*Yu Gu, Yianrao Bian, Guangzhi Lei, Chao Weng, Dan Su* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.12792)] \\\n22 Sep 2023\n\n**FreeU: Free Lunch in Diffusion U-Net** \\\n*Chenyang Si, Ziqi Huang, Yuming Jiang, Ziwei Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11497)] \\\n20 Sep 2023\n\n**Investigating Personalization Methods in Text to Music Generation** \\\n*Manos Plitsis, Theodoros Kouzelis, Georgios Paraskevopoulos, Vassilis Katsouros, Yannis Panagakis* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11140)] [[Project](https:\u002F\u002Fzelaki.github.io\u002F)] \\\n20 Sep 2023\n\n**Accelerating Diffusion-Based Text-to-Audio Generation with Consistency Distillation** \\\n*Yatong Bai, Trung Dang, Dung Tran, Kazuhito Koishida, Somayeh Sojoudi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10740)] \\\n19 Sep 2023\n\n\n**Forgedit: Text Guided Image Editing via Learning and Forgetting** \\\n*Shiwen Zhang, Shuai Xiao, Weilin Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10556)] [[Github](https:\u002F\u002Fgithub.com\u002Fwitcherofresearch\u002FForgedit)] \\\n19 Sep 2023\n\n**What is a Fair Diffusion Model? Designing Generative Text-To-Image Models to Incorporate Various Worldviews** \\\n*Zoe De Simone, Angie Boggust, Arvind Satyanarayan, Ashia Wilson* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09944)] \\\n18 Sep 2023\n\n**Causal-Story: Local Causal Attention Utilizing Parameter-Efficient Tuning For Visual Story Synthesis** \\\n*Tianyi Song, Jiuxin Cao, Kun Wang, Bo Liu, Xiaofeng Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09553)] \\\n18 Sep 2023\n\n**Progressive Text-to-Image Diffusion with Soft Latent Direction** \\\n*YuTeng Ye, Jiale Cai, Hang Zhou, Guanwen Li, Youjia Zhang, Zikai Song, Chenxing Gao, Junqing Yu, Wei Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09466)] \\\n18 Sep 2023\n\n**LivelySpeaker: Towards Semantic-Aware Co-Speech Gesture Generation** \\\n*Yihao Zhi, Xiaodong Cun, Xuelin Chen, Xi Shen, Wen Guo, Shaoli Huang, Shenghua Gao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09294)] \\\n17 Sep 2023\n\n**PromptTTS++: Controlling Speaker Identity in Prompt-Based Text-to-Speech Using Natural Language Descriptions** \\\n*Reo Shimizu, Ryuichi Yamamoto, Masaya Kawamura, Yuma Shirahata, Hironori Doi, Tatsuya Komatsu, Kentaro Tachibana* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.08140)] \\\n15 Sep 2023\n\n**AV2Wav: Diffusion-Based Re-synthesis from Continuous Self-supervised Features for Audio-Visual Speech Enhancement** \\\n*Ju-Chieh Chou, Chung-Ming Chien, Karen Livescu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.08030)] \\\n14 Sep 2023\n\n\n**Viewpoint Textual Inversion: Unleashing Novel View Synthesis with Pretrained 2D Diffusion Models** \\\n*James Burgess, Kuan-Chieh Wang, Serena Yeung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07986)] [[Github](https:\u002F\u002Fgithub.com\u002Fjmhb0\u002Fview_neti)] \\\n14 Sep 2023\n\n**Text-to-Image Models for Counterfactual Explanations: a Black-Box Approach** \\\n*Guillaume Jeanneret, Loïc Simon, Frédéric Jurie* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07944)] \\\n14 Sep 2023\n\n**Large-Vocabulary 3D Diffusion Model with Transformer** \\\n*Ziang Cao, Fangzhou Hong, Tong Wu, Liang Pan, Ziwei Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07920)] [[Project](https:\u002F\u002Fziangcao0312.github.io\u002Fdifftf_pages\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fziangcao0312\u002FDiffTF)] \\\n14 Sep 2023\n\n\n**DiffTalker: Co-driven audio-image diffusion for talking faces via intermediate landmarks** \\\n*Zipeng Qi, Xulong Zhang, Ning Cheng, Jing Xiao, Jianzong Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07509)] \\\n14 Sep 2023\n\n**Diffusion models for audio semantic communication** \\\n*Eleonora Grassucci, Christian Marinoni, Andrea Rodriguez, Danilo Comminiello* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07195)] \\\n13 Sep 2023\n\n**DreamStyler: Paint by Style Inversion with Text-to-Image Diffusion Models** \\\n*Namhyuk Ahn, Junsoo Lee, Chunggi Lee, Kunhee Kim, Daesik Kim, Seung-Hun Nam, Kibeom Hong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06933)] \\\n13 Sep 2023\n\n**DCTTS: Discrete Diffusion Model with Contrastive Learning for Text-to-speech Generation** \\\n*Zhichao Wu, Qiulin Li, Sixing Liu, Qun Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06787)] \\\n13 Sep 2023\n\n\n**InstaFlow: One Step is Enough for High-Quality Diffusion-Based Text-to-Image Generation** \\\n*Xingchao Liu, Xiwen Zhang, Jianzhu Ma, Jian Peng, Qiang Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06380)] [[Github](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow)] \\\n12 Sep 2023\n\n\n\n**Fg-T2M: Fine-Grained Text-Driven Human Motion Generation via Diffusion Model** \\\n*Yin Wang, Zhiying Leng, Frederick W. B. Li, Shun-Cheng Wu, Xiaohui Liang* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06284)] \\\n12 Sep 2023\n\n**Prompting4Debugging: Red-Teaming Text-to-Image Diffusion Models by Finding Problematic Prompts** \\\n*Zhi-Yi Chin, Chieh-Ming Jiang, Ching-Chun Huang, Pin-Yu Chen, Wei-Chen Chiu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06135)] \\\n12 Sep 2023\n\n**PhotoVerse: Tuning-Free Image Customization with Text-to-Image Diffusion Models** \\\n*Li Chen, Mengyi Zhao, Yiheng Liu, Mingxu Ding, Yangyang Song, Shizun Wang, Xu Wang, Hao Yang, Jing Liu, Kang Du, Min Zheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05793)] [[Project](https:\u002F\u002Fphotoverse2d.github.io\u002F)] \\\n11 Sep 2023\n\n\n**PAI-Diffusion: Constructing and Serving a Family of Open Chinese Diffusion Models for Text-to-image Synthesis on the Cloud** \\\n*Chengyu Wang, Zhongjie Duan, Bingyan Liu, Xinyi Zou, Cen Chen, Kui Jia, Jun Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05534)] \\\n11 Sep 2023\n\n**Diffusion-Based Co-Speech Gesture Generation Using Joint Text and Audio Representation** \\\n*Anna Deichler, Shivam Mehta, Simon Alexanderson, Jonas Beskow* \\\nICMI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05455)] \\\n11 Sep 2023\n\n**Effective Real Image Editing with Accelerated Iterative Diffusion Inversion** \\\n*Zhihong Pan, Riccardo Gherardi, Xiufeng Xie, Stephen Huang* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04907)] \\\n10 Sep 2023\n\n**Prefix-diffusion: A Lightweight Diffusion Model for Diverse Image Captioning** \\\n*Guisheng Liu, Yi Li, Zhengcong Fei, Haiyan Fu, Xiangyang Luo, Yanqing Guo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04965)] \\\n10 Sep 2023\n\n**Text-driven Editing of 3D Scenes without Retraining** \\\n*Shuangkang Fang, Yufeng Wang, Yi Yang, Yi-Hsuan Tsai, Wenrui Ding, Shuchang Zhou, Ming-Hsuan Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04917)] \\\n10 Sep 2023\n\n**The Power of Sound (TPoS): Audio Reactive Video Generation with Stable Diffusion** \\\n*Yujin Jeong, Wonjeong Ryoo, Seunghyun Lee, Dabin Seo, Wonmin Byeon, Sangpil Kim, Jinkyu Kim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04509)] \\\n8 Sep 2023\n\n**Create Your World: Lifelong Text-to-Image Diffusion** \\\n*Gan Sun, Wenqi Liang, Jiahua Dong, Jun Li, Zhengming Ding, Yang Cong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04430)] \\\n8 Sep 2023\n\n**MaskDiffusion: Boosting Text-to-Image Consistency with Conditional Mask** \\\n*Yupeng Zhou, Daquan Zhou, Zuo-Liang Zhu, Yaxing Wang, Qibin Hou, Jiashi Feng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04399)] \\\n8 Sep 2023\n\n**MoEController: Instruction-based Arbitrary Image Manipulation with Mixture-of-Expert Controllers** \\\n*Sijia Li, Chen Chen, Haonan Lu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04372)] [[Project](https:\u002F\u002Foppo-mente-lab.github.io\u002Fmoe_controller\u002F)] \\\n8 Sep 2023\n\n**From Text to Mask: Localizing Entities Using the Attention of Text-to-Image Diffusion Models** \\\n*Changming Xiao, Qi Yang, Feng Zhou, Changshui Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04109)] \\\n8 Sep 2023\n\n\n\n**InstructDiffusion: A Generalist Modeling Interface for Vision Tasks** \\\n*Zigang Geng, Binxin Yang, Tiankai Hang, Chen Li, Shuyang Gu, Ting Zhang, Jianmin Bao, Zheng Zhang, Han Hu, Dong Chen, Baining Guo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03895)] [[Project](https:\u002F\u002Fgengzigang.github.io\u002Finstructdiffusion.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fcientgu\u002FInstructDiffusion)] \\\n7 Sep 2023\n\n**Text-to-feature diffusion for audio-visual few-shot learning** \\\n*Otniel-Bogdan Mercea, Thomas Hummel, A. Sophia Koepke, Zeynep Akata* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03869)] \\\n7 Sep 2023\n\n**Text2Control3D: Controllable 3D Avatar Generation in Neural Radiance Fields using Geometry-Guided Text-to-Image Diffusion Model** \\\n*Sungwon Hwang, Junha Hyung, Jaegul Choo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03550)] [[Project](https:\u002F\u002Ftext2control3d.github.io\u002F)] \\\n7 Sep 2023\n\n**Reuse and Diffuse: Iterative Denoising for Text-to-Video Generation** \\\n*Jiaxi Gu, Shicong Wang, Haoyu Zhao, Tianyi Lu, Xing Zhang, Zuxuan Wu, Songcen Xu, Wei Zhang, Yu-Gang Jiang, Hang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03549)] \\\n7 Sep 2023\n\n**SyncDreamer: Generating Multiview-consistent Images from a Single-view Image** \\\n*Yuan Liu, Cheng Lin, Zijiao Zeng, Xiaoxiao Long, Lingjie Liu, Taku Komura, Wenping Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03453)] [[Project](https:\u002F\u002Fliuyuan-pal.github.io\u002FSyncDreamer\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fliuyuan-pal\u002FSyncDreamer)] \\\n7 Sep 2023\n\n**MCM: Multi-condition Motion Synthesis Framework for Multi-scenario** \\\n*Zeyu Ling, Bo Han, Yongkang Wong, Mohan Kangkanhalli, Weidong Geng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03031)] \\\n6 Sep 2023\n\n**Diffusion Model is Secretly a Training-free Open Vocabulary Semantic Segmenter** \\\n*Jinglong Wang, Xiawei Li, Jing Zhang, Qingyuan Xu, Qin Zhou, Qian Yu, Lu Sheng, Dong Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02773)] \\\n6 Sep 2023\n\n\n**Generating Realistic Images from In-the-wild Sounds** \\\n*Taegyeong Lee, Jeonghun Kang, Hyeonyu Kim, Taehwan Kim* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02405)] \\\n5 Sep 2023\n\n**Generative-based Fusion Mechanism for Multi-Modal Tracking** \\\n*Zhangyong Tang, Tianyang Xu, Xuefeng Zhu, Xiao-Jun Wu, Josef Kittler* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01728)] \\\n4 Sep 2023\n\n**VGDiffZero: Text-to-image Diffusion Models Can Be Zero-shot Visual Grounders** \\\n*Xuyang Liu, Siteng Huang, Yachen Kang, Honggang Chen, Donglin Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01141)] \\\n3 Sep 2023\n\n**Bridge Diffusion Model: bridge non-English language-native text-to-image diffusion model with English communities** \\\n*Shanyuan Liu, Dawei Leng, Yuhui Yin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00952)] \\\n2 Sep 2023\n\n**MagicProp: Diffusion-based Video Editing via Motion-aware Appearance Propagation** \\\n*Hanshu Yan, Jun Hao Liew, Long Mai, Shanchuan Lin, Jiashi Feng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00908)] \\\n2 Sep 2023\n\n**Iterative Multi-granular Image Editing using Diffusion Models** \\\n*K J Joseph, Prateksha Udhayanan, Tripti Shukla, Aishwarya Agarwal, Srikrishna Karanam, Koustava Goswami, Balaji Vasan Srinivasan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00613)] \\\n1 Sep 2023\n\n**DiffuGen: Adaptable Approach for Generating Labeled Image Datasets using Stable Diffusion Models** \\\n*Michael Shenoda, Edward Kim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00248)] \\\n1 Sep 2023\n\n**PathLDM: Text conditioned Latent Diffusion Model for Histopathology** \\\n*Srikar Yellapragada, Alexandros Graikos, Prateek Prasanna, Tahsin Kurc, Joel Saltz, Dimitris Samaras* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00748)] \\\n1 Sep 2023\n\n**VideoGen: A Reference-Guided Latent Diffusion Approach for High Definition Text-to-Video Generation** \\\n*Xin Li, Wenqing Chu, Ye Wu, Weihang Yuan, Fanglong Liu, Qi Zhang, Fu Li, Haocheng Feng, Errui Ding, Jingdong Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00398)] \\\n1 Sep 2023\n\n**Detecting Out-of-Context Image-Caption Pairs in News: A Counter-Intuitive Method** \\\n*Eivind Moholdt, Sohail Ahmed Khan, Duc-Tien Dang-Nguyen* \\\nCBMI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16611)] \\\n31 Aug 2023\n\n**Any-Size-Diffusion: Toward Efficient Text-Driven Synthesis for Any-Size HD Images** \\\n*Qingping Zheng, Yuanfan Guo, Jiankang Deng, Jianhua Han, Ying Li, Songcen Xu, Hang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16582)] \\\n31 Aug 2023\n\n**MVDream: Multi-view Diffusion for 3D Generation** \\\n*Yichun Shi, Peng Wang, Jianglong Ye, Mai Long, Kejie Li, Xiao Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16512)] \\\n31 Aug 2023\n\n**Intriguing Properties of Diffusion Models: A Large-Scale Dataset for Evaluating Natural Attack Capability in Text-to-Image Generative Models** \\\n*Takami Sato, Justin Yue, Nanze Chen, Ningfei Wang, Qi Alfred Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15692)] \\\n30 Aug 2023\n\n**DiffusionVMR: Diffusion Model for Video Moment Retrieval** \\\n*Henghao Zhao, Kevin Qinghong Lin, Rui Yan, Zechao Li* \\\nACM MM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15109)] \\\n29 Aug 2023\n\n**C2G2: Controllable Co-speech Gesture Generation with Latent Diffusion Model** \\\n*Longbin Ji, Pengfei Wei, Yi Ren, Jinglin Liu, Chen Zhang, Xiang Yin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15016)] \\\n29 Aug 2023\n\n**360-Degree Panorama Generation from Few Unregistered NFoV Images** \\\n*Jionghao Wang, Ziyu Chen, Jun Ling, Rong Xie, Li Song* \\\nACM MM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14686)] [[Github](https:\u002F\u002Fgithub.com\u002Fshanemankiw\u002FPanodiff)] \\\n28 Aug 2023\n\n**Priority-Centric Human Motion Generation in Discrete Latent Space** \\\n*Hanyang Kong, Kehong Gong, Dongze Lian, Michael Bi Mi, Xinchao Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14480)] \\\n28 Aug 2023\n\n**SketchDreamer: Interactive Text-Augmented Creative Sketch Ideation** \\\n*Zhiyu Qu, Tao Xiang, Yi-Zhe Song* \\\nBMVC 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14191)] [[Github](https:\u002F\u002Fgithub.com\u002FWinKawaks\u002FSketchDreamer)] \\\n27 Aug 2023\n\n**Empowering Dynamics-aware Text-to-Video Diffusion with Large Language Models** \\\n*Hao Fei, Shengqiong Wu, Wei Ji, Hanwang Zhang, Tat-Seng Chua* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13812)] [[Project](https:\u002F\u002Fhaofei.vip\u002FDysen-VDM\u002F)] \\\n26 Aug 2023\n\n**ORES: Open-vocabulary Responsible Visual Synthesis** \\\n*Minheng Ni, Chenfei Wu, Xiaodong Wang, Shengming Yin, Lijuan Wang, Zicheng Liu, Nan Duan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13785)] \\\n26 Aug 2023\n\n**The DiffuseStyleGesture+ entry to the GENEA Challenge 2023** \\\n*Sicheng Yang, Haiwei Xue, Zhensong Zhang, Minglei Li, Zhiyong Wu, Xiaofei Wu, Songcen Xu, Zonghong Dai* \\\nICMI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13879)] [[Github](https:\u002F\u002Fgithub.com\u002FYoungSeng\u002FDiffuseStyleGesture\u002Ftree\u002FDiffuseStyleGesturePlus\u002FBEAT-TWH-main)] \\\n26 Aug 2023\n\n**EfficientDreamer: High-Fidelity and Robust 3D Creation via Orthogonal-view Diffusion Prior** \\\n*Minda Zhao, Chaoyi Zhao, Xinyue Liang, Lincheng Li, Zeng Zhao, Zhipeng Hu, Changjie Fan, Xin Yu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13223)] \\\n25 Aug 2023\n\n**Unified Concept Editing in Diffusion Models** \\\n*Rohit Gandikota, Hadas Orgad, Yonatan Belinkov, Joanna Materzyńska, David Bau* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14761)] [[Project](https:\u002F\u002Funified.baulab.info\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Frohitgandikota\u002Funified-concept-editing)] \\\n25 Aug 2023\n\n**Dense Text-to-Image Generation with Attention Modulation** \\\n*Yunji Kim, Jiyoung Lee, Jin-Hwa Kim, Jung-Woo Ha, Jun-Yan Zhu* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12964)] [[Github](https:\u002F\u002Fgithub.com\u002Fnaver-ai\u002FDenseDiffusion)] \\\n24 Aug 2023\n\n**APLA: Additional Perturbation for Latent Noise with Adversarial Training Enables Consistency** \\\n*Yupu Yao, Shangqi Deng, Zihan Cao, Harry Zhang, Liang-Jian Deng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12605)] \\\n24 Aug 2023\n\n**Manipulating Embeddings of Stable Diffusion Prompts** \\\n*Niklas Deckers, Julia Peters, Martin Potthast* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12059)] \\\n23 Aug 2023\n\n\n\n\n**DF-3DFace: One-to-Many Speech Synchronized 3D Face Animation with Diffusion** \\\n*Se Jin Park, Joanna Hong, Minsu Kim, Yong Man Ro* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05934)] \\\n23 Aug 2023\n\n**IT3D: Improved Text-to-3D Generation with Explicit View Synthesis** \\\n*Yiwen Chen, Chi Zhang, Xiaofeng Yang, Zhongang Cai, Gang Yu, Lei Yang, Guosheng Lin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11473)] [[Github](https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FIT3D-text-to-3D)] \\\n22 Aug 2023\n\n**DiffCloth: Diffusion Based Garment Synthesis and Manipulation via Structural Cross-modal Semantic Alignment** \\\n*Xujie Zhang, Binbin Yang, Michael C. Kampffmeyer, Wenqing Zhang, Shiyue Zhang, Guansong Lu, Liang Lin, Hang Xu, Xiaodan Liang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11206)] \\\n22 Aug 2023\n\n**MusicJam: Visualizing Music Insights via Generated Narrative Illustrations** \\\n*Chuer Chen, Nan Cao, Jiani Hou, Yi Guo, Yulei Zhang, Yang Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11329)] \\\n22 Aug 2023\n\n**TADA! Text to Animatable Digital Avatars** \\\n*Tingting Liao, Hongwei Yi, Yuliang Xiu, Jiaxaing Tang, Yangyi Huang, Justus Thies, Michael J. Black* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10899)] \\\n21 Aug 2023\n\n**EVE: Efficient zero-shot text-based Video Editing with Depth Map Guidance and Temporal Consistency Constraints** \\\n*Yutao Chen, Xingning Dong, Tian Gan, Chunluan Zhou, Ming Yang, Qingpei Guo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10648)] \\\n21 Aug 2023\n\n**Backdooring Textual Inversion for Concept Censorship** \\\n*Yutong Wu, Jie Zhang, Florian Kerschbaum, Tianwei Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10718)] [[Project](https:\u002F\u002Fconcept-censorship.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fconcept-censorship\u002Fconcept-censorship.github.io\u002Ftree\u002Fmain\u002Fcode)] \\\n21 Aug 2023\n\n**AltDiffusion: A Multilingual Text-to-Image Diffusion Model** \\\n*Fulong Ye, Guang Liu, Xinya Wu, Ledell Wu* \\\nAAAI 2024. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09991)] [[Github](https:\u002F\u002Fgithub.com\u002Fsuperhero-7\u002FAltDiffuson)] \\\n19 Aug 2023\n\n**DiffDis: Empowering Generative Diffusion Model with Cross-Modal Discrimination Capability** \\\n*Runhui Huang, Jianhua Han, Guansong Lu, Xiaodan Liang, Yihan Zeng, Wei Zhang, Hang Xu* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09306)] \\\n18 Aug 2023\n\n**MATLABER: Material-Aware Text-to-3D via LAtent BRDF auto-EncodeR** \\\n*Xudong Xu, Zhaoyang Lyu, Xingang Pan, Bo Dai* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09278)] [[Project](https:\u002F\u002Fsheldontsui.github.io\u002Fprojects\u002FMatlaber)] \\\n18 Aug 2023\n\n**Diff2Lip: Audio Conditioned Diffusion Models for Lip-Synchronization** \\\n*Soumik Mukhopadhyay, Saksham Suri, Ravi Teja Gadde, Abhinav Shrivastava* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09716)] [[Project](https:\u002F\u002Fsoumik-kanad.github.io\u002Fdiff2lip\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fsoumik-kanad\u002Fdiff2lip)] \\\n18 Aug 2023\n\n**Guide3D: Create 3D Avatars from Text and Image Guidance** \\\n*Yukang Cao, Yan-Pei Cao, Kai Han, Ying Shan, Kwan-Yee K. Wong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09705)] \\\n18 Aug 2023\n\n**Language-Guided Diffusion Model for Visual Grounding** \\\n*Sijia Chen, Baochun Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09599)] \\\n18 Aug 2023\n\n**SimDA: Simple Diffusion Adapter for Efficient Video Generation** \\\n*Zhen Xing, Qi Dai, Han Hu, Zuxuan Wu, Yu-Gang Jiang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09710)] [[Project](https:\u002F\u002Fchenhsing.github.io\u002FSimDA\u002F)] \\\n18 Aug 2023\n\n**StableVideo: Text-driven Consistency-aware Diffusion Video Editing** \\\n*Wenhao Chai, Xun Guo, Gaoang Wang, Yan Lu* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09592)] [[Github](https:\u002F\u002Fgithub.com\u002Frese1f\u002FStableVideo)] \\\n18 Aug 2023\n\n**Edit Temporal-Consistent Videos with Image Diffusion Model** \\\n*Yuanzhi Wang, Yong Li, Xin Liu, Anbo Dai, Antoni Chan, Zhen Cui* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09091)] \\\n17 Aug 2023\n\n**Watch Your Steps: Local Image and Scene Editing by Text Instructions** \\\n*Ashkan Mirzaei, Tristan Aumentado-Armstrong, Marcus A. Brubaker, Jonathan Kelly, Alex Levinshtein, Konstantinos G. Derpanis, Igor Gilitschenski* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08947)] [[Project](https:\u002F\u002Fashmrz.github.io\u002FWatchYourSteps\u002F)] \\\n17 Aug 2023\n\n**Learning to Generate Semantic Layouts for Higher Text-Image Correspondence in Text-to-Image Synthesis** \\\n*Minho Park, Jooyeol Yun, Seunghwan Choi, Jaegul Choo* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08157)] [[Project](https:\u002F\u002Fpmh9960.github.io\u002Fresearch\u002FGCDP\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fpmh9960\u002FGCDP\u002F)] \\\n16 Aug 2023\n\n\n**DragNUWA: Fine-grained Control in Video Generation by Integrating Text, Image, and Trajectory** \\\n*Shengming Yin, Chenfei Wu, Jian Liang, Jie Shi, Houqiang Li, Gong Ming, Nan Duan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08089)] [[Project](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fproject\u002Fdragnuwa\u002F)] \\\n16 Aug 2023\n\n**Dual-Stream Diffusion Net for Text-to-Video Generation** \\\n*Binhui Liu, Xin Liu, Anbo Dai, Zhiyong Zeng, Zhen Cui, Jian Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08316)] \\\n16 Aug 2023\n\n**DiffV2S: Diffusion-based Video-to-Speech Synthesis with Vision-guided Speaker Embedding** \\\n*Jeongsoo Choi, Joanna Hong, Yong Man Ro* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07787)] \\\n15 Aug 2023\n\n**SGDiff: A Style Guided Diffusion Model for Fashion Synthesis** \\\n*Zhengwentai Sun, Yanghong Zhou, Honghong He, P. Y. Mok* \\\nACM MM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07605)] \\\n15 Aug 2023\n\n**Dancing Avatar: Pose and Text-Guided Human Motion Videos Synthesis with Image Diffusion Model** \\\n*Bosheng Qin, Wentao Ye, Qifan Yu, Siliang Tang, Yueting Zhuang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07749)] \\\n15 Aug 2023\n\n**Diffusion Based Augmentation for Captioning and Retrieval in Cultural Heritage** \\\n*Dario Cioni, Lorenzo Berlincioni, Federico Becattini, Alberto del Bimbo* \\\nICCV Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07151)] \\\n14 Aug 2023\n\n**Jurassic World Remake: Bringing Ancient Fossils Back to Life via Zero-Shot Long Image-to-Image Translation** \\\n*Alexander Martin, Haitian Zheng, Jie An, Jiebo Luo* \\\nACM MM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07316)] \\\n14 Aug 2023\n\n**UniBrain: Unify Image Reconstruction and Captioning All in One Diffusion Model from Human Brain Activity** \\\n*Weijian Mai, Zhijun Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07428)] \\\n14 Aug 2023\n\n**Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images with Free Attention Masks** \\\n*David Junhao Zhang, Mutian Xu, Chuhui Xue, Wenqing Zhang, Xiaoguang Han, Song Bai, Mike Zheng Shou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06739)] \\\n13 Aug 2023\n\n**IP-Adapter: Text Compatible Image Prompt Adapter for Text-to-Image Diffusion Models** \\\n*Hu Ye, Jun Zhang, Sibo Liu, Xiao Han, Wei Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06721)] [[Project](https:\u002F\u002Fip-adapter.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Ftencent-ailab\u002FIP-Adapter)] \\\n13 Aug 2023\n\n**LAW-Diffusion: Complex Scene Generation by Diffusion with Layouts** \\\n*Binbin Yang, Yi Luo, Ziliang Chen, Guangrun Wang, Xiaodan Liang, Liang Lin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06713)] \\\n13 Aug 2023\n\n**ModelScope Text-to-Video Technical Report** \\\n*Jiuniu Wang, Hangjie Yuan, Dayou Chen, Yingya Zhang, Xiang Wang, Shiwei Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06571)] \\\n12 Aug 2023\n\n**DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion Models** \\\n*Weijia Wu, Yuzhong Zhao, Hao Chen, Yuchao Gu, Rui Zhao, Yefei He, Hong Zhou, Mike Zheng Shou, Chunhua Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06160)] [[Project](https:\u002F\u002Fweijiawu.github.io\u002FDatasetDM_page\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fshowlab\u002FDatasetDM)] \\\n11 Aug 2023\n\n**Diverse Data Augmentation with Diffusions for Effective Test-time Prompt Tuning** \\\n*Chun-Mei Feng, Kai Yu, Yong Liu, Salman Khan, Wangmeng Zuo* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06038)] [[Github](https:\u002F\u002Fgithub.com\u002Fchunmeifeng\u002FDiffTPT)] \\\n11 Aug 2023\n\n**Masked-Attention Diffusion Guidance for Spatially Controlling Text-to-Image Generation** \\\n*Yuki Endo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06027)] \\\n11 Aug 2023\n\n**Audio is all in one: speech-driven gesture synthetics using WavLM pre-trained model** \\\n*Fan Zhang, Naye Ji, Fuxing Gao, Siyuan Zhao, Zhaohan Wang, Shunman Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05995)] \\\n11 Aug 2023\n\n**Zero-shot Text-driven Physically Interpretable Face Editing** \\\n*Yapeng Meng, Songru Yang, Xu Hu, Rui Zhao, Lincheng Li, Zhenwei Shi, Zhengxia Zou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05976)] \\\n11 Aug 2023\n\n**PromptPaint: Steering Text-to-Image Generation Through Paint Medium-like Interactions** \\\n*John Joon Young Chung, Eytan Adar* \\\nUIST 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05184)] \\\n9 Aug 2023\n\n**LayoutLLM-T2I: Eliciting Layout Guidance from LLM for Text-to-Image Generation** \\\n*Leigang Qu, Shengqiong Wu, Hao Fei, Liqiang Nie, Tat-Seng Chua* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05095)] [[Project](https:\u002F\u002Flayoutllm-t2i.github.io\u002F)] \\\n9 Aug 2023\n\n**Cloth2Tex: A Customized Cloth Texture Generation Pipeline for 3D Virtual Try-On** \\\n*Daiheng Gao, Xu Chen, Xindi Zhang, Qi Wang, Ke Sun, Bang Zhang, Liefeng Bo, Qixing Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04288)] \\\n8 Aug 2023\n\n**MindDiffuser: Controlled Image Reconstruction from Human Brain Activity with Semantic and Structural Diffusion** \\\n*Yizhuo Lu, Changde Du, Qiongyi zhou, Dianpeng Wang, Huiguang He* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04249)] \\\n8 Aug 2023\n\n**FLIRT: Feedback Loop In-context Red Teaming** \\\n*Ninareh Mehrabi, Palash Goyal, Christophe Dupuy, Qian Hu, Shalini Ghosh, Richard Zemel, Kai-Wei Chang, Aram Galstyan, Rahul Gupta* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04265)] \\\n8 Aug 2023\n\n**DiffSynth: Latent In-Iteration Deflickering for Realistic Video Synthesis** \\\n*Zhongjie Duan, Lizhou You, Chengyu Wang, Cen Chen, Ziheng Wu, Weining Qian, Jun Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03463)] [[Project](https:\u002F\u002Fanonymous456852.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FEasyNLP\u002Ftree\u002Fmaster\u002Fdiffusion)] \\\n7 Aug 2023\n\n**AvatarVerse: High-quality & Stable 3D Avatar Creation from Text and Pose** \\\n*Huichao Zhang, Bowen Chen, Hao Yang, Liao Qu, Xu Wang, Li Chen, Chao Long, Feida Zhu, Kang Du, Min Zheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03610)] [[Project](https:\u002F\u002Favatarverse3d.github.io\u002F)] \\\n7 Aug 2023\n\n**Towards Scene-Text to Scene-Text Translation** \\\n*Onkar Susladkar, Prajwal Gatti, Anand Mishra* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03024)] \\\n6 Aug 2023\n\n**Sketch and Text Guided Diffusion Model for Colored Point Cloud Generation** \\\n*Zijie Wu, Yaonan Wang, Mingtao Feng, He Xie, Ajmal Mian* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02874)] \\\n5 Aug 2023\n\n**ConceptLab: Creative Generation using Diffusion Prior Constraints** \\\n*Elad Richardson, Kfir Goldberg, Yuval Alaluf, Daniel Cohen-Or* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02669)] [[Project](https:\u002F\u002Fkfirgoldberg.github.io\u002FConceptLab\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fkfirgoldberg\u002FConceptLab)] \\\n3 Aug 2023\n\n**DiffColor: Toward High Fidelity Text-Guided Image Colorization with Diffusion Models** \\\n*Jianxin Lin, Peng Xiao, Yijun Wang, Rongju Zhang, Xiangxiang Zeng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01655)] \\\n3 Aug 2023\n\n**Synthesizing Long-Term Human Motions with Diffusion Models via Coherent Sampling** \\\n*Zhao Yang, Bing Su, Ji-Rong Wen* \\\nACM MM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01850)] [[Github](https:\u002F\u002Fgithub.com\u002Fyangzhao1230\u002FPCMDM)] \\\n3 Aug 2023\n\n**Reverse Stable Diffusion: What prompt was used to generate this image?** \\\n*Florinel-Alin Croitoru, Vlad Hondru, Radu Tudor Ionescu, Mubarak Shah* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01472)] \\\n2 Aug 2023\n\n**Degeneration-Tuning: Using Scrambled Grid shield Unwanted Concepts from Stable Diffusion** \\\n*Zixuan Ni, Longhui Wei, Jiacheng Li, Siliang Tang, Yueting Zhuang, Qi Tian* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02552)] \\\n2 Aug 2023\n\n**ImageBrush: Learning Visual In-Context Instructions for Exemplar-Based Image Manipulation** \\\n*Yasheng Sun, Yifan Yang, Houwen Peng, Yifei Shen, Yuqing Yang, Han Hu, Lili Qiu, Hideki Koike* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00906)] \\\n2 Aug 2023\n\n**The Bias Amplification Paradox in Text-to-Image Generation** \\\n*Preethi Seshadri, Sameer Singh, Yanai Elazar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00755)] \\\n1 Aug 2023\n\n**BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models** \\\n*Jordan Vice, Naveed Akhtar, Richard Hartley, Ajmal Mian* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16489)] [[Github](https:\u002F\u002Fgithub.com\u002FJJ-Vice\u002FBAGM)] [[Dataset](https:\u002F\u002Fieee-dataport.org\u002Fdocuments\u002Fmarketable-foods-mf-dataset)] \\\n31 Jul 2023\n\n**MobileVidFactory: Automatic Diffusion-Based Social Media Video Generation for Mobile Devices from Text** \\\n*Junchen Zhu, Huan Yang, Wenjing Wang, Huiguo He, Zixi Tuo, Yongsheng Yu, Wen-Huang Cheng, Lianli Gao, Jingkuan Song, Jianlong Fu, Jiebo Luo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16371)] \\\n31 Jul 2023\n\n**DAVIS: High-Quality Audio-Visual Separation with Generative Diffusion Models** \\\n*Chao Huang, Susan Liang, Yapeng Tian, Anurag Kumar, Chenliang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00122)] \\\n31 Jul 2023\n\n**Contrastive Conditional Latent Diffusion for Audio-visual Segmentation** \\\n*Yuxin Mao, Jing Zhang, Mochu Xiang, Yunqiu Lv, Yiran Zhong, Yuchao Dai* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16579)] \\\n31 Jul 2023\n\n**HD-Fusion: Detailed Text-to-3D Generation Leveraging Multiple Noise Estimation** \\\n*Jinbo Wu, Xiaobo Gao, Xing Liu, Zhengyang Shen, Chen Zhao, Haocheng Feng, Jingtuo Liu, Errui Ding* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16183)] \\\n30 Jul 2023\n\n**Seeing through the Brain: Image Reconstruction of Visual Perception from Human Brain Signals** \\\n*Yu-Ting Lan, Kan Ren, Yansen Wang, Wei-Long Zheng, Dongsheng Li, Bao-Liang Lu, Lili Qiu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02510)] \\\n27 Jul 2023\n\n**VideoControlNet: A Motion-Guided Video-to-Video Translation Framework by Using Diffusion Model with ControlNet** \\\n*Zhihao Hu, Dong Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14073)] [[Project](https:\u002F\u002Fvcg-aigc.github.io\u002F)] \\\n26 Jul 2023\n\n\n**Points-to-3D: Bridging the Gap between Sparse Points and Shape-Controllable Text-to-3D Generation** \\\n*Chaohui Yu, Qiang Zhou, Jingliang Li, Zhe Zhang, Zhibin Wang, Fan Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.13908)] \\\n26 Jul 2023\n\n**Visual Instruction Inversion: Image Editing via Visual Prompting** \\\n*Thao Nguyen, Yuheng Li, Utkarsh Ojha, Yong Jae Lee* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14331)] [[Project](https:\u002F\u002Fthaoshibe.github.io\u002Fvisii\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fthaoshibe\u002Fvisii)] \\\n26 Jul 2023\n\n\n**Composite Diffusion | whole >= \\Sigma parts** \\\n*Vikram Jamwal, Ramaneswaran S* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.13720)] \\\n25 Jul 2023\n\n\n**Fashion Matrix: Editing Photos by Just Talking** \\\n*Zheng Chong, Xujie Zhang, Fuwei Zhao, Zhenyu Xie, Xiaodan Liang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.13240)] [[Project](https:\u002F\u002Fzheng-chong.github.io\u002FFashionMatrix\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FZheng-Chong\u002FFashionMatrix)] \\\n25 Jul 2023\n\n**Understanding the Latent Space of Diffusion Models through the Lens of Riemannian Geometry** \\\n*Yong-Hyun Park, Mingi Kwon, Jaewoong Choi, Junghyo Jo, Youngjung Uh* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12868)] \\\n24 Jul 2023\n\n**InFusion: Inject and Attention Fusion for Multi Concept Zero-Shot Text-based Video Editing** \\\n*Anant Khandelwal* \\\nICCV Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00135)] \\\n22 Jul 2023\n\n**Subject-Diffusion:Open Domain Personalized Text-to-Image Generation without Test-time Fine-tuning** \\\n*Jian Ma, Junhao Liang, Chen Chen, Haonan Lu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11410)] [[Project](https:\u002F\u002Foppo-mente-lab.github.io\u002Fsubject_diffusion\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FOPPO-Mente-Lab\u002FSubject-Diffusion)] \\\n21 Jul 2023\n\n**Divide & Bind Your Attention for Improved Generative Semantic Nursing** \\\n*Yumeng Li, Margret Keuper, Dan Zhang, Anna Khoreva* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10864)] [[Project](https:\u002F\u002Fsites.google.com\u002Fview\u002Fdivide-and-bind)] \\\n20 Jul 2023\n\n**AdjointDPM: Adjoint Sensitivity Method for Gradient Backpropagation of Diffusion Probabilistic Models** \\\n*Jiachun Pan, Jun Hao Liew, Vincent Y. F. Tan, Jiashi Feng, Hanshu Yan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10711)] \\\n20 Jul 2023\n\n**BoxDiff: Text-to-Image Synthesis with Training-Free Box-Constrained Diffusion** \\\n*Jinheng Xie, Yuexiang Li, Yawen Huang, Haozhe Liu, Wentian Zhang, Yefeng Zheng, Mike Zheng Shou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10816)] [[Github](https:\u002F\u002Fgithub.com\u002FSierkinhane\u002FBoxDiff)] \\\n20 Jul 2023\n\n**Text2Layer: Layered Image Generation using Latent Diffusion Model** \\\n*Xinyang Zhang, Wentian Zhao, Xin Lu, Jeff Chien* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09781)] \\\n19 Jul 2023\n\n**FABRIC: Personalizing Diffusion Models with Iterative Feedback** \\\n*Dimitri von Rütte, Elisabetta Fedele, Jonathan Thomm, Lukas Wolf* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10159)] \\\n19 Jul 2023\n\n**TokenFlow: Consistent Diffusion Features for Consistent Video Editing** \\\n*Michal Geyer, Omer Bar-Tal, Shai Bagon, Tali Dekel* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10373)] [[Project](https:\u002F\u002Fdiffusion-tokenflow.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fomerbt\u002FTokenFlow)] \\\n19 Jul 2023\n\n**Multimodal Diffusion Segmentation Model for Object Segmentation from Manipulation Instructions** \\\n*Yui Iioka, Yu Yoshida, Yuiga Wada, Shumpei Hatanaka, Komei Sugiura* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08597)] \\\n17 Jul 2023\n\n**Not All Steps are Created Equal: Selective Diffusion Distillation for Image Manipulation** \\\n*Luozhou Wang, Shuai Yang, Shu Liu, Ying-cong Chen* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08448)] [[Github](https:\u002F\u002Fgithub.com\u002FAndysonYs\u002FSelective-Diffusion-Distillation)] \\\n17 Jul 2023\n\n**Multimodal Motion Conditioned Diffusion Model for Skeleton-based Video Anomaly Detection** \\\n*Alessandro Flaborea, Luca Collorone, Guido D'Amely, Stefano D'Arrigo, Bardh Prenkaj, Fabio Galasso* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07205)] \\\n14 Jul 2023\n\n**HyperDreamBooth: HyperNetworks for Fast Personalization of Text-to-Image Models** \\\n*Nataniel Ruiz, Yuanzhen Li, Varun Jampani, Wei Wei, Tingbo Hou, Yael Pritch, Neal Wadhwa, Michael Rubinstein, Kfir Aberman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.06949)] [[Project](https:\u002F\u002Fhyperdreambooth.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FJiauZhang\u002Fhyperdreambooth)] \\\n13 Jul 2023\n\n**Exact Diffusion Inversion via Bi-directional Integration Approximation** \\\n*Guoqiang Zhang, J. P. Lewis, W. Bastiaan Kleijn* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10829)] \\\n10 Jul 2023\n\n**AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning** \\\n*Yuwei Guo, Ceyuan Yang, Anyi Rao, Yaohui Wang, Yu Qiao, Dahua Lin, Bo Dai* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04725)] [[Project](https:\u002F\u002Fanimatediff.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fguoyww\u002Fanimatediff\u002F)] \\\n10 Jul 2023\n\n\n**Divide, Evaluate, and Refine: Evaluating and Improving Text-to-Image Alignment with Iterative VQA Feedback** \\\n*Jaskirat Singh, Liang Zheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04749)] [[Project](https:\u002F\u002F1jsingh.github.io\u002Fdivide-evaluate-and-refine)] [[Github](https:\u002F\u002Fgithub.com\u002F1jsingh\u002FDivide-Evaluate-and-Refine)] \\\n10 Jul 2023\n\n**Augmenters at SemEval-2023 Task 1: Enhancing CLIP in Handling Compositionality and Ambiguity for Zero-Shot Visual WSD through Prompt Augmentation and Text-To-Image Diffusion** \\\n*Jie S. Li, Yow-Ting Shiue, Yong-Siang Shih, Jonas Geiping* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.05564)] \\\n9 Jul 2023\n\n**Measuring the Success of Diffusion Models at Imitating Human Artists** \\\n*Stephen Casper, Zifan Guo, Shreya Mogulothu, Zachary Marinov, Chinmay Deshpande, Rui-Jie Yew, Zheng Dai, Dylan Hadfield-Menell* \\\nICML Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04028)] \\\n8 Jul 2023\n\n**How to Detect Unauthorized Data Usages in Text-to-image Diffusion Models** \\\n*Zhenting Wang, Chen Chen, Yuchen Liu, Lingjuan Lyu, Dimitris Metaxas, Shiqing Ma* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03108)] \\\n6 Jul 2023\n\n\n**Collaborative Score Distillation for Consistent Visual Synthesis** \\\n*Subin Kim, Kyungmin Lee, June Suk Choi, Jongheon Jeong, Kihyuk Sohn, Jinwoo Shin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04787)] [[Project](https:\u002F\u002Fsubin-kim-cv.github.io\u002FCSD\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fsubin-kim-cv\u002FCSD)] \\\n4 Jul 2023\n\n\n\n**SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis** \\\n*Dustin Podell, Zion English, Kyle Lacey, Andreas Blattmann, Tim Dockhorn, Jonas Müller, Joe Penna, Robin Rombach* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01952)] [[Github](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fgenerative-models)] \\\n4 Jul 2023\n\n\n\n**MVDiffusion: Enabling Holistic Multi-view Image Generation with Correspondence-Aware Diffusion** \\\n*Shitao Tang, Fuyang Zhang, Jiacheng Chen, Peng Wang, Yasutaka Furukawa* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01097)] [[Project](https:\u002F\u002Fmvdiffusion.github.io\u002F)] \\\n3 Jul 2023\n\n**Counting Guidance for High Fidelity Text-to-Image Synthesis** \\\n*Wonjun Kang, Kevin Galim, Hyung Il Koo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17567)] \\\n30 Jun 2023\n\n**Michelangelo: Conditional 3D Shape Generation based on Shape-Image-Text Aligned Latent Representation** \\\n*Zibo Zhao, Wen Liu, Xin Chen, Xianfang Zeng, Rui Wang, Pei Cheng, Bin Fu, Tao Chen, Gang Yu, Shenghua Gao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17115)] \\\n29 Jun 2023\n\n**Generate Anything Anywhere in Any Scene** \\\n*Yuheng Li, Haotian Liu, Yangming Wen, Yong Jae Lee* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17154)] [[Project](https:\u002F\u002Fyuheng-li.github.io\u002FPACGen\u002F)] \\\n29 Jun 2023\n\n**Diff-Foley: Synchronized Video-to-Audio Synthesis with Latent Diffusion Models** \\\n*Simian Luo, Chuanhao Yan, Chenxu Hu, Hang Zhao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17203)] [[Github](https:\u002F\u002Fgithub.com\u002Fluosiallen\u002FDiff-Foley)] \\\n29 Jun 2023\n\n**PFB-Diff: Progressive Feature Blending Diffusion for Text-driven Image Editing** \\\n*Wenjing Huang, Shikui Tu, Lei Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16894)] \\\n28 Jun 2023\n\n**DiffSketcher: Text Guided Vector Sketch Synthesis through Latent Diffusion Models** \\\n*Ximing Xing, Chuang Wang, Haitao Zhou, Jing Zhang, Qian Yu, Dong Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14685)] \\\n26 Jun 2023\n\n**A-STAR: Test-time Attention Segregation and Retention for Text-to-image Synthesis** \\\n*Aishwarya Agarwal, Srikrishna Karanam, K J Joseph, Apoorv Saxena, Koustava Goswami, Balaji Vasan Srinivasan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14544)] \\\n26 Jun 2023\n\n**Decompose and Realign: Tackling Condition Misalignment in Text-to-Image Diffusion Models** \\\n*Luozhou Wang, Guibao Shen, Yijun Li, Ying-cong Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14408)] \\\n26 Jun 2023\n\n**Zero-shot spatial layout conditioning for text-to-image diffusion models** \\\n*Guillaume Couairon, Marlène Careil, Matthieu Cord, Stéphane Lathuilière, Jakob Verbeek* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13754)] \\\n23 Jun 2023\n\n**DreamTime: An Improved Optimization Strategy for Text-to-3D Content Creation** \\\n*Yukun Huang, Jianan Wang, Yukai Shi, Xianbiao Qi, Zheng-Jun Zha, Lei Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12422)] \\\n21 Jun 2023\n\n**Align, Adapt and Inject: Sound-guided Unified Image Generation** \\\n*Yue Yang, Kaipeng Zhang, Yuying Ge, Wenqi Shao, Zeyue Xue, Yu Qiao, Ping Luo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11504)] \\\n20 Jun 2023\n\n\n**EMoG: Synthesizing Emotive Co-speech 3D Gesture with Diffusion Model** \\\n*Lianying Yin, Yijun Wang, Tianyu He, Jinming Liu, Wei Zhao, Bohan Li, Xin Jin, Jianxin Lin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11496)] \\\n20 Jun 2023\n\n**RS5M: A Large Scale Vision-Language Dataset for Remote Sensing Vision-Language Foundation Model** \\\n*Zilun Zhang, Tiancheng Zhao, Yulong Guo, Jianwei Yin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11300)] \\\n20 Jun 2023\n\n\n**Instruct-NeuralTalker: Editing Audio-Driven Talking Radiance Fields with Instructions** \\\n*Yuqi Sun, Reian He, Weimin Tan, Bo Yan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10813)] \\\n19 Jun 2023\n\n**Conditional Text Image Generation with Diffusion Models** \\\n*Yuanzhi Zhu, Zhaohai Li, Tianwei Wang, Mengchao He, Cong Yao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10804)] \\\n19 Jun 2023\n\n**Point-Cloud Completion with Pretrained Text-to-image Diffusion Models** \\\n*Yoni Kasten, Ohad Rahamim, Gal Chechik* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10533)] \\\n18 Jun 2023\n\n**Energy-Based Cross Attention for Bayesian Context Update in Text-to-Image Diffusion Models** \\\n*Geon Yeong Park, Jeongsol Kim, Beomsu Kim, Sang Wan Lee, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09869)] \\\n16 Jun 2023\n\n\n\n**Evaluating the Robustness of Text-to-image Diffusion Models against Real-world Attacks** \\\n*Hongcheng Gao, Hao Zhang, Yinpeng Dong, Zhijie Deng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13103)] \\\n16 Jun 2023\n\n**CLIPSonic: Text-to-Audio Synthesis with Unlabeled Videos and Pretrained Language-Vision Models** \\\n*Hao-Wen Dong, Xiaoyu Liu, Jordi Pons, Gautam Bhattacharya, Santiago Pascual, Joan Serrà, Taylor Berg-Kirkpatrick, Julian McAuley* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09635)] \\\n16 Jun 2023\n\n**Taming Diffusion Models for Music-driven Conducting Motion Generation** \\\n*Zhuoran Zhao, Jinbin Bai, Delong Chen, Debang Wang, Yubo Pan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10065)] \\\n15 Jun 2023\n\n\n**Diff-TTSG: Denoising probabilistic integrated speech and gesture synthesis** \\\n*Shivam Mehta, Siyang Wang, Simon Alexanderson, Jonas Beskow, Éva Székely, Gustav Eje Henter* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09417)] \\\n15 Jun 2023\n\n**Diffusion Models for Zero-Shot Open-Vocabulary Segmentation** \\\n*Laurynas Karazija, Iro Laina, Andrea Vedaldi, Christian Rupprecht* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09316)] \\\n15 Jun 2023\n\n**Linguistic Binding in Diffusion Models: Enhancing Attribute Correspondence through Attention Map Alignment** \\\n*Royi Rassin, Eran Hirsch, Daniel Glickman, Shauli Ravfogel, Yoav Goldberg, Gal Chechik* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08877)] \\\n15 Jun 2023\n\n**Training Multimedia Event Extraction With Generated Images and Captions** \\\n*Zilin Du, Yunxin Li, Xu Guo, Yidan Sun, Boyang Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08966)] \\\n15 Jun 2023\n\n**VidEdit: Zero-Shot and Spatially Aware Text-Driven Video Editing** \\\n*Paul Couairon, Clément Rambour, Jean-Emmanuel Haugeard, Nicolas Thome* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08707)] \\\n14 Jun 2023\n\n\n**Norm-guided latent space exploration for text-to-image generation** \\\n*Dvir Samuel, Rami Ben-Ari, Nir Darshan, Haggai Maron, Gal Chechik* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08687)] \\\n14 Jun 2023\n\n\n**Training-free Diffusion Model Adaptation for Variable-Sized Text-to-Image Synthesis** \\\n*Zhiyu Jin, Xuli Shen, Bin Li, Xiangyang Xue* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08645)] \\\n14 Jun 2023\n\n**GBSD: Generative Bokeh with Stage Diffusion** \\\n*Jieren Deng, Xin Zhou, Hao Tian, Zhihong Pan, Derek Aguiar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08251)] \\\n14 Jun 2023\n\n**Diffusion in Diffusion: Cyclic One-Way Diffusion for Text-Vision-Conditioned Generation** \\\n*Yongqi Yang, Ruoyu Wang, Zhihao Qian, Ye Zhu, Yu Wu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08247)] \\\n14 Jun 2023\n\n**Rerender A Video: Zero-Shot Text-Guided Video-to-Video Translation** \\\n*Shuai Yang, Yifan Zhou, Ziwei Liu, Chen Change Loy* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07954)] \\\n13 Jun 2023\n\n**Paste, Inpaint and Harmonize via Denoising: Subject-Driven Image Editing with Pre-Trained Diffusion Model** \\\n*Xin Zhang, Jiaxian Guo, Paul Yoo, Yutaka Matsuo, Yusuke Iwasawa* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07596)] \\\n13 Jun 2023\n\n**Controlling Text-to-Image Diffusion by Orthogonal Finetuning** \\\n*Zeju Qiu, Weiyang Liu, Haiwen Feng, Yuxuan Xue, Yao Feng, Zhen Liu, Dan Zhang, Adrian Weller, Bernhard Schölkopf* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07280)] \\\n12 Jun 2023\n\n\n**MovieFactory: Automatic Movie Creation from Text using Large Generative Models for Language and Images** \\\n*Junchen Zhu, Huan Yang, Huiguo He, Wenjing Wang, Zixi Tuo, Wen-Huang Cheng, Lianli Gao, Jingkuan Song, Jianlong Fu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07257)] \\\n12 Jun 2023\n\n**InstructP2P: Learning to Edit 3D Point Clouds with Text Instructions** \\\n*Jiale Xu, Xintao Wang, Yan-Pei Cao, Weihao Cheng, Ying Shan, Shenghua Gao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07154)] \\\n12 Jun 2023\n\n\n**Language-Guided Traffic Simulation via Scene-Level Diffusion** \\\n*Ziyuan Zhong, Davis Rempe, Yuxiao Chen, Boris Ivanovic, Yulong Cao, Danfei Xu, Marco Pavone, Baishakhi Ray* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.06344)] \\\n10 Jun 2023\n\n**BOOT: Data-free Distillation of Denoising Diffusion Models with Bootstrapping** \\\n*Jiatao Gu, Shuangfei Zhai, Yizhe Zhang, Lingjie Liu, Josh Susskind* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05544)] \\\n8 Jun 2023\n\n\n**Grounded Text-to-Image Synthesis with Attention Refocusing** \\\n*Quynh Phung, Songwei Ge, Jia-Bin Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05427)] \\\n8 Jun 2023\n\n**SyncDiffusion: Coherent Montage via Synchronized Joint Diffusions** \\\n*Yuseung Lee, Kunho Kim, Hyunjin Kim, Minhyuk Sung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05178)] [[Project](https:\u002F\u002Fsyncdiffusion.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FKAIST-Geometric-AI-Group\u002FSyncDiffusion)] \\\n8 Jun 2023\n\n**Improving Tuning-Free Real Image Editing with Proximal Guidance** \\\n*Ligong Han, Song Wen, Qi Chen, Zhixing Zhang, Kunpeng Song, Mengwei Ren, Ruijiang Gao, Yuxiao Chen, Di Liu, Qilong Zhangli, Anastasis Stathopoulos, Jindong Jiang, Zhaoyang Xia, Akash Srivastava, Dimitris Metaxas* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05414)] \\\n8 Jun 2023\n\n**WOUAF: Weight Modulation for User Attribution and Fingerprinting in Text-to-Image Diffusion Models** \\\n*Changhoon Kim, Kyle Min, Maitreya Patel, Sheng Cheng, Yezhou Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04744)] \\\n7 Jun 2023\n\n\n**ConceptBed: Evaluating Concept Learning Abilities of Text-to-Image Diffusion Models** \\\n*Maitreya Patel, Tejas Gokhale, Chitta Baral, Yezhou Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04695)] \\\n7 Jun 2023\n\n**Designing a Better Asymmetric VQGAN for StableDiffusion** \\\n*Zixin Zhu, Xuelu Feng, Dongdong Chen, Jianmin Bao, Le Wang, Yinpeng Chen, Lu Yuan, Gang Hua* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04632)] [[Github](https:\u002F\u002Fgithub.com\u002Fbuxiangzhiren\u002FAsymmetric_VQGAN)] \\\n7 Jun 2023\n\n**Multi-modal Latent Diffusion** \\\n*Mustapha Bounoua, Giulio Franzese, Pietro Michiardi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04445)] \\\n7 Jun 2023\n\n**Integrating Geometric Control into Text-to-Image Diffusion Models for High-Quality Detection Data Generation via Text Prompt** \\\n*Kai Chen, Enze Xie, Zhe Chen, Lanqing Hong, Zhenguo Li, Dit-Yan Yeung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04607)] \\\n7 Jun 2023\n\n**Improving Diffusion-based Image Translation using Asymmetric Gradient Guidance** \\\n*Gihyun Kwon, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04396)] \\\n7 Jun 2023\n\n**Stable Diffusion is Unstable** \\\n*Chengbin Du, Yanxi Li, Zhongwei Qiu, Chang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02583)] \\\n5 Jun 2023\n\n**LipVoicer: Generating Speech from Silent Videos Guided by Lip Reading** \\\n*Yochai Yemini, Aviv Shamsian, Lior Bracha, Sharon Gannot, Ethan Fetaya* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03258)] [[Project](https:\u002F\u002Flipvoicer.github.io\u002F)] \\\n5 Jun 2023\n\n**HeadSculpt: Crafting 3D Head Avatars with Text** \\\n*Xiao Han, Yukang Cao, Kai Han, Xiatian Zhu, Jiankang Deng, Yi-Zhe Song, Tao Xiang, Kwan-Yee K. Wong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03038)] [[Project](https:\u002F\u002Fbrandonhan.uk\u002FHeadSculpt\u002F)] \\\n5 Jun 2023\n\n**Instruct-Video2Avatar: Video-to-Avatar Generation with Instructions** \\\n*Shaoxu Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02903)] \\\n5 Jun 2023\n\n**Towards Unified Text-based Person Retrieval: A Large-scale Multi-Attribute and Language Search Benchmark** \\\n*Shuyu Yang, Yinan Zhou, Yaxiong Wang, Yujiao Wu, Li Zhu, Zhedong Zheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02898)] \\\n5 Jun 2023\n\n**User-friendly Image Editing with Minimal Text Input: Leveraging Captioning and Injection Techniques** \\\n*Sunwoo Kim, Wooseok Jang, Hyunsu Kim, Junho Kim, Yunjey Choi, Seungryong Kim, Gayeong Lee* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02717)] \\\n5 Jun 2023\n\n**Detector Guidance for Multi-Object Text-to-Image Generation** \\\n*Luping Liu, Zijian Zhang, Yi Ren, Rongjie Huang, Xiang Yin, Zhou Zhao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02236)] \\\n4 Jun 2023\n\n**VideoComposer: Compositional Video Synthesis with Motion Controllability** \\\n*Xiang Wang, Hangjie Yuan, Shiwei Zhang, Dayou Chen, Jiuniu Wang, Yingya Zhang, Yujun Shen, Deli Zhao, Jingren Zhou* \\\nNeruIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02018)] [[Project](https:\u002F\u002Fvideocomposer.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fdamo-vilab\u002Fvideocomposer)] \\\n3 Jun 2023\n\n\n**Word-Level Explanations for Analyzing Bias in Text-to-Image Models** \\\n*Alexander Lin, Lucas Monteiro Paes, Sree Harsha Tanneru, Suraj Srinivas, Himabindu Lakkaraju* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05500)] \\\n3 Jun 2023\n\n\n**Efficient Text-Guided 3D-Aware Portrait Generation with Score Distillation Sampling on Distribution** \\\n*Yiji Cheng, Fei Yin, Xiaoke Huang, Xintong Yu, Jiaxiang Liu, Shikun Feng, Yujiu Yang, Yansong Tang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02083)] \\\n3 Jun 2023\n\n**Probabilistic Adaptation of Text-to-Video Models** \\\n*Mengjiao Yang, Yilun Du, Bo Dai, Dale Schuurmans, Joshua B. Tenenbaum, Pieter Abbeel* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01872)] [[Project](https:\u002F\u002Fvideo-adapter.github.io\u002Fvideo-adapter\u002F)] \\\n2 Jun 2023\n\n\n**Video Colorization with Pre-trained Text-to-Image Diffusion Models** \\\n*Hanyuan Liu, Minshan Xie, Jinbo Xing, Chengze Li, Tien-Tsin Wong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01732)] \\\n2 Jun 2023\n\n\n**Audio-Visual Speech Enhancement with Score-Based Generative Models** \\\n*Julius Richter, Simone Frintrop, Timo Gerkmann* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01432)] \\\n2 Jun 2023\n\n**Privacy Distillation: Reducing Re-identification Risk of Multimodal Diffusion Models** \\\n*Virginia Fernandez, Pedro Sanchez, Walter Hugo Lopez Pinaya, Grzegorz Jacenków, Sotirios A. Tsaftaris, Jorge Cardoso* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01322)] \\\n2 Jun 2023\n\n**StableRep: Synthetic Images from Text-to-Image Models Make Strong Visual Representation Learners** \\\n*Yonglong Tian, Lijie Fan, Phillip Isola, Huiwen Chang, Dilip Krishnan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00984)] \\\n1 Jun 2023\n\n**Diffusion Self-Guidance for Controllable Image Generation** \\\n*Dave Epstein, Allan Jabri, Ben Poole, Alexei A. Efros, Aleksander Holynski* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00986)] [[Project](https:\u002F\u002Fdave.ml\u002Fselfguidance\u002F)] \\\n1 Jun 2023\n\n\n**StyleDrop: Text-to-Image Generation in Any Style** \\\n*Kihyuk Sohn, Nataniel Ruiz, Kimin Lee, Daniel Castro Chin, Irina Blok, Huiwen Chang, Jarred Barber, Lu Jiang, Glenn Entis, Yuanzhen Li, Yuan Hao, Irfan Essa, Michael Rubinstein, Dilip Krishnan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00983)] [[Project](https:\u002F\u002Fstyledrop.github.io\u002F)] \\\n1 Jun 2023\n\n\n**Intriguing Properties of Text-guided Diffusion Models** \\\n*Qihao Liu, Adam Kortylewski, Yutong Bai, Song Bai, Alan Yuille* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00974)] \\\n1 Jun 2023\n\n\n**Intelligent Grimm -- Open-ended Visual Storytelling via Latent Diffusion Models** \\\n*Chang Liu, Haoning Wu, Yujie Zhong, Xiaoyun Zhang, Weidi Xie* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00973)] [[Project](https:\u002F\u002Fhaoningwu3639.github.io\u002FStoryGen_Webpage\u002F)] \\\n1 Jun 2023\n\n\n**ViCo: Detail-Preserving Visual Condition for Personalized Text-to-Image Generation** \\\n*Shaozhe Hao, Kai Han, Shihao Zhao, Kwan-Yee K. Wong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00971)] [[Github](https:\u002F\u002Fgithub.com\u002Fhaoosz\u002FViCo)] \\\n1 Jun 2023\n\n**The Hidden Language of Diffusion Models** \\\n*Hila Chefer, Oran Lang, Mor Geva, Volodymyr Polosukhin, Assaf Shocher, Michal Irani, Inbar Mosseri, Lior Wolf* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00966)] [[Project](https:\u002F\u002Fhila-chefer.github.io\u002FConceptor\u002F)] \\\n1 Jun 2023\n\n**Cocktail: Mixing Multi-Modality Controls for Text-Conditional Image Generation** \\\n*Minghui Hu, Jianbin Zheng, Daqing Liu, Chuanxia Zheng, Chaoyue Wang, Dacheng Tao, Tat-Jen Cham* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00964)] [[Project](https:\u002F\u002Fmhh0318.github.io\u002Fcocktail\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fmhh0318\u002FCocktail)] \\\n1 Jun 2023\n\n**Make-Your-Video: Customized Video Generation Using Textual and Structural Guidance** \\\n*Jinbo Xing, Menghan Xia, Yuxin Liu, Yuechen Zhang, Yong Zhang, Yingqing He, Hanyuan Liu, Haoxin Chen, Xiaodong Cun, Xintao Wang, Ying Shan, Tien-Tsin Wong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00943)] [[Project](https:\u002F\u002Fdoubiiu.github.io\u002Fprojects\u002FMake-Your-Video\u002F)] \\\n1 Jun 2023\n\n**Inserting Anybody in Diffusion Models via Celeb Basis** \\\n*Ge Yuan, Xiaodong Cun, Yong Zhang, Maomao Li, Chenyang Qi, Xintao Wang, Ying Shan, Huicheng Zheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00926)] [[Project](https:\u002F\u002Fceleb-basis.github.io\u002F)] \\\n1 Jun 2023\n\n**Wuerstchen: Efficient Pretraining of Text-to-Image Models** \\\n*Pablo Pernias, Dominic Rampas, Marc Aubreville* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00637)] \\\n1 Jun 2023\n\n**UniDiff: Advancing Vision-Language Models with Generative and Discriminative Learning** \\\n*Xiao Dong, Runhui Huang, Xiaoyong Wei, Zequn Jie, Jianxing Yu, Jian Yin, Xiaodan Liang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00813)] \\\n1 Jun 2023\n\n**FigGen: Text to Scientific Figure Generation** \\\n*Juan A. Rodriguez, David Vazquez, Issam Laradji, Marco Pedersoli, Pau Rodriguez* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00800)] \\\n1 Jun 2023\n\n\n**Diffusion Brush: A Latent Diffusion Model-based Editing Tool for AI-generated Images** \\\n*Peyman Gholami, Robert Xiao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00219)] \\\n31 May 2023\n\n**Understanding and Mitigating Copying in Diffusion Models** \\\n*Gowthami Somepalli, Vasu Singla, Micah Goldblum, Jonas Geiping, Tom Goldstein* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.20086)] [[Github](https:\u002F\u002Fgithub.com\u002Fsomepago\u002FDCR)] \\\n31 May 2023\n\n\n**Control4D: Dynamic Portrait Editing by Learning 4D GAN from 2D Diffusion-based Editor** \\\n*Ruizhi Shao, Jingxiang Sun, Cheng Peng, Zerong Zheng, Boyao Zhou, Hongwen Zhang, Yebin Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.20082)] [[Project](https:\u002F\u002Fcontrol4darxiv.github.io\u002F)] \\\n31 May 2023\n\n\n**Boosting Text-to-Image Diffusion Models with Fine-Grained Semantic Rewards** \\\n*Guian Fang, Zutao Jiang, Jianhua Han, Guansong Lu, Hang Xu, Xiaodan Liang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19599)] [[Github](https:\u002F\u002Fgithub.com\u002FEnderfga\u002FFineRewards)] \\\n31 May 2023\n\n\n\n**Perturbation-Assisted Sample Synthesis: A Novel Approach for Uncertainty Quantification** \\\n*Yifei Liu, Rex Shen, Xiaotong Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18671)] \\\n30 May 2023\n\n**PanoGen: Text-Conditioned Panoramic Environment Generation for Vision-and-Language Navigation** \\\n*Jialu Li, Mohit Bansal* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19195)] [[Project](https:\u002F\u002Fpano-gen.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fjialuli-luka\u002FPanoGen)] \\\n30 May 2023\n\n**Video ControlNet: Towards Temporally Consistent Synthetic-to-Real Video Translation Using Conditional Image Diffusion Models** \\\n*Ernie Chu, Shuo-Yen Lin, Jun-Cheng Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19193)] \\\n30 May 2023\n\n**Nested Diffusion Processes for Anytime Image Generation** \\\n*Noam Elata, Bahjat Kawar, Tomer Michaeli, Michael Elad* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19066)] \\\n30 May 2023\n\n**StyleAvatar3D: Leveraging Image-Text Diffusion Models for High-Fidelity 3D Avatar Generation** \\\n*Chi Zhang, Yiwen Chen, Yijun Fu, Zhenglin Zhou, Gang YU, Billzb Wang, Bin Fu, Tao Chen, Guosheng Lin, Chunhua Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19012)] \\\n30 May 2023\n\n**HiFA: High-fidelity Text-to-3D with Advanced Diffusion Guidance** \\\n*Junzhe Zhu, Peiye Zhuang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18766)] \\\n30 May 2023\n\n**LayerDiffusion: Layered Controlled Image Editing with Diffusion Models** \\\n*Pengzhi Li, QInxuan Huang, Yikang Ding, Zhiheng Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18676)] \\\n30 May 2023\n\n**Controllable Text-to-Image Generation with GPT-4** \\\n*Tianjun Zhang, Yi Zhang, Vibhav Vineet, Neel Joshi, Xin Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18583)] \\\n29 May 2023\n\n**Cognitively Inspired Cross-Modal Data Generation Using Diffusion Models** \\\n*Zizhao Hu, Mohammad Rostami* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18433)] \\\n28 May 2023\n\n**RAPHAEL: Text-to-Image Generation via Large Mixture of Diffusion Paths** \\\n*Zeyue Xue, Guanglu Song, Qiushan Guo, Boxiao Liu, Zhuofan Zong, Yu Liu, Ping Luo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18295)] \\\n29 May 2023\n\n**Mix-of-Show: Decentralized Low-Rank Adaptation for Multi-Concept Customization of Diffusion Models** \\\n*Yuchao Gu, Xintao Wang, Jay Zhangjie Wu, Yujun Shi, Yunpeng Chen, Zihan Fan, Wuyou Xiao, Rui Zhao, Shuning Chang, Weijia Wu, Yixiao Ge, Ying Shan, Mike Zheng Shou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18292)] [[Project](https:\u002F\u002Fshowlab.github.io\u002FMix-of-Show\u002F)] \\\n29 May 2023\n\n**Gen-L-Video: Multi-Text to Long Video Generation via Temporal Co-Denoising** \\\n*Fu-Yun Wang, Wenshuo Chen, Guanglu Song, Han-Jia Ye, Yu Liu, Hongsheng Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18264)] [[Github](https:\u002F\u002Fgithub.com\u002FG-U-N\u002FGen-L-Video)] \\\n29 May 2023\n\n\n**Text-Only Image Captioning with Multi-Context Data Generation** \\\n*Feipeng Ma, Yizhou Zhou, Fengyun Rao, Yueyi Zhang, Xiaoyan Sun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18072)] \\\n29 May 2023\n\n**InstructEdit: Improving Automatic Masks for Diffusion-based Image Editing With User Instructions** \\\n*Qian Wang, Biao Zhang, Michael Birsak, Peter Wonka* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18047)] \\\n29 May 2023\n\n\n**Conditional Score Guidance for Text-Driven Image-to-Image Translation** \\\n*Hyunsoo Lee, Minsoo Kang, Bohyung Han* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18007)] \\\n29 May 2023\n\n**Text-to-image Editing by Image Information Removal** \\\n*Zhongping Zhang, Jian Zheng, Jacob Zhiyuan Fang, Bryan A. Plummer* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17489)] \\\n27 May 2023\n\n**Towards Consistent Video Editing with Text-to-Image Diffusion Models** \\\n*Zicheng Zhang, Bonan Li, Xuecheng Nie, Congying Han, Tiande Guo, Luoqi Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17431)] \\\n27 May 2023\n\n\n**FISEdit: Accelerating Text-to-image Editing via Cache-enabled Sparse Diffusion Inference** \\\n*Zihao Yu, Haoyang Li, Fangcheng Fu, Xupeng Miao, Bin Cui* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17423)] \\\n27 May 2023\n\n**ControlVideo: Adding Conditional Control for One Shot Text-to-Video Editing** \\\n*Min Zhao, Rongzhen Wang, Fan Bao, Chongxuan Li, Jun Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17098)] [[Project](https:\u002F\u002Fml.cs.tsinghua.edu.cn\u002Fcontrolvideo\u002F)] \\\n26 May 2023\n\n\n**Improved Visual Story Generation with Adaptive Context Modeling** \\\n*Zhangyin Feng, Yuchen Ren, Xinmiao Yu, Xiaocheng Feng, Duyu Tang, Shuming Shi, Bing Qin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16811)] \\\n26 May 2023\n\n\n**Negative-prompt Inversion: Fast Image Inversion for Editing with Text-guided Diffusion Models** \\\n*Daiki Miyake, Akihiro Iohara, Yu Saito, Toshiyuki Tanaka* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16807)] \\\n26 May 2023\n\n**Are Diffusion Models Vision-And-Language Reasoners?** \\\n*Benno Krojer, Elinor Poole-Dayan, Vikram Voleti, Christopher Pal, Siva Reddy* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16397)] [[Github](https:\u002F\u002Fgithub.com\u002FMcGill-NLP\u002Fdiffusion-itm)] \\\n25 May 2023\n\n\n**DPOK: Reinforcement Learning for Fine-tuning Text-to-Image Diffusion Models** \\\n*Ying Fan, Olivia Watkins, Yuqing Du, Hao Liu, Moonkyung Ryu, Craig Boutilier, Pieter Abbeel, Mohammad Ghavamzadeh, Kangwook Lee, Kimin Lee* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16381)] \\\n25 May 2023\n\n**Uni-ControlNet: All-in-One Control to Text-to-Image Diffusion Models** \\\n*Shihao Zhao, Dongdong Chen, Yen-Chun Chen, Jianmin Bao, Shaozhe Hao, Lu Yuan, Kwan-Yee K. Wong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16322)] [[Project](https:\u002F\u002Fshihaozhaozsh.github.io\u002Funicontrolnet\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FShihaoZhaoZSH\u002FUni-ControlNet)] \\\n25 May 2023\n\n\n**Parallel Sampling of Diffusion Models** \\\n*Andy Shih, Suneel Belkhale, Stefano Ermon, Dorsa Sadigh, Nima Anari* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16317)] [[Github](https:\u002F\u002Fgithub.com\u002FAndyShih12\u002Fparadigms)] \\\n25 May 2023\n\n**Break-A-Scene: Extracting Multiple Concepts from a Single Image** \\\n*Omri Avrahami, Kfir Aberman, Ohad Fried, Daniel Cohen-Or, Dani Lischinski* \\\nSIGGRAPH Asia 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16311)] [[Project](https:\u002F\u002Fomriavrahami.com\u002Fbreak-a-scene\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbreak-a-scene)] \\\n25 May 2023\n\n**Diversify Your Vision Datasets with Automatic Diffusion-Based Augmentation** \\\n*Lisa Dunlap, Alyssa Umino, Han Zhang, Jiezhi Yang, Joseph E. Gonzalez, Trevor Darrell* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16289)] [[Github](https:\u002F\u002Fgithub.com\u002Flisadunlap\u002FALIA)] \\\n25 May 2023\n\n**Prompt-Free Diffusion: Taking \"Text\" out of Text-to-Image Diffusion Models** \\\n*Xingqian Xu, Jiayi Guo, Zhangyang Wang, Gao Huang, Irfan Essa, Humphrey Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16223)] [[Github](https:\u002F\u002Fgithub.com\u002FSHI-Labs\u002FPrompt-Free-Diffusion)] \\\n25 May 2023 \n\n**ProSpect: Expanded Conditioning for the Personalization of Attribute-aware Image Generation** \\\n*Yuxin Zhang, Weiming Dong, Fan Tang, Nisha Huang, Haibin Huang, Chongyang Ma, Tong-Yee Lee, Oliver Deussen, Changsheng Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16225)] \\\n25 May 2023\n\n**ProlificDreamer: High-Fidelity and Diverse Text-to-3D Generation with Variational Score Distillation** \\\n*Zhengyi Wang, Cheng Lu, Yikai Wang, Fan Bao, Chongxuan Li, Hang Su, Jun Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16213)] [[Project](https:\u002F\u002Fml.cs.tsinghua.edu.cn\u002Fprolificdreamer\u002F)] \\\n25 May 2023\n\n**On Architectural Compression of Text-to-Image Diffusion Models** \\\n*Bo-Kyeong Kim, Hyoung-Kyu Song, Thibault Castells, Shinkook Choi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15798)] \\\n25 May 2023\n\n\n**Custom-Edit: Text-Guided Image Editing with Customized Diffusion Models** \\\n*Jooyoung Choi, Yunjey Choi, Yunji Kim, Junho Kim, Sungroh Yoon* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15779)] \\\n25 May 2023\n\n**MultiFusion: Fusing Pre-Trained Models for Multi-Lingual, Multi-Modal Image Generation** \\\n*Marco Bellagente, Manuel Brack, Hannah Teufel, Felix Friedrich, Björn Deiseroth, Constantin Eichenberg, Andrew Dai, Robert Baldock, Souradeep Nanda, Koen Oostermeijer, Andres Felipe Cruz-Salinas, Patrick Schramowski, Kristian Kersting, Samuel Weinbach* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15296)] \\\n24 May 2023\n\n**ChatFace: Chat-Guided Real Face Editing via Diffusion Latent Space Manipulation** \\\n*Dongxu Yue, Qin Guo, Munan Ning, Jiaxi Cui, Yuesheng Zhu, Li Yuan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14742)] \\\n24 May 2023\n\n**DiffBlender: Scalable and Composable Multimodal Text-to-Image Diffusion Models** \\\n*Sungnyun Kim, Junsoo Lee, Kibeom Hong, Daesik Kim, Namhyuk Ahn* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15194)] [[Github](https:\u002F\u002Fgithub.com\u002Fsungnyun\u002Fdiffblender)] \\\n24 May 2023\n\n**I Spy a Metaphor: Large Language Models and Diffusion Models Co-Create Visual Metaphors** \\\n*Tuhin Chakrabarty, Arkadiy Saakyan, Olivia Winn, Artemis Panagopoulou, Yue Yang, Marianna Apidianaki, Smaranda Muresan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14724)] \\\n24 May 2023\n\n**BLIP-Diffusion: Pre-trained Subject Representation for Controllable Text-to-Image Generation and Editing** \\\n*Dongxu Li, Junnan Li, Steven C. H. Hoi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14720)] \\\n24 May 2023\n\n**Adversarial Nibbler: A Data-Centric Challenge for Improving the Safety of Text-to-Image Models** \\\n*Alicia Parrish, Hannah Rose Kirk, Jessica Quaye, Charvi Rastogi, Max Bartolo, Oana Inel, Juan Ciro, Rafael Mosquera, Addison Howard, Will Cukierski, D. Sculley, Vijay Janapa Reddi, Lora Aroyo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14384)] \\\n22 May 2023\n\n**Compositional Text-to-Image Synthesis with Attention Map Control of Diffusion Models** \\\n*Ruichen Wang, Zekang Chen, Chen Chen, Jian Ma, Haonan Lu, Xiaodong Lin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13921)] \\\n23 May 2023\n\n**Unsafe Diffusion: On the Generation of Unsafe Images and Hateful Memes From Text-To-Image Models** \\\n*Yiting Qu, Xinyue Shen, Xinlei He, Michael Backes, Savvas Zannettou, Yang Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13873)] \\\n23 May 2023\n\n\n**Control-A-Video: Controllable Text-to-Video Generation with Diffusion Models** \\\n*Weifeng Chen, Jie Wu, Pan Xie, Hefeng Wu, Jiashi Li, Xin Xia, Xuefeng Xiao, Liang Lin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13840)] \\\n23 May 2023\n\n**Understanding Text-driven Motion Synthesis with Keyframe Collaboration via Diffusion Models** \\\n*Dong Wei, Xiaoning Sun, Huaijiang Sun, Bin Li, Shengxiang Hu, Weiqing Li, Jianfeng Lu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13773)] \\\n23 May 2023\n\n**LLM-grounded Diffusion: Enhancing Prompt Understanding of Text-to-Image Diffusion Models with Large Language Models** \\\n*Long Lian, Boyi Li, Adam Yala, Trevor Darrell* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13655)] \\\n23 May 2023\n\n**LaDI-VTON: Latent Diffusion Textual-Inversion Enhanced Virtual Try-On** \\\n*Davide Morelli, Alberto Baldrati, Giuseppe Cartella, Marcella Cornia, Marco Bertini, Rita Cucchiara* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13501)] \\\n22 May 2023\n\n\n\n**FACTIFY3M: A Benchmark for Multimodal Fact Verification with Explainability through 5W Question-Answering** \\\n*Megha Chakraborty, Khusbu Pahwa, Anku Rani, Adarsh Mahor, Aditya Pakala, Arghya Sarkar, Harshit Dave, Ishan Paul, Janvita Reddy, Preethi Gurumurthy, Ritvik G, Samahriti Mukherjee, Shreyas Chatterjee, Kinjal Sensharma, Dwip Dalal, Suryavardan S, Shreyash Mishra, Parth Patwa, Aman Chadha, Amit Sheth, Amitava Das* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05523)] \\\n22 May 2023\n\n**Training Diffusion Models with Reinforcement Learning** \\\n*Kevin Black, Michael Janner, Yilun Du, Ilya Kostrikov, Sergey Levine* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13301)] \\\n22 May 2023\n\n\n**If at First You Don't Succeed, Try, Try Again: Faithful Diffusion-based Text-to-Image Generation by Selection** \\\n*Shyamgopal Karthik, Karsten Roth, Massimiliano Mancini, Zeynep Akata* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13308)] [[Project](https:\u002F\u002Frl-diffusion.github.io\u002F)] \\\n22 May 2023\n\n**ControlVideo: Training-free Controllable Text-to-Video Generation** \\\n*Yabo Zhang, Yuxiang Wei, Dongsheng Jiang, Xiaopeng Zhang, Wangmeng Zuo, Qi Tian* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13077)] [[Github](https:\u002F\u002Fgithub.com\u002FYBYBZhang\u002FControlVideo)] \\\n22 May 2023\n\n**AudioToken: Adaptation of Text-Conditioned Diffusion Models for Audio-to-Image Generation** \\\n*Guy Yariv, Itai Gat, Lior Wolf, Yossi Adi, Idan Schwartz* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13050)] \\\n22 May 2023\n\n**The CLIP Model is Secretly an Image-to-Prompt Converter** \\\n*Yuxuan Ding, Chunna Tian, Haoxuan Ding, Lingqiao Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12716)] \\\n22 May 2023\n\n**InstructVid2Vid: Controllable Video Editing with Natural Language Instructions** \\\n*Bosheng Qin, Juncheng Li, Siliang Tang, Tat-Seng Chua, Yueting Zhuang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12328)] \\\n21 May 2023\n\n**SneakyPrompt: Evaluating Robustness of Text-to-image Generative Models' Safety Filters** \\\n*Yuchen Yang, Bo Hui, Haolin Yuan, Neil Gong, Yinzhi Cao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12082)] \\\n20 May 2023\n\n**Late-Constraint Diffusion Guidance for Controllable Image Synthesis** \\\n*Chang Liu, Dong Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11520)] [[Project](https:\u002F\u002Falonzoleeeooo.github.io\u002FLCDG\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FAlonzoLeeeooo\u002FLCDG)] \\\n19 May 2023\n\n**Any-to-Any Generation via Composable Diffusion** \\\n*Zineng Tang, Ziyi Yang, Chenguang Zhu, Michael Zeng, Mohit Bansal* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11846)] [[Project](https:\u002F\u002Fcodi-gen.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fi-Code\u002Ftree\u002Fmain\u002Fi-Code-V3)] \\\n19 May 2023\n\n**Text2NeRF: Text-Driven 3D Scene Generation with Neural Radiance Fields** \\\n*Jingbo Zhang, Xiaoyu Li, Ziyu Wan, Can Wang, Jing Liao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11588)] \\\n19 May 2023\n\n**Brain Captioning: Decoding human brain activity into images and text** \\\n*Matteo Ferrante, Furkan Ozcelik, Tommaso Boccato, Rufin VanRullen, Nicola Toschi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11560)] \\\n19 May 2023\n\n\n**Efficient Cross-Lingual Transfer for Chinese Stable Diffusion with Images as Pivots** \\\n*Jinyi Hu, Xu Han, Xiaoyuan Yi, Yutong Chen, Wenhao Li, Zhiyuan Liu, Maosong Sun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11540)] \\\n19 May 2023\n\n**Discriminative Diffusion Models as Few-shot Vision and Language Learners** \\\n*Xuehai He, Weixi Feng, Tsu-Jui Fu, Varun Jampani, Arjun Akula, Pradyumna Narayana, Sugato Basu, William Yang Wang, Xin Eric Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10722)] \\\n18 May 2023\n\n**Zero-Day Backdoor Attack against Text-to-Image Diffusion Models via Personalization** \\\n*Yihao Huang, Qing Guo, Felix Juefei-Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10701)] \\\n18 May 2023\n\n\n**AIwriting: Relations Between Image Generation and Digital Writing** \\\n*Scott Rettberg, Talan Memmott, Jill Walker Rettberg, Jason Nelson, Patrick Lichty* \\\nISEA 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10834)] \\\n18 May 2023\n\n**TextDiffuser: Diffusion Models as Text Painters** \\\n*Jingye Chen, Yupan Huang, Tengchao Lv, Lei Cui, Qifeng Chen, Furu Wei* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10855)] \\\n18 May 2023\n\n**VideoFactory: Swap Attention in Spatiotemporal Diffusions for Text-to-Video Generation** \\\n*Wenjing Wang, Huan Yang, Zixi Tuo, Huiguo He, Junchen Zhu, Jianlong Fu, Jiaying Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10874)] \\\n18 May 2023\n\n**LDM3D: Latent Diffusion Model for 3D** \\\n*Gabriela Ben Melech Stan, Diana Wofk, Scottie Fox, Alex Redden, Will Saxton, Jean Yu, Estelle Aflalo, Shao-Yen Tseng, Fabio Nonato, Matthias Muller, Vasudev Lal* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10853)] \\\n18 May 2023\n\n**X-IQE: eXplainable Image Quality Evaluation for Text-to-Image Generation with Visual Large Language Models** \\\n*Yixiong Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10843)] [[Github](https:\u002F\u002Fgithub.com\u002FSchuture\u002FBenchmarking-Awesome-Diffusion-Models)] \\\n18 May 2023\n\n**Inspecting the Geographical Representativeness of Images from Text-to-Image Models** \\\n*Abhipsa Basu, R. Venkatesh Babu, Danish Pruthi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11080)] \\\n18 May 2023\n\n**Preserve Your Own Correlation: A Noise Prior for Video Diffusion Models** \\\n*Songwei Ge, Seungjun Nah, Guilin Liu, Tyler Poon, Andrew Tao, Bryan Catanzaro, David Jacobs, Jia-Bin Huang, Ming-Yu Liu, Yogesh Balaji* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10474)] [[Project](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Fdir\u002Fpyoco\u002F)] \\\n17 May 2023\n\n**AMD: Autoregressive Motion Diffusion** \\\n*Bo Han, Hao Peng, Minjing Dong, Chang Xu, Yi Ren, Yixuan Shen, Yuheng Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09381)] \\\n16 May 2023\n\n**Generating coherent comic with rich story using ChatGPT and Stable Diffusion** \\\n*Ze Jin, Zorina Song* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11067)] \\\n16 May 2023\n\n\n\n**Make-An-Animation: Large-Scale Text-conditional 3D Human Motion Generation** \\\n*Samaneh Azadi, Akbar Shah, Thomas Hayes, Devi Parikh, Sonal Gupta* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09662)] [[Project](https:\u002F\u002Fazadis.github.io\u002Fmake-an-animation\u002F)] \\\n16 May 2023\n\n**Make-A-Protagonist: Generic Video Editing with An Ensemble of Experts** \\\n*Yuyang Zhao, Enze Xie, Lanqing Hong, Zhenguo Li, Gim Hee Lee* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08850)] [[Project](https:\u002F\u002Fmake-a-protagonist.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FMake-A-Protagonist\u002FMake-A-Protagonist)] \\\n15 May 2023\n\n**Common Diffusion Noise Schedules and Sample Steps are Flawed** \\\n*Shanchuan Lin, Bingchen Liu, Jiashi Li, Xiao Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08891)] \\\n15 May 2023\n\n\n\n**Interactive Fashion Content Generation Using LLMs and Latent Diffusion Models** \\\n*Krishna Sri Ipsit Mantri, Nevasini Sasikumar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05182)] \\\n15 May 2023\n\n\n**Null-text Guidance in Diffusion Models is Secretly a Cartoon-style Creator** \\\n*Jing Zhao, Heliang Zheng, Chaoyue Wang, Long Lan, Wanrong Huang, Wenjing Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06710)] [[Project](https:\u002F\u002Fnulltextforcartoon.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FNullTextforCartoon\u002FNullTextforCartoon)] \\\n11 May 2023\n\n**iEdit: Localised Text-guided Image Editing with Weak Supervision** \\\n*Rumeysa Bodur, Erhan Gundogdu, Binod Bhattarai, Tae-Kyun Kim, Michael Donoser, Loris Bazzani* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05947)] \\\n10 May 2023\n\n**SUR-adapter: Enhancing Text-to-Image Pre-trained Diffusion Models with Large Language Models** \\\n*Shanshan Zhong, Zhongzhan Huang, Wushao Wen, Jinghui Qin, Liang Lin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05189)] [[Github](https:\u002F\u002Fgithub.com\u002FQrange-group\u002FSUR-adapter)] \\\n9 May 2023\n\n**Style-A-Video: Agile Diffusion for Arbitrary Text-based Video Style Transfer** \\\n*Nisha Huang, Yuxin Zhang, Weiming Dong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05464)] \\\n9 May 2023\n\n**DiffuseStyleGesture: Stylized Audio-Driven Co-Speech Gesture Generation with Diffusion Models** \\\n*Sicheng Yang, Zhiyong Wu, Minglei Li, Zhensong Zhang, Lei Hao, Weihong Bao, Ming Cheng, Long Xiao* \\\nIJCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04919)] [[Github](https:\u002F\u002Fgithub.com\u002FYoungSeng\u002FDiffuseStyleGesture)] \\\n8 May 2023\n\n**IIITD-20K: Dense captioning for Text-Image ReID** \\\n*A V Subramanyam, Niranjan Sundararajan, Vibhu Dubey, Brejesh Lall* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04497)] \\\n8 May 2023\n\n**ReGeneration Learning of Diffusion Models with Rich Prompts for Zero-Shot Image Translation** \\\n*Yupei Lin, Sen Zhang, Xiaojun Yang, Xiao Wang, Yukai Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04651)] [[Project](https:\u002F\u002Fyupeilin2388.github.io\u002Fpublication\u002FReDiffuser)] \\\n8 May 2023\n\n**Prompt Tuning Inversion for Text-Driven Image Editing Using Diffusion Models** \\\n*Wenkai Dong, Song Xue, Xiaoyue Duan, Shumin Han* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04441)] \\\n8 May 2023\n\n\n**Text-to-Image Diffusion Models can be Easily Backdoored through Multimodal Data Poisoning** \\\n*Shengfang Zhai, Yinpeng Dong, Qingni Shen, Shi Pu, Yuejian Fang, Hang Su* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04175)] \\\n7 May 2023\n\n\n**AADiff: Audio-Aligned Video Synthesis with Text-to-Image Diffusion** \\\n*Seungwoo Lee, Chaerin Kong, Donghyeon Jeon, Nojun Kwak* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04001)] \\\n6 May 2023\n\n**Data Curation for Image Captioning with Text-to-Image Generative Models** \\\n*Wenyan Li, Jonas F. Lotz, Chen Qiu, Desmond Elliott* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03610)] \\\n5 May 2023\n\n**DisenBooth: Identity-Preserving Disentangled Tuning for Subject-Driven Text-to-Image Generation** \\\n*Hong Chen, Yipeng Zhang, Xin Wang, Xuguang Duan, Yuwei Zhou, Wenwu Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03374)] [[Project](https:\u002F\u002Fdisenbooth.github.io\u002F)] \\\n5 May 2023\n\n**Guided Image Synthesis via Initial Image Editing in Diffusion Model** \\\n*Jiafeng Mao, Xueting Wang, Kiyoharu Aizawa* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03382)] \\\n5 May 2023\n\n**Diffusion Explainer: Visual Explanation for Text-to-image Stable Diffusion** \\\n*Seongmin Lee, Benjamin Hoover, Hendrik Strobelt, Zijie J. Wang, ShengYun Peng, Austin Wright, Kevin Li, Haekyu Park, Haoyang Yang, Duen Horng Chau* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03509)] [[Project](https:\u002F\u002Fpoloclub.github.io\u002Fdiffusion-explainer\u002F)] \\\n4 May 2023\n\n\n**Multimodal-driven Talking Face Generation, Face Swapping, Diffusion Model** \\\n*Chao Xu, Shaoting Zhu, Junwei Zhu, Tianxin Huang, Jiangning Zhang, Ying Tai, Yong Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.02594)] \\\n4 May 2023\n\n\n**Multimodal Data Augmentation for Image Captioning using Diffusion Models** \\\n*Changrong Xiao, Sean Xin Xu, Kunpeng Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01855)] \\\n3 May 2023\n\n**In-Context Learning Unlocked for Diffusion Models** \\\n*Zhendong Wang, Yifan Jiang, Yadong Lu, Yelong Shen, Pengcheng He, Weizhu Chen, Zhangyang Wang, Mingyuan Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01115)] [[Project](https:\u002F\u002Fzhendong-wang.github.io\u002Fprompt-diffusion.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FZhendong-Wang\u002FPrompt-Diffusion)] \\\n1 May 2023\n\n**SceneGenie: Scene Graph Guided Diffusion Models for Image Synthesis** \\\n*Azade Farshad, Yousef Yeganeh, Yu Chi, Chengzhi Shen, Björn Ommer, Nassir Navab* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14573)] \\\n28 Apr 2023\n\n**It is all about where you start: Text-to-image generation with seed selection** \\\n*Dvir Samuel, Rami Ben-Ari, Simon Raviv, Nir Darshan, Gal Chechik* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14530)] \\\n27 Apr 2023\n\n**Edit Everything: A Text-Guided Generative System for Images Editing** \\\n*Defeng Xie, Ruichen Wang, Jian Ma, Chen Chen, Haonan Lu, Dong Yang, Fobo Shi, Xiaodong Lin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14006)] [[Github](https:\u002F\u002Fgithub.com\u002FDefengXie\u002FEdit_Everything)] \\\n27 Apr 2023\n\n**Training-Free Location-Aware Text-to-Image Synthesis** \\\n*Jiafeng Mao, Xueting Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.13427)] \\\n26 Apr 2023\n\n**TextMesh: Generation of Realistic 3D Meshes From Text Prompts** \\\n*Christina Tsalicoglou, Fabian Manhardt, Alessio Tonioni, Michael Niemeyer, Federico Tombari* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12439)] \\\n24 Apr 2023\n\n**Using Text-to-Image Generation for Architectural Design Ideation** \\\n*Ville Paananen, Jonas Oppenlaender, Aku Visuri* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10182)] \\\n20 Apr 2023\n\n\n**Anything-3D: Towards Single-view Anything Reconstruction in the Wild** \\\n*Qiuhong Shen, Xingyi Yang, Xinchao Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10261)] [[Github](https:\u002F\u002Fgithub.com\u002FAnything-of-anything\u002FAnything-3D)] \\\n19 Apr 2023\n\n\n**UPGPT: Universal Diffusion Model for Person Image Generation, Editing and Pose Transfer** \\\n*Soon Yau Cheong, Armin Mustafa, Andrew Gilbert* \\\nICCV Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08870)] [[Github](https:\u002F\u002Fgithub.com\u002Fsoon-yau\u002Fupgpt)] \\\n18 Apr 2023\n\n**TTIDA: Controllable Generative Data Augmentation via Text-to-Text and Text-to-Image Models** \\\n*Yuwei Yin, Jean Kaddour, Xiang Zhang, Yixin Nie, Zhenguang Liu, Lingpeng Kong, Qi Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08821)] \\\n18 Apr 2023\n\n**Align your Latents: High-Resolution Video Synthesis with Latent Diffusion Models** \\\n*Andreas Blattmann, Robin Rombach, Huan Ling, Tim Dockhorn, Seung Wook Kim, Sanja Fidler, Karsten Kreis* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08818)] [[Project](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Ftoronto-ai\u002FVideoLDM\u002F)] \\\n18 Apr 2023\n\n**Text2Performer: Text-Driven Human Video Generation** \\\n*Yuming Jiang, Shuai Yang, Tong Liang Koh, Wayne Wu, Chen Change Loy, Ziwei Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08483)] [[Project](https:\u002F\u002Fyumingj.github.io\u002Fprojects\u002FText2Performer.html)] \\\n17 Apr 2023\n\n**Latent-Shift: Latent Diffusion with Temporal Shift for Efficient Text-to-Video Generation** \\\n*Jie An, Songyang Zhang, Harry Yang, Sonal Gupta, Jia-Bin Huang, Jiebo Luo, Xi Yin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08477)] [[Project](https:\u002F\u002Flatent-shift.github.io\u002F)] \\\n17 Apr 2023\n\n**MasaCtrl: Tuning-Free Mutual Self-Attention Control for Consistent Image Synthesis and Editing** \\\n*Mingdeng Cao, Xintao Wang, Zhongang Qi, Ying Shan, Xiaohu Qie, Yinqiang Zheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08465)] [[Github](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FMasaCtrl)] \\\n17 Apr 2023\n\n**Text-Conditional Contextualized Avatars For Zero-Shot Personalization** \\\n*Samaneh Azadi, Thomas Hayes, Akbar Shah, Guan Pang, Devi Parikh, Sonal Gupta* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.07410)] \\\n14 Apr 2023\n\n**Delta Denoising Score** \\\n*Amir Hertz, Kfir Aberman, Daniel Cohen-Or* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.07090)] [[Project](https:\u002F\u002Fdelta-denoising-score.github.io\u002F)] \\\n14 Apr 2023\n\n**Expressive Text-to-Image Generation with Rich Text** \\\n*Songwei Ge, Taesung Park, Jun-Yan Zhu, Jia-Bin Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06720)] [[Project](https:\u002F\u002Frich-text-to-image.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FSongweiGe\u002Frich-text-to-image)] \\\n13 Apr 2023\n\n\n\n**Soundini: Sound-Guided Diffusion for Natural Video Editing** \\\n*Seung Hyun Lee, Sieun Kim, Innfarn Yoo, Feng Yang, Donghyeon Cho, Youngseo Kim, Huiwen Chang, Jinkyu Kim, Sangpil Kim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06818)] [[Project](https:\u002F\u002Fkuai-lab.github.io\u002Fsoundini-gallery\u002F)] \\\n13 Apr 2023\n\n\n\n**Improving Diffusion Models for Scene Text Editing with Dual Encoders** \\\n*Jiabao Ji, Guanhua Zhang, Zhaowen Wang, Bairu Hou, Zhifei Zhang, Brian Price, Shiyu Chang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05568)] [[Github](https:\u002F\u002Fgithub.com\u002FUCSB-NLP-Chang\u002FDiffSTE)] \\\n12 Apr 2023\n\n**An Edit Friendly DDPM Noise Space: Inversion and Manipulations** \\\n*Inbar Huberman-Spiegelglas, Vladimir Kulikov, Tomer Michaeli* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06140)] \\\n12 Apr 2023\n\n**Continual Diffusion: Continual Customization of Text-to-Image Diffusion with C-LoRA** \\\n*James Seale Smith, Yen-Chang Hsu, Lingyu Zhang, Ting Hua, Zsolt Kira, Yilin Shen, Hongxia Jin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06027)] [[Project](https:\u002F\u002Fjamessealesmith.github.io\u002Fcontinual-diffusion\u002F)] \\\n12 Apr 2023\n\n**HRS-Bench: Holistic, Reliable and Scalable Benchmark for Text-to-Image Models** \\\n*Eslam Mohamed Bakr, Pengzhan Sun, Xiaoqian Shen, Faizan Farooq Khan, Li Erran Li, Mohamed Elhoseiny* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05390)] [[Project](https:\u002F\u002Feslambakr.github.io\u002Fhrsbench.github.io\u002F)] \\\n11 Apr 2023\n\n**Re-imagine the Negative Prompt Algorithm: Transform 2D Diffusion into 3D, alleviate Janus problem and Beyond** \\\n*Mohammadreza Armandpour, Huangjie Zheng, Ali Sadeghian, Amir Sadeghian, Mingyuan Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04968)] \\\n11 Apr 2023\n\n**Towards Real-time Text-driven Image Manipulation with Unconditional Diffusion Models** \\\n*Nikita Starodubcev, Dmitry Baranchuk, Valentin Khrulkov, Artem Babenko* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04344)] \\\n10 Apr 2023\n\n**HumanSD: A Native Skeleton-Guided Diffusion Model for Human Image Generation** \\\n*Xuan Ju, Ailing Zeng, Chenchen Zhao, Jianan Wang, Lei Zhang, Qiang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04269)] [[Github](https:\u002F\u002Fidea-research.github.io\u002FHumanSD\u002F)] \\\n9 Apr 2023\n\n**Harnessing the Spatial-Temporal Attention of Diffusion Models for High-Fidelity Text-to-Image Synthesis** \\\n*Qiucheng Wu, Yujian Liu, Handong Zhao, Trung Bui, Zhe Lin, Yang Zhang, Shiyu Chang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03869)] [[Github](https:\u002F\u002Fgithub.com\u002FUCSB-NLP-Chang\u002FDiffusion-SpaceTime-Attn)] \\\n7 Apr 2023\n\n**Zero-shot Generative Model Adaptation via Image-specific Prompt Learning** \\\n*Jiayi Guo, Chaofei Wang, You Wu, Eric Zhang, Kai Wang, Xingqian Xu, Shiji Song, Humphrey Shi, Gao Huang* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03119)] [[Github](https:\u002F\u002Fgithub.com\u002FPicsart-AI-Research\u002FIPL-Zero-Shot-Generative-Model-Adaptation)] \\\n6 Apr 2023\n\n**Training-Free Layout Control with Cross-Attention Guidance** \\\n*Minghao Chen, Iro Laina, Andrea Vedaldi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03373)] [[Project](https:\u002F\u002Fsilent-chen.github.io\u002Flayout-guidance\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fsilent-chen\u002Flayout-guidance)] \\\n6 Apr 2023\n\n\n**Benchmarking Robustness to Text-Guided Corruptions** \\\n*Mohammadreza Mofayezi, Yasamin Medghalchi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02963)] \\\n6 Apr 2023\n\n\n**DITTO-NeRF: Diffusion-based Iterative Text To Omni-directional 3D Model** \\\n*Hoigi Seo, Hayeon Kim, Gwanghyun Kim, Se Young Chun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02827)] [[Project](https:\u002F\u002Fjaneyeon.github.io\u002Fditto-nerf\u002F)] \\\n6 Apr 2023\n\n\n\n**Taming Encoder for Zero Fine-tuning Image Customization with Text-to-Image Diffusion Models** \\\n*Xuhui Jia, Yang Zhao, Kelvin C.K. Chan, Yandong Li, Han Zhang, Boqing Gong, Tingbo Hou, Huisheng Wang, Yu-Chuan Su* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02642)] \\\n5 Apr 2023\n\n\n**A Diffusion-based Method for Multi-turn Compositional Image Generation** \\\n*Chao Wang, Xiaoyu Yang, Jinmiao Huang, Kevin Ferreira* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02192)] \\\n5 Apr 2023\n\n**viz2viz: Prompt-driven stylized visualization generation using a diffusion model** \\\n*Jiaqi Wu, John Joon Young Chung, Eytan Adar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01919)] \\\n4 Apr 2023\n\n**Multimodal Garment Designer: Human-Centric Latent Diffusion Models for Fashion Image Editing** \\\n*Alberto Baldrati, Davide Morelli, Giuseppe Cartella, Marcella Cornia, Marco Bertini, Rita Cucchiara* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02051)] \\\n4 Apr 2023\n\n**PODIA-3D: Domain Adaptation of 3D Generative Model Across Large Domain Gap Using Pose-Preserved Text-to-Image Diffusion** \\\n*Gwanghyun Kim, Ji Ha Jang, Se Young Chun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01900)] [[Project](https:\u002F\u002Fgwang-kim.github.io\u002Fpodia_3d\u002F)] \\\n4 Apr 2023\n\n**Text-Conditioned Sampling Framework for Text-to-Image Generation with Masked Generative Models** \\\n*Jaewoong Lee, Sangwon Jang, Jaehyeong Jo, Jaehong Yoon, Yunji Kim, Jin-Hwa Kim, Jung-Woo Ha, Sung Ju Hwang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01515)] \\\n4 Apr 2023\n\n\n**ReMoDiffuse: Retrieval-Augmented Motion Diffusion Model** \\\n*Mingyuan Zhang, Xinying Guo, Liang Pan, Zhongang Cai, Fangzhou Hong, Huirong Li, Lei Yang, Ziwei Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01116)] [[Project](https:\u002F\u002Fmingyuan-zhang.github.io\u002Fprojects\u002FReMoDiffuse.html)] [[Github](https:\u002F\u002Fgithub.com\u002Fmingyuan-zhang\u002FReMoDiffuse)] \\\n3 Apr 2023\n\n**DreamAvatar: Text-and-Shape Guided 3D Human Avatar Generation via Diffusion Models** \\\n*Yukang Cao, Yan-Pei Cao, Kai Han, Ying Shan, Kwan-Yee K. Wong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.00916)] \\\n3 Apr 2023\n\n**DreamFace: Progressive Generation of Animatable 3D Faces under Text Guidance** \\\n*Longwen Zhang, Qiwei Qiu, Hongyang Lin, Qixuan Zhang, Cheng Shi, Wei Yang, Ye Shi, Sibei Yang, Lan Xu, Jingyi Yu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03117)] [[Project](https:\u002F\u002Fsites.google.com\u002Fview\u002Fdreamface)] \\\n1 Apr 2023\n\n**GlyphDraw: Learning to Draw Chinese Characters in Image Synthesis Models Coherently** \\\n*Jian Ma, Mingjun Zhao, Chen Chen, Ruichen Wang, Di Niu, Haonan Lu, Xiaodong Lin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17870)] [[Project](https:\u002F\u002F1073521013.github.io\u002Fglyph-draw.github.io\u002F)] \\\n31 Mar 2023\n\n**AvatarCraft: Transforming Text into Neural Human Avatars with Parameterized Shape and Pose Control** \\\n*Ruixiang Jiang, Can Wang, Jingbo Zhang, Menglei Chai, Mingming He, Dongdong Chen, Jing Liao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17606)] [[Project](https:\u002F\u002Favatar-craft.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fsongrise\u002Favatarcraft)] \\\n30 Mar 2023\n\n**PAIR-Diffusion: Object-Level Image Editing with Structure-and-Appearance Paired Diffusion Models** \\\n*Vidit Goel, Elia Peruzzo, Yifan Jiang, Dejia Xu, Nicu Sebe, Trevor Darrell, Zhangyang Wang, Humphrey Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17546)] [[Github](https:\u002F\u002Fgithub.com\u002FPicsart-AI-Research\u002FPAIR-Diffusion)] \\\n30 Mar 2023\n\n**Social Biases through the Text-to-Image Generation Lens** \\\n*Ranjita Naik, Besmira Nushi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06034)] \\\n30 Mar 2023\n\n\n**Forget-Me-Not: Learning to Forget in Text-to-Image Diffusion Models** \\\n*Eric Zhang, Kai Wang, Xingqian Xu, Zhangyang Wang, Humphrey Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17591)] [[Github](https:\u002F\u002Fgithub.com\u002FSHI-Labs\u002FForget-Me-Not)] \\\n30 Mar 2023\n\n**DiffCollage: Parallel Generation of Large Content with Diffusion Models** \\\n*Qinsheng Zhang, Jiaming Song, Xun Huang, Yongxin Chen, Ming-Yu Liu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17076)] [[Project](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Fdir\u002Fdiffcollage\u002F)] \\\n30 Mar 2023\n\n**Zero-Shot Video Editing Using Off-The-Shelf Image Diffusion Models** \\\n*Wen Wang, Kangyang Xie, Zide Liu, Hao Chen, Yue Cao, Xinlong Wang, Chunhua Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17599)] \\\n30 Mar 2023\n\n\n**Discriminative Class Tokens for Text-to-Image Diffusion Models** \\\n*Idan Schwartz, Vésteinn Snæbjarnarson, Sagie Benaim, Hila Chefer, Ryan Cotterell, Lior Wolf, Serge Belongie* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17155)] \\\n30 Mar 2023\n\n\n\n**DAE-Talker: High Fidelity Speech-Driven Talking Face Generation with Diffusion Autoencoder** \\\n*Chenpng Du, Qi Chen, Tianyu He, Xu Tan, Xie Chen, Kai Yu, Sheng Zhao, Jiang Bian* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17550)] \\\n30 Mar 2023\n\n**LayoutDiffusion: Controllable Diffusion Model for Layout-to-image Generation** \\\n*Guangcong Zheng, Xianpan Zhou, Xuewei Li, Zhongang Qi, Ying Shan, Xi Li* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17189)] [[Github](https:\u002F\u002Fgithub.com\u002FZGCTroy\u002FLayoutDiffusion)] \\\n30 Mar 2023\n\n\n**4D Facial Expression Diffusion Model** \\\n*Kaifeng Zou, Sylvain Faisan, Boyang Yu, Sébastien Valette, Hyewon Seo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16611)] [[Github](https:\u002F\u002Fgithub.com\u002FZOUKaifeng\u002F4DFM)] \\\n29 Mar 2023\n\n**MDP: A Generalized Framework for Text-Guided Image Editing by Manipulating the Diffusion Path** \\\n*Qian Wang, Biao Zhang, Michael Birsak, Peter Wonka* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16765)] [[Github](https:\u002F\u002Fgithub.com\u002FQianWangX\u002FMDP-Diffusion)] \\\n29 Mar 2023\n\n\n\n**Instruct 3D-to-3D: Text Instruction Guided 3D-to-3D conversion** \\\n*Hiromichi Kamata, Yuiko Sakuma, Akio Hayakawa, Masato Ishii, Takuya Narihira* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15780)] [[Github](https:\u002F\u002Fsony.github.io\u002FInstruct3Dto3D-doc\u002F)] \\\n28 Mar 2023\n\n**StyleDiffusion: Prompt-Embedding Inversion for Text-Based Editing** \\\n*Senmao Li, Joost van de Weijer, Taihang Hu, Fahad Shahbaz Khan, Qibin Hou, Yaxing Wang, Jian Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15649)] \\\n28 Mar 2023\n\n**Seer: Language Instructed Video Prediction with Latent Diffusion Models** \\\n*Xianfan Gu, Chuan Wen, Jiaming Song, Yang Gao* \\\nCVPR Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14897)] \\\n27 Mar 2023\n\n\n**Debiasing Scores and Prompts of 2D Diffusion for Robust Text-to-3D Generation** \\\n*Susung Hong, Donghoon Ahn, Seungryong Kim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15413)] \\\n27 Mar 2023\n\n**Anti-DreamBooth: Protecting users from personalized text-to-image synthesis** \\\n*Thanh Van Le, Hao Phung, Thuan Hoang Nguyen, Quan Dao, Ngoc Tran, Anh Tran* \\\nSIGGRAPH 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15433)] [[Github](https:\u002F\u002Fgithub.com\u002FVinAIResearch\u002FAnti-DreamBooth)] \\\n27 Mar 2023\n\n**GestureDiffuCLIP: Gesture Diffusion Model with CLIP Latents** \\\n*Tenglong Ao, Zeyi Zhang, Libin Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14613)] \\\n26 Mar 2023\n\n**Better Aligning Text-to-Image Models with Human Preference** \\\n*Xiaoshi Wu, Keqiang Sun, Feng Zhu, Rui Zhao, Hongsheng Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14420)] [[Github](https:\u002F\u002Ftgxs002.github.io\u002Falign_sd_web\u002F)] \\\n25 Mar 2023\n\n**ISS++: Image as Stepping Stone for Text-Guided 3D Shape Generation** \\\n*Zhengzhe Liu, Peng Dai, Ruihui Li, Xiaojuan Qi, Chi-Wing Fu* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15181)] \\\n24 Mar 2023\n\n**DiffuScene: Scene Graph Denoising Diffusion Probabilistic Model for Generative Indoor Scene Synthesis** \\\n*Jiapeng Tang, Yinyu Nie, Lev Markhasin, Angela Dai, Justus Thies, Matthias Nießner* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14207)] [[Project](https:\u002F\u002Ftangjiapeng.github.io\u002Fprojects\u002FDiffuScene\u002F)] \\\n24 Mar 2023\n\n**CompoNeRF: Text-guided Multi-object Compositional NeRF with Editable 3D Scene Layout** \\\n*Yiqi Lin, Haotian Bai, Sijia Li, Haonan Lu, Xiaodong Lin, Hui Xiong, Lin Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13843)] [[Project](https:\u002F\u002Ffantasia3d.github.io\u002F)] \\\n24 Mar 2023\n\n**Fantasia3D: Disentangling Geometry and Appearance for High-quality Text-to-3D Content Creation** \\\n*Rui Chen, Yongwei Chen, Ningxin Jiao, Kui Jia* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13873)] \\\n24 Mar 2023\n\n**ReVersion: Diffusion-Based Relation Inversion from Images** \\\n*Ziqi Huang, Tianxing Wu, Yuming Jiang, Kelvin C.K. Chan, Ziwei Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13495)] [[Project](https:\u002F\u002Fziqihuangg.github.io\u002Fprojects\u002Freversion.html)] [[Github](https:\u002F\u002Fgithub.com\u002Fziqihuangg\u002FReVersion)]\n23 Mar 2023\n\n**Ablating Concepts in Text-to-Image Diffusion Models** \\\n*Nupur Kumari, Bingliang Zhang, Sheng-Yu Wang, Eli Shechtman, Richard Zhang, Jun-Yan Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13516)] [[Project](https:\u002F\u002Fwww.cs.cmu.edu\u002F~concept-ablation\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fnupurkmr9\u002Fconcept-ablation)] \\\n23 Mar 2023\n\n**Text2Video-Zero: Text-to-Image Diffusion Models are Zero-Shot Video Generators** \\\n*Levon Khachatryan, Andranik Movsisyan, Vahram Tadevosyan, Roberto Henschel, Zhangyang Wang, Shant Navasardyan, Humphrey Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13439)] [[Github](https:\u002F\u002Fgithub.com\u002FPicsart-AI-Research\u002FText2Video-Zero)] \\\n23 Mar 2023\n\n**MagicFusion: Boosting Text-to-Image Generation Performance by Fusing Diffusion Models** \\\n*Jing Zhao, Heliang Zheng, Chaoyue Wang, Long Lan, Wenjing Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13126)] [[Project](https:\u002F\u002Fmagicfusion.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FMagicFusion\u002FMagicFusion.github.io)] \\\n23 Mar 2023\n\n**Pix2Video: Video Editing using Image Diffusion** \\\n*Duygu Ceylan, Chun-Hao Paul Huang, Niloy J. Mitra* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12688)] [[Project](https:\u002F\u002Fduyguceylan.github.io\u002Fpix2video.github.io\u002F)] \\\n22 Mar 2023\n\n**Instruct-NeRF2NeRF: Editing 3D Scenes with Instructions** \\\n*Ayaan Haque, Matthew Tancik, Alexei A. Efros, Aleksander Holynski, Angjoo Kanazawa* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12789)] [[Project](https:\u002F\u002Finstruct-nerf2nerf.github.io\u002F)] \\\n22 Mar 2023\n\n**SALAD: Part-Level Latent Diffusion for 3D Shape Generation and Manipulation** \\\n*Juil Koo, Seungwoo Yoo, Minh Hieu Nguyen, Minhyuk Sung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12236)] [[Project](https:\u002F\u002Fsalad3d.github.io\u002F)] \\\n21 Mar 2023\n\n**Vox-E: Text-guided Voxel Editing of 3D Objects** \\\n*Etai Sella, Gal Fiebelman, Peter Hedman, Hadar Averbuch-Elor* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12048)] [[Project](https:\u002F\u002Ftau-vailab.github.io\u002FVox-E\u002F)] \\\n21 Mar 2023\n\n**CompoDiff: Versatile Composed Image Retrieval With Latent Diffusion** \\\n*Geonmo Gu, Sanghyuk Chun, Wonjae Kim, HeeJae Jun, Yoohoon Kang, Sangdoo Yun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11916)] \\\n21 Mar 2023\n\n\n**3D-CLFusion: Fast Text-to-3D Rendering with Contrastive Latent Diffusion** \\\n*Yu-Jhe Li, Kris Kitani* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11938)] \\\n21 Mar 2023\n\n**Text2Tex: Text-driven Texture Synthesis via Diffusion Models** \\\n*Dave Zhenyu Chen, Yawar Siddiqui, Hsin-Ying Lee, Sergey Tulyakov, Matthias Nießner* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11396)] [[Project](https:\u002F\u002Fdaveredrum.github.io\u002FText2Tex\u002F)] \\\n20 Mar 2023\n\n**Localizing Object-level Shape Variations with Text-to-Image Diffusion Models** \\\n*Or Patashnik, Daniel Garibi, Idan Azuri, Hadar Averbuch-Elor, Daniel Cohen-Or* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11306)] [[Project](https:\u002F\u002Forpatashnik.github.io\u002Flocal-prompt-mixing\u002F)] \\\n20 Mar 2023\n\n**SVDiff: Compact Parameter Space for Diffusion Fine-Tuning** \\\n*Ligong Han, Yinxiao Li, Han Zhang, Peyman Milanfar, Dimitris Metaxas, Feng Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11305)] \\\n20 Mar 2023\n\n**Discovering Interpretable Directions in the Semantic Latent Space of Diffusion Models** \\\n*René Haas, Inbar Huberman-Spiegelglas, Rotem Mulayoff, Tomer Michaeli* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11073)] \\\n20 Mar 2023\n\n**SKED: Sketch-guided Text-based 3D Editing** \\\n*Aryan Mikaeili, Or Perel, Daniel Cohen-Or, Ali Mahdavi-Amiri* \\\narxiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10735)] \\\n19 Mar 2023\n\n**DialogPaint: A Dialog-based Image Editing Model** \\\n*Jingxuan Wei, Shiyu Wu, Xin Jiang, Yequan Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10073)] \\\n17 Mar 2023\n\n**GlueGen: Plug and Play Multi-modal Encoders for X-to-image Generation** \\\n*Can Qin, Ning Yu, Chen Xing, Shu Zhang, Zeyuan Chen, Stefano Ermon, Yun Fu, Caiming Xiong, Ran Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10056)] \\\n17 Mar 2023\n\n**DiffusionRet: Generative Text-Video Retrieval with Diffusion Model** \\\n*Peng Jin, Hao Li, Zesen Cheng, Kehan Li, Xiangyang Ji, Chang Liu, Li Yuan, Jie Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09867)] \\\n17 Mar 2023\n\n**FreeDoM: Training-Free Energy-Guided Conditional Diffusion Model** \\\n*Jiwen Yu, Yinhuai Wang, Chen Zhao, Bernard Ghanem, Jian Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09833)] [[Github](https:\u002F\u002Fgithub.com\u002Fvvictoryuki\u002FFreeDoM)] \\\n17 Mar 2023\n\n**Unified Multi-Modal Latent Diffusion for Joint Subject and Text Conditional Image Generation** \\\n*Yiyang Ma, Huan Yang, Wenjing Wang, Jianlong Fu, Jiaying Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09319)] \\\n16 Mar 2023\n\n**FateZero: Fusing Attentions for Zero-shot Text-based Video Editing** \\\n*Chenyang Qi, Xiaodong Cun, Yong Zhang, Chenyang Lei, Xintao Wang, Ying Shan, Qifeng Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09535)] [[Project](https:\u002F\u002Ffate-zero-edit.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FChenyangQiQi\u002FFateZero)] \\\n16 Mar 2023\n\n\n**HIVE: Harnessing Human Feedback for Instructional Visual Editing** \\\n*Shu Zhang, Xinyi Yang, Yihao Feng, Can Qin, Chia-Chih Chen, Ning Yu, Zeyuan Chen, Huan Wang, Silvio Savarese, Stefano Ermon, Caiming Xiong, Ran Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09618)] \\\n16 Mar 2023\n\n\n**P+: Extended Textual Conditioning in Text-to-Image Generation** \\\n*Andrey Voynov, Qinghao Chu, Daniel Cohen-Or, Kfir Aberman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09522)] [[Project](https:\u002F\u002Fprompt-plus.github.io\u002F)] \\\n16 Mar 2023\n\n**Highly Personalized Text Embedding for Image Manipulation by Stable Diffusion** \\\n*Inhwa Han, Serin Yang, Taesung Kwon, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08767)] \\\n15 Mar 2023\n\n**Aerial Diffusion: Text Guided Ground-to-Aerial View Translation from a Single Image using Diffusion Models** \\\n*Divya Kothandaraman, Tianyi Zhou, Ming Lin, Dinesh Manocha* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11444)] [[Github](https:\u002F\u002Fgithub.com\u002Fdivyakraman\u002FAerialDiffusion)] \\\n15 Mar 2023\n\n\n**Zero-Shot Contrastive Loss for Text-Guided Diffusion Image Style Transfer** \\\n*Serin Yang, Hyunmin Hwang, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08622)] \\\n15 Mar 2023\n\n**Edit-A-Video: Single Video Editing with Object-Aware Consistency** \\\n*Chaehun Shin, Heeseung Kim, Che Hyun Lee, Sang-gil Lee, Sungroh Yoon* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07945)] [[Project](https:\u002F\u002Fedit-a-video.github.io\u002F)] \\\n14 Mar 2023\n\n**Editing Implicit Assumptions in Text-to-Image Diffusion Models** \\\n*Hadas Orgad, Bahjat Kawar, Yonatan Belinkov* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08084)] [[Project](https:\u002F\u002Ftime-diffusion.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fbahjat-kawar\u002Ftime-diffusion)] \\\n14 Mar 2023\n\n\n\n**Let 2D Diffusion Model Know 3D-Consistency for Robust Text-to-3D Generation** \\\n*Junyoung Seo, Wooseok Jang, Min-Seop Kwak, Jaehoon Ko, Hyeonsu Kim, Junho Kim, Jin-Hwa Kim, Jiyoung Lee, Seungryong Kim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07937)] \\\n14 Mar 2023\n\n**Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Models** \\\n*Chenfei Wu, Shengming Yin, Weizhen Qi, Xiaodong Wang, Zecheng Tang, Nan Duan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04671)] [[Github](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fvisual-chatgpt)] \\\n8 Mar 2023\n\n**Video-P2P: Video Editing with Cross-attention Control** \\\n*Shaoteng Liu, Yuechen Zhang, Wenbo Li, Zhe Lin, Jiaya Jia* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04761)] [[Project](https:\u002F\u002Fvideo-p2p.github.io\u002F)] \\\n8 Mar 2023\n\n**Erasing Concepts from Diffusion Models** \\\n*Rohit Gandikota, Joanna Materzynska, Jaden Fiotto-Kaufman, David Bau* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07345)] [[Project](https:\u002F\u002Ferasing.baulab.info\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Frohitgandikota\u002Ferasing)] \\\n13 Mar 2023\n\n\n**One Transformer Fits All Distributions in Multi-Modal Diffusion at Scale** \\\n*Fan Bao, Shen Nie, Kaiwen Xue, Chongxuan Li, Shi Pu, Yaole Wang, Gang Yue, Yue Cao, Hang Su, Jun Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06555)] [[Github](https:\u002F\u002Fgithub.com\u002Fthu-ml\u002Funidiffuser)] \\\n12 Mar 2023\n\n**Cones: Concept Neurons in Diffusion Models for Customized Generation** \\\n*Zhiheng Liu, Ruili Feng, Kai Zhu, Yifei Zhang, Kecheng Zheng, Yu Liu, Deli Zhao, Jingren Zhou, Yang Cao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05125)] \\\n9 Mar 2023\n\n**A Prompt Log Analysis of Text-to-Image Generation Systems** \\\n*Yutong Xie, Zhaoying Pan, Jinge Ma, Jie Luo, Qiaozhu Mei* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04587)] \\\n8 Mar 2023\n\n**Zeroth-Order Optimization Meets Human Feedback: Provable Learning via Ranking Oracles** \\\n*Zhiwei Tang, Dmitry Rybin, Tsung-Hui Chang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.03751)] [[Github](https:\u002F\u002Fgithub.com\u002FTZW1998\u002FTaming-Stable-Diffusion-with-Human-Ranking-Feedback)] \\\n7 Mar 2023\n\n\n**Unleashing Text-to-Image Diffusion Models for Visual Perception** \\\n*Wenliang Zhao, Yongming Rao, Zuyan Liu, Benlin Liu, Jie Zhou, Jiwen Lu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.02153)] [[Github](https:\u002F\u002Fgithub.com\u002Fwl-zhao\u002FVPD)] \\\n3 Mar 2023\n\n**Collage Diffusion** \\\n*Vishnu Sarukkai, Linden Li, Arden Ma, Christopher Ré, Kayvon Fatahalian* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.00262)] \\\n1 Mar 2023\n\n**Towards Enhanced Controllability of Diffusion Models** \\\n*Wonwoong Cho, Hareesh Ravi, Midhun Harikumar, Vinh Khuc, Krishna Kumar Singh, Jingwan Lu, David I. Inouye, Ajinkya Kale* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.14368)] \\\n28 Feb 2023\n\n**Directed Diffusion: Direct Control of Object Placement through Attention Guidance** \\\n*Wan-Duo Kurt Ma, J.P. Lewis, W. Bastiaan Kleijn, Thomas Leung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.13153)] \\\n25 Feb 2023\n\n**Modulating Pretrained Diffusion Models for Multimodal Image Synthesis** \\\n*Cusuh Ham, James Hays, Jingwan Lu, Krishna Kumar Singh, Zhifei Zhang, Tobias Hinz* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.12764)] \\\n24 Feb 2023\n\n**Region-Aware Diffusion for Zero-shot Text-driven Image Editing** \\\n*Nisha Huang, Fan Tang, Weiming Dong, Tong-Yee Lee, Changsheng Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11797)] [[Github](https:\u002F\u002Fgithub.com\u002Fhaha-lisa\u002FRDM-Region-Aware-Diffusion-Model)] \\\n23 Feb 2023\n\n**Controlled and Conditional Text to Image Generation with Diffusion Prior** \\\n*Pranav Aggarwal, Hareesh Ravi, Naveen Marri, Sachin Kelkar, Fengbin Chen, Vinh Khuc, Midhun Harikumar, Ritiz Tambi, Sudharshan Reddy Kakumanu, Purvak Lapsiya, Alvin Ghouas, Sarah Saber, Malavika Ramprasad, Baldo Faieta, Ajinkya Kale* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11710)] \\\n23 Feb 2023\n\n**Reduce, Reuse, Recycle: Compositional Generation with Energy-Based Diffusion Models and MCMC** \\\n*Yilun Du, Conor Durkan, Robin Strudel, Joshua B. Tenenbaum, Sander Dieleman, Rob Fergus, Jascha Sohl-Dickstein, Arnaud Doucet, Will Grathwohl* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11552)] [[Project](https:\u002F\u002Fenergy-based-model.github.io\u002Freduce-reuse-recycle\u002F)] \\\n22 Feb 2023\n\n**Learning 3D Photography Videos via Self-supervised Diffusion on Single Images** \\\n*Xiaodong Wang, Chenfei Wu, Shengming Yin, Minheng Ni, Jianfeng Wang, Linjie Li, Zhengyuan Yang, Fan Yang, Lijuan Wang, Zicheng Liu, Yuejian Fang, Nan Duan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10781)] \\\n21 Feb 2023\n\n\n**Exploring the Representation Manifolds of Stable Diffusion Through the Lens of Intrinsic Dimension** \\\n*Henry Kvinge, Davis Brown, Charles Godfrey* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.09301)] \\\n16 Feb 2023\n\n**Text-driven Visual Synthesis with Latent Diffusion Prior** \\\n*Ting-Hsuan Liao, Songwei Ge, Yiran Xu, Yao-Chih Lee, Badour AlBahar, Jia-Bin Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08510)] [[Project](https:\u002F\u002Flatent-diffusion-prior.github.io\u002F)] \\\n16 Feb 2023\n\n**T2I-Adapter: Learning Adapters to Dig out More Controllable Ability for Text-to-Image Diffusion Models** \\\n*Chong Mou, Xintao Wang, Liangbin Xie, Jian Zhang, Zhongang Qi, Ying Shan, Xiaohu Qie* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08453)] [[Github](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FT2I-Adapter)] \\\n16 Feb 2023\n\n**MultiDiffusion: Fusing Diffusion Paths for Controlled Image Generation** \\\n*Omer Bar-Tal, Lior Yariv, Yaron Lipman, Tali Dekel* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08113)] [Project](https:\u002F\u002Fmultidiffusion.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fomerbt\u002FMultiDiffusion)] \\\n16 Feb 2023\n\n**Boundary Guided Mixing Trajectory for Semantic Control with Diffusion Models** \\\n*Ye Zhu, Yu Wu, Zhiwei Deng, Olga Russakovsky, Yan Yan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08357)] \\\n16 Feb 2023\n\n**Dataset Interfaces: Diagnosing Model Failures Using Controllable Counterfactual Generation** \\\n*Joshua Vendrow, Saachi Jain, Logan Engstrom, Aleksander Madry* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.07865)] [[Github](https:\u002F\u002Fgithub.com\u002FMadryLab\u002Fdataset-interfaces)] \\\n15 Feb 2023\n\n**PRedItOR: Text Guided Image Editing with Diffusion Prior**\\\n*Hareesh Ravi, Sachin Kelkar, Midhun Harikumar, Ajinkya Kale* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.07979)] \\\n15 Feb 2023\n\n**Text-Guided Scene Sketch-to-Photo Synthesis** \\\n*AprilPyone MaungMaung, Makoto Shing, Kentaro Mitsui, Kei Sawada, Fumio Okura* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.06883)] \\\n14 Feb 2023\n\n**Universal Guidance for Diffusion Models** \\\n*Arpit Bansal, Hong-Min Chu, Avi Schwarzschild, Soumyadip Sengupta, Micah Goldblum, Jonas Geiping, Tom Goldstein* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.07121)] [[Github](https:\u002F\u002Fgithub.com\u002Farpitbansal297\u002FUniversal-Guided-Diffusion)] \\\n14 Feb 2023\n\n**Adding Conditional Control to Text-to-Image Diffusion Models** \\\n*Lvmin Zhang, Maneesh Agrawala* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.05543)] [[Github](https:\u002F\u002Fgithub.com\u002Flllyasviel\u002FControlNet)] \\\n10 Feb 2023\n\n\n**Analyzing Multimodal Objectives Through the Lens of Generative Diffusion Guidance** \\\n*Chaerin Kong, Nojun Kwak* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10305)] \\\n10 Feb 2023\n\n**Is This Loss Informative? Speeding Up Textual Inversion with Deterministic Objective Evaluation** \\\n*Anton Voronov, Mikhail Khoroshikh, Artem Babenko, Max Ryabinin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04841)] \\\n9 Feb 2023\n\n\n**Q-Diffusion: Quantizing Diffusion Models** \\\n*Xiuyu Li, Long Lian, Yijiang Liu, Huanrui Yang, Zhen Dong, Daniel Kang, Shanghang Zhang, Kurt Keutzer* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04304)] [[Github](https:\u002F\u002Fgithub.com\u002FXiuyu-Li\u002Fq-diffusion)] \\\n8 Feb 2023\n\n\n**GLAZE: Protecting Artists from Style Mimicry by Text-to-Image Models** \\\n*Shawn Shan, Jenna Cryan, Emily Wenger, Haitao Zheng, Rana Hanocka, Ben Y. Zhao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04222)] \\\n8 Feb 2023\n\n**Zero-shot Generation of Coherent Storybook from Plain Text Story using Diffusion Models** \\\n*Hyeonho Jeong, Gihyun Kwon, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03900)] \\\n8 Feb 2023\n\n**Fair Diffusion: Instructing Text-to-Image Generation Models on Fairness** \\\n*Felix Friedrich, Patrick Schramowski, Manuel Brack, Lukas Struppek, Dominik Hintersdorf, Sasha Luccioni, Kristian Kersting* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10893)] \\\n7 Feb 2023\n\n**Hard Prompts Made Easy: Gradient-Based Discrete Optimization for Prompt Tuning and Discovery** \\\n*Yuxin Wen, Neel Jain, John Kirchenbauer, Micah Goldblum, Jonas Geiping, Tom Goldstein* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03668)] [[Github](https:\u002F\u002Fgithub.com\u002FYuxinWenRick\u002Fhard-prompts-made-easy)] \\\n7 Feb 2023\n\n**Zero-shot Image-to-Image Translation** \\\n*Gaurav Parmar, Krishna Kumar Singh, Richard Zhang, Yijun Li, Jingwan Lu, Jun-Yan Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03027)] \\\n6 Feb 2023\n\n**Structure and Content-Guided Video Synthesis with Diffusion Models** \\\n*Patrick Esser, Johnathan Chiu, Parmida Atighehchian, Jonathan Granskog, Anastasis Germanidis* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03011)] [[Project](https:\u002F\u002Fresearch.runwayml.com\u002Fgen1)] \\\n6 Feb 2023\n\n**Mixture of Diffusers for scene composition and high resolution image generation** \\\n*Álvaro Barbero Jiménez* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02412)] [[Github](https:\u002F\u002Fgithub.com\u002Falbarji\u002Fmixture-of-diffusers)] \\\n5 Feb 2023\n\n**ReDi: Efficient Learning-Free Diffusion Inference via Trajectory Retrieval** \\\n*Kexun Zhang, Xianjun Yang, William Yang Wang, Lei Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02285)] \\\n5 Feb 2023\n\n**Eliminating Prior Bias for Semantic Image Editing via Dual-Cycle Diffusion** \\\n*Zuopeng Yang, Tianshu Chu, Xin Lin, Erdun Gao, Daqing Liu, Jie Yang, Chaoyue Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02394)] \\\n5 Feb 2023\n\n**Semantic-Guided Image Augmentation with Pre-trained Models** \\\n*Bohan Li, Xinghao Wang, Xiao Xu, Yutai Hou, Yunlong Feng, Feng Wang, Wanxiang Che* \\\nSIGGRAPH 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02070)] [[Project](https:\u002F\u002Ftexturepaper.github.io\u002FTEXTurePaper\u002F)] \\\n4 Feb 2023\n\n\n**TEXTure: Text-Guided Texturing of 3D Shapes** \\\n*Elad Richardson, Gal Metzer, Yuval Alaluf, Raja Giryes, Daniel Cohen-Or* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.01721)] [[Project](https:\u002F\u002Ftexturepaper.github.io\u002FTEXTurePaper\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FTEXTurePaper\u002FTEXTurePaper)] \\\n3 Feb 2023\n\n**Dreamix: Video Diffusion Models are General Video Editors** \\\n*Eyal Molad, Eliahu Horwitz, Dani Valevski, Alex Rav Acha, Yossi Matias, Yael Pritch, Yaniv Leviathan, Yedid Hoshen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.01329)] [[Project](https:\u002F\u002Fdreamix-video-editing.github.io\u002F)] \\\n2 Feb 2023\n\n**Trash to Treasure: Using text-to-image models to inform the design of physical artefacts** \\\n*Amy Smith, Hope Schroeder, Ziv Epstein, Michael Cook, Simon Colton, Andrew Lippman* \\\nAAAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.00561)] \\\n1 Feb 2023\n\n**Attend-and-Excite: Attention-Based Semantic Guidance for Text-to-Image Diffusion Models** \\\n*Hila Chefer, Yuval Alaluf, Yael Vinker, Lior Wolf, Daniel Cohen-Or* \\\nSIGGRAPH 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13826)] [[Project](https:\u002F\u002Fattendandexcite.github.io\u002FAttend-and-Excite\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FAttendAndExcite\u002FAttend-and-Excite)] \\\n31 Jan 2023\n\n**Zero3D: Semantic-Driven Multi-Category 3D Shape Generation** \\\n*Bo Han, Yitong Liu, Yixuan Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13591)] \\\n31 Jan 2023\n\n**Shape-aware Text-driven Layered Video Editing** \\\n*Yao-Chih Lee, Ji-Ze Genevieve Jang, Yi-Ting Chen, Elizabeth Qiu, Jia-Bin Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13173)] [[Project](https:\u002F\u002Ftext-video-edit.github.io\u002F)] \\\n30 Jan 2023\n\n**PromptMix: Text-to-image diffusion models enhance the performance of lightweight networks** \\\n*Arian Bakhtiarnia, Qi Zhang, Alexandros Iosifidis* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12914)] [[Github](https:\u002F\u002Fgitlab.au.dk\u002Fmaleci\u002Fpromptmix)] \\\n30 Jan 2023\n\n**GALIP: Generative Adversarial CLIPs for Text-to-Image Synthesis** \\\n*Ming Tao, Bing-Kun Bao, Hao Tang, Changsheng Xu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12959)] [[Github](https:\u002F\u002Fgithub.com\u002Ftobran\u002FGALIP)] \\\n30 Jan 2023\n\n\n**SEGA: Instructing Diffusion using Semantic Dimensions** \\\n*Manuel Brack, Felix Friedrich, Dominik Hintersdorf, Lukas Struppek, Patrick Schramowski, Kristian Kersting* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12247)] \\\n28 Jan 2023\n\n**Towards Equitable Representation in Text-to-Image Synthesis Models with the Cross-Cultural Understanding Benchmark (CCUB) Dataset** \\\n*Zhixuan Liu, Youeun Shin, Beverley-Claire Okogwu, Youngsik Yun, Lia Coleman, Peter Schaldenbrand, Jihie Kim, Jean Oh* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12073)] \\\n28 Jan 2023\n\n**Text-To-4D Dynamic Scene Generation** \\\n*Uriel Singer, Shelly Sheynin, Adam Polyak, Oron Ashual, Iurii Makarov, Filippos Kokkinos, Naman Goyal, Andrea Vedaldi, Devi Parikh, Justin Johnson, Yaniv Taigman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11280)] \\\n26 Jan 2023\n\n**Guiding Text-to-Image Diffusion Model Towards Grounded Generation** \\\n*Ziyi Li, Qinye Zhou, Xiaoyun Zhang, Ya Zhang, Yanfeng Wang, Weidi Xie* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.05221)] [[Project](https:\u002F\u002Flipurple.github.io\u002FGrounded_Diffusion\u002F)] \\\n12 Jan 2023\n\n\n\n**Speech Driven Video Editing via an Audio-Conditioned Diffusion Model** \\\n*Dan Bigioi, Shubhajit Basak, Hugh Jordan, Rachel McDonnell, Peter Corcoran* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.04474)] [[Project](https:\u002F\u002Fdanbigioi.github.io\u002FDiffusionVideoEditing\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FDanBigioi\u002FDiffusionVideoEditing)] \\\n10 Jan 2023\n\n**Visual Story Generation Based on Emotion and Keywords** \\\n*Yuetian Chen, Ruohua Li, Bowen Shi, Peiru Liu, Mei Si* \\\nAIIDE INT 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.02777)] \\\n7 Jan 2023\n\n\n**DiffTalk: Crafting Diffusion Models for Generalized Talking Head Synthesis** \\\n*Shuai Shen, Wenliang Zhao, Zibin Meng, Wanhua Li, Zheng Zhu, Jie Zhou, Jiwen Lu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.03786)] \\\n10 Jan 2023\n\n**Speech Driven Video Editing via an Audio-Conditioned Diffusion Model** \\\n*Dan Bigioi, Shubhajit Basak, Hugh Jordan, Rachel McDonnell, Peter Corcoran* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.04474)] \\\n10 Jan 2023\n\n**Diffused Heads: Diffusion Models Beat GANs on Talking-Face Generation** \\\n*Michał Stypułkowski, Konstantinos Vougioukas, Sen He, Maciej Zięba, Stavros Petridis, Maja Pantic* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.03396)] [[Project](https:\u002F\u002Fmstypulkowski.github.io\u002Fdiffusedheads\u002F)] \\\n6 Jan 2023\n\n\n**Muse: Text-To-Image Generation via Masked Generative Transformers** \\\n*Huiwen Chang, Han Zhang, Jarred Barber, AJ Maschinot, Jose Lezama, Lu Jiang, Ming-Hsuan Yang, Kevin Murphy, William T. Freeman, Michael Rubinstein, Yuanzhen Li, Dilip Krishnan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.00704)] [[Project](https:\u002F\u002Fmuse-model.github.io\u002F)] \\\n2 Jan 2023\n\n**Dream3D: Zero-Shot Text-to-3D Synthesis Using 3D Shape Prior and Text-to-Image Diffusion Models** \\\n*Jiale Xu, Xintao Wang, Weihao Cheng, Yan-Pei Cao, Ying Shan, Xiaohu Qie, Shenghua Gao* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.14704)] [[Project](https:\u002F\u002Fbluestyle97.github.io\u002Fdream3d\u002F)] \\\n28 Dec 2022\n\n**Exploring Vision Transformers as Diffusion Learners** \\\n*He Cao, Jianan Wang, Tianhe Ren, Xianbiao Qi, Yihao Chen, Yuan Yao, Lei Zhang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.13771)] \\\n28 Dec 2022\n\n**Tune-A-Video: One-Shot Tuning of Image Diffusion Models for Text-to-Video Generation** \\\n*Jay Zhangjie Wu, Yixiao Ge, Xintao Wang, Weixian Lei, Yuchao Gu, Wynne Hsu, Ying Shan, Xiaohu Qie, Mike Zheng Shou* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.11565)] [[Project](https:\u002F\u002Ftuneavideo.github.io\u002F)] \\\n22 Dec 2022\n\n**Contrastive Language-Vision AI Models Pretrained on Web-Scraped Multimodal Data Exhibit Sexual Objectification Bias** \\\n*Robert Wolfe, Yiwei Yang, Bill Howe, Aylin Caliskan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.11261)] \\\n21 Dec 2022\n\n**Optimizing Prompts for Text-to-Image Generation** \\\n*Yaru Hao, Zewen Chi, Li Dong, Furu Wei* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.09611)] [[Project](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fmicrosoft\u002FPromptist)] [[Github](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FLMOps\u002Ftree\u002Fmain\u002Fpromptist)] \\\n19 Dec 2022\n\n**Uncovering the Disentanglement Capability in Text-to-Image Diffusion Models** \\\n*Qiucheng Wu, Yujian Liu, Handong Zhao, Ajinkya Kale, Trung Bui, Tong Yu, Zhe Lin, Yang Zhang, Shiyu Chang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08698)] [[Github](https:\u002F\u002Fgithub.com\u002FUCSB-NLP-Chang\u002FDiffusionDisentanglement)] \\\n16 Dec 2022\n\n**TeTIm-Eval: a novel curated evaluation data set for comparing text-to-image models** \\\n*Federico A. Galatolo, Mario G. C. A. Cimino, Edoardo Cogotti* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.07839)] \\\n15 Dec 2022\n\n**The Infinite Index: Information Retrieval on Generative Text-To-Image Models** \\\n*Niklas Deckers, Maik Fröbe, Johannes Kiesel, Gianluca Pandolfo, Christopher Schröder, Benno Stein, Martin Potthast* \\\nCHIIR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.07476)] \\\n14 Dec 2022\n\n\n**LidarCLIP or: How I Learned to Talk to Point Clouds** \\\n*Georg Hess, Adam Tonderski, Christoffer Petersson, Lennart Svensson, Kalle Åström* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06858)] [[Github](https:\u002F\u002Fgithub.com\u002Fatonderski\u002Flidarclip)] \\\n13 Dec 2022\n\n**Imagen Editor and EditBench: Advancing and Evaluating Text-Guided Image Inpainting** \\\n*Su Wang, Chitwan Saharia, Ceslee Montgomery, Jordi Pont-Tuset, Shai Noy, Stefano Pellegrini, Yasumasa Onoe, Sarah Laszlo, David J. Fleet, Radu Soricut, Jason Baldridge, Mohammad Norouzi, Peter Anderson, William Chan* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06909)] \\\n13 Dec 2022\n\n**The Stable Artist: Steering Semantics in Diffusion Latent Space** \\\n*Manuel Brack, Patrick Schramowski, Felix Friedrich, Dominik Hintersdorf, Kristian Kersting* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06013)] \\\n12 Dec 2022\n\n**SmartBrush: Text and Shape Guided Object Inpainting with Diffusion Model** \\\n*Shaoan Xie, Zhifei Zhang, Zhe Lin, Tobias Hinz, Kun Zhang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05034)] \\\n9 Dec 2022\n\n**Training-Free Structured Diffusion Guidance for Compositional Text-to-Image Synthesis** \\\n*Weixi Feng, Xuehai He, Tsu-Jui Fu, Varun Jampani, Arjun Akula, Pradyumna Narayana, Sugato Basu, Xin Eric Wang, William Yang Wang* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05032)] [[Github](https:\u002F\u002Fgithub.com\u002Fweixi-feng\u002FStructured-Diffusion-Guidance)] \\\n9 Dec 2022\n\n**MoFusion: A Framework for Denoising-Diffusion-based Motion Synthesis** \\\n*Rishabh Dabral, Muhammad Hamza Mughal, Vladislav Golyanik, Christian Theobalt* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04495)] [[Project](https:\u002F\u002Fvcai.mpi-inf.mpg.de\u002Fprojects\u002FMoFusion\u002F)] \\\n8 Dec 2022\n\n\n**SDFusion: Multimodal 3D Shape Completion, Reconstruction, and Generation** \\\n*Yen-Chi Cheng, Hsin-Ying Lee, Sergey Tulyakov, Alexander Schwing, Liangyan Gui* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04493)] [[Project](https:\u002F\u002Fyccyenchicheng.github.io\u002FSDFusion\u002F)] \\\n8 Dec 2022\n\n\n**SINE: SINgle Image Editing with Text-to-Image Diffusion Models** \\\n*Zhixing Zhang, Ligong Han, Arnab Ghosh, Dimitris Metaxas, Jian Ren* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04489)] [[Project](https:\u002F\u002Fzhang-zx.github.io\u002FSINE\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fzhang-zx\u002FSINE)] \\\n8 Dec 2022\n\n**Multi-Concept Customization of Text-to-Image Diffusion** \\\n*Nupur Kumari, Bingliang Zhang, Richard Zhang, Eli Shechtman, Jun-Yan Zhu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04488)] [[Project](https:\u002F\u002Fwww.cs.cmu.edu\u002F~custom-diffusion\u002F)] \\\n8 Dec 2022\n\n\n**Diffusion Guided Domain Adaptation of Image Generators** \\\n*Kunpeng Song, Ligong Han, Bingchen Liu, Dimitris Metaxas, Ahmed Elgammal* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04473)] [[Project](https:\u002F\u002Fstyleganfusion.github.io\u002F)] \\\n8 Dec 2022\n\n**Executing your Commands via Motion Diffusion in Latent Space** \\\n*Xin Chen, Biao Jiang, Wen Liu, Zilong Huang, Bin Fu, Tao Chen, Jingyi Yu, Gang Yu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04048)] [[Project](https:\u002F\u002Fchenxin.tech\u002Fmld\u002F)] \\\n8 Dec 2022\n\n\n\n**Talking Head Generation with Probabilistic Audio-to-Visual Diffusion Priors** \\\n*Zhentao Yu, Zixin Yin, Deyu Zhou, Duomin Wang, Finn Wong, Baoyuan Wang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04248)] [[Project](https:\u002F\u002Fzxyin.github.io\u002FTH-PAD\u002F)] \\\n7 Dec 2022\n\n**Magic: Multi Art Genre Intelligent Choreography Dataset and Network for 3D Dance Generation** \\\n*Ronghui Li, Junfan Zhao, Yachao Zhang, Mingyang Su, Zeping Ren, Han Zhang, Xiu Li* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03741)] \\\n7 Dec 2022\n\n**Judge, Localize, and Edit: Ensuring Visual Commonsense Morality for Text-to-Image Generation** \\\n*Seongbeom Park, Suhong Moon, Jinkyu Kim* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03507)] \\\n7 Dec 2022\n\n\n**NeRDi: Single-View NeRF Synthesis with Language-Guided Diffusion as General Image Priors** \\\n*Congyue Deng, Chiyu \"Max'' Jiang, Charles R. Qi, Xinchen Yan, Yin Zhou, Leonidas Guibas, Dragomir Anguelov* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03267)] \\\n6 Dec 2022\n\n\n**Semantic-Conditional Diffusion Networks for Image Captioning** \\\n*Jianjie Luo, Yehao Li, Yingwei Pan, Ting Yao, Jianlin Feng, Hongyang Chao, Tao Mei* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03099)] [[Github](https:\u002F\u002Fgithub.com\u002FYehLi\u002Fxmodaler\u002Ftree\u002Fmaster\u002Fconfigs\u002Fimage_caption\u002Fscdnet)] \\\n6 Dec 2022\n\n**Diffusion-SDF: Text-to-Shape via Voxelized Diffusion** \\\n*Muheng Li, Yueqi Duan, Jie Zhou, Jiwen Lu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03293)] [[Project](https:\u002F\u002Fttlmh.github.io\u002FDiffusionSDF\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fttlmh\u002FDiffusion-SDF)] \\\n6 Dec 2022\n\n\n\n**ADIR: Adaptive Diffusion for Image Reconstruction** \\\n*Shady Abu-Hussein, Tom Tirer, Raja Giryes* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03221)] [[Project](https:\u002F\u002Fshadyabh.github.io\u002FADIR\u002F)] \\\n6 Dec 2022\n\n**M-VADER: A Model for Diffusion with Multimodal Context** \\\n*Samuel Weinbach, Marco Bellagente, Constantin Eichenberg, Andrew Dai, Robert Baldock, Souradeep Nanda, Björn Deiseroth, Koen Oostermeijer, Hannah Teufel, Andres Felipe Cruz-Salinas* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02936)] \\\n6 Dec 2022\n\n**Diffusion Video Autoencoders: Toward Temporally Consistent Face Video Editing via Disentangled Video Encoding** \\\n*Gyeongman Kim, Hajin Shim, Hyunsu Kim, Yunjey Choi, Junho Kim, Eunho Yang* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02802)] [[Project](https:\u002F\u002Fdiff-video-ae.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fman805\u002FDiffusion-Video-Autoencoders)] \\\n6 Dec 2022\n\n\n**Unite and Conquer: Cross Dataset Multimodal Synthesis using Diffusion Models** \\\n*Nithin Gopalakrishnan Nair, Wele Gedara Chaminda Bandara, Vishal M. Patel* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00793)] [[Project](https:\u002F\u002Fnithin-gk.github.io\u002Fprojectpages\u002FMultidiff\u002Findex.html)] \\\n1 Dec 2022\n\n**Shape-Guided Diffusion with Inside-Outside Attention** \\\n*Dong Huk Park, Grace Luo, Clayton Toste, Samaneh Azadi, Xihui Liu, Maka Karalashvili, Anna Rohrbach, Trevor Darrell* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00210)] [[Project](https:\u002F\u002Fshape-guided-diffusion.github.io\u002F)] \\\n1 Dec 2022\n\n\n**SinDDM: A Single Image Denoising Diffusion Model** \\\n*Vladimir Kulikov, Shahar Yadin, Matan Kleiner, Tomer Michaeli* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16582)] [[Project](https:\u002F\u002Fmatankleiner.github.io\u002Fsinddm\u002F)] \\\n29 Nov 2022\n\n**DATID-3D: Diversity-Preserved Domain Adaptation Using Text-to-Image Diffusion for 3D Generative Model** \\\n*Gwanghyun Kim, Se Young Chun* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16374)] [[Github](https:\u002F\u002Fdatid-3d.github.io\u002F)] \\\n29 Nov 2022\n\n\n**Refined Semantic Enhancement towards Frequency Diffusion for Video Captioning** \\\n*Xian Zhong, Zipeng Li, Shuqin Chen, Kui Jiang, Chen Chen, Mang Ye* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.15076)] [[Github](https:\u002F\u002Fgithub.com\u002Flzp870\u002FRSFD)] \\\n28 Nov 2022\n\n**Unified Discrete Diffusion for Simultaneous Vision-Language Generation** \\\n*Minghui Hu, Chuanxia Zheng, Heliang Zheng, Tat-Jen Cham, Chaoyue Wang, Zuopeng Yang, Dacheng Tao, Ponnuthurai N. Suganthan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.14842)] \\\n27 Nov 2022\n\n\n**3DDesigner: Towards Photorealistic 3D Object Generation and Editing with Text-guided Diffusion Models** \\\n*Gang Li, Heliang Zheng, Chaoyue Wang, Chang Li, Changwen Zheng, Dacheng Tao* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.14108)] \\\n25 Nov 2022\n\n\n**SpaText: Spatio-Textual Representation for Controllable Image Generation** \\\n*Omri Avrahami, Thomas Hayes, Oran Gafni, Sonal Gupta, Yaniv Taigman, Devi Parikh, Dani Lischinski, Ohad Fried, Xi Yin* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.14305)] [[Project](https:\u002F\u002Fomriavrahami.com\u002Fspatext\u002F)] \\\n25 Nov 2022\n\n**Sketch-Guided Text-to-Image Diffusion Models** \\\n*Andrey Voynov, Kfir Aberman, Daniel Cohen-Or* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13752)] [[Project](https:\u002F\u002Fsketch-guided-diffusion.github.io\u002F)] \\\n24 Nov 2022\n\n**Shifted Diffusion for Text-to-image Generation** \\\n*Yufan Zhou, Bingchen Liu, Yizhe Zhu, Xiao Yang, Changyou Chen, Jinhui Xu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.15388)] \\\n24 Nov 2022\n\n\n**Make-A-Story: Visual Memory Conditioned Consistent Story Generation** \\\n*Tanzila Rahman, Hsin-Ying Lee, Jian Ren, Sergey Tulyakov, Shweta Mahajan, Leonid Sigal* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13319)] \\\n23 Nov 2022\n\n\n\n**Schrödinger's Bat: Diffusion Models Sometimes Generate Polysemous Words in Superposition** \\\n*Jennifer C. White, Ryan Cotterell* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13095)] \\\n23 Nov 2022\n\n**EDICT: Exact Diffusion Inversion via Coupled Transformations** \\\n*Bram Wallace, Akash Gokul, Nikhil Naik* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12446)] [[Github](https:\u002F\u002Fgithub.com\u002Fsalesforce\u002FEDICT)] \\\n22 Nov 2022\n\n\n**Plug-and-Play Diffusion Features for Text-Driven Image-to-Image Translation** \\\n*Narek Tumanyan, Michal Geyer, Shai Bagon, Tali Dekel* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12572)] [[Github](https:\u002F\u002Fgithub.com\u002FMichalGeyer\u002Fplug-and-play)] \\\n22 Nov 2022\n\n**Human Evaluation of Text-to-Image Models on a Multi-Task Benchmark** \\\n*Vitali Petsiuk, Alexander E. Siemenn, Saisamrit Surbehera, Zad Chin, Keith Tyser, Gregory Hunter, Arvind Raghavan, Yann Hicke, Bryan A. Plummer, Ori Kerret, Tonio Buonassisi, Kate Saenko, Armando Solar-Lezama, Iddo Drori* \\\nNeurIPS Workshop 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12112)] \\\n22 Nov 2022\n\n**SinDiffusion: Learning a Diffusion Model from a Single Natural Image** \\\n*Weilun Wang, Jianmin Bao, Wengang Zhou, Dongdong Chen, Dong Chen, Lu Yuan, Houqiang Li* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12445)] [[Github](https:\u002F\u002Fgithub.com\u002FWeilunWang\u002FSinDiffusion)] \\\n22 Nov 2022\n\n**SinFusion: Training Diffusion Models on a Single Image or Video** \\\n*Yaniv Nikankin, Niv Haim, Michal Irani* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11743)] [[Github](https:\u002F\u002Fyanivnik.github.io\u002Fsinfusion\u002F)] \\\n21 Nov 2022\n\n**Exploring Discrete Diffusion Models for Image Captioning** \\\n*Zixin Zhu, Yixuan Wei, Jianfeng Wang, Zhe Gan, Zheng Zhang, Le Wang, Gang Hua, Lijuan Wang, Zicheng Liu, Han Hu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11694)] [[Github](https:\u002F\u002Fgithub.com\u002Fbuxiangzhiren\u002FDDCap)] \\\n21 Nov 2022\n\n**Investigating Prompt Engineering in Diffusion Models** \\\n*Sam Witteveen, Martin Andrews* \\\nNeurIPS Workshop 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.15462)] \\\n21 Nov 2022\n\n**VectorFusion: Text-to-SVG by Abstracting Pixel-Based Diffusion Models** \\\n*Ajay Jain, Amber Xie, Pieter Abbeel* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11319)] [[Project](https:\u002F\u002Fajayj.com\u002Fvectorfusion)] \\\n21 Nov 2022\n\n\n\n**Synthesizing Coherent Story with Auto-Regressive Latent Diffusion Models** \\\n*Xichen Pan, Pengda Qin, Yuhong Li, Hui Xue, Wenhu Chen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10950)] [[Github](https:\u002F\u002Fgithub.com\u002Fxichenpan\u002FARLDM)] \\\n20 Nov 2022\n\n**DiffStyler: Controllable Dual Diffusion for Text-Driven Image Stylization** \\\n*Nisha Huang, Yuxin Zhang, Fan Tang, Chongyang Ma, Haibin Huang, Yong Zhang, Weiming Dong, Changsheng Xu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10682)] \\\n19 Nov 2022\n\n**Magic3D: High-Resolution Text-to-3D Content Creation** \\\n*Chen-Hsuan Lin, Jun Gao, Luming Tang, Towaki Takikawa, Xiaohui Zeng, Xun Huang, Karsten Kreis, Sanja Fidler, Ming-Yu Liu, Tsung-Yi Lin* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10440)] [[Project](https:\u002F\u002Fdeepimagination.cc\u002FMagic3D\u002F)] \\\n18 Nov 2022\n\n**Invariant Learning via Diffusion Dreamed Distribution Shifts** \\\n*Priyatham Kattakinda, Alexander Levine, Soheil Feizi* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10370)] \\\n18 Nov 2022\n\n**Null-text Inversion for Editing Real Images using Guided Diffusion Models**\\\n*Ron Mokady, Amir Hertz, Kfir Aberman, Yael Pritch, Daniel Cohen-Or* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09794)] \\\n17 Nov 2022\n\n**InstructPix2Pix: Learning to Follow Image Editing Instructions** \\\n*Tim Brooks, Aleksander Holynski, Alexei A. Efros* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09800)] [[Project](https:\u002F\u002Fwww.timothybrooks.com\u002Finstruct-pix2pix)] [[Github](https:\u002F\u002Fgithub.com\u002Ftimothybrooks\u002Finstruct-pix2pix)] \\\n17 Nov 2022\n\n\n**Versatile Diffusion: Text, Images and Variations All in One Diffusion Model** \\\n*Xingqian Xu, Zhangyang Wang, Eric Zhang, Kai Wang, Humphrey Shi* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.08332)] [[Github](https:\u002F\u002Fgithub.com\u002FSHI-Labs\u002FVersatile-Diffusion)] \\\n15 Nov 2022\n\n**Direct Inversion: Optimization-Free Text-Driven Real Image Editing with Diffusion Models** \\\n*Adham Elarabawy, Harish Kamath, Samuel Denton* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.07825)] \\\n15 Nov 2022\n\n\n**Arbitrary Style Guidance for Enhanced Diffusion-Based Text-to-Image Generation** \\\n*Zhihong Pan, Xin Zhou, Hao Tian* \\\nWACV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.07751)] \\\n14 Nov 2022\n\n\n**Safe Latent Diffusion: Mitigating Inappropriate Degeneration in Diffusion Models** \\\n*Patrick Schramowski, Manuel Brack, Björn Deiseroth, Kristian Kersting* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.05105)] [[Github](https:\u002F\u002Fgithub.com\u002Fml-research\u002Fsafe-latent-diffusion)] \\\n9 Nov 2022\n\n**Rickrolling the Artist: Injecting Invisible Backdoors into Text-Guided Image Generation Models** \\\n*Lukas Struppek, Dominik Hintersdorf, Kristian Kersting* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.02408)] [[Github](https:\u002F\u002Fgithub.com\u002FLukasStruppek\u002FRickrolling-the-Artist)] \\\n4 Nov 2022\n\n**eDiffi: Text-to-Image Diffusion Models with an Ensemble of Expert Denoisers** \\\n*Yogesh Balaji, Seungjun Nah, Xun Huang, Arash Vahdat, Jiaming Song, Karsten Kreis, Miika Aittala, Timo Aila, Samuli Laine, Bryan Catanzaro, Tero Karras, Ming-Yu Liu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01324)] [[Github](https:\u002F\u002Fdeepimagination.cc\u002FeDiffi\u002F)] \\\n2 Nov 2022\n\n\n**MagicMix: Semantic Mixing with Diffusion Models** \\\n*Jun Hao Liew, Hanshu Yan, Daquan Zhou, Jiashi Feng* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.16056)] [[Project](https:\u002F\u002Fmagicmix.github.io\u002F)] \\\n28 Oct 2022\n\n**UPainting: Unified Text-to-Image Diffusion Generation with Cross-modal Guidance** \\\n*Wei Li, Xue Xu, Xinyan Xiao, Jiachen Liu, Hu Yang, Guohao Li, Zhanpeng Wang, Zhifan Feng, Qiaoqiao She, Yajuan Lyu, Hua Wu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.16031)] \\\n28 Oct 2022\n\n**How well can Text-to-Image Generative Models understand Ethical Natural Language Interventions?** \\\n*Hritik Bansal, Da Yin, Masoud Monajatipoor, Kai-Wei Chang* \\\nEMNLP 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.15230)] [[Github](https:\u002F\u002Fgithub.com\u002FHritikbansal\u002Fentigen_emnlp)] \\\n27 Oct 2022\n\n**ERNIE-ViLG 2.0: Improving Text-to-Image Diffusion Model with Knowledge-Enhanced Mixture-of-Denoising-Experts** \\\n*Zhida Feng, Zhenyu Zhang, Xintong Yu, Yewei Fang, Lanxin Li, Xuyi Chen, Yuxiang Lu, Jiaxiang Liu, Weichong Yin, Shikun Feng, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.15257)] \\\n27 Oct 2022\n\n**DiffusionDB: A Large-scale Prompt Gallery Dataset for Text-to-Image Generative Models** \\\n*Zijie J. Wang, Evan Montoya, David Munechika, Haoyang Yang, Benjamin Hoover, Duen Horng Chau* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.14896)] [[Project](https:\u002F\u002Fpoloclub.github.io\u002Fdiffusiondb\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fpoloclub\u002Fdiffusiondb)] \\\n26 Oct 2022\n\n**Lafite2: Few-shot Text-to-Image Generation** \\\n*Yufan Zhou, Chunyuan Li, Changyou Chen, Jianfeng Gao, Jinhui Xu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.14124)] \\\n25 Oct 2022\n\n**High-Resolution Image Editing via Multi-Stage Blended Diffusion** \\\n*Johannes Ackermann, Minjun Li* \\\nNeurIPS Workshop 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12965)] [[Github](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fmulti-stage-blended-diffusion)] \\\n24 Oct 2022\n\n**Conditional Diffusion with Less Explicit Guidance via Model Predictive Control** \\\n*Max W. Shen, Ehsan Hajiramezanali, Gabriele Scalia, Alex Tseng, Nathaniel Diamant, Tommaso Biancalani, Andreas Loukas* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12192)] \\\n21 Oct 2022\n\n**A Visual Tour Of Current Challenges In Multimodal Language Models** \\\n*Shashank Sonkar, Naiming Liu, Richard G. Baraniuk* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12565)] \\\n22 Oct 2022\n\n**DiffEdit: Diffusion-based semantic image editing with mask guidance** \\\n*Guillaume Couairon, Jakob Verbeek, Holger Schwenk, Matthieu Cord* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.11427)] \\\n20 Oct 2022\n\n**Diffusion Models already have a Semantic Latent Space** \\\n*Mingi Kwon, Jaeseok Jeong, Youngjung Uh* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.10960)] [[Project](https:\u002F\u002Fkwonminki.github.io\u002FAsyrp\u002F)] \\\n20 Oct 2022\n\n\n**UniTune: Text-Driven Image Editing by Fine Tuning an Image Generation Model on a Single Image** \\\n*Dani Valevski, Matan Kalman, Yossi Matias, Yaniv Leviathan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.09477)] \\\n18 Oct 2022\n\n**Swinv2-Imagen: Hierarchical Vision Transformer Diffusion Models for Text-to-Image Generation** \\\n*Ruijun Li, Weihua Li, Yi Yang, Hanyu Wei, Jianhua Jiang, Quan Bai* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.09549)] \\\n18 Oct 2022\n\n**Imagic: Text-Based Real Image Editing with Diffusion Models** \\\n*Bahjat Kawar, Shiran Zada, Oran Lang, Omer Tov, Huiwen Chang, Tali Dekel, Inbar Mosseri, Michal Irani* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.09276)] [[Project](https:\u002F\u002Fimagic-editing.github.io\u002F)] \\\n17 Oct 2022\n\n**Leveraging Off-the-shelf Diffusion Model for Multi-attribute Fashion Image Manipulation** \\\n*Chaerin Kong, DongHyeon Jeon, Ohjoon Kwon, Nojun Kwak* \\\nWACV 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05872)] \\\n12 Oct 2022\n\n**Unifying Diffusion Models' Latent Space, with Applications to CycleDiffusion and Guidance** \\\n*Chen Henry Wu, Fernando De la Torre* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05559)] [[Github-1](https:\u002F\u002Fgithub.com\u002FChenWu98\u002Fcycle-diffusion)] [[Github-2](https:\u002F\u002Fgithub.com\u002FChenWu98\u002Funified-generative-zoo)] \\\n11 Oct 2022\n\n**Imagen Video: High Definition Video Generation with Diffusion Models** \\\n*Jonathan Ho, William Chan, Chitwan Saharia, Jay Whang, Ruiqi Gao, Alexey Gritsenko, Diederik P. Kingma, Ben Poole, Mohammad Norouzi, David J. Fleet, Tim Salimans* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02303)] \\\n5 Oct 2022\n\n\n**DALL-E-Bot: Introducing Web-Scale Diffusion Models to Robotics** \\\n*Ivan Kapelyukh, Vitalis Vosylius, Edward Johns* \\\nIEEE RA-L 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02438)] \\\n5 Oct 2022\n\n\n**LDEdit: Towards Generalized Text Guided Image Manipulation via Latent Diffusion Models** \\\n*Paramanand Chandramouli, Kanchana Vaishnavi Gandikota* \\\nBMVC 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02249)] \\\n5 Oct 2022\n\n**clip2latent: Text driven sampling of a pre-trained StyleGAN using denoising diffusion and CLIP** \\\n*Justin N. M. Pinkney, Chuan Li* \\\nBMVC 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02347)] [[Github](https:\u002F\u002Fgithub.com\u002Fjustinpinkney\u002Fclip2latent)] \\\n5 Oct 2022\n\n**Membership Inference Attacks Against Text-to-image Generation Models** \\\n*Yixin Wu, Ning Yu, Zheng Li, Michael Backes, Yang Zhang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.00968)] \\\n3 Oct 2022\n\n**Make-A-Video: Text-to-Video Generation without Text-Video Data** \\\n*Uriel Singer, Adam Polyak, Thomas Hayes, Xi Yin, Jie An, Songyang Zhang, Qiyuan Hu, Harry Yang, Oron Ashual, Oran Gafni, Devi Parikh, Sonal Gupta, Yaniv Taigman* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14792)] \\\n29 Sep 2022\n\n**DreamFusion: Text-to-3D using 2D Diffusion** \\\n*Ben Poole, Ajay Jain, Jonathan T. Barron, Ben Mildenhall* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14988)] [[Github](https:\u002F\u002Fdreamfusion3d.github.io\u002F)] \\\n29 Sep 2022\n\n**Re-Imagen: Retrieval-Augmented Text-to-Image Generator** \\\n*Wenhu Chen, Hexiang Hu, Chitwan Saharia, William W. Cohen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14491)] \\\n29 Sep 2022\n\n**Creative Painting with Latent Diffusion Models** \\\n*Xianchao Wu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14697)] \\\n29 Sep 2022\n\n**Draw Your Art Dream: Diverse Digital Art Synthesis with Multimodal Guided Diffusion** \\\n*Nisha Huang, Fan Tang, Weiming Dong, Changsheng Xu* \\\nACM MM 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.13360)] [[Github](https:\u002F\u002Fgithub.com\u002Fhaha-lisa\u002FMGAD-multimodal-guided-artwork-diffusion)] \\\n27 Sep 2022\n\n**Personalizing Text-to-Image Generation via Aesthetic Gradients** \\\n*Victor Gallego* \\\nNeurIPS Workshop 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.12330)] [[Github](https:\u002F\u002Fgithub.com\u002Fvicgalle\u002Fstable-diffusion-aesthetic-gradients)] \\\n25 Sep 2022\n\n**Best Prompts for Text-to-Image Models and How to Find Them** \\\n*Nikita Pavlichenko, Dmitry Ustalov* \\\nNeurIPS Workshop 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.11711)] \\\n23 Sep 2022\n\n**The Biased Artist: Exploiting Cultural Biases via Homoglyphs in Text-Guided Image Generation Models** \\\n*Lukas Struppek, Dominik Hintersdorf, Kristian Kersting* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.08891)]  [[Github](https:\u002F\u002Fgithub.com\u002FLukasStruppek\u002FThe-Biased-Artist)] \\\n19 Sep 2022\n\n**Generative Visual Prompt: Unifying Distributional Control of Pre-Trained Generative Models** \\\n*Chen Henry Wu, Saman Motamed, Shaunak Srivastava, Fernando De la Torre* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.06970)] [[Github](https:\u002F\u002Fgithub.com\u002FChenWu98\u002FGenerative-Visual-Prompt)] \\\n14 Sep 2022\n\n\n\n**ISS: Image as Stepping Stone for Text-Guided 3D Shape Generation** \\\n*Zhengzhe Liu, Peng Dai, Ruihui Li, Xiaojuan Qi, Chi-Wing Fu* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04145)] [[Github](https:\u002F\u002Fgithub.com\u002Fliuzhengzhe\u002FISS-Image-as-Stepping-Stone-for-Text-Guided-3D-Shape-Generation)] \\\n9 Sep 2022\n\n**DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation** \\\n*Nataniel Ruiz, Yuanzhen Li, Varun Jampani, Yael Pritch, Michael Rubinstein, Kfir Aberman* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.12242)] [[Project](https:\u002F\u002Fdreambooth.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FVictarry\u002Fstable-dreambooth)] \\\n25 Aug 2022\n\n\n**Text-Guided Synthesis of Artistic Images with Retrieval-Augmented Diffusion Models** \\\n*Robin Rombach, Andreas Blattmann, Björn Ommer* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.13038)] [[Github](https:\u002F\u002Fgithub.com\u002FCompVis\u002Flatent-diffusion)] \\\n26 Jul 2022\n\n**Discrete Contrastive Diffusion for Cross-Modal and Conditional Generation** \\\n*Ye Zhu, Yu Wu, Kyle Olszewski, Jian Ren, Sergey Tulyakov, Yan Yan* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07771)] [[Github](https:\u002F\u002Fgithub.com\u002FL-YeZhu\u002FCDCD)] \\\n15 Jun 2022\n\n**Blended Latent Diffusion** \\\n*Omri Avrahami, Ohad Fried, Dani Lischinski* \\\nACM 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.02779)] [[Project](https:\u002F\u002Fomriavrahami.com\u002Fblended-latent-diffusion-page\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fomriav\u002Fblended-latent-diffusion)] \\\n6 Jun 2022\n\n**Compositional Visual Generation with Composable Diffusion Models** \\\n*Nan Liu, Shuang Li, Yilun Du, Antonio Torralba, Joshua B. Tenenbaum* \\\nECCV 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.01714)] [[Project](https:\u002F\u002Fenergy-based-model.github.io\u002FCompositional-Visual-Generation-with-Composable-Diffusion-Models\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fenergy-based-model\u002FCompositional-Visual-Generation-with-Composable-Diffusion-Models-PyTorch)] \\\n3 Jun 2022\n\n**DiVAE: Photorealistic Images Synthesis with Denoising Diffusion Decoder** \\\n*Jie Shi, Chenfei Wu, Jian Liang, Xiang Liu, Nan Duan* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00386)] \\\n1 Jun 2022\n\n\n**Improved Vector Quantized Diffusion Models** \\\n*Zhicong Tang, Shuyang Gu, Jianmin Bao, Dong Chen, Fang Wen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.16007)] [[Github](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FVQ-Diffusion)] \\\n31 May 2022\n\n**Text2Human: Text-Driven Controllable Human Image Generation** \\\n*Yuming Jiang, Shuai Yang, Haonan Qiu, Wayne Wu, Chen Change Loy, Ziwei Liu* \\\nACM 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.15996)] [[Github](https:\u002F\u002Fgithub.com\u002Fyumingj\u002FText2Human)] \\\n31 May 2022\n\n**Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding** \\\n*Chitwan Saharia, William Chan, Saurabh Saxena, Lala Li, Jay Whang, Emily Denton, Seyed Kamyar Seyed Ghasemipour, Burcu Karagol Ayan, S. Sara Mahdavi, Rapha Gontijo Lopes, Tim Salimans, Jonathan Ho, David J Fleet, Mohammad Norouzi* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.11487)] [[Github](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fimagen-pytorch)]  \\\n23 May 2022\n\n\n**Retrieval-Augmented Diffusion Models** \\\n*Andreas Blattmann, Robin Rombach, Kaan Oktay, Björn Ommer* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.11824)] [[Github](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fretrieval-augmented-ddpm)] \\\n25 Apr 2022\n\n\n**Hierarchical Text-Conditional Image Generation with CLIP Latents** \\\n*Aditya Ramesh, Prafulla Dhariwal, Alex Nichol, Casey Chu, Mark Chen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.06125)] [[Github](https:\u002F\u002Fgithub.com\u002Flucidrains\u002FDALLE2-pytorch)] \\\n13 Apr 2022\n\n\n**KNN-Diffusion: Image Generation via Large-Scale Retrieval** \\\n*Oron Ashual, Shelly Sheynin, Adam Polyak, Uriel Singer, Oran Gafni, Eliya Nachmani, Yaniv Taigman* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.02849)] \\\n6 Apr 2022\n\n**High-Resolution Image Synthesis with Latent Diffusion Models** \\\n*Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, Björn Ommer* \\\nCVPR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.10752)] [[Github](https:\u002F\u002Fgithub.com\u002FCompVis\u002Flatent-diffusion)] \\\n20 Dec 2021\n\n\n**More Control for Free! Image Synthesis with Semantic Diffusion Guidance** \\\n*Xihui Liu, Dong Huk Park, Samaneh Azadi, Gong Zhang, Arman Chopikyan, Yuxiao Hu, Humphrey Shi, Anna Rohrbach, Trevor Darrell* \\\nWACV 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.05744)] [[Project](https:\u002F\u002Fxh-liu.github.io\u002Fsdg\u002F)] \\\n10 Dec 2021\n\n**Vector Quantized Diffusion Model for Text-to-Image Synthesis** \\\n*Shuyang Gu, Dong Chen, Jianmin Bao, Fang Wen, Bo Zhang, Dongdong Chen, Lu Yuan, Baining Guo* \\\nCVPR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.14822)] [[Github](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FVQ-Diffusion)] \\\n29 Nov 2021\n\n**Blended Diffusion for Text-driven Editing of Natural Images** \\\n*Omri Avrahami, Dani Lischinski, Ohad Fried* \\\nCVPR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.14818)] [[Project](https:\u002F\u002Fomriavrahami.com\u002Fblended-diffusion-page\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fomriav\u002Fblended-diffusion)] \\\n29 Nov 2021\n\n**Tackling the Generative Learning Trilemma with Denoising Diffusion GANs** \\\n*Zhisheng Xiao, Karsten Kreis, Arash Vahdat* \\\nICLR 2022 (Spotlight). [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.07804)] [[Project](https:\u002F\u002Fnvlabs.github.io\u002Fdenoising-diffusion-gan)] \\\n15 Dec 2021\n\n**DiffusionCLIP: Text-guided Image Manipulation Using Diffusion Models** \\\n*Gwanghyun Kim, Jong Chul Ye* \\\nCVPR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.02711)] [[Github](https:\u002F\u002Fgithub.com\u002Fgwang-kim\u002FDiffusionCLIP)] \\\n6 Oct 2021\n\n\n### 3D Vision\n\n**Text-to-3D with Classifier Score Distillation** \\\n*Xin Yu, Yuan-Chen Guo, Yangguang Li, Ding Liang, Song-Hai Zhang, Xiaojuan Qi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19415)] \\\n30 Oct 2023\n\n**Controllable Group Choreography using Contrastive Diffusion** \\\n*Nhat Le, Tuong Do, Khoa Do, Hien Nguyen, Erman Tjiputra, Quang D. Tran, Anh Nguyen* \\\nACM ToG 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18986)] \\\n29 Oct 2023\n\n**SE(3) Diffusion Model-based Point Cloud Registration for Robust 6D Object Pose Estimation** \\\n*Haobo Jiang, Mathieu Salzmann, Zheng Dang, Jin Xie, Jian Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17359)] \\\n26 Oct 2023\n\n**6-DoF Stability Field via Diffusion Models** \\\n*Takuma Yoneda, Tianchong Jiang, Gregory Shakhnarovich, Matthew R. Walter* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17649)] \\\n26 Oct 2023\n\n\n**DreamCraft3D: Hierarchical 3D Generation with Bootstrapped Diffusion Prior** \\\n*Jingxiang Sun, Bo Zhang, Ruizhi Shao, Lizhen Wang, Wen Liu, Zhenda Xie, Yebin Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16818)] \\\n25 Oct 2023\n\n\n**DiffRef3D: A Diffusion-based Proposal Refinement Framework for 3D Object Detection** \\\n*Se-Ho Kim, Inyong Koo, Inyoung Lee, Byeongjun Park, Changick Kim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16349)] \\\n25 Oct 2023\n\n**iNVS: Repurposing Diffusion Inpainters for Novel View Synthesis** \\\n*Yash Kant, Aliaksandr Siarohin, Michael Vasilkovsky, Riza Alp Guler, Jian Ren, Sergey Tulyakov, Igor Gilitschenski* \\\nSIGGRAPH ASIA 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16167)] [[Project](https:\u002F\u002Fyashkant.github.io\u002Finvs\u002F)] \\\n24 Oct 2023\n\n**Wonder3D: Single Image to 3D using Cross-Domain Diffusion** \\\n*Xiaoxiao Long, Yuan-Chen Guo, Cheng Lin, Yuan Liu, Zhiyang Dou, Lingjie Liu, Yuexin Ma, Song-Hai Zhang, Marc Habermann, Christian Theobalt, Wenping Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15008)] \\\n23 Oct 2023\n\n**MAS: Multi-view Ancestral Sampling for 3D motion generation using 2D diffusion** \\\n*Roy Kapon, Guy Tevet, Daniel Cohen-Or, Amit H. Bermano* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14729)] \\\n23 Oct 2023\n\n**High-Quality 3D Face Reconstruction with Affine Convolutional Networks** \\\n*Zhiqian Lin, Jiangke Lin, Lincheng Li, Yi Yuan, Zhengxia Zou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14237)] \\\n22 Oct 2023\n\n**TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion Models** \\\n*Tianshi Cao, Karsten Kreis, Sanja Fidler, Nicholas Sharp, Kangxue Yin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13772)] \\\n20 Oct 2023\n\n**Conditional Generative Modeling for Images, 3D Animations, and Video** \\\n*Vikram Voleti* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13157)] \\\n19 Oct 2023\n\n**TapMo: Shape-aware Motion Generation of Skeleton-free Characters** \\\n*Jiaxu Zhang, Shaoli Huang, Zhigang Tu, Xin Chen, Xiaohang Zhan, Gang Yu, Ying Shan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12678)] \\\n19 Oct 2023\n\n\n**Enhancing High-Resolution 3D Generation through Pixel-wise Gradient Clipping** \\\n*Zijie Pan, Jiachen Lu, Xiatian Zhu, Li Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12474)] \\\n19 Oct 2023\n\n**Progressive3D: Progressively Local Editing for Text-to-3D Content Creation with Complex Semantic Prompts** \\\n*Xinhua Cheng, Tianyu Yang, Jianan Wang, Yu Li, Lei Zhang, Jian Zhang, Li Yuan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11784)] \\\n18 Oct 2023\n\n**3D Structure-guided Network for Tooth Alignment in 2D Photograph** \\\n*Yulong Dou, Lanzhuju Mei, Dinggang Shen, Zhiming Cui* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11106)] \\\n17 Oct 2023\n\n**DynVideo-E: Harnessing Dynamic NeRF for Large-Scale Motion- and View-Change Human-Centric Video Editing** \\\n*Jia-Wei Liu, Yan-Pei Cao, Jay Zhangjie Wu, Weijia Mao, Yuchao Gu, Rui Zhao, Jussi Keppo, Ying Shan, Mike Zheng Shou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10624)] \\\n16 Oct 2023\n\n**ConsistNet: Enforcing 3D Consistency for Multi-view Images Diffusion** \\\n*Jiayu Yang, Ziang Cheng, Yunfei Duan, Pan Ji, Hongdong Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10343)] \\\n16 Oct 2023\n\n**PaintHuman: Towards High-fidelity Text-to-3D Human Texturing via Denoised Score Distillation** \\\n*Jianhui Yu, Hao Zhu, Liming Jiang, Chen Change Loy, Weidong Cai, Wayne Wu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09458)] \\\n14 Oct 2023\n\n**OmniControl: Control Any Joint at Any Time for Human Motion Generation** \\\n*Yiming Xie, Varun Jampani, Lei Zhong, Deqing Sun, Huaizu Jiang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08580)] [[Project](https:\u002F\u002Fneu-vi.github.io\u002Fomnicontrol\u002F)] \\\n12 Oct 2023\n\n**Consistent123: Improve Consistency for One Image to 3D Object Synthesis** \\\n*Haohan Weng, Tianyu Yang, Jianan Wang, Yu Li, Tong Zhang, C. L. Philip Chen, Lei Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08092)] [[Project](https:\u002F\u002Fconsistent-123.github.io\u002F)] \\\n12 Oct 2023\n\n**What Does Stable Diffusion Know about the 3D Scene?** \\\n*Guanqi Zhan, Chuanxia Zheng, Weidi Xie, Andrew Zisserman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06836)] \\\n10 Oct 2023\n\n**HiFi-123: Towards High-fidelity One Image to 3D Content Generation** \\\n*Wangbo Yu, Li Yuan, Yan-Pei Cao, Xiangjun Gao, Xiaoyu Li, Long Quan, Ying Shan, Yonghong Tian* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06744)] \\\n10 Oct 2023\n\n**IPDreamer: Appearance-Controllable 3D Object Generation with Image Prompts** \\\n*Bohan Zeng, Shanglin Li, Yutang Feng, Hong Li, Sicheng Gao, Jiaming Liu, Huaxia Li, Xu Tang, Jianzhuang Liu, Baochang Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05375)] \\\n9 Oct 2023\n\n**DragD3D: Vertex-based Editing for Realistic Mesh Deformations using 2D Diffusion Priors** \\\n*Tianhao Xie, Eugene Belilovsky, Sudhir Mudur, Tiberiu Popa* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04561)] \\\n6 Oct 2023\n\n**Ctrl-Room: Controllable Text-to-3D Room Meshes Generation with Layout Constraints** \\\n*Chuan Fang, Xiaotao Hu, Kunming Luo, Ping Tan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03602)] \\\n5 Oct 2023\n\n**FreeReg: Image-to-Point Cloud Registration Leveraging Pretrained Diffusion Models and Monocular Depth Estimators** \\\n*Haiping Wang, Yuan Liu, Bing Wang, Yujing Sun, Zhen Dong, Wenping Wang, Bisheng Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03420)] \\\n5 Oct 2023\n\n**Consistent-1-to-3: Consistent Image to 3D View Synthesis via Geometry-aware Diffusion Models** \\\n*Jianglong Ye, Peng Wang, Kejie Li, Yichun Shi, Heng Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03020)] [[Project](https:\u002F\u002Fjianglongye.com\u002Fconsistent123\u002F)] \\\n4 Oct 2023\n\n\n**Efficient-3DiM: Learning a Generalizable Single-image Novel-view Synthesizer in One Day** \\\n*Yifan Jiang, Hao Tang, Jen-Hao Rick Chang, Liangchen Song, Zhangyang Wang, Liangliang Cao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03015)] \\\n4 Oct 2023\n\n\n**T$^3$Bench: Benchmarking Current Progress in Text-to-3D Generation** \\\n*Yuze He, Yushi Bai, Matthieu Lin, Wang Zhao, Yubin Hu, Jenny Sheng, Ran Yi, Juanzi Li, Yong-Jin Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02977)] [[Project](https:\u002F\u002Ft3bench.com\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FTHU-LYJ-Lab\u002FT3Bench)] \\\n4 Oct 2023\n\n\n**ED-NeRF: Efficient Text-Guided Editing of 3D Scene using Latent Space NeRF** \\\n*Jangho Park, Gihyun Kwon, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02712)] \\\n4 Oct 2023\n\n**MagicDrive: Street View Generation with Diverse 3D Geometry Control** \\\n*Ruiyuan Gao, Kai Chen, Enze Xie, Lanqing Hong, Zhenguo Li, Dit-Yan Yeung, Qiang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02601)] [[Project](https:\u002F\u002Fgaoruiyuan.com\u002Fmagicdrive\u002F)] \\\n4 Oct 2023\n\n\n**SweetDreamer: Aligning Geometric Priors in 2D Diffusion for Consistent Text-to-3D** \\\n*Weiyu Li, Rui Chen, Xuelin Chen, Ping Tan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02596)] [[Project](https:\u002F\u002Fsweetdreamer3d.github.io\u002F)] \\\n4 Oct 2023\n\n**Hierarchical Generation of Human-Object Interactions with Diffusion Probabilistic Models** \\\n*Huaijin Pi, Sida Peng, Minghui Yang, Xiaowei Zhou, Hujun Bao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02242)] [[Project](https:\u002F\u002Fzju3dv.github.io\u002Fhghoi\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fzju3dv\u002Fhghoi)] \\\n3 Oct 2023\n\n\n**HumanNorm: Learning Normal Diffusion Model for High-quality and Realistic 3D Human Generation** \\\n*Xin Huang, Ruizhi Shao, Qi Zhang, Hongwen Zhang, Ying Feng, Yebin Liu, Qing Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01406)] [[Project](https:\u002F\u002Fhumannorm.github.io\u002F)] \\\n2 Oct 2023\n\n**Diffusion Posterior Illumination for Ambiguity-aware Inverse Rendering** \\\n*Linjie Lyu, Ayush Tewari, Marc Habermann, Shunsuke Saito, Michael Zollhöfer, Thomas Leimkühler, Christian Theobalt* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00362)] \\\n30 Sep 2023\n\n**EPiC-ly Fast Particle Cloud Generation with Flow-Matching and Diffusion** \\\n*Erik Buhmann, Cedric Ewen, Darius A. Faroughy, Tobias Golling, Gregor Kasieczka, Matthew Leigh, Guillaume Quétant, John Andrew Raine, Debajyoti Sengupta, David Shih* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00049)] \\\n29 Sep 2023\n\n**Consistent123: One Image to Highly Consistent 3D Asset Using Case-Aware Diffusion Priors** \\\n*Yukang Lin, Haonan Han, Chaoqun Gong, Zunnan Xu, Yachao Zhang, Xiu Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.17261)] \\\n29 Sep 2023\n\n**Object Motion Guided Human Motion Synthesis** \\\n*Jiaman Li, Jiajun Wu, C. Karen Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16237)] \\\n28 Sep 2023\n\n**ITEM3D: Illumination-Aware Directional Texture Editing for 3D Models** \\\n*Shengqi Liu, Zhuo Chen, Jingnan Gao, Yichao Yan, Wenhan Zhu, Xiaobo Li, Ke Gao, Jiangjing Lyu, Xiaokang Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14872)] \\\n26 Sep 2023\n\n\n\n\n**Light Field Diffusion for Single-View Novel View Synthesis** \\\n*Yifeng Xiong, Haoyu Ma, Shanlin Sun, Kun Han, Xiaohui Xie* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11525)] \\\n20 Sep 2023\n\n**Latent Diffusion Models for Structural Component Design** \\\n*Ethan Herron, Jaydeep Rade, Anushrut Jignasu, Baskar Ganapathysubramanian, Aditya Balu, Soumik Sarkar, Adarsh Krishnamurthy* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11601)] \\\n20 Sep 2023\n\n**FaceDiffuser: Speech-Driven 3D Facial Animation Synthesis Using Diffusion** \\\n*Stefan Stan, Kazi Injamamul Haque, Zerrin Yumak* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11306)] \\\n20 Sep 2023\n\n**TwinTex: Geometry-aware Texture Generation for Abstracted 3D Architectural Models** \\\n*Weidan Xiong, Hongqian Zhang, Botao Peng, Ziyu Hu, Yongli Wu, Jianwei Guo, Hui Huang* \\\nSIGGRAPH ASIA 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11258)] \\\n20 Sep 2023\n\n\n**Language-Conditioned Affordance-Pose Detection in 3D Point Clouds** \\\n*Toan Nguyen, Minh Nhat Vu, Baoru Huang, Tuan Van Vo, Vy Truong, Ngan Le, Thieu Vo, Bac Le, Anh Nguyen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10911)] \\\n19 Sep 2023\n\n**Large Intestine 3D Shape Refinement Using Point Diffusion Models for Digital Phantom Generation** \\\n*Kaouther Mouheb, Mobina Ghojogh Nejad, Lavsen Dahal, Ehsan Samei, W. Paul Segars, Joseph Y. Lo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.08289)] \\\n15 Sep 2023\n\n**Unsupervised Disentangling of Facial Representations with 3D-aware Latent Diffusion Models** \\\n*Ruian He, Zhen Xing, Weimin Tan, Bo Yan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.08273)] \\\n15 Sep 2023\n\n**M3Dsynth: A dataset of medical 3D images with AI-generated local manipulations** \\\n*Giada Zingarini, Davide Cozzolino, Riccardo Corvi, Giovanni Poggi, Luisa Verdoliva* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07973)] \\\n14 Sep 2023\n\n**Large-Vocabulary 3D Diffusion Model with Transformer** \\\n*Ziang Cao, Fangzhou Hong, Tong Wu, Liang Pan, Ziwei Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07920)] [[Project](https:\u002F\u002Fziangcao0312.github.io\u002Fdifftf_pages\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fziangcao0312\u002FDiffTF)] \\\n14 Sep 2023\n\n**UnifiedGesture: A Unified Gesture Synthesis Model for Multiple Skeletons** \\\n*Sicheng Yang, Zilin Wang, Zhiyong Wu, Minglei Li, Zhensong Zhang, Qiaochu Huang, Lei Hao, Songcen Xu, Xiaofei Wu, changpeng yang, Zonghong Dai* \\\nACM MM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07051)] \\\n13 Sep 2023\n\n**Fg-T2M: Fine-Grained Text-Driven Human Motion Generation via Diffusion Model** \\\n*Yin Wang, Zhiying Leng, Frederick W. B. Li, Shun-Cheng Wu, Xiaohui Liang* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06284)] \\\n12 Sep 2023\n\n**SyncDreamer: Generating Multiview-consistent Images from a Single-view Image** \\\n*Yuan Liu, Cheng Lin, Zijiao Zeng, Xiaoxiao Long, Lingjie Liu, Taku Komura, Wenping Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03453)] [[Project](https:\u002F\u002Fliuyuan-pal.github.io\u002FSyncDreamer\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fliuyuan-pal\u002FSyncDreamer)] \\\n7 Sep 2023\n\n**SADIR: Shape-Aware Diffusion Models for 3D Image Reconstruction** \\\n*Nivetha Jayakumar, Tonmoy Hossain, Miaomiao Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03335)] \\\n6 Sep 2023\n\n**MCM: Multi-condition Motion Synthesis Framework for Multi-scenario** \\\n*Zeyu Ling, Bo Han, Yongkang Wong, Mohan Kangkanhalli, Weidong Geng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03031)] \\\n6 Sep 2023\n\n**DiverseMotion: Towards Diverse Human Motion Generation via Discrete Diffusion** \\\n*Yunhong Lou, Linchao Zhu, Yaxiong Wang, Xiaohan Wang, Yi Yang* \\\nAAAI 2024. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01372)] \\\n4 Sep 2023\n\n**BuilDiff: 3D Building Shape Generation using Single-Image Conditional Point Cloud Diffusion Models** \\\n*Yao Wei, George Vosselman, Michael Ying Yang* \\\nICCV Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00158)] \\\n31 Aug 2023\n\n**MVDream: Multi-view Diffusion for 3D Generation** \\\n*Yichun Shi, Peng Wang, Jianglong Ye, Mai Long, Kejie Li, Xiao Yang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16512)] \\\n31 Aug 2023\n\n**Diffusion Inertial Poser: Human Motion Reconstruction from Arbitrary Sparse IMU Configurations** \\\n*Tom Van Wouwe, Seunghwan Lee, Antoine Falisse, Scott Delp, C. Karen Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16682)] \\\n31 Aug 2023\n\n\n**InterDiff: Generating 3D Human-Object Interactions with Physics-Informed Diffusion** \\\n*Sirui Xu, Zhengyuan Li, Yu-Xiong Wang, Liang-Yan Gui* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16905)] [[Project](https:\u002F\u002Fsirui-xu.github.io\u002FInterDiff\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FSirui-Xu\u002FInterDiff)] \\\n31 Aug 2023\n\n\n\n**Priority-Centric Human Motion Generation in Discrete Latent Space** \\\n*Hanyang Kong, Kehong Gong, Dongze Lian, Michael Bi Mi, Xinchao Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14480)] \\\n28 Aug 2023\n\n**HoloFusion: Towards Photo-realistic 3D Generative Modeling** \\\n*Animesh Karnewar, Niloy J. Mitra, Andrea Vedaldi, David Novotny* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14244)] [[Project](https:\u002F\u002Fholodiffusion.github.io\u002Fholofusion\u002F)] \\\n28 Aug 2023\n\n**Unaligned 2D to 3D Translation with Conditional Vector-Quantized Code Diffusion using Transformers** \\\n*Abril Corona-Figueroa, Sam Bond-Taylor, Neelanjan Bhowmik, Yona Falinie A. Gaus, Toby P. Breckon, Hubert P. H. Shum, Chris G. Willcocks* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14152)] \\\n27 Aug 2023\n\n**Sparse3D: Distilling Multiview-Consistent Diffusion for Object Reconstruction from Sparse Views** \\\n*Zi-Xin Zou, Weihao Cheng, Yan-Pei Cao, Shi-Sheng Huang, Ying Shan, Song-Hai Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14078)] \\\n27 Aug 2023\n\n**Multi-plane denoising diffusion-based dimensionality expansion for 2D-to-3D reconstruction of microstructures with harmonized sampling** \\\n*Kang-Hyun Lee, Gun Jin Yun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14035)] \\\n27 Aug 2023\n\n**The DiffuseStyleGesture+ entry to the GENEA Challenge 2023** \\\n*Sicheng Yang, Haiwei Xue, Zhensong Zhang, Minglei Li, Zhiyong Wu, Xiaofei Wu, Songcen Xu, Zonghong Dai* \\\nICMI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13879)] [[Github](https:\u002F\u002Fgithub.com\u002FYoungSeng\u002FDiffuseStyleGesture\u002Ftree\u002FDiffuseStyleGesturePlus\u002FBEAT-TWH-main)] \\\n26 Aug 2023\n\n**Distribution-Aligned Diffusion for Human Mesh Recovery** \\\n*Lin Geng Foo, Jia Gong, Hossein Rahmani, Jun Liu* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13369)] [[Project](https:\u002F\u002Fgongjia0208.github.io\u002FHMDiff\u002F)] \\\n25 Aug 2023\n\n**EfficientDreamer: High-Fidelity and Robust 3D Creation via Orthogonal-view Diffusion Prior** \\\n*Minda Zhao, Chaoyi Zhao, Xinyue Liang, Lincheng Li, Zeng Zhao, Zhipeng Hu, Changjie Fan, Xin Yu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13223)] \\\n25 Aug 2023\n\n\n\n**DF-3DFace: One-to-Many Speech Synchronized 3D Face Animation with Diffusion** \\\n*Se Jin Park, Joanna Hong, Minsu Kim, Yong Man Ro* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05934)] \\\n23 Aug 2023\n\n**LongDanceDiff: Long-term Dance Generation with Conditional Diffusion Model** \\\n*Siqi Yang, Zejun Yang, Zhisheng Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11945)] \\\n23 Aug 2023\n\n**IT3D: Improved Text-to-3D Generation with Explicit View Synthesis** \\\n*Yiwen Chen, Chi Zhang, Xiaofeng Yang, Zhongang Cai, Gang Yu, Lei Yang, Guosheng Lin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11473)] [[Github](https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FIT3D-text-to-3D)] \\\n22 Aug 2023\n\n**Texture Generation on 3D Meshes with Point-UV Diffusion** \\\n*Xin Yu, Peng Dai, Wenbo Li, Lan Ma, Zhengzhe Liu, Xiaojuan Qi* \\\nICCV 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10490)] \\\n21 Aug 2023\n\n**Physics-Guided Human Motion Capture with Pose Probability Modeling** \\\n*Jingyi Ju, Buzhen Huang, Chen Zhu, Zhihao Li, Yangang Wang* \\\nIJCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09910)] [[Github](https:\u002F\u002Fgithub.com\u002FMe-Ditto\u002FPhysics-Guided-Mocap)] \\\n19 Aug 2023\n\n**Unsupervised 3D Pose Estimation with Non-Rigid Structure-from-Motion Modeling** \\\n*Haorui Ji, Hui Deng, Yuchao Dai, Hongdong Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10705)] \\\n18 Aug 2023\n\n**MATLABER: Material-Aware Text-to-3D via LAtent BRDF auto-EncodeR** \\\n*Xudong Xu, Zhaoyang Lyu, Xingang Pan, Bo Dai* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09278)] [[Project](https:\u002F\u002Fsheldontsui.github.io\u002Fprojects\u002FMatlaber)] \\\n18 Aug 2023\n\n**O^2-Recon: Completing 3D Reconstruction of Occluded Objects in the Scene with a Pre-trained 2D Diffusion Model** \\\n*Yubin Hu, Sheng Ye, Wang Zhao, Matthieu Lin, Yuze He, Yu-Hui Wen, Ying He, Yong-Jin Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09591)] \\\n18 Aug 2023\n\n\n**Denoising Diffusion for 3D Hand Pose Estimation from Images** \\\n*Maksym Ivashechkin, Oscar Mendez, Richard Bowden* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09523)] \\\n18 Aug 2023\n\n**PoSynDA: Multi-Hypothesis Pose Synthesis Domain Adaptation for Robust 3D Human Pose Estimation** \\\n*Hanbing Liu, Jun-Yan He, Zhi-Qi Cheng, Wangmeng Xiang, Qize Yang, Wenhao Chai, Gaoang Wang, Xu Bao, Bin Luo, Yifeng Geng, Xuansong Xie* \\\nACM MM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09678)] [[Github](https:\u002F\u002Fgithub.com\u002Fhbing-l\u002FPoSynDA)] \\\n18 Aug 2023\n\n**Guide3D: Create 3D Avatars from Text and Image Guidance** \\\n*Yukang Cao, Yan-Pei Cao, Kai Han, Ying Shan, Kwan-Yee K. Wong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09705)] \\\n18 Aug 2023\n\n\n\n**DMCVR: Morphology-Guided Diffusion Model for 3D Cardiac Volume Reconstruction** \\\n*Xiaoxiao He, Chaowei Tan, Ligong Han, Bo Liu, Leon Axel, Kang Li, Dimitris N. Metaxas* \\\nMICCAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09223)] [[Github](https:\u002F\u002Fgithub.com\u002Fhexiaoxiao-cs\u002FDMCVR)] \\\n18 Aug 2023\n\n**HumanLiff: Layer-wise 3D Human Generation with Diffusion Model** \\\n*Shoukang Hu, Fangzhou Hong, Tao Hu, Liang Pan, Haiyi Mei, Weiye Xiao, Lei Yang, Ziwei Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09712)] [[Project](https:\u002F\u002Fskhu101.github.io\u002FHumanLiff\u002F)] \\\n18 Aug 2023\n\n\n\n**Watch Your Steps: Local Image and Scene Editing by Text Instructions** \\\n*Ashkan Mirzaei, Tristan Aumentado-Armstrong, Marcus A. Brubaker, Jonathan Kelly, Alex Levinshtein, Konstantinos G. Derpanis, Igor Gilitschenski* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08947)] [[Project](https:\u002F\u002Fashmrz.github.io\u002FWatchYourSteps\u002F)] \\\n17 Aug 2023\n\n**TeCH: Text-guided Reconstruction of Lifelike Clothed Humans** \\\n*Yangyi Huang, Hongwei Yi, Yuliang Xiu, Tingting Liao, Jiaxiang Tang, Deng Cai, Justus Thies* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08545)] [[Project](https:\u002F\u002Fhuangyangyi.github.io\u002FTeCH\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fhuangyangyi\u002FTeCH)] \\\n16 Aug 2023\n\n**CCD-3DR: Consistent Conditioning in Diffusion for Single-Image 3D Reconstruction** \\\n*Yan Di, Chenyangguang Zhang, Pengyuan Wang, Guangyao Zhai, Ruida Zhang, Fabian Manhardt, Benjamin Busam, Xiangyang Ji, Federico Tombari* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07837)] \\\n15 Aug 2023\n\n**Dancing Avatar: Pose and Text-Guided Human Motion Videos Synthesis with Image Diffusion Model** \\\n*Bosheng Qin, Wentao Ye, Qifan Yu, Siliang Tang, Yueting Zhuang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07749)] \\\n15 Aug 2023\n\n**3D Scene Diffusion Guidance using Scene Graphs** \\\n*Mohammad Naanaa, Katharina Schmid, Yinyu Nie* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04468)] \\\n8 Aug 2023\n\n**Cloth2Tex: A Customized Cloth Texture Generation Pipeline for 3D Virtual Try-On** \\\n*Daiheng Gao, Xu Chen, Xindi Zhang, Qi Wang, Ke Sun, Bang Zhang, Liefeng Bo, Qixing Huang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04288)] \\\n8 Aug 2023\n\n\n\n**AvatarVerse: High-quality & Stable 3D Avatar Creation from Text and Pose** \\\n*Huichao Zhang, Bowen Chen, Hao Yang, Liao Qu, Xu Wang, Li Chen, Chao Long, Feida Zhu, Kang Du, Min Zheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03610)] [[Project](https:\u002F\u002Favatarverse3d.github.io\u002F)] \\\n7 Aug 2023\n\n**Generative Approach for Probabilistic Human Mesh Recovery using Diffusion Models** \\\n*Hanbyel Cho, Junmo Kim* \\\nICCV Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02963)] [[Github](https:\u002F\u002Fgithub.com\u002Fhanbyel0105\u002FDiff-HMR)] \\\n5 Aug 2023\n\n**DiffDance: Cascaded Human Motion Diffusion Model for Dance Generation** \\\n*Qiaosong Qi, Le Zhuo, Aixi Zhang, Yue Liao, Fei Fang, Si Liu, Shuicheng Yan* \\\nACM MM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02915)] \\\n5 Aug 2023\n\n**Sketch and Text Guided Diffusion Model for Colored Point Cloud Generation** \\\n*Zijie Wu, Yaonan Wang, Mingtao Feng, He Xie, Ajmal Mian* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02874)] \\\n5 Aug 2023\n\n**On the Transition from Neural Representation to Symbolic Knowledge** \\\n*Junyan Cheng, Peter Chin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02000)] \\\n3 Aug 2023\n\n**Synthesizing Long-Term Human Motions with Diffusion Models via Coherent Sampling** \\\n*Zhao Yang, Bing Su, Ji-Rong Wen* \\\nACM MM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01850)] [[Github](https:\u002F\u002Fgithub.com\u002Fyangzhao1230\u002FPCMDM)] \\\n3 Aug 2023\n\n\n\n**HD-Fusion: Detailed Text-to-3D Generation Leveraging Multiple Noise Estimation** \\\n*Jinbo Wu, Xiaobo Gao, Xing Liu, Zhengyang Shen, Chen Zhao, Haocheng Feng, Jingtuo Liu, Errui Ding* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16183)] \\\n30 Jul 2023\n\n**TransFusion: A Practical and Effective Transformer-based Diffusion Model for 3D Human Motion Prediction** \\\n*Sibo Tian, Minghui Zheng, Xiao Liang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16106)] \\\n30 Jul 2023\n\n**TEDi: Temporally-Entangled Diffusion for Long-Term Motion Synthesis** \\\n*Zihan Zhang, Richard Liu, Kfir Aberman, Rana Hanocka* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.15042)] \\\n27 Jul 2023\n\n\n**Points-to-3D: Bridging the Gap between Sparse Points and Shape-Controllable Text-to-3D Generation** \\\n*Chaohui Yu, Qiang Zhou, Jingliang Li, Zhe Zhang, Zhibin Wang, Fan Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.13908)] \\\n26 Jul 2023\n\n**Fake It Without Making It: Conditioned Face Generation for Accurate 3D Face Shape Estimation** \\\n*Will Rowan, Patrik Huber, Nick Pears, Andrew Keeling* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.13639)] \\\n25 Jul 2023\n\n**NIFTY: Neural Object Interaction Fields for Guided Human Motion Synthesis** \\\n*Nilesh Kulkarni, Davis Rempe, Kyle Genova, Abhijit Kundu, Justin Johnson, David Fouhey, Leonidas Guibas* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07511)] [[Project](https:\u002F\u002Fnileshkulkarni.github.io\u002Fnifty\u002F)] \\\n14 Jul 2023\n\n**AvatarFusion: Zero-shot Generation of Clothing-Decoupled 3D Avatars Using 2D Diffusion** \\\n*Shuo Huang, Zongxin Yang, Liangting Li, Yi Yang, Jia Jia* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.06526)] \\\n13 Jul 2023\n\n**Articulated 3D Head Avatar Generation using Text-to-Image Diffusion Models** \\\n*Alexander W. Bergman, Wang Yifan, Gordon Wetzstein* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04859)] \\\n10 Jul 2023\n\n**Back to Optimization: Diffusion-based Zero-Shot 3D Human Pose Estimation** \\\n*Zhongyu Jiang, Zhuoran Zhou, Lei Li, Wenhao Chai, Cheng-Yen Yang, Jenq-Neng Hwang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03833)] \\\n7 Jul 2023\n\n**AutoDecoding Latent 3D Diffusion Models** \\\n*Evangelos Ntavelis, Aliaksandr Siarohin, Kyle Olszewski, Chaoyang Wang, Luc Van Gool, Sergey Tulyakov* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.05445)] \\\n7 Jul 2023\n\n**SVDM: Single-View Diffusion Model for Pseudo-Stereo 3D Object Detection** \\\n*Yuguang Shi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.02270)] \\\n5 Jul 2023\n\n**DiT-3D: Exploring Plain Diffusion Transformers for 3D Shape Generation** \\\n*Shentong Mo, Enze Xie, Ruihang Chu, Lewei Yao, Lanqing Hong, Matthias Nießner, Zhenguo Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01831)] \\\n4 Jul 2023\n\n**Magic123: One Image to High-Quality 3D Object Generation Using Both 2D and 3D Diffusion Priors** \\\n*Guocheng Qian, Jinjie Mai, Abdullah Hamdi, Jian Ren, Aliaksandr Siarohin, Bing Li, Hsin-Ying Lee, Ivan Skorokhodov, Peter Wonka, Sergey Tulyakov, Bernard Ghanem* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17843)] [[Project](https:\u002F\u002Fguochengqian.github.io\u002Fproject\u002Fmagic123\u002F)] \\\n30 Jun 2023\n\n**Michelangelo: Conditional 3D Shape Generation based on Shape-Image-Text Aligned Latent Representation** \\\n*Zibo Zhao, Wen Liu, Xin Chen, Xianfang Zeng, Rui Wang, Pei Cheng, Bin Fu, Tao Chen, Gang Yu, Shenghua Gao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17115)] \\\n29 Jun 2023\n\n**DiffComplete: Diffusion-based Generative 3D Shape Completion** \\\n*Ruihang Chu, Enze Xie, Shentong Mo, Zhenguo Li, Matthias Nießner, Chi-Wing Fu, Jiaya Jia* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16329)] \\\n28 Jun 2023\n\n**DreamTime: An Improved Optimization Strategy for Text-to-3D Content Creation** \\\n*Yukun Huang, Jianan Wang, Yukai Shi, Xianbiao Qi, Zheng-Jun Zha, Lei Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12422)] \\\n21 Jun 2023\n\n**EMoG: Synthesizing Emotive Co-speech 3D Gesture with Diffusion Model** \\\n*Lianying Yin, Yijun Wang, Tianyu He, Jinming Liu, Wei Zhao, Bohan Li, Xin Jin, Jianxin Lin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11496)] \\\n20 Jun 2023\n\n\n**Point-Cloud Completion with Pretrained Text-to-image Diffusion Models** \\\n*Yoni Kasten, Ohad Rahamim, Gal Chechik* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10533)] \\\n18 Jun 2023\n\n**AvatarBooth: High-Quality and Customizable 3D Human Avatar Generation** \\\n*Yifei Zeng, Yuanxun Lu, Xinya Ji, Yao Yao, Hao Zhu, Xun Cao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09864)] \\\n16 Jun 2023\n\n**Edit-DiffNeRF: Editing 3D Neural Radiance Fields using 2D Diffusion Model** \\\n*Lu Yu, Wei Xiang, Kang Han* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09551)] \\\n15 Jun 2023\n\n**Adding 3D Geometry Control to Diffusion Models** \\\n*Wufei Ma, Qihao Liu, Jiahao Wang, Angtian Wang, Yaoyao Liu, Adam Kortylewski, Alan Yuille* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08103)] \\\n13 Jun 2023\n\n**Viewset Diffusion: (0-)Image-Conditioned 3D Generative Models from 2D Data** \\\n*Stanislaw Szymanowicz, Christian Rupprecht, Andrea Vedaldi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07881)] \\\n13 Jun 2023\n\n**3D molecule generation by denoising voxel grids** \\\n*Pedro O. Pinheiro, Joshua Rackers, Joseph Kleinhenz, Michael Maser, Omar Mahmood, Andrew Martin Watkins, Stephen Ra, Vishnu Sresht, Saeed Saremi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07473)] \\\n13 Jun 2023\n\n**InstructP2P: Learning to Edit 3D Point Clouds with Text Instructions** \\\n*Jiale Xu, Xintao Wang, Yan-Pei Cao, Weihao Cheng, Ying Shan, Shenghua Gao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07154)] \\\n12 Jun 2023\n\n**RePaint-NeRF: NeRF Editting via Semantic Masks and Diffusion Models** \\\n*Xingchen Zhou, Ying He, F. Richard Yu, Jianqiang Li, You Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05668)] \\\n9 Jun 2023\n\n**Stochastic Multi-Person 3D Motion Forecasting** \\\n*Sirui Xu, Yu-Xiong Wang, Liang-Yan Gui* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05421)] \\\n8 Jun 2023\n\n**ARTIC3D: Learning Robust Articulated 3D Shapes from Noisy Web Image Collections** \\\n*Chun-Han Yao, Amit Raj, Wei-Chih Hung, Yuanzhen Li, Michael Rubinstein, Ming-Hsuan Yang, Varun Jampani* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04619)] \\\n7 Jun 2023\n\n**Synthesizing realistic sand assemblies with denoising diffusion in latent space** \\\n*Nikolaos N. Vlassis, WaiChing Sun, Khalid A. Alshibli, Richard A. Regueiro* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04411)] \\\n7 Jun 2023\n\n\n**AvatarStudio: Text-driven Editing of 3D Dynamic Human Head Avatars** \\\n*Mohit Mendiratta, Xingang Pan, Mohamed Elgharib, Kartik Teotia, Mallikarjun B R, Ayush Tewari, Vladislav Golyanik, Adam Kortylewski, Christian Theobalt* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00547)] \\\n1 Jun 2023\n\n\n**DiffRoom: Diffusion-based High-Quality 3D Room Reconstruction and Generation** \\\n*Xiaoliang Ju, Zhaoyang Huang, Yijin Li, Guofeng Zhang, Yu Qiao, Hongsheng Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00519)] \\\n1 Jun 2023\n\n**Controllable Motion Diffusion Model** \\\n*Yi Shi, Jingbo Wang, Xuekun Jiang, Bo Dai* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00416)] [Project](https:\u002F\u002Fcontrollablemdm.github.io\u002F)] \\\n1 Jun 2023\n\n**FDNeRF: Semantics-Driven Face Reconstruction, Prompt Editing and Relighting with Diffusion Models** \\\n*Hao Zhang, Yanbo Xu, Tianyuan Dai, Yu-Wing, Tai Chi-Keung Tang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00783)] \\\n1 Jun 2023\n\n**Learning Explicit Contact for Implicit Reconstruction of Hand-held Objects from Monocular Images** \\\n*Junxing Hu, Hongwen Zhang, Zerui Chen, Mengcheng Li, Yunlong Wang, Yebin Liu, Zhenan Sun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.20089)] [[Project](https:\u002F\u002Fjunxinghu.github.io\u002Fprojects\u002Fhoi.html)] \\\n31 May 2023\n\n**StyleAvatar3D: Leveraging Image-Text Diffusion Models for High-Fidelity 3D Avatar Generation** \\\n*Chi Zhang, Yiwen Chen, Yijun Fu, Zhenglin Zhou, Gang YU, Billzb Wang, Bin Fu, Tao Chen, Guosheng Lin, Chunhua Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19012)] \\\n30 May 2023\n\n**HiFA: High-fidelity Text-to-3D with Advanced Diffusion Guidance** \\\n*Junzhe Zhu, Peiye Zhuang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18766)] \\\n30 May 2023\n\n\n**Conditional Diffusion Models for Semantic 3D Medical Image Synthesis** \\\n*Zolnamar Dorjsembe, Hsing-Kuo Pao, Sodtavilan Odonchimed, Furen Xiao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18453)] \\\n29 May 2023\n\n**ZeroAvatar: Zero-shot 3D Avatar Generation from a Single Image** \\\n*Zhenzhen Weng, Zeyu Wang, Serena Yeung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16411)] \\\n25 May 2023\n\n**NAP: Neural 3D Articulation Prior** \\\n*Jiahui Lei, Congyue Deng, Bokui Shen, Leonidas Guibas, Kostas Daniilidis* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16315)] [[Project](https:\u002F\u002Fwww.cis.upenn.edu\u002F~leijh\u002Fprojects\u002Fnap\u002F)] \\\n25 May 2023\n\n**CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graphs** \\\n*Guangyao Zhai, Evin Pınar Örnek, Shun-Cheng Wu, Yan Di, Federico Tombari, Nassir Navab, Benjamin Busam* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16283)] \\\n25 May 2023\n\n\n**ProlificDreamer: High-Fidelity and Diverse Text-to-3D Generation with Variational Score Distillation** \\\n*Zhengyi Wang, Cheng Lu, Yikai Wang, Fan Bao, Chongxuan Li, Hang Su, Jun Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16213)] [[Project](https:\u002F\u002Fml.cs.tsinghua.edu.cn\u002Fprolificdreamer\u002F)] \\\n25 May 2023\n\n**DiffCLIP: Leveraging Stable Diffusion for Language Grounded 3D Classification** \\\n*Sitian Shen, Zilin Zhu, Linqian Fan, Harry Zhang, Xinxiao Wu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15957)] \\\n25 May 2023\n\n**Confronting Ambiguity in 6D Object Pose Estimation via Score-Based Diffusion on SE(3)** \\\n*Tsu-Ching Hsiao, Hao-Wei Chen, Hsuan-Kung Yang, Chun-Yi Lee* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15873)] \\\n25 May 2023\n\n**Deceptive-NeRF: Enhancing NeRF Reconstruction using Pseudo-Observations from Diffusion Models** \\\n*Xinhang Liu, Shiu-hong Kao, Jiaben Chen, Yu-Wing Tai, Chi-Keung Tang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15171)] \\\n24 May 2023\n\n**Manifold Diffusion Fields** \\\n*Ahmed A. Elhag, Joshua M. Susskind, Miguel Angel Bautista* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15586)] \\\n24 May 2023\n\n**Sin3DM: Learning a Diffusion Model from a Single 3D Textured Shape** \\\n*Rundi Wu, Ruoshi Liu, Carl Vondrick, Changxi Zheng* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15399)] [[Project](https:\u002F\u002Fsin3dm.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FSin3DM\u002FSin3DM)] \\\n24 May 2023\n\n**Understanding Text-driven Motion Synthesis with Keyframe Collaboration via Diffusion Models** \\\n*Dong Wei, Xiaoning Sun, Huaijiang Sun, Bin Li, Shengxiang Hu, Weiqing Li, Jianfeng Lu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13773)] \\\n23 May 2023\n\n**DiffHand: End-to-End Hand Mesh Reconstruction via Diffusion Models** \\\n*Lijun Li, Li'an Zhuo, Bang Zhang, Liefeng Bo, Chen Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13705)] \\\n23 May 2023\n\n**GMD: Controllable Human Motion Synthesis via Guided Diffusion Models** \\\n*Korrawe Karunratanakul, Konpat Preechakul, Supasorn Suwajanakorn, Siyu Tang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12577)] [[Project](https:\u002F\u002Fkorrawe.github.io\u002Fgmd-project\u002F)] \\\n21 May 2023\n\n**Towards Globally Consistent Stochastic Human Motion Prediction via Motion Diffusion** \\\n*Jiarui Sun, Girish Chowdhary* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12554)] \\\n21 May 2023\n\n**Few-shot 3D Shape Generation** \\\n*Jingyuan Zhu, Huimin Ma, Jiansheng Chen, Jian Yuan* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11664)] \\\n19 May 2023\n\n**Chupa: Carving 3D Clothed Humans from Skinned Shape Priors using 2D Diffusion Probabilistic Models** \\\n*Byungjun Kim, Patrick Kwon, Kwangho Lee, Myunggi Lee, Sookwan Han, Daesik Kim, Hanbyul Joo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11870)] [[Project](https:\u002F\u002Fsnuvclab.github.io\u002Fchupa\u002F)] \\\n19 May 2023\n\n**Text2NeRF: Text-Driven 3D Scene Generation with Neural Radiance Fields** \\\n*Jingbo Zhang, Xiaoyu Li, Ziyu Wan, Can Wang, Jing Liao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11588)] \\\n19 May 2023\n\n\n**RoomDreamer: Text-Driven 3D Indoor Scene Synthesis with Coherent Geometry and Texture** \\\n*Liangchen Song, Liangliang Cao, Hongyu Xu, Kai Kang, Feng Tang, Junsong Yuan, Yang Zhao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11337)] \\\n18 May 2023\n\n**LDM3D: Latent Diffusion Model for 3D** \\\n*Gabriela Ben Melech Stan, Diana Wofk, Scottie Fox, Alex Redden, Will Saxton, Jean Yu, Estelle Aflalo, Shao-Yen Tseng, Fabio Nonato, Matthias Muller, Vasudev Lal* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10853)] \\\n18 May 2023\n\n**Make-An-Animation: Large-Scale Text-conditional 3D Human Motion Generation** \\\n*Samaneh Azadi, Akbar Shah, Thomas Hayes, Devi Parikh, Sonal Gupta* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09662)] [[Project](https:\u002F\u002Fazadis.github.io\u002Fmake-an-animation\u002F)] \\\n16 May 2023\n\n**FitMe: Deep Photorealistic 3D Morphable Model Avatars** \\\n*Alexandros Lattas, Stylianos Moschoglou, Stylianos Ploumpis, Baris Gecer, Jiankang Deng, Stefanos Zafeiriou* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09641)] [[Project](https:\u002F\u002Falexlattas.com\u002Ffitme)] \\\n16 May 2023\n\n**AMD: Autoregressive Motion Diffusion** \\\n*Bo Han, Hao Peng, Minjing Dong, Chang Xu, Yi Ren, Yixuan Shen, Yuheng Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09381)] \\\n16 May 2023\n\n\n**Text-guided High-definition Consistency Texture Model** \\\n*Zhibin Tang, Tiantong He* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05901)] \\\n10 May 2023\n\n**Relightify: Relightable 3D Faces from a Single Image via Diffusion Models** \\\n*Foivos Paraperas Papantoniou, Alexandros Lattas, Stylianos Moschoglou, Stefanos Zafeiriou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06077)] [[Project](https:\u002F\u002Ffoivospar.github.io\u002FRelightify\u002F)] \\\n10 May 2023\n\n**CaloClouds: Fast Geometry-Independent Highly-Granular Calorimeter Simulation** \\\n*Erik Buhmann, Sascha Diefenbacher, Engin Eren, Frank Gaede, Gregor Kasieczka, Anatolii Korol, William Korcari, Katja Krüger, Peter McKeown* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04847)] \\\n8 May 2023\n\n**Locally Attentional SDF Diffusion for Controllable 3D Shape Generation** \\\n*Xin-Yang Zheng, Hao Pan, Peng-Shuai Wang, Xin Tong, Yang Liu, Heung-Yeung Shum* \\\nSIGGRAPH 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04461)] \\\n8 May 2023\n\n**DiffFacto: Controllable Part-Based 3D Point Cloud Generation with Cross Diffusion** \\\n*Kiyohiro Nakayama, Mikaela Angelina Uy, Jiahui Huang, Shi-Min Hu, Ke Li, Leonidas J Guibas* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01921)] [[Github](https:\u002F\u002Fdifffacto.github.io\u002F)] \\\n4 May 2023\n\n**Shap-E: Generating Conditional 3D Implicit Functions** \\\n*Heewoo Jun, Alex Nichol* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.02463)] [[Github](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fshap-e)]\n3 May 2023\n\n**ContactArt: Learning 3D Interaction Priors for Category-level Articulated Object and Hand Poses Estimation** \\\n*Zehao Zhu, Jiashun Wang, Yuzhe Qin, Deqing Sun, Varun Jampani, Xiaolong Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01618)] [[Project](https:\u002F\u002Fzehaozhu.github.io\u002FContactArt\u002F)] \\\n2 May 2023\n\n**DreamPaint: Few-Shot Inpainting of E-Commerce Items for Virtual Try-On without 3D Modeling** \\\n*Mehmet Saygin Seyfioglu, Karim Bouyarmane, Suren Kumar, Amir Tavanaei, Ismail B. Tutar* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01257)] \\\n2 May 2023\n\n**Learning a Diffusion Prior for NeRFs** \\\n*Guandao Yang, Abhijit Kundu, Leonidas J. Guibas, Jonathan T. Barron, Ben Poole* \\\nICLR Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14473)] \\\n27 Apr 2023\n\n**TextMesh: Generation of Realistic 3D Meshes From Text Prompts** \\\n*Christina Tsalicoglou, Fabian Manhardt, Alessio Tonioni, Michael Niemeyer, Federico Tombari* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12439)] \\\n24 Apr 2023\n\n**Nerfbusters: Removing Ghostly Artifacts from Casually Captured NeRFs** \\\n*Frederik Warburg, Ethan Weber, Matthew Tancik, Aleksander Holynski, Angjoo Kanazawa* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10532)] [[Project](https:\u002F\u002Fethanweber.me\u002Fnerfbusters\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fethanweber\u002Fnerfbusters)] \\\n20 Apr 2023\n\n**Farm3D: Learning Articulated 3D Animals by Distilling 2D Diffusion** \\\n*Tomas Jakab, Ruining Li, Shangzhe Wu, Christian Rupprecht, Andrea Vedaldi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10535)] [[Project](https:\u002F\u002Ffarm3d.github.io\u002F)] \\\n20 Apr 2023\n\n**Anything-3D: Towards Single-view Anything Reconstruction in the Wild** \\\n*Qiuhong Shen, Xingyi Yang, Xinchao Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10261)] \\\n19 Apr 2023\n\n\n**Avatars Grow Legs: Generating Smooth Human Motion from Sparse Tracking Inputs with Diffusion Model** \\\n*Yuming Du, Robin Kips, Albert Pumarola, Sebastian Starke, Ali Thabet, Artsiom Sanakoyeu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08577)] [[Project](https:\u002F\u002Fdulucas.github.io\u002Fagrol\u002F)] [[Github]()] \\\n17 Apr 2023\n\n**Towards Controllable Diffusion Models via Reward-Guided Exploration** \\\n*Hengtong Zhang, Tingyang Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.07132)] \\\n14 Apr 2023\n\n**Learning Controllable 3D Diffusion Models from Single-view Images** \\\n*Jiatao Gu, Qingzhe Gao, Shuangfei Zhai, Baoquan Chen, Lingjie Liu, Josh Susskind* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06700)] [[Project](https:\u002F\u002Fjiataogu.me\u002Fcontrol3diff\u002F)] \\\n13 Apr 2023\n\n**Single-Stage Diffusion NeRF: A Unified Approach to 3D Generation and Reconstruction** \\\n*Hansheng Chen, Jiatao Gu, Anpei Chen, Wei Tian, Zhuowen Tu, Lingjie Liu, Hao Su* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06714)] [[Project](https:\u002F\u002Flakonik.github.io\u002Fssdnerf\u002F)] \\\n13 Apr 2023\n\n**Probabilistic Human Mesh Recovery in 3D Scenes from Egocentric Views** \\\n*Siwei Zhang, Qianli Ma, Yan Zhang, Sadegh Aliakbarian, Darren Cosker, Siyu Tang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06024)] [[Project](https:\u002F\u002Fsanweiliti.github.io\u002Fegohmr\u002Fegohmr.html)] \\\n12 Apr 2023\n\n**InterGen: Diffusion-based Multi-human Motion Generation under Complex Interactions** \\\n*Han Liang, Wenqian Zhang, Wenxuan Li, Jingyi Yu, Lan Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05684)] [[Github](https:\u002F\u002Fgithub.com\u002Ftr3e\u002FInterGen)] \\\n12 Apr 2023\n\n**Probabilistic Human Mesh Recovery in 3D Scenes from Egocentric Views** \\\n*Siwei Zhang, Qianli Ma, Yan Zhang, Sadegh Aliakbarian, Darren Cosker, Siyu Tang* \\\narXiv 2023. [[Paper]()] [[Project](https:\u002F\u002Fsanweiliti.github.io\u002Fegohmr\u002Fegohmr.html)] \\\n12 Apr 2023\n\n\n**Re-imagine the Negative Prompt Algorithm: Transform 2D Diffusion into 3D, alleviate Janus problem and Beyond** \\\n*Mohammadreza Armandpour, Huangjie Zheng, Ali Sadeghian, Amir Sadeghian, Mingyuan Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04968)] [[Project](https:\u002F\u002Fperp-neg.github.io\u002F)] \\\n11 Apr 2023\n\n\n\n**NeRF applied to satellite imagery for surface reconstruction** \\\n*Federico Semeraro, Yi Zhang, Wenying Wu, Patrick Carroll* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04133)] [[Github](https:\u002F\u002Fgithub.com\u002Ffsemerar\u002Fsatnerf)] \\\n9 Apr 2023\n\n**DITTO-NeRF: Diffusion-based Iterative Text To Omni-directional 3D Model** \\\n*Hoigi Seo, Hayeon Kim, Gwanghyun Kim, Se Young Chun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02827)] [[Project](https:\u002F\u002Fjaneyeon.github.io\u002Fditto-nerf\u002F)] \\\n6 Apr 2023\n\n\n**Generative Novel View Synthesis with 3D-Aware Diffusion Models** \\\n*Eric R. Chan, Koki Nagano, Matthew A. Chan, Alexander W. Bergman, Jeong Joon Park, Axel Levy, Miika Aittala, Shalini De Mello, Tero Karras, Gordon Wetzstein* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02602)] [[Project](https:\u002F\u002Fnvlabs.github.io\u002Fgenvs\u002F)] \\\n5 Apr 2023\n\n**Trace and Pace: Controllable Pedestrian Animation via Guided Trajectory Diffusion** \\\n*Davis Rempe, Zhengyi Luo, Xue Bin Peng, Ye Yuan, Kris Kitani, Karsten Kreis, Sanja Fidler, Or Litany* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01893)] [[Github](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Ftoronto-ai\u002Ftrace-pace\u002F)] \\\n4 Apr 2023\n\n**PODIA-3D: Domain Adaptation of 3D Generative Model Across Large Domain Gap Using Pose-Preserved Text-to-Image Diffusion** \\\n*Gwanghyun Kim, Ji Ha Jang, Se Young Chun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01900)] [[Project](https:\u002F\u002Fgwang-kim.github.io\u002Fpodia_3d\u002F)] \\\n4 Apr 2023\n\n**ReMoDiffuse: Retrieval-Augmented Motion Diffusion Model** \\\n*Mingyuan Zhang, Xinying Guo, Liang Pan, Zhongang Cai, Fangzhou Hong, Huirong Li, Lei Yang, Ziwei Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01116)] [[Project](https:\u002F\u002Fmingyuan-zhang.github.io\u002Fprojects\u002FReMoDiffuse.html)] [[Github](https:\u002F\u002Fgithub.com\u002Fmingyuan-zhang\u002FReMoDiffuse)] \\\n3 Apr 2023\n\n**Controllable Motion Synthesis and Reconstruction with Autoregressive Diffusion Models** \\\n*Wenjie Yin, Ruibo Tu, Hang Yin, Danica Kragic, Hedvig Kjellström, Mårten Björkman* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04681)] \\\n3 Apr 2023\n\n**DreamAvatar: Text-and-Shape Guided 3D Human Avatar Generation via Diffusion Models** \\\n*Yukang Cao, Yan-Pei Cao, Kai Han, Ying Shan, Kwan-Yee K. Wong* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.00916)] \\\n3 Apr 2023\n\n**DreamFace: Progressive Generation of Animatable 3D Faces under Text Guidance** \\\n*Longwen Zhang, Qiwei Qiu, Hongyang Lin, Qixuan Zhang, Cheng Shi, Wei Yang, Ye Shi, Sibei Yang, Lan Xu, Jingyi Yu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03117)] [[Project](https:\u002F\u002Fsites.google.com\u002Fview\u002Fdreamface)] \\\n1 Apr 2023\n\n\n**AvatarCraft: Transforming Text into Neural Human Avatars with Parameterized Shape and Pose Control** \\\n*Ruixiang Jiang, Can Wang, Jingbo Zhang, Menglei Chai, Mingming He, Dongdong Chen, Jing Liao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17606)] [[Project](https:\u002F\u002Favatar-craft.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fsongrise\u002Favatarcraft)] \\\n30 Mar 2023\n\n**HOLODIFFUSION: Training a 3D Diffusion Model using 2D Images** \\\n*Animesh Karnewar, Andrea Vedaldi, David Novotny, Niloy Mitra* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16509)] [[Project](https:\u002F\u002Fholodiffusion.github.io\u002F)] \\\n29 Mar 2023\n\n**4D Facial Expression Diffusion Model** \\\n*Kaifeng Zou, Sylvain Faisan, Boyang Yu, Sébastien Valette, Hyewon Seo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16611)] [[Github](https:\u002F\u002Fgithub.com\u002FZOUKaifeng\u002F4DFM)] \\\n29 Mar 2023\n\n\n**Instruct 3D-to-3D: Text Instruction Guided 3D-to-3D conversion** \\\n*Hiromichi Kamata, Yuiko Sakuma, Akio Hayakawa, Masato Ishii, Takuya Narihira* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15780)] [[Project](https:\u002F\u002Fsony.github.io\u002FInstruct3Dto3D-doc\u002F)] [[Github](https:\u002F\u002Fsony.github.io\u002FInstruct3Dto3D-doc\u002F)] \\\n28 Mar 2023\n\n**Novel View Synthesis of Humans using Differentiable Rendering** \\\n*Guillaume Rochette, Chris Russell, Richard Bowden* \\\nIEEE T-BIOM 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15880)] [[Github](https:\u002F\u002Fgithub.com\u002FGuillaumeRochette\u002FHumanViewSynthesis)] \\\n28 Mar 2023\n\n\n**Debiasing Scores and Prompts of 2D Diffusion for Robust Text-to-3D Generation** \\\n*Susung Hong, Donghoon Ahn, Seungryong Kim* \\\nCVPR Workshop 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15413)] \\\n27 Mar 2023\n\n**Make-It-3D: High-Fidelity 3D Creation from A Single Image with Diffusion Prior** \\\n*Junshu Tang, Tengfei Wang, Bo Zhang, Ting Zhang, Ran Yi, Lizhuang Ma, Dong Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14184)] [[Project](https:\u002F\u002Fmake-it-3d.github.io\u002F)] [[Github](https:\u002F\u002Fmake-it-3d.github.io\u002F)] \\\n24 Mar 2023\n\n**ISS++: Image as Stepping Stone for Text-Guided 3D Shape Generation** \\\n*Zhengzhe Liu, Peng Dai, Ruihui Li, Xiaojuan Qi, Chi-Wing Fu* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15181)] \\\n24 Mar 2023\n\n**CompoNeRF: Text-guided Multi-object Compositional NeRF with Editable 3D Scene Layout** \\\n*Yiqi Lin, Haotian Bai, Sijia Li, Haonan Lu, Xiaodong Lin, Hui Xiong, Lin Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13843)] [[Project](https:\u002F\u002Ffantasia3d.github.io\u002F)] \\\n24 Mar 2023\n\n**Fantasia3D: Disentangling Geometry and Appearance for High-quality Text-to-3D Content Creation** \\\n*Rui Chen, Yongwei Chen, Ningxin Jiao, Kui Jia* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13873)] [[Project](https:\u002F\u002Ffantasia3d.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FGorilla-Lab-SCUT\u002FFantasia3D)] \\\n24 Mar 2023\n\n**DDT: A Diffusion-Driven Transformer-based Framework for Human Mesh Recovery from a Video** \\\n*Ce Zheng, Guo-Jun Qi, Chen Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13397)] \\\n23 Mar 2023\n\n**Instruct-NeRF2NeRF: Editing 3D Scenes with Instructions** \\\n*Ayaan Haque, Matthew Tancik, Alexei A. Efros, Aleksander Holynski, Angjoo Kanazawa* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12789)] [[Project](https:\u002F\u002Finstruct-nerf2nerf.github.io\u002F)] \\\n22 Mar 2023\n\n**FeatureNeRF: Learning Generalizable NeRFs by Distilling Foundation Models** \\\n*Jianglong Ye, Naiyan Wang, Xiaolong Wang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12786)] [[Project](https:\u002F\u002Fjianglongye.com\u002Ffeaturenerf\u002F)] \\\n22 Mar 2023\n\n**Vox-E: Text-guided Voxel Editing of 3D Objects** \\\n*Etai Sella, Gal Fiebelman, Peter Hedman, Hadar Averbuch-Elor* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12048)] [[Project](https:\u002F\u002Ftau-vailab.github.io\u002FVox-E\u002F)] \\\n21 Mar 2023\n\n**Compositional 3D Scene Generation using Locally Conditioned Diffusion** \\\n*Ryan Po, Gordon Wetzstein* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12218)] [[Github](https:\u002F\u002Fryanpo.com\u002Fcomp3d\u002F)] \\\n21 Mar 2023\n\n**Diffusion-Based 3D Human Pose Estimation with Multi-Hypothesis Aggregation** \\\n*Wenkang Shan, Zhenhua Liu, Xinfeng Zhang, Zhao Wang, Kai Han, Shanshe Wang, Siwei Ma, Wen Gao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11579)] [[Github](https:\u002F\u002Fgithub.com\u002FpaTRICK-swk\u002FD3DP)] \\\n21 Mar 2023\n\n**3D-CLFusion: Fast Text-to-3D Rendering with Contrastive Latent Diffusion** \\\n*Yu-Jhe Li, Kris Kitani* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11938)] \\\n21 Mar 2023\n\n**Affordance Diffusion: Synthesizing Hand-Object Interactions** \\\n*Yufei Ye, Xueting Li, Abhinav Gupta, Shalini De Mello, Stan Birchfield, Jiaming Song, Shubham Tulsiani, Sifei Liu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12538)] [[Project](https:\u002F\u002Fjudyye.github.io\u002Faffordiffusion-www\u002F)] \\\n21 Mar 2023\n\n\n\n**SALAD: Part-Level Latent Diffusion for 3D Shape Generation and Manipulation** \\\n*Juil Koo, Seungwoo Yoo, Minh Hieu Nguyen, Minhyuk Sung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12236)] [[Project](https:\u002F\u002Fsalad3d.github.io\u002F)] \\\n21 Mar 2023\n\n**Learning a 3D Morphable Face Reflectance Model from Low-cost Data** \\\n*Yuxuan Han, Zhibo Wang, Feng Xu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11686)] [[Project](https:\u002F\u002Fyxuhan.github.io\u002FReflectanceMM\u002Findex.html)] \\\n21 Mar 2023\n\n**Text2Tex: Text-driven Texture Synthesis via Diffusion Models** \\\n*Dave Zhenyu Chen, Yawar Siddiqui, Hsin-Ying Lee, Sergey Tulyakov, Matthias Nießner* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11396)] [[Project](https:\u002F\u002Fdaveredrum.github.io\u002FText2Tex\u002F)] \\\n20 Mar 2023\n\n**Zero-1-to-3: Zero-shot One Image to 3D Object** \\\n*Ruoshi Liu, Rundi Wu, Basile Van Hoorick, Pavel Tokmakov, Sergey Zakharov, Carl Vondrick* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11328)] [[Project](https:\u002F\u002Fzero123.cs.columbia.edu\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fcvlab-columbia\u002Fzero123)] \\\n20 Mar 2023\n\n**SKED: Sketch-guided Text-based 3D Editing** \\\n*Aryan Mikaeili, Or Perel, Daniel Cohen-Or, Ali Mahdavi-Amiri* \\\narxiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10735)] \\\n19 Mar 2023\n\n**3DQD: Generalized Deep 3D Shape Prior via Part-Discretized Diffusion Process** \\\n*Yuhan Li, Yishun Dou, Xuanhong Chen, Bingbing Ni, Yilin Sun, Yutian Liu, Fuzhen Wang* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10406)] [[Github](https:\u002F\u002Fgithub.com\u002Fcolorful-liyu\u002F3DQD)] \\\n18 Mar 2023\n\n**Taming Diffusion Models for Audio-Driven Co-Speech Gesture Generation** \\\n*Lingting Zhu, Xian Liu, Xuanyu Liu, Rui Qian, Ziwei Liu, Lequan Yu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09119)] [[Github](https:\u002F\u002Fgithub.com\u002FAdvocate99\u002FDiffGesture)] \\\n16 Mar 2023\n\n**Diffusion-HPC: Generating Synthetic Images with Realistic Humans** \\\n*Zhenzhen Weng, Laura Bravo-Sánchez, Serena Yeung* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09541)] [[Github](https:\u002F\u002Fgithub.com\u002FZZWENG\u002FDiffusion_HPC)] \\\n16 Mar 2023\n\n**DINAR: Diffusion Inpainting of Neural Textures for One-Shot Human Avatars** \\\n*David Svitov, Dmitrii Gudkov, Renat Bashirov, Victor Lempitsky* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09375)] \\\n16 Mar 2023\n\n**Improving 3D Imaging with Pre-Trained Perpendicular 2D Diffusion Models** \\\n*Suhyeon Lee, Hyungjin Chung, Minyoung Park, Jonghyuk Park, Wi-Sun Ryu, Jong Chul Ye* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08440)] \\\n15 Mar 2023\n\n**Controllable Mesh Generation Through Sparse Latent Point Diffusion Models** \\\n*Zhaoyang Lyu, Jinyi Wang, Yuwei An, Ya Zhang, Dahua Lin, Bo Dai* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07938)] [[Project](https:\u002F\u002Fslide-3d.github.io\u002F)] \\\n14 Mar 2023\n\n**MeshDiffusion: Score-based Generative 3D Mesh Modeling** \\\n*Zhen Liu, Yao Feng, Michael J. Black, Derek Nowrouzezahrai, Liam Paull, Weiyang Liu* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08133)] [[Project](https:\u002F\u002Fmeshdiffusion.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Flzzcd001\u002FMeshDiffusion\u002F)] \\\n14 Mar 2023\n\n**Point Cloud Diffusion Models for Automatic Implant Generation** \\\n*Paul Friedrich, Julia Wolleb, Florentin Bieder, Florian M. Thieringer, Philippe C. Cattin* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08061)] \\\n14 Mar 2023\n\n**Let 2D Diffusion Model Know 3D-Consistency for Robust Text-to-3D Generation** \\\n*Junyoung Seo, Wooseok Jang, Min-Seop Kwak, Jaehoon Ko, Hyeonsu Kim, Junho Kim, Jin-Hwa Kim, Jiyoung Lee, Seungryong Kim* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07937)] [[Github](https:\u002F\u002Fgithub.com\u002FKU-CVLAB\u002F3DFuse)] \\\n14 Mar 2023\n\n**GECCO: Geometrically-Conditioned Point Diffusion Models** \\\n*Michał J. Tyszkiewicz, Pascal Fua, Eduard Trulls* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05916)] \\\n10 Mar 2023\n\n\n\n**3DGen: Triplane Latent Diffusion for Textured Mesh Generation** \\\n*Anchit Gupta, Wenhan Xiong, Yixin Nie, Ian Jones, Barlas Oğuz* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05371)] \\\n9 Mar 2023\n\n**Human Motion Diffusion as a Generative Prior** \\\n*Yonatan Shafir, Guy Tevet, Roy Kapon, Amit H. Bermano* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.01418)] \\\n2 Mar 2023\n\n**Can We Use Diffusion Probabilistic Models for 3D Motion Prediction?** \\\n*Hyemin Ahn, Esteve Valls Mascaro, Dongheui Lee* \\\nICRA 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.14503)] [[Project](https:\u002F\u002Fsites.google.com\u002Fview\u002Fdiffusion-motion-prediction)] [[Github](https:\u002F\u002Fgithub.com\u002Fcotton-ahn\u002Fdiffusion-motion-prediction)] \\\n28 Feb 2023\n\n\n**DiffusioNeRF: Regularizing Neural Radiance Fields with Denoising Diffusion Models** \\\n*Jamie Wynn, Daniyar Turmukhambetov* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.12231)] [[Github](https:\u002F\u002Fgithub.com\u002Fnianticlabs\u002Fdiffusionerf)] [[Github](https:\u002F\u002Fgithub.com\u002Flukemelas\u002Fprojection-conditioned-point-cloud-diffusion)] \\\n23 Feb 2023\n\n**PC2: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D Reconstruction** \\\n*Luke Melas-Kyriazi, Christian Rupprecht, Andrea Vedaldi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10668)] [Project](https:\u002F\u002Flukemelas.github.io\u002Fprojection-conditioned-point-cloud-diffusion\u002F)] \\\n23 Feb 2023\n\n**NerfDiff: Single-image View Synthesis with NeRF-guided Distillation from 3D-aware Diffusion** \\\n*Jiatao Gu, Alex Trevithick, Kai-En Lin, Josh Susskind, Christian Theobalt, Lingjie Liu, Ravi Ramamoorthi* \\\nICML 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10109)] [[Github](https:\u002F\u002Fjiataogu.me\u002Fnerfdiff\u002F)] \\\n20 Feb 2023\n\n**SinMDM: Single Motion Diffusion** \\\n*Sigal Raab, Inbal Leibovitch, Guy Tevet, Moab Arar, Amit H. Bermano, Daniel Cohen-Or* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.05905)] [[Project](https:\u002F\u002Fsinmdm.github.io\u002FSinMDM-page\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FSinMDM\u002FSinMDM)] \\\n12 Feb 2023\n\n**3D Colored Shape Reconstruction from a Single RGB Image through Diffusion** \\\n*Bo Li, Xiaolin Wei, Fengwei Chen, Bin Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.05573)] \\\n11 Feb 2023\n\n**HumanMAC: Masked Motion Completion for Human Motion Prediction** \\\n*Ling-Hao Chen, Jiawei Zhang, Yewen Li, Yiren Pang, Xiaobo Xia, Tongliang Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03665)] [[Project](https:\u002F\u002Flhchen.top\u002FHuman-MAC\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FLinghaoChan\u002FHumanMAC)] \\\n7 Feb 2023\n\n**TEXTure: Text-Guided Texturing of 3D Shapes** \\\n*Elad Richardson, Gal Metzer, Yuval Alaluf, Raja Giryes, Daniel Cohen-Or* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.01721)] [[Project](https:\u002F\u002Ftexturepaper.github.io\u002FTEXTurePaper\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FTEXTurePaper\u002FTEXTurePaper)] \\\n3 Feb 2023\n\n\n\n**Zero3D: Semantic-Driven Multi-Category 3D Shape Generation** \\\n*Bo Han, Yitong Liu, Yixuan Shen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13591)] \\\n31 Jan 2023\n\n**Neural Wavelet-domain Diffusion for 3D Shape Generation, Inversion, and Manipulation** \\\n*Jingyu Hu, Ka-Hei Hui, Zhengzhe Liu, Ruihui Li, Chi-Wing Fu* \\\nSIGGRAPH ASIA 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.00190)] [[Github](https:\u002F\u002Fgithub.com\u002Fedward1997104\u002FWavelet-Generation)] \\\n1 Feb 2023\n\n**3DShape2VecSet: A 3D Shape Representation for Neural Fields and Generative Diffusion Models** \\\n*Biao Zhang, Jiapeng Tang, Matthias Niessner, Peter Wonka* \\\nSIGGRAPH 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11445)] [[Github](https:\u002F\u002F1zb.github.io\u002F3DShape2VecSet\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002F1zb\u002F3DShape2VecSet)] \\\n26 Jan 2023\n\n\n**DiffMotion: Speech-Driven Gesture Synthesis Using Denoising Diffusion Model** \\\n*Fan Zhang, Naye Ji, Fuxing Gao, Yongping Li* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.10047)] \\\n24 Jan 2023\n\n**Bipartite Graph Diffusion Model for Human Interaction Generation** \\\n*Baptiste Chopin, Hao Tang, Mohamed Daoudi* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.10134)] \\\n24 Jan 2023\n\n\n**Diffusion-based Generation, Optimization, and Planning in 3D Scenes** \\\n*Siyuan Huang, Zan Wang, Puhao Li, Baoxiong Jia, Tengyu Liu, Yixin Zhu, Wei Liang, Song-Chun Zhu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.06015)] [[Project](https:\u002F\u002Fscenediffuser.github.io\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fscenediffuser\u002FScene-Diffuser)] \\\n15 Jan 2023\n\n**Modiff: Action-Conditioned 3D Motion Generation with Denoising Diffusion Probabilistic Models** \\\n*Mengyi Zhao, Mengyuan Liu, Bin Ren, Shuling Dai, Nicu Sebe* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.03949)] \\\n10 Jan 2023\n\n\n**Diffusion Probabilistic Models for Scene-Scale 3D Categorical Data** \\\n*Jumin Lee, Woobin Im, Sebin Lee, Sung-Eui Yoon* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.00527)] [[Github](https:\u002F\u002Fgithub.com\u002Fzoomin-lee\u002Fscene-scale-diffusion)] \\\n2 Jan 2023\n\n**Dream3D: Zero-Shot Text-to-3D Synthesis Using 3D Shape Prior and Text-to-Image Diffusion Models** \\\n*Jiale Xu, Xintao Wang, Weihao Cheng, Yan-Pei Cao, Ying Shan, Xiaohu Qie, Shenghua Gao* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.14704)] [[Project](https:\u002F\u002Fbluestyle97.github.io\u002Fdream3d\u002F)] \\\n28 Dec 2022\n\n**Point-E: A System for Generating 3D Point Clouds from Complex Prompts** \\\n*Alex Nichol, Heewoo Jun, Prafulla Dhariwal, Pamela Mishkin, Mark Chen* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08751)] [[Github](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fpoint-e)] \\\n16 Dec 2022\n\n**Real-Time Rendering of Arbitrary Surface Geometries using Learnt Transfer** \\\n*Sirikonda Dhawal, Aakash KT, P.J. Narayanan* \\\nICVGIP 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.09315)] \\\n19 Dec 2022\n\n**Unifying Human Motion Synthesis and Style Transfer with Denoising Diffusion Probabilistic Models** \\\n*Ziyi Chang, Edmund J. C. Findlay, Haozheng Zhang, Hubert P. H. Shum* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08526)] \\\n16 Dec 2022\n\n**Rodin: A Generative Model for Sculpting 3D Digital Avatars Using Diffusion** \\\n*Tengfei Wang, Bo Zhang, Ting Zhang, Shuyang Gu, Jianmin Bao, Tadas Baltrusaitis, Jingjing Shen, Dong Chen, Fang Wen, Qifeng Chen, Baining Guo* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06135)] [[Project](https:\u002F\u002F3d-avatar-diffusion.microsoft.com\u002F#\u002F)] \\\n12 Dec 2022\n\n**Generative Scene Synthesis via Incremental View Inpainting using RGBD Diffusion Models** \\\n*Jiabao Lei, Jiapeng Tang, Kui Jia* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05993)] [[Project](https:\u002F\u002Fjblei.site\u002Fproject-pages\u002Frgbd-diffusion.html)] [[Github](https:\u002F\u002Fgithub.com\u002FKarbo123\u002FRGBD-Diffusion)] \\\n12 Dec 2022\n\n**Ego-Body Pose Estimation via Ego-Head Pose Estimation** \\\n*Jiaman Li, C. Karen Liu, Jiajun Wu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04636)] \\\n9 Dec 2022\n\n\n**MoFusion: A Framework for Denoising-Diffusion-based Motion Synthesis** \\\n*Rishabh Dabral, Muhammad Hamza Mughal, Vladislav Golyanik, Christian Theobalt* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04495)] [[Project](https:\u002F\u002Fvcai.mpi-inf.mpg.de\u002Fprojects\u002FMoFusion\u002F)] \\\n8 Dec 2022\n\n\n**SDFusion: Multimodal 3D Shape Completion, Reconstruction, and Generation** \\\n*Yen-Chi Cheng, Hsin-Ying Lee, Sergey Tulyakov, Alexander Schwing, Liangyan Gui* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04493)] [[Project](https:\u002F\u002Fyccyenchicheng.github.io\u002FSDFusion\u002F)] \\\n8 Dec 2022\n\n\n**Executing your Commands via Motion Diffusion in Latent Space** \\\n*Xin Chen, Biao Jiang, Wen Liu, Zilong Huang, Bin Fu, Tao Chen, Jingyi Yu, Gang Yu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04048)] [[Project](https:\u002F\u002Fchenxin.tech\u002Fmld\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FChenFengYe\u002Fmotion-latent-diffusion)] \\\n8 Dec 2022\n\n**Magic: Multi Art Genre Intelligent Choreography Dataset and Network for 3D Dance Generation** \\\n*Ronghui Li, Junfan Zhao, Yachao Zhang, Mingyang Su, Zeping Ren, Han Zhang, Xiu Li* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03741)] \\\n7 Dec 2022\n\n\n**NeRDi: Single-View NeRF Synthesis with Language-Guided Diffusion as General Image Priors** \\\n*Congyue Deng, Chiyu \"Max'' Jiang, Charles R. Qi, Xinchen Yan, Yin Zhou, Leonidas Guibas, Dragomir Anguelov* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03267)] \\\n6 Dec 2022\n\n**Diffusion-SDF: Text-to-Shape via Voxelized Diffusion** \\\n*Muheng Li, Yueqi Duan, Jie Zhou, Jiwen Lu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03293)] [[Github](https:\u002F\u002Fgithub.com\u002Fttlmh\u002FDiffusion-SDF)] \\\n6 Dec 2022\n\n\n\n**Pretrained Diffusion Models for Unified Human Motion Synthesis** \\\n*Jianxin Ma, Shuai Bai, Chang Zhou* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02837)] [[Project](https:\u002F\u002Fofa-sys.github.io\u002FMoFusion\u002F)] \\\n6 Dec 2022\n\n**DiffuPose: Monocular 3D Human Pose Estimation via Denoising Diffusion Probabilistic Model** \\\n*Jeongjun Choi, Dongseok Shim, H. Jin Kim* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02796)] \\\n6 Dec 2022\n\n**PhysDiff: Physics-Guided Human Motion Diffusion Model** \\\n*Ye Yuan, Jiaming Song, Umar Iqbal, Arash Vahdat, Jan Kautz* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02500)] [[Project](https:\u002F\u002Fnvlabs.github.io\u002FPhysDiff\u002F)] \\\n5 Dec 2022\n\n**Fast Point Cloud Generation with Straight Flows** \\\n*Lemeng Wu, Dilin Wang, Chengyue Gong, Xingchao Liu, Yunyang Xiong, Rakesh Ranjan, Raghuraman Krishnamoorthi, Vikas Chandra, Qiang Liu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.01747)] \\\n4 Dec 2022\n\n\n**DiffRF: Rendering-Guided 3D Radiance Field Diffusion** \\\n*Norman Müller, Yawar Siddiqui, Lorenzo Porzi, Samuel Rota Bulò, Peter Kontschieder, Matthias Nießner* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.01206)] [[Project](https:\u002F\u002Fsirwyver.github.io\u002FDiffRF\u002F)] \\\n2 Dec 2022\n\n**3D-LDM: Neural Implicit 3D Shape Generation with Latent Diffusion Models** \\\n*Gimin Nam, Mariem Khlifi, Andrew Rodriguez, Alberto Tono, Linqi Zhou, Paul Guerrero* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00842)] \\\n1 Dec 2022\n\n\n**Score Jacobian Chaining: Lifting Pretrained 2D Diffusion Models for 3D Generation** \\\n*Haochen Wang, Xiaodan Du, Jiahao Li, Raymond A. Yeh, Greg Shakhnarovich* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00774)] [[Project](https:\u002F\u002Fpals.ttic.edu\u002Fp\u002Fscore-jacobian-chaining)] \\\n1 Dec 2022\n\n\n**SparseFusion: Distilling View-conditioned Diffusion for 3D Reconstruction** \\\n*Zhizhuo Zhou, Shubham Tulsiani* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00792)] [[Project](https:\u002F\u002Fsparsefusion.github.io\u002F)] [[Github](https:\u002F\u002Fsparsefusion.github.io\u002F)] \\\n1 Dec 2022\n\n**3D Neural Field Generation using Triplane Diffusion** \\\n*J. Ryan Shue, Eric Ryan Chan, Ryan Po, Zachary Ankner, Jiajun Wu, Gordon Wetzstein* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16677)] [[Project](https:\u002F\u002Fjryanshue.com\u002Fnfd\u002F)] \\\n30 Nov 2022\n\n\n**DiffPose: Toward More Reliable 3D Pose Estimation** \\\n*Jia Gong, Lin Geng Foo, Zhipeng Fan, Qiuhong Ke, Hossein Rahmani, Jun Liu* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16940)] [[Github](https:\u002F\u002Fgithub.com\u002FGONGJIA0208\u002FDiffpose)] \\\n30 Nov 2022\n\n**DiffPose: Multi-hypothesis Human Pose Estimation using Diffusion models** \\\n*Karl Holmquist, Bastian Wandt* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16487)] [[Github](https:\u002F\u002Fgithub.com\u002FpaTRICK-swk\u002FD3DP)] \\\n29 Nov 2022\n\n**DATID-3D: Diversity-Preserved Domain Adaptation Using Text-to-Image Diffusion for 3D Generative Model** \\\n*Gwanghyun Kim, Se Young Chun* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16374)] [[Github](https:\u002F\u002Fdatid-3d.github.io\u002F)] \\\n29 Nov 2022\n\n**NeuralLift-360: Lifting An In-the-wild 2D Photo to A 3D Object with 360° Views** \\\n*Dejia Xu, Yifan Jiang, Peihao Wang, Zhiwen Fan, Yi Wang, Zhangyang Wang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16431)] [[Project](https:\u002F\u002Fvita-group.github.io\u002FNeuralLift-360\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FNeuralLift-360)] \\\n29 Nov 2022\n\n**Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive Diffusion** \\\n*Kui Zhang, Hang Zhou, Jie Zhang, Qidong Huang, Weiming Zhang, Nenghai Yu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16247)] \\\n29 Nov 2022\n\n**UDE: A Unified Driving Engine for Human Motion Generation** \\\n*Zixiang Zhou, Baoyuan Wang* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16016)] [[Project](https:\u002F\u002Fzixiangzhou916.github.io\u002FUDE\u002F)] [[Github](https:\u002F\u002Fgithub.com\u002Fzixiangzhou916\u002FUDE\u002F)] \\\n29 Nov 2022\n\n\n**3DDesigner: Towards Photorealistic 3D Object Generation and Editing with Text-guided Diffusion Models** \\\n*Gang Li, Heliang Zheng, Chaoyue Wang, Chang Li, Changwen Zheng, Dacheng Tao* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.14108)] \\\n25 Nov 2022\n\n**DiffusionSDF: Conditional Generative Modeling of Signed Distance Functions** \\\n*Gene Chou, Yuval Bahat, Felix Heide* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13757)] [[Github](https:\u002F\u002Fgithub.com\u002Fprinceton-computational-imaging\u002FDiffusion-SDF)] \\\n24 Nov 2022\n\n**Tetrahedral Diffusion Models for 3D Shape Generation** \\\n*Nikolai Kalischek, Torben Peters, Jan D. Wegner, Konrad Schindler* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13220)] \\\n23 Nov 2022\n\n**IC3D: Image-Conditioned 3D Diffusion for Shape Generation** \\\n*Cristian Sbrolli, Paolo Cudrano, Matteo Frosi, Matteo Matteucci* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10865)] \\\n20 Nov 2022\n\n\n**Listen, denoise, action! Audio-driven motion synthesis with diffusion models** \\\n*Simon Alexanderson, Rajmund Nagy, Jonas Beskow, Gustav Eje Henter* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09707)] \\\n17 Nov 2022\n\n\n**RenderDiffusion: Image Diffusion for 3D Reconstruction, Inpainting and Generation** \\\n*Titas Anciukevičius, Zexiang Xu, Matthew Fisher, Paul Henderson, Hakan Bilen, Niloy J. Mitra, Paul Guerrero* \\\nCVPR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09869)] [[Github](https:\u002F\u002Fgithub.com\u002FAnciukevicius\u002FRenderDiffusion)] \\\n17 Nov 2022\n\n\n**Latent-NeRF for Shape-Guided Generation of 3D Shapes and Textures** \\\n*Gal Metzer, Elad Richardson, Or Patashnik, Raja Giryes, Daniel Cohen-Or* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.07600)] [[Github](https:\u002F\u002Fgithub.com\u002Feladrich\u002Flatent-nerf)] \\\n14 Nov 2022\n\n**ReFu: Refine and Fuse the Unobserved View for Detail-Preserving Single-Image 3D Human Reconstruction** \\\n*Gyumin Shim, Minsoo Lee, Jaegul Choo* \\\nACM 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.04753)] \\\n9 Nov 2022\n\n**StructDiffusion: Object-Centric Diffusion for Semantic Rearrangement of Novel Objects** \\\n*Weiyu Liu, Tucker Hermans, Sonia Chernova, Chris Paxton* \\\nRSS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.04604)] \\\n8 Nov 2022\n\n**Diffusion Motion: Generate Text-Guided 3D Human Motion by Diffusion Model** \\\n*Zhiyuan Ren, Zhihong Pan, Xin Zhou, Le Kang* \\\nICASSP 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12315)] \\\n22 Oct 2022\n\n**LION: Latent Point Diffusion Models for 3D Shape Generation** \\\n*Xiaohui Zeng, Arash Vahdat, Francis Williams, Zan Gojcic, Or Litany, Sanja Fidler, Karsten Kreis* \\\nNeurIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2210.06978.pdf)] [[Project](https:\u002F\u002Fnv-tlabs.github.io\u002FLION\u002F)] \\\n12 Oct 2022\n\n**Human Joint Kinematics Diffusion-Refinement for Stochastic Motion Prediction** \\\n*Dong Wei, Huaijiang Sun, Bin Li, Jianfeng Lu, Weiqing Li, Xiaoning Sun, Shengxiang Hu* \\\nAAAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05976)] \\\n12 Oct 2022\n\n\n**A generic diffusion-based approach for 3D human pose prediction in the wild** \\\n*Saeed Saadatnejad, Ali Rasekh, Mohammadreza Mofayezi, Yasamin Medghalchi, Sara Rajabzadeh, Taylor Mordan, Alexandre Alahi* \\\nICRA 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05669)] \\\n11 Oct 2022\n\n\n**Novel View Synthesis with Diffusion Models** \\\n*Daniel Watson, William Chan, Ricardo Martin-Brualla, Jonathan Ho, Andrea Tagliasacchi, Mohammad Norouzi* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.04628)] \\\n6 Oct 2022\n\n**Neural Volumetric Mesh Generator** \\\n*Yan Zheng, Lemeng Wu, Xingchao Liu, Zhen Chen, Qiang Liu, Qixing Huang* \\\nNeurIPS Workshop 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.03158)] \\\n6 Oct 2022\n\n\n**Denoising Diffusion Probabilistic Models for Styled Walking Synthesis** \\\n*Edmund J. C. Findlay, Haozheng Zhang, Ziyi Chang, Hubert P. H. Shum* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14828)] \\\n29 Sep 2022\n\n\n**Human Motion Diffusion Model** \\\n*Guy Tevet, Sigal Raab, Brian Gordon, Yonatan Shafir, Amit H. Bermano, Daniel Cohen-Or* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14916)] [[Project](https:\u002F\u002Fguytevet.github.io\u002Fmdm-page\u002F)] \\\n29 Sep 2022\n\n\n**ISS: Image as Stepping Stone for Text-Guided 3D Shape Generation** \\\n*Zhengzhe Liu, Peng Dai, Ruihui Li, Xiaojuan Qi, Chi-Wing Fu* \\\nICLR 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04145)] [[Github](https:\u002F\u002Fgithub.com\u002Fliuzhengzhe\u002FISS-Image-as-Stepping-Stone-for-Text-Guided-3D-Shape-Generation)] \\\n9 Sep 2022\n\n**SE(3)-DiffusionFields: Learning cost functions for joint grasp and motion optimization through diffusion** \\\n*Julen Urain, Niklas Funk, Georgia Chalvatzaki, Jan Peters* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.03855)] [[Github](https:\u002F\u002Fgithub.com\u002FTheCamusean\u002Fgrasp_diffusion)] \\\n8 Sep 2022\n\n**First Hitting Diffusion Models for Generating Manifold, Graph and Categorical Data** \\\n*Mao Ye, Lemeng Wu, Qiang Liu* \\\nNeruIPS 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.01170)] \\\n2 Sep 2022\n\n**FLAME: Free-form Language-based Motion Synthesis & Editing** \\\n*Jihoon Kim, Jiseob Kim, Sungjoon Choi* \\\nAAAI 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.00349)] \\\n1 Sep 2022\n\n**Let us Build Bridges: Understanding and Extending Diffusion Generative Models** \\\n*Xingchao Liu, Lemeng Wu, Mao Ye, Qiang Liu* \\\nNeurIPS Workshop 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.14699)] \\\n31 Aug 2022\n\n\n**MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model** \\\n*Mingyuan Zhang, Zhongang Cai, Liang Pan, Fangzhou Hong, Xinying Guo, Lei Yang, Ziwei Liu* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.15001)] [[Project](https:\u002F\u002Fmingyuan-zhang.github.io\u002Fprojects\u002FMotionDiffuse.html)] \\\n31 Aug 2022\n\n\n**A Diffusion Model Predicts 3D Shapes from 2D Microscopy Images** \\\n*Dominik J. E. Waibel, Ernst Röell, Bastian Rieck, Raja Giryes, Carsten Marr* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.14125)] \\\n30 Aug 2022\n\n\n**PointDP: Diffusion-driven Purification against Adversarial Attacks on 3D Point Cloud Recognition** \\\n*Jiachen Sun, Weili Nie, Zhiding Yu, Z. Morley Mao, Chaowei Xiao* \\\narXiv 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.09801)] \\\n21 Aug 2022\n\n**A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud Completion** \\\n*Zhaoyang Lyu, Zhifeng Kong, Xudong Xu, Liang Pan, Dahua Lin* \\\nICLR 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.03530)] [[Github](https:\u002F\u002Fgithub.com\u002Fzhaoyanglyu\u002Fpoint_diffusion_refinement)] \\\n7 Dec 2021\n\n**Score-Based Point Cloud Denoising** \\\n*Shitong Luo, Wei Hu*\\\nICCV 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.10981)] [[Github](https:\u002F\u002Fgithub.com\u002Fluost26\u002Fscore-denoise)] \\\n23 Jul 2021\n\n\n\n**DiffuStereo: High Quality Human Reconstruction via Diffusion-based Stereo Using Sparse Cameras** \\\n*Ruizhi Shao, Zerong Zheng, Hongwen Zhang, Jingxiang Sun, Yebin Liu* \\\nECCV 2022. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.08000)] [[Project](http:\u002F\u002Fliuyebin.com\u002Fdiffustereo\u002Fdiffustereo.html)] [[Github](https:\u002F\u002Fgithub.com\u002FDSaurus\u002FDiffuStereo)] \\\n16 Jul 2022\n\n**3D Shape Generation and Completion through Point-Voxel Diffusion** \\\n*Linqi Zhou, Yilun Du, Jiajun Wu* \\\nICCV 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.03670)] [[Project](https:\u002F\u002Falexzhou907.github.io\u002Fpvd)] \\\n8 Apr 2021\n\n**Diffusion Probabilistic Models for 3D Point Cloud Generation** \\\n*Shitong Luo, Wei Hu* \\\nCVPR 2021. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.01458)] [[Github](https:\u002F\u002Fgithub.com\u002Fluost26\u002Fdiffusion-point-cloud)] \\\n2 Mar 2021 \n\n\n### Adversarial Attack\n\n**Generated Distributions Are All You Need for Membership Inference Attacks Against Generative Models** \\\n*Minxing Zhang, Ning Yu, Rui Wen, Michael Backes, Yang Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19410)] \\\n30 Oct 2023\n\n**Adversarial Examples Are Not Real Features** \\\n*Ang Li, Yifei Wang, Yiwen Guo, Yisen Wang* \\\nNeurIPS 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18936)] \\\n29 Oct 2023\n\n**Purify++: Improving Diffusion-Purification with Advanced Diffusion Models and Control of Randomness** \\\n*Boya Zhang, Weijian Luo, Zhihua Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18762)] \\\n28 Oct 2023\n\n**Energy-Based Models for Anomaly Detection: A Manifold Diffusion Recovery Approach** \\\n*Sangwoong Yoon, Young-Uk Jin, Yung-Kyun Noh, Frank C. Park* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18677)] \\\n28 Oct 2023\n\n\n**Model Selection of Anomaly Detectors in the Absence of Labeled Validation Data** \\\n*Clement Fung, Chen Qiu, Aodong Li, Maja Rudolph* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10461)] \\\n16 Oct 2023\n\n**Boosting Black-box Attack to Deep Neural Networks with Conditional Diffusion Models** \\\n*Renyang Liu, Wei Zhou, Tianwei Zhang, Kangjie Chen, Jun Zhao, Kwok-Yan Lam* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07492)] \\\n11 Oct 2023\n\n**Investigating the Adversarial Robustness of Density Estimation Using the Probability Flow ODE** \\\n*Marius Arvinte, Cory Cornelius, Jason Martin, Nageen Himayat* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07084)] \\\n10 Oct 2023\n\n**Understanding and Improving Adversarial Attacks on Latent Diffusion Model** \\\n*Boyang Zheng, Chumeng Liang, Xiaoyu Wu, Yan Liu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04687)] \\\n7 Oct 2023\n\n**Semantic Adversarial Attacks via Diffusion Models** \\\n*Chenan Wang, Jinhao Duan, Chaowei Xiao, Edward Kim, Matthew Stamm, Kaidi Xu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07398)] \\\n14 Sep 2023\n\n**Catch You Everything Everywhere: Guarding Textual Inversion via Concept Watermarking** \\\n*Weitao Feng, Jiyan He, Jie Zhang, Tianwei Zhang, Wenbo Zhou, Weiming Zhang, Nenghai Yu* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05940)] \\\n12 Sep 2023\n\n**Diff-Privacy: Diffusion-based Face Privacy Protection** \\\n*Xiao He, Mingrui Zhu, Dongxin Chen, Nannan Wang, Xinbo Gao* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05330)] \\\n11 Sep 2023\n\n**DiffDefense: Defending against Adversarial Attacks via Diffusion Models** \\\n*Hondamunige Prasanna Silva, Lorenzo Seidenari, Alberto Del Bimbo* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03702)] [[Github](https:\u002F\u002Fgithub.com\u002FHondamunigePrasannaSilva\u002FDiffDefence)] \\\n7 Sep 2023\n\n**My Art My Choice: Adversarial Protection Against Unruly AI** \\\n*Anthony Rhodes, Ram Bhagat, Umur Aybars Ciftci, Ilke Demir* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03198)] \\\n6 Sep 2023\n\n**Improving Visual Quality and Transferability of Adversarial Attacks on Face Recognition Simultaneously with Adversarial Restoration** \\\n*Fengfan Zhou* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01582)] \\\n4 Sep 2023\n\n\n**Intriguing Properties of Diffusion Models: A Large-Scale Dataset for Evaluating Natural Attack Capability in Text-to-Image Generative Models** \\\n*Takami Sato, Justin Yue, Nanze Chen, Ningfei Wang, Qi Alfred Chen* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15692)] \\\n30 Aug 2023\n\n**DiffSmooth: Certifiably Robust Learning via Diffusion Models and Local Smoothing** \\\n*Jiawei Zhang, Zhongzhu Chen, Huan Zhang, Chaowei Xiao, Bo Li* \\\nUSENIX Security 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14333)] \\\n28 Aug 2023\n\n**A Probabilistic Fluctuation based Membership Inference Attack for Diffusion Models** \\\n*Wenjie Fu, Huandong Wang, Chen Gao, Guanghua Liu, Yong Li, Tao Jiang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12143)] \\\n23 Aug 2023\n\n\n\n**White-box Membership Inference Attacks against Diffusion Models** \\\n*Yan Pang, Tianhao Wang, Xuhui Kang, Mengdi Huai, Yang Zhang* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06405)] \\\n11 Aug 2023\n\n**BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models** \\\n*Jordan Vice, Naveed Akhtar, Richard Hartley, Ajmal Mian* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16489)] [[Github](https:\u002F\u002Fgithub.com\u002FJJ-Vice\u002FBAGM)] [[Dataset](https:\u002F\u002Fieee-datapo","[![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fhee9joon\u002FAwesome-Diffusion-Models) \n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-green.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![Made With Love](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMade%20With-Love-red.svg)](https:\u002F\u002Fgithub.com\u002Fchetanraj\u002Fawesome-github-badges)\n\n本仓库收录了关于***扩散模型***的资源与论文合集。\n\n由于页面限制，本页面可能无法包含所有信息，请参阅[此页面](https:\u002F\u002Fdiff-usion.github.io\u002FAwesome-Diffusion-Models\u002F)以获取完整内容。\n\n## 目录\n- [资源](#resources)\n  - [入门文章](#introductory-posts)\n  - [入门论文](#introductory-papers)\n  - [入门视频](#introductory-videos)\n  - [入门讲座](#introductory-lectures)\n  - [教程与Jupyter Notebook](#tutorial-and-jupyter-notebook)\n- [论文](#papers)\n  - [综述](#survey)\n  - [视觉](#vision)\n    - [生成](#generation)\n    - [分类](#classification)\n    - [分割](#segmentation)\n    - [图像转换](#image-translation)\n    - [逆问题](#inverse-problems)\n    - [医学影像](#medical-imaging)\n    - [多模态学习](#multi-modal-learning)\n    - [3D视觉](#3d-vision)\n    - [对抗攻击](#adversarial-attack)\n    - [其他](#miscellany)\n  - [音频](#audio)\n    - [生成](#generation-1)\n    - [转换](#conversion)\n    - [增强](#enhancement)\n    - [分离](#separation)\n    - [文本到语音](#text-to-speech)\n    - [其他](#miscellany-1)\n  - [自然语言](#natural-language)\n  - [表格与时间序列](#tabular-and-time-series)\n    - [生成](#generation-2)\n    - [预测](#forecasting)\n    - [插补](#imputation)\n    - [其他](#miscellany-2)\n  - [图](#graph)\n    - [生成](#generation-3)\n    - [分子与材料生成](#molecular-and-material-generation)\n  - [强化学习](#reinforcement-learning)\n  - [理论](#theory)\n  - [应用](#applications)\n\n\n# 资源\n## 入门文章\n\n**:fast_forward: DiffusionFastForward: 01-扩散理论** \\\n*米科瓦伊·切尔卡夫斯基 (@mikonvergence)* \\\n[[网站](https:\u002F\u002Fgithub.com\u002Fmikonvergence\u002FDiffusionFastForward\u002Fblob\u002Fmaster\u002Fnotes\u002F01-Diffusion-Theory.md)] \\\n2023年2月4日\n\n**扩散模型的工作原理：从头开始的数学推导** \\\n*塞尔吉奥斯·卡拉扬纳科斯、尼科拉斯·阿达洛格鲁* \\\n[[网站](https:\u002F\u002Ftheaisummer.com\u002Fdiffusion-models\u002F?fbclid=IwAR1BIeNHqa3NtC8SL0sKXHATHklJYphNH-8IGNoO3xZhSKM_GYcvrrQgB0o)] \\\n2022年9月24日\n\n**通往变分扩散损失之路** \\\n*亚历克斯·阿莱米* \\\n[[网站](https:\u002F\u002Fblog.alexalemi.com\u002Fdiffusion.html)] [[Colab](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle-research\u002Fvdm\u002Fblob\u002Fmain\u002Fcolab\u002FSimpleDiffusionColab.ipynb)] \\\n2022年9月15日\n\n**注释版扩散模型** \\\n*尼尔斯·罗格、卡希夫·拉苏尔* \\\n[[网站](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fannotated-diffusion)] \\\n2022年6月6日\n\n**基于扩散的模型的兴起** \\\n*马切伊·多马加拉* \\\n[[网站](https:\u002F\u002Fmaciejdomagala.github.io\u002Fgenerative_models\u002F2022\u002F06\u002F06\u002FThe-recent-rise-of-diffusion-based-models.html)] \\\n2022年6月6日\n\n**机器学习中的扩散模型简介** \\\n*瑞安·奥康纳* \\\n[[网站](https:\u002F\u002Fwww.assemblyai.com\u002Fblog\u002Fdiffusion-models-for-machine-learning-introduction\u002F)] \\\n2022年5月12日\n\n**改进扩散模型作为GAN的替代方案** \\\n*阿拉什·瓦赫达特和卡斯滕·克赖斯* \\\n[[网站-第一部分](https:\u002F\u002Fdeveloper.nvidia.com\u002Fblog\u002Fimproving-diffusion-models-as-an-alternative-to-gans-part-1\u002F)] [[网站-第二部分](https:\u002F\u002Fdeveloper.nvidia.com\u002Fblog\u002Fimproving-diffusion-models-as-an-alternative-to-gans-part-2\u002F)] \\\n2022年4月26日\n\n**扩散概率模型简介** \\\n*阿扬·达斯* \\\n[[网站](https:\u002F\u002Fayandas.me\u002Fblog-tut\u002F2021\u002F12\u002F04\u002Fdiffusion-prob-models.html)] \\\n2021年12月4日\n\n**深度生成建模导论：基于扩散的深度生成模型** \\\n*雅库布·托姆恰克* \\\n[[网站](https:\u002F\u002Fjmtomczak.github.io\u002Fblog\u002F10\u002F10_ddgms_lvm_p2.html)] \\\n2021年8月30日\n\n**什么是扩散模型？** \\\n*莉莲·温格* \\\n[[网站](https:\u002F\u002Flilianweng.github.io\u002Flil-log\u002F2021\u002F07\u002F11\u002Fdiffusion-models.html)] \\\n2021年7月11日\n\n**扩散模型作为一种VAE** \\\n*安格斯·特纳* \\\n[[网站](https:\u002F\u002Fangusturner.github.io\u002Fgenerative_models\u002F2021\u002F06\u002F29\u002Fdiffusion-probabilistic-models-I.html)] \\\n2021年6月29日\n\n**通过估计数据分布的梯度进行生成建模** \\\n*杨松* \\\n[[网站](https:\u002F\u002Fyang-song.github.io\u002Fblog\u002F2021\u002Fscore\u002F)] \\\n2021年5月5日\n\n## 入门论文\n\n**理解扩散模型：统一视角** \\\n*卡尔文·卢* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.11970)] \\\n2022年8月25日\n\n**如何训练你的基于能量的模型** \\\n*杨松、迪德里克·P·金玛* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.03288)] \\\n2021年1月9日\n\n## 入门视频\n\n**:fast_forward: DiffusionFastForward** \\\n*米科瓦伊·切尔卡夫斯基 (@mikonvergence)* \\\n[[视频](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL5RHjmn-MVHDMcqx-SI53mB7sFOqPK6gN)] \\\n2023年3月4日\n\n**用PyTorch从零开始实现扩散模型** \\\n*DeepFindr* \\\n[[视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=a4Yfz2FxXiY)] \\\n2022年7月18日\n\n**扩散模型 | 论文解读 | 数学详解** \\\n*Outlier* \\\n[[视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=HoKDTa5jHvg)] \\\n2022年6月6日\n\n**什么是扩散模型？** \\\n*阿里·塞夫* \\\n[[视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=fbLgFrlTnGU&list=LL&index=2)] \\\n2022年4月20日\n\n**扩散模型解析** \\\n*AI Coffee Break with Letitia* \\\n[[视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=344w5h24-h8&ab_channel=AICoffeeBreakwithLetitia)] \\\n2022年3月23日\n\n## 入门讲座\n\n**去噪扩散生成建模：基础与应用** \\\n*卡斯滕·克赖斯、高睿琪、阿拉什·瓦赫达特* \\\n[[页面](https:\u002F\u002Fcvpr2022-tutorial-diffusion-models.github.io\u002F)] \\\n2022年6月19日\n\n**扩散概率模型** \\\n*贾莎·索尔-迪克斯坦，MIT 6.S192 - 第22讲* \\\n[[视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=XCUlnHP1TNM)] \\\n2022年4月19日\n\n## 教程和 Jupyter Notebook\n\n**:fast_forward: DiffusionFastForward：在 Colab 中从头开始训练** \\\n*米科瓦伊·切尔卡夫斯基 (@mikonvergence)* \\\n[[GitHub](https:\u002F\u002Fgithub.com\u002Fmikonvergence\u002FDiffusionFastForward)]\n[[笔记本](https:\u002F\u002Fgithub.com\u002Fmikonvergence\u002FDiffusionFastForward#computer-code)]\n\n**diffusion-for-beginners** \\\n*ozanciga* \\\n[[GitHub](https:\u002F\u002Fgithub.com\u002Fozanciga\u002Fdiffusion-for-beginners)]\n\n**超越扩散模型：什么是个性化图像生成？如何自定义图像合成？** \\\n*J. 拉菲德·西迪基* \\\n[[GitHub](https:\u002F\u002Fgithub.com\u002Fazad-academy\u002Fpersonalized-diffusion)] [[Medium](https:\u002F\u002Fmedium.com\u002Fmlearning-ai\u002Fbeyond-diffusion-what-is-personalized-image-generation-and-how-can-you-customize-image-synthesis-26a89d5b335)]\n\n**Diffusion_models_tutorial** \\\n*FilippoMB* \\\n[[GitHub](https:\u002F\u002Fgithub.com\u002FFilippoMB\u002FDiffusion_models_tutorial)]\n\n**ScoreDiffusionModel** \\\n*JeongJiHeon* \\\n[[GitHub](https:\u002F\u002Fgithub.com\u002FJeongJiHeon\u002FScoreDiffusionModel)]\n\n**扩散模型的极简实现** \\\n*VSehwag* \\\n[[GitHub](https:\u002F\u002Fgithub.com\u002FVSehwag\u002Fminimal-diffusion)]\n\n**diffusion_tutorial** \\\n*sunlin-ai* \\\n[[GitHub](https:\u002F\u002Fgithub.com\u002Fsunlin-ai\u002Fdiffusion_tutorial)] \n\n**去噪扩散概率模型** \\\n*acids-ircam* \\\n[[GitHub](https:\u002F\u002Fgithub.com\u002Facids-ircam\u002Fdiffusion_models)] \n\n\n**Centipede Diffusion** \\\n*Zalring* \\\n[[笔记本](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FZalring\u002FCentipede_Diffusion\u002Fblob\u002Fmain\u002FCentipede_Diffusion.ipynb)]\n\n**Deforum Stable Diffusion** \\\n*deforum* \\\n[[笔记本](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeforum\u002Fstable-diffusion\u002Fblob\u002Fmain\u002FDeforum_Stable_Diffusion.ipynb)]\n\n**Stable Diffusion 插值** \\\n*无* \\\n[[笔记本](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1EHZtFjQoRr-bns1It5mTcOVyZzZD9bBc?usp=sharing)]\n\n**Keras Stable Diffusion：GPU 入门示例** \\\n*无* \\\n[[笔记本](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1zVTa4mLeM_w44WaFwl7utTaa6JcaH1zK)]\n\n**Huemin Jax Diffusion** \\\n*huemin-art* \\\n[[笔记本](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fhuemin-art\u002Fjax-guided-diffusion\u002Fblob\u002Fv2.7\u002FHuemin_Jax_Diffusion_2_7.ipynb)]\n\n**Disco Diffusion** \\\n*alembics* \\\n[[笔记本](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Falembics\u002Fdisco-diffusion\u002Fblob\u002Fmain\u002FDisco_Diffusion.ipynb)]\n\n**简化版 Disco Diffusion** \\\n*entmike* \\\n[[笔记本](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fentmike\u002Fdisco-diffusion-1\u002Fblob\u002Fmain\u002FSimplified_Disco_Diffusion.ipynb)]\n\n**WAS 的 Disco Diffusion - 人像生成器游乐场** \\\n*WASasquatch* \\\n[[笔记本](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FWASasquatch\u002Fdisco-diffusion-portrait-playground\u002Fblob\u002Fmain\u002FWAS's_Disco_Diffusion_v5_6_9_%5BPortrait_Generator_Playground%5D.ipynb)]\n\n**Diffusers - Hugging Face** \\\n*huggingface* \\\n[[笔记本](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fhuggingface\u002Fnotebooks\u002Fblob\u002Fmain\u002Fdiffusers\u002Fdiffusers_intro.ipynb)]\n\n\n# 论文\n\n## 调查\n\n**视频扩散模型综述** \\\n*邢震、冯启俊、陈浩然、戴琪、胡汉、徐航、吴祖轩和蒋宇刚*\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.10647.pdf)] \\\n2023年10月16日\n\n**视觉计算中扩散模型的最新进展** \\\n*Ryan Po、王一凡、Vladislav Golyanik、Kfir Aberman、Jonathan T. Barron、Amit H. Bermano、Eric Ryan Chan、Tali Dekel、Aleksander Holynski、Angjoo Kanazawa、C. Karen Liu、Lingjie Liu、Ben Mildenhall、Matthias Nießner、Björn Ommer、Christian Theobalt、Peter Wonka、Gordon Wetzstein* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07204)] \\\n2023年10月11日\n\n**记忆尽在眼前：扩散模型与联想记忆之间的惊人相似性综述** \\\n*Benjamin Hoover、Hendrik Strobelt、Dmitry Krotov、Judy Hoffman、Zsolt Kira、Duen Horng Chau* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16750)] \\\n2023年9月28日\n\n**基于扩散的图像生成模型综述：问题及其解决方案** \\\n*张天义、王铮、黄静、Mohiuddin Muhammad Tasnim、史伟* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13142)] \\\n2023年8月25日\n\n**用于图像修复与增强的扩散模型——全面综述** \\\n*李欣、任玉林、金鑫、兰翠玲、王兴锐、曾文俊、王新超、陈志博* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09388)] \\\n2023年8月18日\n\n**结构化数据生成式扩散模型综合综述** \\\n*Heejoon Koo、To Eun Kim* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04139)] \\\n2023年6月7日\n\n**扩散模型的设计基础：综述** \\\n*常子怡、George A. Koulieris、Hubert P. H. Shum* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04542)] \\\n2023年6月7日\n\n**NLP中的扩散模型：综述** \\\n*郝邹、金在明、姜东烨* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14671)] \\\n2023年5月24日\n\n**时间序列应用中的扩散模型：综述** \\\n*林乐泉、李正坤、李瑞坤、李旭亮、高俊斌* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00624)] \\\n2023年5月1日\n\n**扩散模型知识蒸馏综合综述** \\\n*罗伟健* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04262)] \\\n2023年4月9日\n\n**图扩散模型综述：科学领域中的生成式AI——分子、蛋白质与材料** \\\n*张梦春、Maryam Qamar、姜泰九、郑宥娜、张晨爽、裴成浩、张朝宁* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01565)] \\\n2023年4月4日\n\n**用于语音合成的音频扩散模型：生成式AI中的文本到语音与语音增强综述** \\\n*张晨爽、张朝宁、郑晟、张梦春、Maryam Qamar、裴成浩、权仁洙* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13336)] \\\n2023年3月23日\n\n**NLP中的扩散模型：综述** \\\n*朱元松、赵宇* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07576)] \\\n2023年3月14日\n\n**生成式AI中的文本到图像扩散模型：综述** \\\n*张晨爽、张朝宁、张梦春、权仁洙* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07909)] \\\n2023年3月14日\n\n**用于非自回归文本生成的扩散模型：综述** \\\n*李一凡、周坤、韦恩·辛·赵、温继荣* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06574)] \\\n2023年3月12日\n\n**生物信息学中的扩散模型：深度学习革命的新浪潮正在上演** \\\n*郭志业、刘健、王艳丽、陈孟睿、王多林、徐东、程建林* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10907)] \\\n2023年2月13日\n\n**图上的生成式扩散模型：方法与应用** \\\n*范文奇、刘承毅、刘云清、李家通、李航、刘辉、唐继良、李青* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02591)] \\\n2023年2月6日\n\n**医学图像分析中的扩散模型：全面综述** \\\n*Amirhossein Kazerouni、Ehsan Khodapanah Aghdam、Moein Heidari、Reza Azad、Mohsen Fayyaz、Ilker Hacihaliloglu、Dorit Merhof* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.07804)] [[GitHub](https:\u002F\u002Fgithub.com\u002Famirhossein-kz\u002FAwesome-Diffusion-Models-in-Medical-Imaging)] \\\n2022年11月14日\n\n**面向视觉任务的高效扩散模型：综述** \\\n*Anwaar Ulhaq、Naveed Akhtar、Ganna Pogrebna* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.09292)] \\\n2022年10月7日\n\n**视觉领域的扩散模型：综述** \\\n*Florinel-Alin Croitoru、Vlad Hondru、Radu Tudor Ionescu、穆巴拉克·沙赫* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04747)] \\\n2022年9月10日\n\n**生成式扩散模型综述** \\\n*曹汉群、谭诚、高章阳、陈广勇、彭安恒、Stan Z. Li* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.02646)] \\\n2022年9月6日\n\n**扩散模型：方法与应用的全面综述** \\\n*杨玲、张志龙、洪善达、张文涛* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.00796)] \\\n2022年9月2日\n\n## 视觉\n### 生成\n\n**DiffEnc：带有学习编码器的变分扩散模型** \\\n*Beatrix M. G. Nielsen、Anders Christensen、Andrea Dittadi、Ole Winther* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19789)] \\\n2023年10月30日\n\n**利用扩散模型提供的无限数据计划升级VAE训练** \\\n*Tim Z. Xiao、Johannes Zenn、Robert Bamler* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19653)] \\\n2023年10月30日\n\n**成功将彩票假设应用于扩散模型** \\\n*江超、惠波、刘博文、严达* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18823)] \\\n2023年10月28日\n\n**无噪声分数蒸馏** \\\n*Oren Katzir、Or Patashnik、Daniel Cohen-Or、Dani Lischinski* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17590)] \\\n2023年10月26日\n\n**生成式扩散模型的统计热力学** \\\n*Luca Ambrogioni* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17467)] \\\n2023年10月26日\n\n**通过同时估计图像和噪声来改进去噪扩散模型** \\\n*张振凯、Krista A. Ehinger、汤姆·德拉蒙德* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17167)] \\\n2023年10月26日\n\n**层次化半隐式变分推断及其在加速扩散模型中的应用** \\\n*于龙林、谢天宇、朱宇、杨彤、张向宇、张成* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17153)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flonginyu\u002Fhsivi)] \\\n2023年10月26日\n\n**RePoseDM：用于姿态引导图像合成的递归姿态对齐与梯度引导** \\\n*Anant Khandelwal* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16074)] \\\n2023年10月24日\n\n**一致性模型训练技术的改进** \\\n*宋扬、普拉富拉·达里瓦尔* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14189)] \\\n2023年10月22日\n\n**ScaleLong：通过扩展网络长跳跃连接实现更稳定的扩散模型训练** \\\n*黄中展、周攀、严水成、林亮* \\\nNeurIPS 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13545)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsail-sg\u002FScaleLong)] \\\n2023年10月20日\n\n\n**粒子引导：利用扩散模型进行非独立同分布的多样化采样** \\\n*加布里埃莱·科尔索、许一伦、瓦伦丁·德·博尔托利、雷吉娜·巴尔齐莱、汤米·雅科拉* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13102)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fgcorso\u002Fparticle-guidance)] \\\n2023年10月19日\n\n**闭式解扩散模型** \\\n*克里斯托弗·斯卡维利斯、海茨·萨埃斯·德·奥卡里斯·博尔德、贾斯汀·所罗门* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12395)] \\\n2023年10月19日\n\n**阐明分类器引导扩散生成的设计空间** \\\n*马佳俊、胡天阳、王文嘉、孙家诚* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11311)] [[GitHub](https:\u002F\u002Fgithub.com\u002Falexmaols\u002Felucd)] \\\n2023年10月17日\n\n\n**BayesDiff：通过贝叶斯推断估计扩散过程中的像素级不确定性** \\\n*寇思琪、甘磊、王德权、李崇轩、邓志杰* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11142)] \\\n2023年10月17日\n\n**无监督发现预训练扩散模型h空间中的可解释方向** \\\n*张子健、刘鲁平、林志杰、朱一晨、赵舟* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09912)] \\\n2023年10月15日\n\n**借助时间步对齐器实现更精确的扩散模型加速** \\\n*夏梦飞、沈宇君、雷昌松、周宇、易然、赵德丽、王文平、刘永进* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09469)] \\\n2023年10月14日\n\n**利用扩散模型进行未见图像合成** \\\n*朱晔、吴宇、邓志伟、奥尔加·鲁萨科夫斯基、颜燕* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09213)] \\\n2023年10月13日\n\n**去偏训练扩散模型** \\\n*于虎、沈力、黄杰、周曼、李洪生、赵峰* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08442)] \\\n2023年10月12日\n\n**神经扩散模型** \\\n*格里戈里·巴托什、德米特里·韦特罗夫、克里斯蒂安·A·奈塞斯* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08337)] \\\n2023年10月12日\n\n**扩散生成模型的高效积分器** \\\n*库沙格拉·潘迪、玛雅·鲁道夫、施特凡·曼特* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07894)] \\\n2023年10月11日\n\n\n**为高效、可重构且分辨率可变的扩散建模学习可堆叠、可跳过的乐高积木** \\\n*郑煌杰、王振东、袁建波、宁广汉、何鹏程、游全增、杨红霞、周明远* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06389)] \\\n2023年10月10日\n\n**语言模型击败扩散模型——分词器是视觉生成的关键** \\\n*于立军、何塞·莱萨马、尼特什·B·贡达瓦鲁普、卢卡·维尔萨里、苏基赫·孙、大卫·米嫩、程勇、阿格里姆·古普塔、顾雪野、亚历山大·G·豪普特曼、龚博清、杨明轩、伊尔凡·埃萨、戴维·A·罗斯、江璐* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05737)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fmagvit2-pytorch)] \\\n2023年10月9日\n\n**扩散模型中可重复性和一致性的涌现** \\\n*张慧杰、周金帆、陆义夫、郭敏哲、申丽悦、瞿青* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05264)] \\\n2023年10月8日\n\n**DiffNAS：通过提示更好的架构来自举扩散模型** \\\n*李文浩、苏秀、尤珊、王飞、钱晨、徐畅* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04750)] \\\n2023年10月7日\n\n**观测引导的扩散概率模型** \\\n*姜俊昊、崔珍英、崔成益、韩宝亨* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04041)] \\\n2023年10月6日\n\n**潜在一致性模型：以少步推理合成高分辨率图像** \\\n*罗思勉、谭怡琴、黄龙波、李健、赵航* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04378)] \\\n2023年10月6日\n\n**去噪扩散步骤感知模型** \\\n*杨帅、陈宇康、王洛州、刘舒、陈迎聪* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03337)] \\\n2023年10月5日\n\n\n**EfficientDM：低比特扩散模型的高效量化感知微调** \\\n*何业飞、刘静、吴伟佳、周宏、庄博文* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03270)] \\\n2023年10月5日\n\n**利用扩散摊销MCMC学习基于能量的先验模型** \\\n*余培宇、朱亚轩、谢思睿、马晓健、高瑞琪、朱松纯、吴颖年* \\\nNeurIPS 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03218)] [[GitHub](https:\u002F\u002Fgithub.com\u002FyuPeiyu98\u002FDiffusion-Amortized-MCMC)] \\\n2023年10月5日\n\n**关于扩散模型中的记忆现象** \\\n*顾翔明、杜超、庞天宇、李崇轩、林敏、王烨* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02664)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsail-sg\u002FDiffMemorize)] \\\n2023年10月4日\n\n\n**基于分组扩散过程的序列数据生成** \\\n*李尚允、李佳莹、金贤洙、金俊浩、禹英贞* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01400)] \\\n2023年10月2日\n\n**一致性轨迹模型：学习扩散的概率流ODE轨迹** \\\n*金东俊、赖介欣、廖伟祥、村田直树、泷田雄太、上坂俊光、何宇彤、三藤幸纪、斯特凡诺·埃尔蒙* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02279)] \\\n2023年10月1日\n\n**通过融合生成与分割完成视觉对象** \\\n*李翔、陈银鹏、林忠清、丽塔·辛格、比克莎·拉杰、刘子成* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00808)] \\\n2023年10月1日\n\n**利用对比自监督和潜在扩散从脑活动解码真实图像** \\\n*孙景元、李明晓、玛丽-弗朗辛·莫恩斯* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00318)] \\\n2023年9月30日\n\n**FashionFlow：利用扩散模型从静态图像动态合成时尚视频** \\\n*塔辛·伊斯兰、阿丽娜·米隆、刘晓辉、李永民* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00106)] \\\n2023年9月29日\n\n**去噪扩散桥模型** \\\n*周林奇、路亚伦、萨玛尔·汗纳、斯特凡诺·埃尔蒙* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16948)] \\\n2023年9月29日\n\n\n**DeeDiff：动态不确定性感知的早期退出策略，用于加速扩散模型生成** \\\n*唐圣坤、王雅晴、丁才文、梁毅、李耀、徐东宽* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.17074)] \\\n2023年9月29日\n\n\n**将扩散模型的ODE求解器提炼为更小的时间步** \\\n*金相焕、唐浩、费舍尔·俞* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16421)] \\\n2023年9月28日\n\n**用于无监督图像生成和分割的因子化扩散架构** \\\n*袁鑫、迈克尔·梅尔* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15726)] \\\n2023年9月27日\n\n**生成式埃舍尔网格** \\\n*诺姆·艾格曼，蒂博·格鲁埃* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14564)] \\\n2023年9月25日\n\n**软混合去噪：超越扩散模型的表达瓶颈** \\\n*李阳明，鲍里斯·范布雷格尔，米哈埃拉·范德沙尔* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14068)] \\\n2023年9月25日\n\n**GLOBER：基于全局引导视频解码器的一致性非自回归视频生成** \\\n*孙明振，王伟宁，秦子涵，孙嘉辉，陈思涵，刘静* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13274)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fiva-mzsun\u002Fglober)] \\\n2023年9月23日\n\n**生成模型中的分数失配** \\\n*叶森茂，刘飞* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11043)] \\\n2023年9月20日\n\n**广义概率扩散尺度空间** \\\n*帕斯卡尔·彼得* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.08511)] \\\n2023年9月15日\n\n**生成式图像动力学** \\\n*李正奇，理查德·塔克，诺亚·斯纳维利，亚历山大·霍林斯基* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07906)] [[项目](https:\u002F\u002Fgenerative-dynamics.github.io\u002F)] \\\n2023年9月14日\n\n**Beta扩散** \\\n*周明远，陈天琪，王振东，郑黄杰* \\\nNeurIPS 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07867)] \\\n2023年9月14日\n\n**适应与扩散：基于潜在扩散模型的样本自适应重建** \\\n*扎兰·法比安，伯克·蒂纳兹，马赫迪·索尔坦奥尔科塔比* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06642)] \\\n2023年9月12日\n\n**阐明扩散模型扩展反向时间随机微分方程的解空间** \\\n*崔钦鹏，张欣怡，陆宗庆，廖清敏* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06169)] \\\n2023年9月12日\n\n\n**通过合作扩散恢复似然学习能量模型** \\\n*朱雅轩，谢建文，吴英年，高瑞琪* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05153)] \\\n2023年9月10日\n\n**中继扩散：统一跨分辨率的扩散过程用于图像合成** \\\n*滕佳燕，郑文迪，丁明，洪文义，王妮娇，杨卓毅，唐杰* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03350)] \\\n2023年9月4日\n\n**用于图像合成的梯度域扩散模型** \\\n*龚元浩* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01875)] \\\n2023年9月5日\n\n\n**用于视频外扩的层次化掩码3D扩散模型** \\\n*范达，郭超旭，龚立通，王彪，葛铁铮，蒋宇宁，罗春杰，詹建峰* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02119)] [[GitHub](https:\u002F\u002Ffanfanda.github.io\u002FM3DDM\u002F)] \\\n2023年9月5日\n\n**具有确定性归一化流先验的扩散模型** \\\n*莫森·赞德，阿里·埃特马德，迈克尔·格林斯潘* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01274)] [[GitHub](https:\u002F\u002Fgithub.com\u002FMohsenZand\u002FDiNof)] \\\n2023年9月3日\n\n**扩散惯性姿势器：从任意稀疏IMU配置中重建人体运动** \\\n*汤姆·范沃韦，李承焕，安托万·法利斯，斯科特·德尔普，C·卡伦·刘* \\\nAAAI 2024. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16682)] \\\n2023年8月31日\n\n**通过神经符号约束对基于分数的生成模型进行条件化** \\\n*达维德·斯卡索拉，塞巴斯蒂亚诺·萨卡尼，吉内夫拉·卡博内，卢卡·博尔托鲁西* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16534)] \\\n2023年8月31日\n\n**阐明扩散模型中的曝光偏差** \\\n*孟宁，李明晓，苏建林，阿尔伯特·阿里·萨拉赫，伊蒂尔·奥纳尔·埃尔图格鲁尔* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15321)] \\\n2023年8月29日\n\n**残差去噪扩散模型** \\\n*刘家伟，王强，范慧洁，王银农，唐延东，屈良琼* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13712)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fnachifur\u002FRDDM)] \\\n2023年8月25日\n\n**通过对抗噪声实现扩散模型中的高效迁移学习** \\\n*王希宇，林百炯，刘道昌，许畅* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11948)] \\\n2023年8月23日\n\n**利用自适应动量采样器提升扩散模型性能** \\\n*王希宇，邓英勇，刘道昌，许畅* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11941)] \\\n2023年8月23日\n\n**Make-It-4D：从单张图像合成一致的长期动态场景视频** \\\n*沈辽，李兴义，孙惠强，彭珏雯，冼可，曹志国，林国生* \\\nACM MM 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10257)] \\\n2023年8月20日\n\n**脉冲扩散：结合脉冲神经网络的向量量化离散扩散模型** \\\n*刘明轩，温睿，陈宏* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10187)] \\\n2023年8月20日\n\n**SciRE-Solver：基于递归导数估计的分数积分求解器，用于高效采样扩散概率模型** \\\n*李世贵，陈伟，曾德禄* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07896)] \\\n2023年8月15日\n\n**改进的指数积分器阶数分析与设计，用于扩散模型采样** \\\n*张秦胜，宋嘉明，陈永鑫* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02157)] \\\n2023年8月4日\n\n**用于高分辨率图像合成的分块去噪扩散模型** \\\n*丁征，张梦琪，吴嘉俊，涂卓文* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01316)] \\\n2023年8月2日\n\n**用于去噪扩散概率模型的空间-频率U型网络** \\\n*袁欣，李林杰，王建峰，杨正源，林凯文，刘子诚，王丽娟* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14648)] \\\n2023年7月27日\n\n**使用扩散—生成对抗网络合成蜡染图案** \\\n*欧内·奥克塔迪昂，诺万托·尤迪斯提拉，迪瓦·库尔尼亚宁蒂亚斯* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12122)] \\\n2023年7月22日\n\n**DPM-OT：一种基于最优传输的新扩散概率模型** \\\n*李泽增，李盛豪，王展鹏，雷娜，罗钟轩，顾显峰* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11308)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcognaclee\u002FDPM-OT)] \\\n2023年7月21日\n\n**带有动量的扩散采样以缓解发散伪影** \\\n*苏提萨克·维扎德翁萨，沃拉梅特·钦楚塔坤，普拉穆克·孔古恩，阿米特·拉杰，苏帕索恩·苏瓦贾纳科恩* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11118)] \\\n2023年7月20日\n\n**潜在空间中的流匹配** \\\n*段权，冯浩，阮平，陈英* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08698)] [[项目](https:\u002F\u002Fvinairesearch.github.io\u002FLFM\u002F)] \\\n2023年7月17日\n\n**流形引导的扩散模型采样，用于无偏图像生成** \\\n*苏兴哲，姜文文，宋津恩，高航，吴丰戈，郑昌文* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08199)] \\\n2023年7月17日\n\n**复杂性至关重要：重新思考生成建模的潜在空间** \\\n*胡天阳，陈飞，王浩楠，李嘉伟，王文佳，孙嘉诚，李振国* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08283)] \\\n2023年7月17日\n\n**用于一致视觉合成的协作分数蒸馏** \\\n*Subin Kim、Kyungmin Lee、June Suk Choi、Jongheon Jeong、Kihyuk Sohn、Jinwoo Shin* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04787)] [[项目](https:\u002F\u002Fsubin-kim-cv.github.io\u002FCSD\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsubin-kim-cv\u002FCSD)] \\\n2023年7月4日\n\n**ProtoDiffusion：基于原型学习的无分类器扩散指导** \\\n*Gulcin Baykal、Halil Faruk Karagoz、Taha Binhuraib、Gozde Unal* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01924)] \\\n2023年7月4日\n\n**SDXL：改进用于高分辨率图像合成的潜在扩散模型** \\\n*Dustin Podell、Zion English、Kyle Lacey、Andreas Blattmann、Tim Dockhorn、Jonas Müller、Joe Penna、Robin Rombach* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01952)] [[GitHub](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fgenerative-models)] \\\n2023年7月4日\n\n**用于时间一致性人体动画的双向时序扩散模型** \\\n*Tserendorj Adiya、Sanghun Kim、Jung Eun Lee、Jae Shin Yoon、Hwasup Lim* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00574)] \\\n2023年7月2日\n\n\n**脉冲去噪扩散概率模型** \\\n*Jiahang Cao、Ziqing Wang、Hanzhong Guo、Hao Cheng、Qiang Zhang、Renjing Xu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17046)] \\\n2023年6月29日\n\n**DomainStudio：使用有限数据微调扩散模型以实现领域驱动的图像生成** \\\n*Jingyuan Zhu、Huimin Ma、Jiansheng Chen、Jian Yuan* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14153)] \\\n2023年6月25日\n\n**具有显式转移概率的解耦扩散模型** \\\n*Yuhang Huang、Zheng Qin、Xinwang Liu、Kai Xu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13720)] \\\n2023年6月23日\n\n**利用扩散模型对单张图像进行连续布局编辑** \\\n*Zhiyuan Zhang、Zhitong Huang、Jing Liao* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13078)] \\\n2023年6月22日\n\n**半隐式去噪扩散模型（SIDDMs）** \\\n*Yanwu Xu、Mingming Gong、Shaoan Xie、Wei Wei、Matthias Grundmann、kayhan Batmanghelich、Tingbo Hou* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12511)] \\\n2023年6月21日\n\n**消除扩散模型中的利普希茨奇点** \\\n*Zhantao Yang、Ruili Feng、Han Zhang、Yujun Shen、Kai Zhu、Lianghua Huang、Yifei Zhang、Yu Liu、Deli Zhao、Jingren Zhou、Fan Cheng* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11251)] \\\n2023年6月20日\n\n**GD-VDM：通过生成深度提升基于扩散的视频生成** \\\n*Ariel Lapid、Idan Achituve、Lior Bracha、Ethan Fetaya* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11173)] \\\n2023年6月19日\n\n**利用扩散模型进行图像调和** \\\n*Jiajie Li、Jian Wang、Chen Wang、Jinjun Xiong* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10441)] \\\n2023年6月17日\n\n\n**在去噪辅助下训练扩散分类器** \\\n*Chandramouli Sastry、Sri Harsha Dumpala、Sageev Oore* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09192)] \\\n2023年6月15日\n\n\n**具有显式抽象控制的条件化人体草图合成** \\\n*Dar-Yen Chen* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09274)] \\\n2023年6月15日\n\n**利用掩码Transformer快速训练扩散模型** \\\n*Hongkai Zheng、Weili Nie、Arash Vahdat、Anima Anandkumar* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09305)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAnima-Lab\u002FMaskDiT)] \\\n2023年6月15日\n\n\n**面向可控海报布局生成的关系感知扩散模型** \\\n*Fengheng Li、An Liu、Wei Feng、Honghe Zhu、Yaoyu Li、Zheng Zhang、Jingjing Lv、Xin Zhu、Junjie Shen、Zhangang Lin、Jingping Shao* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09086)] \\\n2023年6月15日\n\n**OMS-DPM：优化扩散概率模型的调度方案** \\\n*Enshu Liu、Xuefei Ning、Zinan Lin、Huazhong Yang、Yu Wang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08860)] \\\n2023年6月15日\n\n\n**DORSal：用于场景中以物体为中心的表示的扩散等** \\\n*Allan Jabri、Sjoerd van Steenkiste、Emiel Hoogeboom、Mehdi S. M. Sajjadi、Thomas Kipf* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08068)] \\\n2023年6月13日\n\n\n**快速扩散模型** \\\n*Zike Wu、Pan Zhou、Kenji Kawaguchi、Hanwang Zhang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.06991)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsail-sg\u002FFDM)] \\\n2023年6月12日\n\n**ADDP：通过交替去噪扩散过程学习用于图像识别和生成的通用表示** \\\n*Changyao Tian、Chenxin Tao、Jifeng Dai、Hao Li、Ziheng Li、Lewei Lu、Xiaogang Wang、Hongsheng Li、Gao Huang、Xizhou Zhu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05423)] \\\n2023年6月8日\n\n**多架构多专家扩散模型** \\\n*Yunsung Lee、Jin-Young Kim、Hyojun Go、Myeongho Jeong、Shinhyeok Oh、Seungtaek Choi* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04990)] \\\n2023年6月8日\n\n**利用欧几里得距离函数解释和改进扩散模型** \\\n*Frank Permenter、Chenyang Yuan* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04848)] \\\n2023年6月8日\n\n**具有局部—全局上下文引导的视频扩散模型** \\\n*Siyuan Yang、Lu Zhang、Yu Liu、Zhizhuo Jiang、You He* \\\nIJCAI 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02562)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fexisas\u002FLGC-VD)] \\\n2023年6月5日\n\n**用于视觉探索的大脑扩散：利用大规模生成模型进行皮层发现** \\\n*Andrew F. Luo、Margaret M. Henderson、Leila Wehbe、Michael J. Tarr* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03089)] \\\n2023年6月5日\n\n**通过并行分数匹配加速扩散模型训练并改进密度估计** \\\n*Etrit Haxholli、Marco Lorenzi* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02658)] \\\n2023年6月5日\n\n**用于扩散模型的时间动态量化** \\\n*Junhyuk So、Jungwon Lee、Daehyun Ahn、Hyungjun Kim、Eunhyeok Park* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02316)] \\\n2023年6月4日\n\n**利用去噪器表示从无条件扩散模型进行条件化生成** \\\n*Alexandros Graikos、Srikar Yellapragada、Dimitris Samaras* \\\nBMVC 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01900)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcvlab-stonybrook\u002Ffewshot-conditional-diffusion)] \\\n2023年6月2日\n\n**通过属性和语义掩码对扩散模型进行条件化以生成人脸** \\\n*Nico Giambi、Giuseppe Lisanti* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00914)] \\\n2023年6月1日\n\n**差异扩散：赋予每个像素其强度** \\\n*Eran Levin、Ohad Fried* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00950)] \\\n2023年6月1日\n\n\n**解决神经网络中语义与视觉对齐的不一致问题** \\\n*Natalie Abreu、Nathan Vaska、Victoria Helus* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01148)] \\\n2023年6月1日\n\n**扩散模型中的负迁移问题研究** \\\n*高孝俊、金珍英、李润成、李承贤、吴信赫、文炯敦、崔承泽* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00354)] \\\n2023年6月1日\n\n**扩散模型的几何视角** \\\n*陈德芳、周振宇、梅建平、沈春华、陈纯、王灿* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19947)] \\\n2023年5月31日\n\n\n\n**生成式扩散模型中的自发对称性破缺** \\\n*加布里埃尔·拉亚、卢卡·安布罗吉奥尼* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19693)] \\\n2023年5月31日\n\n**扰动辅助样本合成：一种用于不确定性量化的新方法** \\\n*刘一飞、沈雷克斯、沈晓彤* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18671)] \\\n2023年5月30日\n\n**一行代码的数据平滑技术提升基于似然的生成模型优化效果** \\\n*潘巴贤、朱利奥·弗朗泽塞、皮耶特罗·米基亚尔迪、毛里齐奥·菲利波内* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18900)] \\\n2023年5月30日\n\n**环境扩散：从噪声数据中学习干净分布** \\\n*扬尼斯·达拉斯、库林·沙阿、尤瓦尔·达甘、阿拉文德·戈拉科塔、亚历山德罗斯·G·迪马基斯、亚当·克利万斯* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19256)] \\\n2023年5月30日\n\n**面向扩散模型的精确无数据量化方法** \\\n*王昌源、王子威、徐秀伟、唐言松、周杰、陆继文* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18723)] \\\n2023年5月30日\n\n**BRIGHT：基于哈希表组的图像集合双层特征表示** \\\n*杨丁东、王义志、阿里·马赫达维-阿米里、张浩* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18601)] [[项目](https:\u002F\u002Fbright-project01.github.io\u002F)] \\\n2023年5月29日\n\n**Diff-Instruct：一种从预训练扩散模型迁移知识的通用方法** \\\n*罗伟健、胡天阳、张世峰、孙家诚、李正国、张志华* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18455)] \\\n2023年5月29日\n\n**学会跳跃：为生成建模稀疏化与稠密化潜在计数** \\\n*陈天奇、周明远* \\\nICML 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18375)] [[GitHub](https:\u002F\u002Fgithub.com\u002Ftqch\u002Fpoisson-jump)] \\\n2023年5月28日\n\n**重建心灵之眼：基于对比学习与扩散先验的fMRI到图像转换** \\\n*保罗·S·斯科蒂、阿特马迪普·班纳吉、吉米·古德、斯特潘·沙巴林、亚历克斯·阮、伊森·科恩、艾丹·J·登普斯特、娜塔莉·韦尔林德、埃拉德·云德勒、大卫·魏斯伯格、肯尼思·A·诺曼、塔尼什克·马修·亚伯拉罕* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18274)] [[GitHub](https:\u002F\u002Fmedarc-ai.github.io\u002Fmindeye\u002F)] \\\n2023年5月29日\n\n**对比、注意力与扩散：从大脑活动解码高分辨率图像** \\\n*孙静远、李明晓、陈子娇、张云昊、王绍楠、玛丽-弗朗辛·莫恩斯* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17214)] \\\n2023年5月26日\n\n**扩散模型的并行采样** \\\n*安迪·施、苏尼尔·贝尔卡尔、斯特法诺·埃尔蒙、多尔萨·萨迪格、尼玛·阿纳里* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16317)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAndyShih12\u002Fparadigms)] \\\n2023年5月25日\n\n**通过跳跃扩散模型实现跨维度生成建模** \\\n*安德鲁·坎贝尔、威廉·哈维、克里斯蒂安·魏尔巴赫、瓦伦丁·德·博尔托利、汤姆·雷因福思、阿诺·杜塞* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16261)] \\\n2023年5月25日\n\n**UDPM：上采样扩散概率模型** \\\n*沙迪·阿布-侯赛因、拉贾·吉里耶斯* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16269)] \\\n2023年5月25日\n\n\n**将GAN与基于分数的扩散模型统一为生成粒子模型** \\\n*让-伊夫·弗朗切斯基、迈克·加特雷尔、路多维克·多斯桑托斯、蒂博·伊森努特、埃马纽埃尔·德·贝泽纳克、米凯尔·陈、阿兰·拉科托马蒙吉* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16150)] \\\n2023年5月25日\n\n**DuDGAN：通过双重扩散改进条件类别GAN** \\\n*廉泰勋、李敏赫* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14849)] \\\n2023年5月24日\n\n**通过偏移时间步采样缓解扩散模型中的曝光偏差** \\\n*李明晓、屈婷玉、孙伟、玛丽-弗朗辛·莫恩斯* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15583)] \\\n2023年5月24日\n\n\n**通过单一扩散模型实现稳健分类** \\\n*陈焕然、董银鹏、王正毅、杨晓、段成奇、苏航、朱军* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15241)] \\\n2023年5月24日\n\n**关于扩散模型的泛化能力** \\\n*易明阳、孙家诚、李正国* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14712)] \\\n2023年5月24日\n\n**VDT：基于Transformer的视频扩散实证研究** \\\n*陆浩宇、杨国兴、费南怡、霍宇琪、陆志武、罗平、丁明宇* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13311)] [[GitHub](https:\u002F\u002Fgithub.com\u002FRERV\u002FVDT)] \\\n2023年5月22日\n\n**电影级心像景观：从脑活动中高质量重建视频** \\\n*陈子娇、秦佳欣、周娟·海伦* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11675)] [[项目](https:\u002F\u002Fmind-video.com\u002F)] \\\n2023年5月19日\n\n**PTQD：扩散模型的精准训练后量化方法** \\\n*何叶飞、刘鲁平、刘静、吴伟嘉、周宏、庄博文* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10657)] \\\n2023年5月18日\n\n**黑屏扩散：离散状态空间中的生成式扩散模型** \\\n*哈维尔·E·桑托斯、扎卡里·R·福克斯、尼古拉斯·卢伯斯、林燕婷* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11089)] \\\n2023年5月18日\n\n**扩散模型的结构化剪枝** \\\n*方功凡、马新寅、王新超* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10924)] [[GitHub](https:\u002F\u002Fgithub.com\u002FVainF\u002FDiff-Pruning)] \\\n2023年5月18日\n\n\n**追赶蒸馏：只需训练一次即可加速采样** \\\n*邵士通、戴旭、尹守义、李路军、陈焕然、胡洋* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10769)] \\\n2023年5月18日\n\n**可控的心灵视觉扩散模型** \\\n*曾博文、李尚林、刘旭辉、高思成、姜晓龙、唐旭、胡耀、刘建壮、张宝昌* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10135)] \\\n2023年5月17日\n\n**基于扩散的面部生成模型中的偏差分析** \\\n*马尔莎·V·佩雷拉、维沙尔·M·帕特尔* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06402)] \\\n2023年5月10日\n\n\n**扩散ODE的最大似然估计改进方法** \\\n*郑凯文、卢程、陈建飞、朱军* \\\nICML 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03935)] \\\n2023年5月6日\n\n**LEO：用于人类视频合成的生成式潜在图像动画器** \\\n*王耀辉、马欣、陈新元、安蒂察·丹切娃、戴博、乔宇* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03989)] [[项目](https:\u002F\u002Fwyhsirius.github.io\u002FLEO-project\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fwyhsirius\u002FLEO)] \\\n2023年5月6日\n\n**迭代α-(去)混合：一种极简的确定性扩散模型** \\\n*埃里克·海茨、洛朗·贝尔库尔、托马斯·尚邦* \\\nSIGGRAPH 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03486)] \\\n2023年5月5日\n\n\n**通过引导式随机搜索从人类脑活动中重建已见图像** \\\n*里斯·克尼兰德、乔丁·奥赫达、吉斯莱恩·圣伊夫、托马斯·纳塞拉里斯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00556)] \\\n2023年4月30日\n\n\n**基于运动条件的扩散模型用于可控视频合成** \\\n*蔡世恩·陈、林志豪、曾宏宇、林宗毅、杨明轩* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14404)] [[项目](https:\u002F\u002Ftsaishien-chen.github.io\u002FMCDiff\u002F)] \\\n2023年4月27日\n\n**基于分数的生成模型：通过反向随机微分方程实现逆向与生成** \\\n*王子浩* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.13224)] \\\n2023年4月26日\n\n**利用潜在分类器指导探索组合式视觉生成** \\\n*史长浩、倪浩淼、李凯、韩绍博、梁明福、马丁·任强·闵* \\\nCVPR研讨会2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12536)] \\\n2023年4月25日\n\n**补丁扩散：更快速且更节省数据的扩散模型训练** \\\n*王振东、蒋一凡、郑黄杰、王培浩、何鹏程、王章阳、陈伟祖、周明远* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12526)] \\\n2023年4月25日\n\n\n**变分扩散自编码器：具有无条件扩散先验的深度潜在变量模型** \\\n*乔治奥斯·巴佐利斯、扬·斯坦丘克、卡罗拉-比比安妮·舍恩利布* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12141)] \\\n2023年4月24日\n\n\n**LaMD：用于视频生成的潜在运动扩散模型** \\\n*胡耀思、陈振中、罗冲* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.11603)] \\\n2023年4月23日\n\n\n**前瞻扩散概率模型用于改进均值估计** \\\n*张国强、新和健太、W·巴斯蒂安·克莱因* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.11312)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fguoqiang-zhang-x\u002FLA-DPM)] \\\n2023年4月22日\n\n**NeuralField-LDM：基于层次化潜在扩散模型的场景生成** \\\n*金承旭、布拉德利·布朗、尹康雪、卡斯滕·克莱斯、卡佳·施瓦茨、李大清、罗宾·伦巴赫、安东尼奥·托拉尔巴、桑雅·菲德勒* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09787)] \\\n2023年4月19日\n\n**利用潜在指纹为图像生成模型溯源** \\\n*聂广宇、金昌勋、杨业洲、任毅* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09752)] \\\n2023年4月17日\n\n\n**个性化扩散的身份编码器** \\\n*苏宇川、陈嘉谦、李彦东、赵洋、张涵、龚博青、王慧生、贾旭辉* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.07429)] \\\n2023年4月14日\n\n**基于补丁生成的内存高效扩散概率模型** \\\n*荒川真卫、津岛秀树、堀田大地、田中圭太郎、森岛重雄* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.07087)] \\\n2023年4月14日\n\n**DCFace：基于双重条件扩散模型的合成人脸生成** \\\n*金民哲、刘峰、阿尼尔·贾因、刘晓明* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.07060)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmk-minchul\u002Fdcface)] \\\n2023年4月14日\n\n**DiffFit：通过简单的参数高效微调解锁大型扩散模型的迁移能力** \\\n*谢恩泽、姚磊威、石汉、刘志立、周大泉、刘兆强、李家伟、李正国* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06648)] \\\n2023年4月13日\n\n**RAFT：用于生成式基础模型对齐的奖励排序微调** \\\n*董汉泽、熊伟、迪潘舒·戈亚尔、潘锐、刁世哲、张继鹏、舒卡顺、张彤* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06767)] \\\n2023年4月13日\n\n**DreamPose：基于稳定扩散的时尚图像到视频合成** \\\n*约翰娜·卡拉丝、亚历山大·霍林斯基、王廷春、伊拉·凯梅尔马赫-施利策曼* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06025)] [[项目](https:\u002F\u002Fgrail.cs.washington.edu\u002Fprojects\u002Fdreampose\u002F)][[GitHub](https:\u002F\u002Fgithub.com\u002Fjohannakarras\u002FDreamPose)] \\\n2023年4月12日\n\n**反射扩散模型** \\\n*艾伦·卢、斯特法诺·埃尔蒙* \\\nICML 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04740)] [[项目](https:\u002F\u002Faaronlou.com\u002Fblog\u002F2023\u002Freflected-diffusion\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flouaaron\u002FReflected-Diffusion)] \\\n2023年4月10日\n\n**二值潜在扩散** \\\n*王泽、王江、刘子成、邱强* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04820)] \\\n2023年4月10日\n\n\n**扩散模型作为掩码自编码器** \\\n*陈伟、卡尔蒂凯亚·曼加拉姆、黄柏尧、李阳浩、范浩奇、徐虎、王慧宇、谢慈航、艾伦·尤伊尔、克里斯托夫·费希滕霍费尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03283)] [[项目](https:\u002F\u002Fweichen582.github.io\u002Fdiffmae.html)] \\\n2023年4月6日\n\n**基于类别亲和力迁移的少样本语义图像合成** \\\n*玛琳·卡雷尔、雅各布·韦贝克、斯蒂芬·拉图利耶* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02321)] \\\n2023年4月5日\n\n\n**EGC：基于扩散能量模型的图像生成与分类** \\\n*郭秋山、马超凡、姜毅、袁泽寰、于一舟、罗平* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02012)] [[项目](https:\u002F\u002Fguoqiushan.github.io\u002Fegc.github.io\u002F)] \\\n2023年4月4日\n\n\n\n**用于快速稳定扩散的令牌合并** \\\n*丹尼尔·博利亚、朱迪·霍夫曼* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17604)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fdbolya\u002Ftomesd)] \\\n2023年3月30日\n\n**深入探讨扩散模型中的参数高效微调** \\\n*项晨东、鲍帆、李崇轩、苏航、朱俊* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.18181)] \\\n2023年3月31日\n\n**-Diff：采用子采样平滑状态实现无限分辨率扩散** \\\n*萨姆·邦德-泰勒、克里斯·G·威尔科克斯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.18242)] \\\n2023年3月31日\n\n**使用2D扩散模型进行3D感知图像生成** \\\n*相建峰、杨交龙、黄彬彬、佟鑫* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17905)] [[项目](https:\u002F\u002Fjeffreyxiang.github.io\u002Fivid\u002F)] \\\n2023年3月31日\n\n**基于姿态引导的扩散模型实现一致的视图合成** \\\n*曾宏宇、李钦波、金昌日、苏希卜·阿尔西桑、黄家斌、约翰内斯·科普夫* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17598)] \\\n2023年3月30日\n\n\n**DiffCollage：利用扩散模型并行生成大规模内容** \\\n*张秦盛、宋嘉铭、黄迅、陈永信、刘明宇* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17076)] [[项目](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Fdir\u002Fdiffcollage\u002F)] \\\n2023年3月30日\n\n**掩码扩散Transformer是一种强大的图像合成器** \\\n*高尚华、周攀、程明明、颜水成* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14389)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsail-sg\u002FMDT)] \\\n2023年3月25日\n\n**基于潜在流扩散模型的条件图像到视频生成** \\\n*倪浩淼、史昌昊、李凯、黄莎伦·X、马丁·任强·闵* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13744)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fnihaomiao\u002FCVPR23_LFDM)] \\\n2023年3月24日\n\n**NUWA-XL：用于超长视频生成的扩散叠加扩散** \\\n*殷圣明、吴晨飞、杨欢、王建峰、王晓东、倪明恒、杨正元、李林杰、刘树光、杨帆、傅建龙、龚明、王丽娟、刘子成、李厚强、段楠* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12346)] [[项目](https:\u002F\u002Fmsra-nuwa.azurewebsites.net\u002F#\u002F)] \\\n2023年3月22日\n\n**以对象为中心的槽位扩散** \\\n*蒋金东、邓飞、高谭·辛格、安成镇* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10834)] \\\n2023年3月20日\n\n\n**LDMVFI：基于潜在扩散模型的视频帧插值** \\\n*达尼尔·多利坤、张凡、大卫·布尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09508)] \\\n2023年3月16日\n\n**通过最小信噪比加权策略实现高效的扩散训练** \\\n*杭天凯、顾书阳、李辰、鲍建敏、陈栋、胡汉、耿欣、郭百宁* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09556)] \\\n2023年3月16日\n\n**VideoFusion：用于高质量视频生成的分解式扩散模型** \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08320)] \\\n2023年3月15日\n\n**通过力场构建实现可解释的ODE风格生成式扩散模型** \\\n*金伟扬、朱永沛、彭宇曦* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08063)] \\\n2023年3月14日\n\n**用于标记化图像合成的正则化向量量化** \\\n*张佳辉、詹方能、克里斯蒂安·特奥巴尔特、陆世坚* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06424)] \\\n2023年3月11日\n\n\n**PARASOL：用于扩散图像合成的参数化风格控制** \\\n*杰玛·卡内特·塔雷斯、丹·鲁塔、杜氏图、约翰·科洛莫斯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06464)] \\\n2023年3月11日\n\n**Brain-Diffuser：利用生成式潜在扩散模型从fMRI信号重建自然场景** \\\n*富尔坎·厄兹切利克、鲁芬·范鲁伦* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05334)] \\\n2023年3月9日\n\n**多层级扩散：用于图像生成的无限维基于分数的扩散模型** \\\n*保罗·哈格曼、拉尔斯·鲁托、加布里埃莱·施泰德尔、妮可·田娇·杨* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04772)] \\\n2023年3月8日\n\n\n**TRACT：具有传递闭包时间蒸馏的去噪扩散模型** \\\n*大卫·贝尔特洛、阿诺·奥特夫、林杰瑞、迪安·昂·亚普、翟双飞、胡思源、郑丹尼尔、沃尔特·塔尔博特、古艾瑞克* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04248)] \\\n2023年3月7日\n\n**增强空间中的生成式扩散：完整配方** \\\n*库沙格拉·潘迪、斯蒂芬·曼特* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.01748)] \\\n2023年3月3日\n\n**一致性模型** \\\n*宋洋、普拉富尔·达里瓦尔、马克·陈、伊利亚·苏茨克维尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.01469)] \\\n2023年3月2日\n\n**扩散概率场** \\\n*庄培叶、萨米拉·阿卜纳尔、顾家涛、亚历克斯·施温格、乔舒亚·M·萨斯金德、米格尔·安赫尔·巴乌蒂斯塔* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.00165)] \\\n2023年3月1日\n\n**无监督发现扩散模型中的语义潜在方向** \\\n*朴勇贤、权珉基、赵英孝、禹英中* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.12469)] \\\n2023年2月24日\n\n**减、再利用、循环：基于能量的扩散模型与MCMC的组合生成** \\\n*杜一伦、康纳·德肯、罗宾·斯特鲁德尔、约书亚·B·特南鲍姆、桑德·迪勒曼、罗布·费格斯、雅莎·索尔-迪克斯坦、阿尔诺·杜塞、威尔·格拉斯沃思* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11552)] [[项目](https:\u002F\u002Fenergy-based-model.github.io\u002Freduce-reuse-recycle\u002F)] \\\n2023年2月22日\n\n**通过单张图像上的自监督扩散学习3D摄影视频** \\\n*王晓东、吴晨飞、殷圣明、倪明恒、王建峰、李林杰、杨正元、杨帆、王丽娟、刘子成、方跃健、段楠* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10781)] \\\n2023年2月21日\n\n**关于校准扩散概率模型** \\\n*庞天宇、卢程、杜超、林敏、严水成、邓志杰* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10688)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fthudzj\u002FCalibrated-DPMs)] \\\n2023年2月21日\n\n**少量标签下，扩散模型与半监督学习者相互受益** \\\n*游泽斌、钟勇、鲍凡、孙嘉诚、李崇轩、朱俊* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10586)] \\\n2023年2月21日\n\n**使用预训练扩散模型进行跨领域合成** \\\n*罗伊·哈赫诺奇、赵明睿、纳达夫·奥尔泽赫、里农·加尔、阿里·马赫达维-阿米里、丹尼尔·科恩-奥尔、阿米特·海姆·伯曼诺* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10167)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcross-domain-compositing\u002Fcross-domain-compositing)] \\\n2023年2月20日\n\n\n\n**基于修复的生成模型** \\\n*崔在穆、朴艺森、姜明珠* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05456)] \\\n2023年2月20日\n\n\n\n**一致扩散模型：通过学习保持一致性来缓解采样漂移** \\\n*扬尼斯·达拉斯、尤瓦尔·达甘、亚历山德罗斯·G·迪马基斯、康斯坦提诺斯·达斯卡拉基斯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.09057)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fgiannisdaras\u002Fcdm)] \\\n2023年2月17日\n\n**LayoutDiffuse：将基础扩散模型适配用于布局到图像生成** \\\n*程佳欣、梁晓、石兴健、何通、肖天军、李牧* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08908)] \\\n2023年2月16日\n\n**投影潜在空间中的视频概率扩散模型** \\\n*柳始贤、孙基赫、金秀彬、申振宇* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.07685)] [[GitHub](https:\u002F\u002Fsihyun.me\u002FPVDM\u002F)] \\\n2023年2月15日\n\n**DiffFaceSketch：基于草图引导的潜在扩散模型实现高保真人脸图像合成** \\\n*彭毅臣、赵春琪、谢浩然、福里佐·月冈、宫田和典* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.06908)] \\\n2023年2月14日\n\n**在哪里扩散、如何扩散以及如何回归：多变量扩散的自动化学习** \\\n*拉加夫·辛哈尔、马克·戈德斯坦、拉杰什·兰加纳特* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.07261)] \\\n2023年2月14日\n\n\n**预处理基于分数的生成模型** \\\n*张莉、马恒远、朱夏田、冯建峰* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.06504)] [GitHub](https:\u002F\u002Fgithub.com\u002Ffudan-zvg\u002FPDS)] \\\n2023年2月13日\n\n**星形去噪扩散概率模型** \\\n*安德烈·奥霍京、德米特里·莫尔恰诺夫、弗拉基米尔·阿尔希普金、格里戈里·巴尔托什、艾贝克·阿拉诺夫、德米特里·韦特罗夫* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.05259)] \\\n2023年2月10日\n\n**UniPC：用于扩散模型快速采样的统一预测-校正框架** \\\n*赵文亮、白璐嘉、饶永明、周杰、陆继文* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04867)] [[项目](https:\u002F\u002Funipc.ivg-research.xyz)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fwl-zhao\u002FUniPC)] \\\n2023年2月9日\n\n**基于分数的生成模型的几何结构** \\\n*桑德什·吉米雷、刘金阳、阿曼德·科马斯、达文·希尔、阿里亚·马苏米、奥克塔维娅·坎普斯、珍妮弗·戴伊* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04411)] \\\n2023年2月9日\n\n**Q-Diffusion：量化扩散模型** \\\n*李秀宇、连龙、刘义江、杨焕瑞、董振、丹尼尔·康格、张尚航、库尔特·凯茨勒* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04304)] \\\n2023年2月8日\n\n**PFGM++：释放受物理启发的生成模型的潜力** \\\n*许一伦、刘子明、田勇龙、童尚远、马克斯·泰格马克、汤米·雅各拉* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04265)] [[GitHub](https:\u002F\u002Fgithub.com\u002FNewbeeer\u002Fpfgmpp)] \\\n2023年2月8日\n\n**长 horizon 温度缩放** \\\n*安迪·史密斯、多尔萨·萨迪格、斯特法诺·埃尔蒙* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03686)] \\\n2023年2月7日\n\n**Spatial Functa：将 Functa 扩展到 ImageNet 分类与生成任务** \\\n*马蒂亚斯·鲍尔、埃米利安·杜邦、安迪·布洛克、丹·罗森鲍姆、乔纳森·施瓦茨、金贤植* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03130)] \\\n2023年2月6日\n\n**ShiftDDPMs：通过平移扩散轨迹探索条件扩散模型** \\\n*张子健、赵舟、于俊、田琪* \\\nAAAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02373)] \\\n2023年2月5日\n\n**基于分数的生成模型的分解与组合** \\\n*桑德什·吉米雷、阿曼德·科马斯、达文·希尔、阿里亚·马苏米、奥克塔维娅·坎普斯、珍妮弗·戴伊* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02272)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsandeshgh\u002FScore-based-disentanglement)] \\\n2023年2月5日\n\n\n**用于降低扩散模型中分数估计方差的稳定目标场** \\\n*许一伦、童尚远、汤米·雅各拉* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.00670)] [[GitHub](https:\u002F\u002Fgithub.com\u002FNewbeeer\u002Fstf)] \\\n2023年2月1日\n\n**DisDiff：无监督解耦扩散概率模型** \\\n*杨涛、王宇旺、吕燕、郑南宁* \\\nNeurIPS 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13721)] \\\n2023年1月31日\n\n\n**利用捷径微调优化 DDPM 采样** \\\n*范颖、李康旭* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13362)] \\\n2023年1月31日\n\n**联合扩散模型学习数据表示** \\\n*卡米尔·德贾、托马什·特热钦斯基、雅库布·M·托姆恰克* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13622)] \\\n2023年1月31日\n\n**ERA-Solver：用于快速采样扩散概率模型的误差鲁棒 Adams 求解器** \\\n*李圣猛、刘露萍、柴增浩、李润楠、谭旭* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12935)] \\\n2023年1月30日\n\n**不要偏心：扩散模型中的少数群体引导** \\\n*严素彬、叶宗哲* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12334)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsangyun884\u002Ffast-ode)] \\\n2023年1月29日\n\n**利用分裂数值方法加速引导式扩散采样** \\\n*苏提萨克·维扎德翁萨、苏帕索恩·苏瓦贾纳科恩* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11558)] \\\n2023年1月27日\n\n**输入扰动可减少扩散模型中的暴露偏差** \\\n*孟宁、恩维尔·桑吉内托、安杰洛·波雷洛、西蒙·卡尔德拉拉、丽塔·库奇阿拉* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11706)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fforever208\u002FDDPM-IP)] \\\n2023年1月27日\n\n**最小化基于 ODE 的生成模型的轨迹曲率** \\\n*李相允、金凡洙、叶宗哲* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12003)] \\\n2023年1月27日\n\n\n**论噪声调度对扩散模型的重要性** \\\n*陈婷* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.10972)] \\\n2023年1月26日\n\n**simple diffusion：面向高分辨率图像的端到端扩散模型** \\\n*埃米尔·霍赫博姆、乔纳森·希克、蒂姆·萨利曼斯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11093)] \\\n2023年1月26日\n\n**通过 MMD 微调实现去噪扩散模型的快速推理** \\\n*埃马努埃莱·艾耶洛、迭戈·瓦尔塞西亚、恩里科·马利* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.07969)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fdiegovalsesia\u002FMMD-DDM)] \\\n2023年1月19日\n\n**探索用于图像扩散模型的 Transformer 主干网络** \\\n*普林西·查哈尔* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.14678)] \\\n2022年12月27日\n\n**从预训练的扩散概率模型中进行无监督表征学习** \\\n*张子健、赵舟、林志杰* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.12990)] \\\n2022年12月26日\n\n\n**迭代生成中的可扩展自适应计算** \\\n*艾伦·贾布里、大卫·弗利特、陈婷* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.11972)] \\\n2022年12月22日\n\n**分层分支扩散模型：用于高效且可解释的多类别条件生成** \\\n*亚历克斯·M·曾、托马索·比安卡拉尼、马克斯·申、加布里埃莱·斯卡利亚* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.10777)] \\\n2022年12月21日\n\n\n**MM-Diffusion：学习用于音频和视频联合生成的多模态扩散模型** \\\n*阮路丹、马一洋、杨欢、何慧国、刘贝、傅建龙、袁景元、金琴、郭百宁* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.09478)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fresearchmm\u002FMM-Diffusion)] \\\n2022年12月19日\n\n\n**基于 Transformer 的可扩展扩散模型** \\\n*威廉·皮布尔斯、谢赛宁* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.09748)] [[项目](https:\u002F\u002Fwww.wpeebles.com\u002FDiT)] [[GitHub](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FDiT)] \\\n2022年12月19日\n\n\n**DAG：基于去噪扩散概率模型的深度感知引导** \\\n*金京年、张宇锡、李圭成、洪秀成、徐俊英、金承龙* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08861)] [[项目](https:\u002F\u002Fku-cvlab.github.io\u002FDAG\u002F)] \\\n2022年12月17日\n\n\n**迈向实用的即插即用扩散模型** \\\n*高孝俊、李云成、金镇英、李承贤、郑明浩、李贤胜、崔承泽* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05973)] \\\n2022年12月12日\n\n**语义脑解码：从 fMRI 到视觉刺激的概念相似图像重建** \\\n*马泰奥·费兰特、托马索·博卡托、尼古拉·托斯基* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06726)] \\\n2022年12月13日\n\n**MAGVIT：掩码生成式视频 Transformer** \\\n*于立军、程勇、孙基赫、何塞·莱萨马、张汉、常慧文、亚历山大·G·豪普特曼、杨明轩、郝源、伊尔凡·埃萨、姜陆* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05199)] [[项目](https:\u002F\u002Fmagvit.cs.cmu.edu\u002F)] \\\n2022年12月10日\n\n**扩散视频自编码器：通过解耦视频编码实现时序一致的人脸视频编辑**  \n*金京满、沈夏珍、金贤洙、崔允哲、金俊浩、梁恩浩*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02802)]  \n2022年12月6日\n\n**基于扩散模型的像素级引导细粒度图像编辑**  \n*松永直树、石井正人、早川明夫、铃木健二、成平拓也*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02024)]  \n2022年12月5日\n\n\n**VIDM：视频隐式扩散模型**  \n*梅康富、Vishal M. Patel*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00235)] [[项目](https:\u002F\u002Fkfmei.page\u002Fvidm\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FMKFMIKU\u002FVIDM)]  \n2022年12月1日\n\n**为什么条件生成模型比无条件模型更好？**  \n*鲍帆、李崇轩、孙嘉诚、朱俊*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00362)]  \n2022年12月1日\n\n\n**基于潜在扩散模型的高保真引导图像合成**  \n*贾斯吉拉特·辛格、斯蒂芬·古尔德、郑亮*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.17084)] [[项目](https:\u002F\u002F1jsingh.github.io\u002Fgradop)]  \n2022年11月30日\n\n\n**基于分数的连续时间离散扩散模型**  \n*孙浩然、于立军、戴博、戴尔·舒尔曼、戴汉军*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16750)]  \n2022年11月30日\n\n**小波扩散模型是快速且可扩展的图像生成器**  \n*何峰、段权、陈英*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16152)]  \n2022年11月29日\n\n\n**维度可变的扩散过程**  \n*张翰、冯瑞丽、杨占涛、黄良华、刘宇、张一飞、沈宇君、赵德利、周景仁、程凡*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16032)]  \n2022年11月29日\n\n**在基于分数的扩散模型中利用判别器指导细化生成过程**  \n*金东俊、金英民、姜完模、文一哲*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.17091)]  \n2022年11月28日\n\n\n\n**瘦身版扩散概率模型**  \n*杨星毅、周大泉、冯家仕、王新超*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.17106)]  \n2022年11月27日\n\n\n**通过算子学习加速扩散模型采样**  \n*郑洪凯、聂伟力、阿拉什·瓦赫达特、卡米亚尔·阿齐扎德内谢利、安尼玛·阿南德库马尔*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13449)]  \n2022年11月24日\n\n**用于任意长度高保真视频生成的潜在视频扩散模型**  \n*何英青、杨天宇、张勇、山英、陈启峰*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13221)]  \n2022年11月23日\n\n\n\n**以例为画：基于示例的扩散模型图像编辑**  \n*杨斌欣、顾书阳、张博、张婷、陈雪瑾、孙晓燕、陈栋、温芳*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13227)]  \n2022年11月23日\n\n\n**SinDiffusion：从单张自然图像中学习扩散模型**  \n*王伟伦、包建敏、周文刚、陈冬冬、陈栋、袁陆、李厚强*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12445)] [[GitHub](https:\u002F\u002Fgithub.com\u002FWeilunWang\u002FSinDiffusion)]  \n2022年11月22日\n\n**基于分类器特征蒸馏加速扩散采样**  \n*孙武杰、陈德芳、王灿、叶德士、冯艳、陈春*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12039)]  \n2022年11月22日\n\n**SceneComposer：任意层级语义图像合成**  \n*曾宇、林哲、张建明、刘庆、约翰·科洛莫斯、杰森·库恩、Vishal M. Patel*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11742)] [[项目](https:\u002F\u002Fzengyu.me\u002Fscenec\u002F)]  \n2022年11月21日\n\n**基于扩散的场景图到图像生成，结合掩码对比预训练**  \n*杨玲、黄志林、宋洋、洪申达、李国豪、张文韬、崔彬、伯纳德·加内姆、杨明轩*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11138)]  \n2022年11月21日\n\n**SinFusion：在单张图像或视频上训练扩散模型**  \n*雅尼夫·尼坎金、尼夫·海姆、米哈尔·伊拉尼*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11743)]  \n2022年11月21日\n\n**MagicVideo：利用潜在扩散模型高效生成视频**  \n*周大泉、王伟民、严汉淑、吕薇薇、朱一哲、冯家仕*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11018)] [[项目](https:\u002F\u002Fmagicvideo.github.io\u002F)]  \n2022年11月20日\n\n**超越大脑的视觉：用于视觉解码的稀疏掩码建模条件扩散模型**  \n*陈子娇、秦佳欣、项天歌、岳万琳、周娟·海伦*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06956)] [[项目](https:\u002F\u002Fmind-vis.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fzjc062\u002Fmind-vis)]  \n2022年11月13日\n\n**基于扩散模型的少样本图像生成**  \n*朱京元、马慧敏、陈建生、袁健*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03264)]  \n2022年11月7日\n\n**从去噪扩散到去噪马尔可夫模型**  \n*乔·本顿、史宇阳、瓦伦丁·德·博托利、乔治·德利吉安尼斯、阿尔诺·杜塞*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03595)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyuyang-shi\u002Fgeneralized-diffusion)]  \n2022年11月7日\n\n\n**用于条件GAN和扩散模型的高效空间稀疏推理**  \n*李牧扬、林继、孟晨霖、斯特凡诺·埃尔蒙、韩松、朱俊彦*  \nNeurIPS 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.02048)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flmxyy\u002Fsige)]  \n2022年11月4日\n\n**基于扩散过程的最优控制视角下的扩散生成模型**  \n*尤利乌斯·伯纳、洛伦茨·里希特、卡伦·乌尔里希*  \nNeurIPS研讨会2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01364)]  \n2022年11月2日\n\n**通过扩散过程实现熵神经最优传输**  \n*尼基塔·古什金、亚历山大·科列索夫、亚历山大·科罗京、德米特里·韦特罗夫、叶夫根尼·布尔纳耶夫*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01156)]  \n2022年11月2日\n\n**DPM-Solver++：扩散概率模型引导采样的快速求解器**  \n*卢成、周宇浩、鲍帆、陈建飞、李崇轩、朱俊*  \nNeurIPS 2022（口头报告）。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01095)] [[GitHub](https:\u002F\u002Fgithub.com\u002FLuChengTHU\u002Fdpm-solver)]  \n2022年11月2日\n\n**基于分数的去噪扩散，采用非各向同性高斯噪声模型**  \n*维克拉姆·沃莱蒂、克里斯托弗·帕尔、亚当·奥伯曼*  \nNeurIPS研讨会2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12254)]  \n2022年10月21日\n\n\n**扩散模型的深度均衡方法**  \n*阿什维尼·波克莱、耿正阳、齐科·科尔特*  \nNeurIPS 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12867)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flocuslab\u002Fdeq-ddim)]  \n2022年10月23日\n\n**基于扩散模型的表征学习**  \n*杰雷米亚斯·特劳布*  \narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.11058)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fjeremiastraub\u002Fdiffusion)]  \n2022年10月20日\n\n**自引导扩散模型** \\\n*Vincent Tao Hu、David W Zhang、Yuki M. Asano、Gertjan J. Burghouts、Cees G. M. Snoek* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.06462)] [[项目](http:\u002F\u002Ftaohu.me\u002Fsgdm\u002F)] \\\n2022年10月12日\n\n**GENIE：高阶去噪扩散求解器** \\\n*Tim Dockhorn、Arash Vahdat、Karsten Kreis* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05475)] [[项目](https:\u002F\u002Fnv-tlabs.github.io\u002FGENIE\u002F) [[GitHub](https:\u002F\u002Fgithub.com\u002Fnv-tlabs\u002FGENIE)] \\\n2022年10月11日\n\n**f-DM：通过渐进式信号变换的多阶段扩散模型** \\\n*Jiatao Gu、Shuangfei Zhai、Yizhe Zhang、Miguel Angel Bautista、Josh Susskind* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.04955)] [[项目](http:\u002F\u002Fjiataogu.me\u002Ffdm\u002F)] \\\n2022年10月10日\n\n**关于引导式扩散模型的蒸馏** \\\n*Chenlin Meng、Ruiqi Gao、Diederik P. Kingma、Stefano Ermon、Jonathan Ho、Tim Salimans* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.03142)] \\\n2022年10月6日\n\n\n**利用自注意力指导提升扩散模型采样质量** \\\n*Susung Hong、Gyuseong Lee、Wooseok Jang、Seungryong Kim* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.00939)] [[项目](https:\u002F\u002Fku-cvlab.github.io\u002FSelf-Attention-Guidance\u002F)] \\\n2022年10月3日\n\n**OCD：使用条件扩散模型学习过拟合** \\\n*Shahar Shlomo Lutati、Lior Wolf* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.00471)] [[GitHub](https:\u002F\u002Fgithub.com\u002FShaharLutatiPersonal\u002FOCD)] \\\n2022年10月2日\n\n**野外生成的人脸：Stable Diffusion、Midjourney 和 DALL-E 2 的定量比较** \\\n*Ali Borji* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.00586)] [[GitHub](https:\u002F\u002Fgithub.com\u002Faliborji\u002FGFW)] \\\n2022年10月2日\n\n**用于加速基于扩散的生成模型的去噪 MCMC** \\\n*Beomsu Kim、Jong Chul Ye* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14593)] [[GitHub](https:\u002F\u002Fgithub.com\u002F1202kbs\u002FDMCMC)] \\\n2022年9月29日\n\n**万物皆可言说：基于分数的扩散模型的 ViT 主干网络** \\\n*Fan Bao、Chongxuan Li、Yue Cao、Jun Zhu* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.12152)] \\\n2022年9月25日\n\n\n**神经小波域扩散用于 3D 形状生成** \\\n*Ka-Hei Hui、Ruihui Li、Jingyu Hu、Chi-Wing Fu* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.08725)] \\\n2022年9月19日\n\n**能否仅使用完全合成的数据训练分割模型？** \\\n*Virginia Fernandez、Walter Hugo Lopez Pinaya、Pedro Borges、Petru-Daniel Tudosiu、Mark S Graham、Tom Vercauteren、M Jorge Cardoso* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.08256)] \\\n2022年9月17日\n\n**模糊扩散模型** \\\n*Emiel Hoogeboom、Tim Salimans* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.05557)] \\\n2022年9月12日\n\n**软扩散：针对一般性损坏的分数匹配** \\\n*Giannis Daras、Mauricio Delbracio、Hossein Talebi、Alexandros G. Dimakis、Peyman Milanfar* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.05442)] \\\n2022年9月12日\n\n**使用 Token-Critic 改进掩码图像生成** \\\n*José Lezama、Huiwen Chang、Lu Jiang、Irfan Essa* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04439)] \\\n2022年9月9日\n\n\n**让我们架起桥梁：理解与扩展扩散生成模型** \\\n*Xingchao Liu、Lemeng Wu、Mao Ye、Qiang Liu* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.14699)] \\\n2022年8月31日\n\n**Frido：用于复杂场景图像合成的特征金字塔扩散模型** \\\n*Wan-Cyuan Fan、Yen-Chun Chen、DongDong Chen、Yu Cheng、Lu Yuan、Yu-Chiang Frank Wang* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.13753)] \\\n2022年8月29日\n\n\n**利用扩散模型从笔触和草图中生成自适应逼真的图像** \\\n*Shin-I Cheng、Yu-Jie Chen、Wei-Chen Chiu、Hsin-Ying Lee、Hung-Yu Tseng* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.12675)] [[项目](https:\u002F\u002Fcyj407.github.io\u002FDiSS\u002F)] \\\n2022年8月26日\n\n**冷扩散：在无噪声情况下逆向任意图像变换** \\\n*Arpit Bansal、Eitan Borgnia、Hong-Min Chu、Jie S. Li、Hamid Kazemi、Furong Huang、Micah Goldblum、Jonas Geiping、Tom Goldstein* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.09392)] [[GitHub](https:\u002F\u002Fgithub.com\u002Farpitbansal297\u002FCold-Diffusion-Models)] \\\n2022年8月19日\n\n**利用稳健分类器指导增强基于扩散的图像合成** \\\n*Bahjat Kawar、Roy Ganz、Michael Elad* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.08664)] \\\n2022年8月18日\n\n**你的 ViT 其实是一个混合判别—生成式的扩散模型** \\\n*Xiulong Yang、Sheng-Min Shih、Yinlin Fu、Xiaoting Zhao、Shihao Ji* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.07791)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsndnyang\u002FDiffusion_ViT)] \\\n2022年8月16日\n\n\n\n**将正则化薛定谔桥随机过程应用于生成建模** \\\n*Ki-Ung Song* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.07131)] [[GitHub](https:\u002F\u002Fgithub.com\u002FKiUngSong\u002FRSB)] \\\n2022年8月15日\n\n**模拟比特：利用自条件扩散模型生成离散数据** \\\n*Ting Chen、Ruixiang Zhang、Geoffrey Hinton* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.04202)] \\\n2022年8月8日\n\n\n**金字塔去噪扩散概率模型** \\\n*Dohoon Ryu、Jong Chul Ye* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.01864)] \\\n2022年8月3日\n\n**用于粗细结合图像合成的扩散模型渐进式去模糊** \\\n*Sangyun Lee、Hyungjin Chung、Jaehyeon Kim、Jong Chul Ye* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.11192)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsangyun884\u002Fblur-diffusion)] \\\n2022年7月16日\n\n**通过分块提升扩散模型效率** \\\n*Troy Luhman、Eric Luhman* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.04316)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fericl122333\u002FPatchDiffusion-Pytorch)] \\\n2022年7月9日\n\n**利用预处理扩散采样加速基于分数的生成模型** \\\n*Hengyuan Ma、Li Zhang、Xiatian Zhu、Jianfeng Feng* \\\nECCV 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.02196)] \\\n2022年7月5日\n\n**SPI-GAN：通过直线插值蒸馏基于分数的生成模型** \\\n*Jinsung Jeon、Noseong Park* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.14464)] \\\n2022年6月29日\n\n**面向条件扩散生成的熵驱动采样与训练方案** \\\n*Shengming Li、Guangcong Zheng、Hui Wang、Taiping Yao、Yang Chen、Shoudong Ding、Xi Li* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.11474)] \\\n2022年6月23日\n\n**利用逆向热扩散进行生成建模** \\\n*Severi Rissanen、Markus Heinonen、Arno Solin* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.13397)] [[项目](https:\u002F\u002Faaltoml.github.io\u002Fgenerative-inverse-heat-dissipation\u002F)] \\\n2022年6月21日\n\n**扩散模型作为即插即用先验** \\\n*Alexandros Graikos、Nikolay Malkin、Nebojsa Jojic、Dimitris Samaras* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.09012)] [[GitHub](https:\u002F\u002Fgithub.com\u002Falexgraikos\u002Fdiffusion_priors)] \\\n2022年6月17日\n\n**一种灵活的扩散模型** \\\n*杜伟涛、杨涛、张鹤、杜元奇* \\\nICML 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.10365)] \\\n2022年6月17日\n\n**基于高斯扩散的有损压缩** \\\n*卢卡斯·泰斯、蒂姆·萨利曼斯、马修·D·霍夫曼、法比安·门策尔* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.08889)] \\\n2022年6月17日\n\n**通过高阶去噪得分匹配对基于分数的扩散ODE进行最大似然训练** \\\n*陆成、郑凯文、鲍帆、陈建飞、李崇轩、朱军* \\\nICML 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.08265)] [[GitHub](https:\u002F\u002Fgithub.com\u002FLuChengTHU\u002Fmle_score_ode)] \\\n2022年6月16日\n\n**在扩散概率模型中利用不精确均值估计最优协方差** \\\n*鲍帆、李崇轩、孙嘉诚、朱军、张博* \\\nICML 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07309)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fbaofff\u002FExtended-Analytic-DPM)] \\\n2022年6月15日\n\n\n**用于视频预测和填补的扩散模型** \\\n*托比亚斯·赫佩、阿拉什·梅尔久、斯特凡·鲍尔、迪德里克·尼尔森、安德烈亚·迪塔迪* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07696)] \\\n2022年6月15日\n\n**用于跨模态和条件生成的离散对比扩散** \\\n*朱晔、吴宇、凯尔·奥尔谢夫斯基、任健、谢尔盖·图利亚科夫、严燕* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07771)] [[GitHub](https:\u002F\u002Fgithub.com\u002FL-YeZhu\u002FCDCD)] \\\n2022年6月15日\n\n**gDDIM：广义去噪扩散隐式模型** \\\n*张秦生、陶默雷、陈永鑫* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.05564)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fqsh-zh\u002FgDDIM)] \\\n2022年6月11日\n\n**足够了吗？基于分数的生成模型中扩散时间的研究** \\\n*朱利奥·弗朗泽塞、西蒙·罗西、杨立轩、亚历山德罗·菲纳莫雷、达里奥·罗西、毛里齐奥·菲利波内、皮耶特罗·米基亚尔迪* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.05173)] \\\n2022年6月10日\n\n**使用去噪扩散概率模型结合多模态先验进行图像生成** \\\n*尼廷·戈帕拉克里希南·奈尔、韦莱·格达拉·查敏达·班达拉、维沙尔·M·帕特尔* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.05039)] \\\n2022年6月10日\n\n**加速用于高分辨率图像合成的基于分数的生成模型** \\\n*马恒远、张莉、朱夏田、张静峰、冯建峰* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.04029)] \\\n2022年6月8日\n\n**Diffusion-GAN：用扩散训练GAN** \\\n*王振东、郑黄杰、何鹏程、陈伟柱、周明远* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.02262)] \\\n2022年6月5日\n\n**DPM-Solver：一种快速的ODE求解器，可在约10步内完成扩散概率模型采样** \\\n*陆成、周宇浩、鲍帆、陈建飞、李崇轩、朱军* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00927)] [[GitHub](https:\u002F\u002Fgithub.com\u002FLuChengTHU\u002Fdpm-solver)] \\\n2022年6月2日\n\n**阐明基于扩散的生成模型的设计空间** \\\n*泰罗·卡拉斯、米卡·艾塔拉、蒂莫·艾拉、萨穆利·莱内* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00364)] \\\n2022年6月1日\n\n**关于分析基于扩散的深度生成模型的生成与去噪能力** \\\n*卡米尔·德贾、安娜·库齐娜、托马什·特日钦斯基、雅库布·M·汤姆恰克* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00070)] \\\n2022年5月31日\n\n**少样本扩散模型** \\\n*乔治奥·詹诺内、迪德里克·尼尔森、奥勒·温特* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.15463)] \\\n2022年5月30日\n\n**用于离去噪模型的连续时间框架** \\\n*安德鲁·坎贝尔、乔·本顿、瓦伦丁·德·博尔托利、汤姆·雷恩福思、乔治·德利吉安尼迪斯、阿诺·杜塞* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.14987)] \\\n2022年5月30日\n\n**隐式非线性扩散模型的最大似然训练** \\\n*金东俊、罗炳厚、权世正、李东洙、姜完模、文一哲* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.13699)] \\\n2022年5月27日\n\n**通过提前停止扩散过程加速扩散模型** \\\n*吕兆阳、徐旭东、杨策源、林大华、戴博* \\\nICML 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.12524)] \\\n2022年5月25日\n\n\n\n**长视频的灵活扩散建模** \\\n*威廉·哈维、赛义德·纳德里帕里齐、瓦登·马斯拉尼、克里斯蒂安·魏尔巴赫、弗兰克·伍德* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.11495)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fplai-group\u002Fflexible-video-diffusion-modeling)] \\\n2022年5月23日\n\n**MCVD：用于预测、生成和插值的掩码条件视频扩散** \\\n*维克拉姆·沃莱蒂、亚历克西娅·若利库尔-马蒂诺、克里斯托弗·帕尔* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.09853)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fvoletiv\u002Fmcvd-pytorch)] \\\n2022年5月19日\n\n**关于如何通过条件化输入噪声实现扩散模型的可控图像生成** \\\n*维丹特·辛格、苏尔甘·詹迪亚尔、阿尤什·乔普拉、西达尔特·拉梅什、巴拉吉·克里希纳穆提、维尼特·N·巴拉苏布拉马尼安* \\\nCVPR研讨会2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.03859)] \\\n2022年5月8日\n\n**子空间扩散生成模型** \\\n*景博文、加布里埃莱·科尔索、雷纳托·贝林吉耶里、汤米·雅各拉* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.01490)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fbjing2016\u002Fsubspace-diffusion)] \\\n2022年5月3日\n\n**利用指数积分器快速采样扩散模型** \\\n*张秦生、陈永鑫* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.13902)] \\\n2022年4月29日\n\n**半参数化神经网络图像合成** \\\n*安德烈亚斯·布拉特曼、罗宾·隆巴赫、卡恩·奥克泰、乔纳斯·穆勒、比约恩·奥默* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.11824)] \\\n2022年4月25日\n\n\n**视频扩散模型** \\\n*乔纳森·霍、蒂姆·萨利曼斯、阿列克谢·格里琴科、威廉·陈、穆罕默德·诺鲁齐、大卫·J·弗利特* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.03458)] \\\n2022年4月7日\n\n**面向感知优先的扩散模型训练** \\\n*崔主荣、李宗范、申彩勋、金成元、金贤宇、尹成路* \\\nCVPR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.00227)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fjychoi118\u002FP2-weighting)] \\\n2022年4月1日\n\n**利用扩散模型从低密度区域生成高保真数据** \\\n*维卡什·塞瓦格、卡内尔·哈齐尔巴斯、阿尔伯特·戈尔多、菲拉特·厄兹格内尔、克里斯蒂安·坎通·费雷尔* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.17260)] \\\n2022年3月31日\n\n**用于反事实解释的扩散模型** \\\n*纪尧姆·热讷雷、洛伊克·西蒙、弗雷德里克·朱里* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.15636)] \\\n2022年3月29日\n\n**用于条件性基于分数的数据生成的去噪似然得分匹配** \\\n*赵晨浩、孙伟芳、程柏文、罗怡辰、张家哲、刘宇伦、张雨琳、陈佳平、李春毅* \\\nICLR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.14206)] \\\n2022年3月27日\n\n**用于视频生成的扩散概率建模** \\\n*杨瑞涵、普拉卡尔·斯里瓦斯塔瓦、施特凡·曼特* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.09481)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fbuggyyang\u002Frvd)] \\\n2022年3月16日\n\n**动态双输出扩散模型** \\\n*亚尼夫·本尼，利奥尔·沃尔夫* \\\nCVPR 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.04304)] \\\n2022年3月8日\n\n**基于扩散薛定谔桥的条件模拟** \\\n*史宇阳，瓦伦丁·德·博尔托利，乔治·德利吉安尼迪斯，阿诺·杜塞* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.13460)] \\\n2022年2月27日\n\n**用于反事实估计的扩散因果模型** \\\n*佩德罗·桑切斯，索蒂里奥斯·A·察法塔里斯* \\\nPMLR 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.10166)] \\\n2022年2月21日\n\n**流形上扩散模型的伪数值方法** \\\n*刘路平，任毅，林志杰，赵周* \\\nICLR 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.09778)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fluping-liu\u002FPNDM)] \\\n2022年2月20日\n\n**截断扩散概率模型** \\\n*郑黄杰，何鹏程，陈伟祖，周明远* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.09671)] \\\n2022年2月19日\n\n**通过最优传输理解DDPM潜在编码** \\\n*瓦伦丁·赫鲁尔科夫，伊万·奥谢列杰茨* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.07477)] \\\n2022年2月14日\n\n**通过优化采样质量来学习扩散模型的快速采样器** \\\n*丹尼尔·沃森，威廉·陈，乔纳森·霍，穆罕默德·诺鲁齐* \\\nICLR 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.05830)] \\\n2022年2月11日\n\n\n**扩散桥与向量量化变分自编码器** \\\n*马克斯·科恩，纪尧姆·基斯佩，西尔万·勒科尔夫，查尔斯·奥利翁，埃里克·穆兰* \\\nICML 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.04895)] \\\n2022年2月10日\n\n**用于快速采样扩散模型的渐进蒸馏** \\\n*蒂姆·萨利曼斯，乔纳森·霍* \\\nICLR 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.00512)] \\\n2022年2月1日\n\n**Analytic-DPM：扩散概率模型中最佳逆向方差的解析估计** \\\n*范宝，李崇轩，朱俊，张博* \\\nICLR 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.06503)] \\\n2022年1月17日\n\n**DiffuseVAE：从低维潜在空间高效、可控且高保真地生成图像** \\\n*库沙格拉·潘迪，阿维迪普·穆克吉，皮尤什·赖，阿比舍克·库马尔* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.00308)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fkpandey008\u002FDiffuseVAE)] \\\n2022年1月2日\n\n**利用理想导数的去噪扩散概率模型的伊藤-泰勒采样方案** \\\n*立花秀行，五町吾，稻原宗义，片山洋太郎，渡边洋太郎* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.13339)] \\\n2021年12月26日\n\n**GLIDE：基于文本引导的扩散模型实现逼真图像生成与编辑** \\\n*亚历克斯·尼科尔，普拉富拉·达里瓦尔，阿迪提亚·拉梅什，普拉纳夫·夏亚姆，帕梅拉·米什金，鲍勃·麦格鲁，伊利亚·苏茨克维尔，马克·陈* \\\nICML 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.10741)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fglide-text2im)] \\\n2021年12月20日\n\n**基于潜在扩散模型的高分辨率图像合成** \\\n*罗宾·隆巴赫，安德烈亚斯·布拉特曼，多米尼克·洛伦茨，帕特里克·埃瑟，比约恩·奥默* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.10752)] [[GitHub](https:\u002F\u002Fgithub.com\u002FCompVis\u002Flatent-diffusion)] \\\n2021年12月20日\n\n**重尾去噪分数匹配** \\\n*雅各布·迪西，尼古拉·西米季耶夫斯基，皮耶特罗·利奥* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.09788)] \\\n2021年12月17日\n\n**高保真可视化你的自监督表征所了解的内容** \\\n*弗洛里安·博尔德斯，兰德尔·巴莱斯特里耶罗，帕斯卡尔·文森特* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.09164)] \\\n2021年12月16日\n\n**用去噪扩散GANs解决生成学习三难问题** \\\n*肖志胜，卡斯滕·克莱斯，阿拉什·瓦哈特* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.07804)] [[项目](https:\u002F\u002Fnvlabs.github.io\u002Fdenoising-diffusion-gan)] \\\n2021年12月15日\n\n**基于分数的生成模型与临界阻尼朗之万扩散** \\\n*蒂姆·多克霍恩，阿拉什·瓦哈特，卡斯滕·克莱斯* \\\nICLR 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.07068)] [[项目](https:\u002F\u002Fnv-tlabs.github.io\u002FCLD-SGM\u002F)] \\\n2021年12月14日\n\n**免费获得更多控制！基于语义扩散指导的图像合成** \\\n*刘希辉，朴东赫，萨曼内·阿扎迪，龚章，阿尔曼·乔皮基扬，胡宇晓，亨弗里·施伊，安娜·罗尔巴赫，特雷弗·达雷尔* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.05744)] \\\n2021年12月10日\n\n**在向量量化建模中使用离散扩散实现全局上下文，用于图像生成** \\\n*胡明辉，王宇杰，谭哲仁，杨建飞，P.N.苏甘坦* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.01799)] \\\n2021年12月3日\n\n**扩散自编码器：迈向有意义且可解码的表征** \\\n*孔帕特·普里恰库尔，纳塔纳特·恰提，苏提萨克·维扎德翁萨，苏帕松·苏瓦贾纳科恩* \\\nCVPR 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15640)] [[项目](https:\u002F\u002Fdiff-ae.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fphizaz\u002Fdiffae)] \\\n2021年12月30日\n\n**基于分数的扩散模型的条件图像生成** \\\n*格奥尔吉奥斯·巴佐利斯，扬·斯坦丘克，卡罗拉-比比安·舍恩利布，克里斯蒂安·埃特曼* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.13606)] \\\n2021年11月26日\n\n**释放Transformer的力量：利用离散吸收扩散进行并行标记预测，从而从向量量化代码快速生成高分辨率图像** \\\n*萨姆·邦德-泰勒，彼得·赫西，佐佐木浩，托比·P·布雷肯，克里斯·G·威尔科克斯* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.12701)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsamb-t\u002Funleashing-transformers)] \\\n2021年11月24日\n\n**扩散归一化流** \\\n*秦盛·张，陈永鑫* \\\nNeurIPS 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.07579)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fqsh-zh\u002FDiffFlow)] \\\n2021年10月14日\n\n**去噪扩散伽马模型** \\\n*埃利亚·纳赫马尼，罗宾·圣罗马，利奥尔·沃尔夫* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.05948)] \\\n2021年10月10日\n\n**基于分数的大型最优传输生成神经网络** \\\n*马克斯·丹尼尔斯，泰勒·马努，保罗·汉德* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.03237)] \\\n2021年10月7日\n\n**基于分数的生成分类器** \\\n*罗兰·S·齐默曼，卢卡斯·肖特，宋阳，本杰明·A·邓恩，大卫·A·克林特* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.00473)] \\\n2021年10月1日\n\n**无分类器扩散指导** \\\n*乔纳森·霍，蒂姆·萨利曼斯* \\\nNeurIPS研讨会 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.12598)] \\\n2021年9月28日\n\n\n**双边去噪扩散模型** \\\n*马克斯·W·Y·林，王军，黄荣杰，苏丹，于东* \\\narXiv 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.11514)] [[项目](https:\u002F\u002Fbilateral-denoising-diffusion-model.github.io)] \\\n2021年8月26日\n\n**ImageBART：利用多项式扩散实现双向上下文，用于自回归图像合成** \\\n*帕特里克·埃瑟，罗宾·隆巴赫，安德烈亚斯·布拉特曼，比约恩·奥默* \\\nNeurIPS 2021. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.08827)] [[项目](https:\u002F\u002Fcompvis.github.io\u002Fimagebart\u002F)] \\\n2021年8月19日\n\n**ILVR：去噪扩散概率模型的条件化方法** \\\n*崔柱荣、金成元、郑勇贤、权英俊、尹成浩* \\\nICCV 2021（口头报告）。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.02938)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fjychoi118\u002Filvr_adm)] \\\n2021年8月6日\n\n**SDEdit：基于随机微分方程的引导式图像生成与编辑** \\\n*孟晨琳、何宇彤、宋扬、宋嘉明、吴家俊、朱俊彦、斯特凡诺·埃尔蒙* \\\nICLR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.01073)] [[项目](https:\u002F\u002Fsde-image-editing.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fermongroup\u002FSDEdit)] \\\n2021年8月2日\n\n**离散状态空间中的结构化去噪扩散模型** \\\n*雅各布·奥斯汀、丹尼尔·D·约翰逊、乔纳森·霍、丹尼尔·塔洛、里安妮·范登贝格* \\\nNeurIPS 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.03006)] \\\n2021年7月7日\n\n**变分扩散模型** \\\n*迪德里克·P·金格玛、蒂姆·萨利曼斯、本·普尔、乔纳森·霍* \\\narXiv 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.00630)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fvdm)] \\\n2021年7月1日\n\n**变分自编码器中的扩散先验** \\\n*安托万·韦亨凯尔、吉勒斯·卢佩* \\\nICML研讨会2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.15671)] \\\n2021年6月29日\n\n**基于薛定谔桥的深度生成学习** \\\n*王戈菲、焦玉玲、徐倩、王洋、杨灿* \\\nICML 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.10410)] \\\n2021年6月19日\n\n**非高斯去噪扩散模型** \\\n*埃利亚·纳赫马尼、罗宾·圣罗马、利奥尔·沃尔夫* \\\narXiv 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.07582)] [[项目](https:\u002F\u002Fenk100.github.io\u002FNon-Gaussian-Denoising-Diffusion-Models\u002F)] \\\n2021年6月14日\n\n**D2C：用于少样本条件生成的扩散—去噪模型** \\\n*阿比谢克·辛哈、宋嘉明、孟晨琳、斯特凡诺·埃尔蒙* \\\nNeurIPS 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.06819)] [[项目](https:\u002F\u002Fd2c-model.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fd2c-model\u002Fd2c-model.github.io)] \\\n2021年6月12日\n\n**潜在空间中的基于分数的生成建模** \\\n*阿拉什·瓦赫达特、卡斯滕·克莱斯、扬·考茨* \\\narXiv 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.05931)] \\\n2021年6月10日\n\n**学习如何高效地从扩散概率模型中采样** \\\n*丹尼尔·沃森、乔纳森·霍、穆罕默德·诺鲁齐、威廉·陈* \\\narXiv 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.03802)] \\\n2021年6月7日\n\n**基于扩散的生成模型与分数匹配的变分视角** \\\n*黄锦伟、林在贤、亚伦·库维尔* \\\nNeurIPS 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.02808)] [[GitHub](https:\u002F\u002Fgithub.com\u002FCW-Huang\u002Fsdeflow-light)] \\\n2021年6月5日\n\n**软截断：一种用于高精度分数估计的通用训练技术，适用于基于分数的扩散模型** \\\n*金东俊、申承宰、宋京佑、姜完模、文一哲* \\\nICML 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.05527)] \\\n2021年6月10日\n\n**具有分数基生成建模应用的扩散薛定谔桥** \\\n*瓦伦丁·德·博尔托利、詹姆斯·桑顿、杰里米·亨格、阿诺·杜塞特* \\\narXiv 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.01357)] [[项目](https:\u002F\u002Fjtt94.github.io\u002Fpapers\u002Fschrodinger_bridge)] [[GitHub](https:\u002F\u002Fgithub.com\u002FJTT94\u002Fdiffusion_schrodinger_bridge)] \\\n2021年6月1日\n\n**关于扩散概率模型的快速采样** \\\n*孔志峰、魏平* \\\nICML研讨会2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.00132)] [[GitHub](https:\u002F\u002Fgithub.com\u002FFengNiMa\u002FFastDPM_pytorch)] \\\n2021年5月31日\n\n**用于高保真图像生成的级联扩散模型** \\\n*乔纳森·霍、奇特万·萨哈里亚、威廉·陈、大卫·J·弗利特、穆罕默德·诺鲁齐、蒂姆·萨利曼斯* \\\nJMLR 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.15282)] [[项目](https:\u002F\u002Fcascaded-diffusion.github.io\u002F)] \\\n2021年5月30日\n\n**使用基于分数的模型生成数据时必须快速进行** \\\n*亚历克西娅·若利科厄尔-马蒂诺、李可、雷米·皮谢-泰耶费尔、塔尔·卡赫曼、伊万尼斯·米特利亚加斯* \\\narXiv 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.14080)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAlexiaJM\u002Fscore_sde_fast_sampling)] \\\n2021年5月28日\n\n**扩散模型在图像合成方面超越GAN** \\\n*普拉富拉·达里瓦尔、亚历克斯·尼科尔* \\\narXiv 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.05233)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fguided-diffusion)] \\\n2021年5月11日\n\n**通过迭代精炼实现图像超分辨率** \\\n*奇特万·萨哈里亚、乔纳森·霍、威廉·陈、蒂姆·萨利曼斯、大卫·J·弗利特、穆罕默德·诺鲁齐* \\\narXiv 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.07636)] [[项目](https:\u002F\u002Fiterative-refinement.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FJanspiry\u002FImage-Super-Resolution-via-Iterative-Refinement)] \\\n2021年4月15日\n\n**生成式扩散模型的噪声估计** \\\n*罗宾·圣罗马、埃利亚·纳赫马尼、利奥尔·沃尔夫* \\\narXiv 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.02600)] \\\n2021年4月6日\n\n**改进的去噪扩散概率模型** \\\n*亚历克斯·尼科尔、普拉富拉·达里瓦尔* \\\nICLR 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.09672)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fimproved-diffusion)] \\\n2021年2月18日\n\n**基于分数的扩散模型的最大似然训练** \\\n*宋扬、康纳·德肯、伊恩·默里、斯特凡诺·埃尔蒙* \\\narXiv 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.09258)] \\\n2021年1月22日\n\n**在迭代生成模型中进行知识蒸馏以提高采样速度** \\\n*埃里克·卢曼、特洛伊·卢曼* \\\narXiv 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.02388)] [[GitHub](https:\u002F\u002Fgithub.com\u002Ftcl9876\u002FDenoising_Student)] \\\n2021年1月7日\n\n**通过扩散恢复似然学习基于能量的模型** \\\n*高瑞琪、宋扬、本·普尔、吴迎年、迪德里克·P·金格玛* \\\nICLR 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.08125)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fruiqigao\u002Frecovery_likelihood)] \\\n2020年12月15日\n\n**通过随机微分方程进行基于分数的生成建模** \\\n*宋扬、贾莎·索尔-迪克斯坦、迪德里克·P·金格玛、阿比舍克·库马尔、斯特凡诺·埃尔蒙、本·普尔* \\\nICLR 2021（口头报告）。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.13456)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyang-song\u002Fscore_sde)] \\\n2020年11月26日\n\n**基于能量的潜在变量模型中得分函数的变分（梯度）估计** \\\n*范宝、许坤、李崇轩、洪兰青、朱军、张波* \\\nICML 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.08258)] \\\n2020年10月16日\n\n**去噪扩散隐式模型** \\\n*宋嘉明、孟晨琳、斯特凡诺·埃尔蒙* \\\nICLR 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.02502)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fermongroup\u002Fddim)] \\\n2020年10月6日\n\n**对抗性分数匹配及图像生成的改进采样** \\\n*亚历克西娅·若利科厄尔-马蒂诺、雷米·皮谢-泰耶费尔、雷米·塔谢·德斯·孔布斯、伊万尼斯·米特利亚加斯* \\\nICLR 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.05475)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAlexiaJM\u002FAdversarialConsistentScoreMatching)] \\\n2020年9月11日\n\n**去噪扩散概率模型** \\\n*乔纳森·霍、阿贾伊·贾因、皮特·阿贝尔* \\\nNeurIPS 2020. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.11239)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhojonathanho\u002Fdiffusion)] [[GitHub2](https:\u002F\u002Fgithub.com\u002Fpesser\u002Fpytorch_diffusion)] \\\n2020年6月19日 \n\n**基于分数的生成模型训练改进技术** \\\n*宋洋、斯特凡诺·埃尔蒙* \\\nNeurIPS 2020. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.09011)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fermongroup\u002Fncsnv2)] \\\n2020年6月16日 \n\n**通过估计数据分布的梯度进行生成建模** \\\n*宋洋、斯特凡诺·埃尔蒙* \\\nNeurIPS 2019. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1907.05600)] [[项目](https:\u002F\u002Fyang-song.github.io\u002Fblog\u002F2021\u002Fscore\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fermongroup\u002Fncsn)] \\\n2019年7月12日 \n\n**神经随机微分方程：扩散极限下的深度潜在高斯模型** \\\n*贝琳达·曾、马克西姆·拉金斯基* \\\narXiv 2019. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.09883)] \\\n2019年5月23日 \n\n**利用非平衡热力学进行深度无监督学习** \\\n*雅莎·索尔-迪克斯坦、埃里克·A·魏斯、尼鲁·马赫斯瓦拉纳森、苏里亚·甘古利* \\\nICML 2015. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1503.03585)] [[GitHub](https:\u002F\u002Fgithub.com\u002FSohl-Dickstein\u002FDiffusion-Probabilistic-Models)] \\\n2015年3月2日\n\n\n\n### 分类\n\n**基于似然的异常检测：利用去噪扩散概率模型** \\\n*约瑟夫·古迪尔、尼尔·D·F·坎贝尔* \\\nBMVC 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17432)] \\\n2023年10月26日\n\n**多尺度扩散去噪平滑** \\\n*郑宗宪、申振宇* \\\nNeurIPS 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16779)] \\\n2023年10月25日\n\n**DiffRef3D：一种基于扩散的三维目标检测提案精炼框架** \\\n*金世浩、具仁勇、李仁英、朴炳俊、金昌植* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16349)] \\\n2023年10月25日\n\n**扩散模型的去噪任务路由** \\\n*朴炳俊、禹相珉、高孝俊、金珍英、金昌植* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07138)] \\\n2023年10月11日\n\n**利用基于扩散的图像变体在受污染数据上进行稳健训练** \\\n*卢卡斯·斯特鲁佩克、马丁·B·亨舍尔、克利夫顿·波斯、多米尼克·欣特斯多夫、克里斯蒂安·克尔斯廷* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06372)] [[GitHub](https:\u002F\u002Fgithub.com\u002FLukasStruppek\u002FRobust_Training_on_Poisoned_Samples)] \\\n2023年10月10日\n\n**梦想不可能：利用扩散模型进行异常想象** \\\n*杜雪峰、孙义友、朱晓进、李一轩* \\\nNeurIPS 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13415)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fdeeplearning-wisc\u002Fdream-ood)] \\\n2023年9月23日\n\n**基于语言-视觉模型的零样本目标计数** \\\n*徐静怡、黎辉、季米特里斯·萨马拉斯* \\\nCVPR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13097)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcvlab-stonybrook\u002Fzero-shot-counting)] \\\n2023年9月22日\n\n**PSDiff：用于人员搜索的扩散模型，具有迭代和协作式精炼功能** \\\n*贾成友、罗敏楠、党卓航、戴广、常小军、王京东、郑庆华* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11125)] \\\n2023年9月20日\n\n**超越生成：利用文本到图像模型进行目标检测和分割** \\\n*葛云浩、许嘉树、布赖恩·N·隆·赵、尼尔·乔希、劳伦特·伊蒂、维巴夫·维尼特* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05956)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fgyhandy\u002FText2Image-for-Detection)] \\\n2023年9月12日\n\n**DiffusionEngine：扩散模型作为可扩展的目标检测数据引擎** \\\n*张曼琳、吴杰、任宇熙、李明、秦杰、肖学峰、刘伟、王睿、郑敏、Andy J. Ma* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03893)] [[项目](https:\u002F\u002Fmettyz.github.io\u002FDiffusionEngine\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fbytedance\u002FDiffusionEngine)] \\\n2023年9月7日\n\n**基于扩散的随机框法三维目标检测** \\\n*周鑫、侯晶华、姚婷婷、梁定康、刘哲、邹志康、叶晓青、程建伟、白翔* \\\nPRCV 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02049)] \\\n2023年9月5日\n\n**扩散模型作为表征学习器** \\\n*杨兴义、王新超* \\\nICCV 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10916)] \\\n2023年8月21日\n\n**DiffusionTrack：用于多目标跟踪的扩散模型** \\\n*罗润、宋子凯、马林涛、魏锦林、杨伟、杨敏* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09905)] \\\n2023年8月19日\n\n**DiffGuard：利用预训练扩散模型进行语义不匹配引导的异常检测** \\\n*高瑞源、赵晨晨、洪兰清、许强* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07687)] \\\n2023年8月15日\n\n**IDiff-Face：基于合成数据的人脸识别，通过气泡状身份条件扩散模型** \\\n*法迪·布特罗斯、乔纳斯·亨利·格雷贝、阿尔扬·库伊珀、纳塞尔·达默* \\\nICCV 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04995)] \\\n2023年8月9日\n\n**利用合成数据解决数据不平衡问题：从数据角度出发的基线方法** \\\n*尹月彬、南贤宇、崔元锡、金娜英、郭秀河、吴泰贤* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00994)] \\\n2023年8月2日\n\n**用于伪装物体检测的扩散模型** \\\n*陈振楠、高荣荣、向天竹、林凡* \\\nECAI 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00303)] \\\n2023年8月1日\n\n**DiffPose：用于视频中人体姿态估计的时空扩散模型** \\\n*冯润阳、高一星、谢泽豪、马雪晴、张炯镇* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16687)] \\\n2023年7月31日\n\n**MetaDiff：基于条件扩散的元学习，用于少样本学习** \\\n*张宝权、于德民* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16424)] \\\n2023年7月31日\n\n**弱监督目标定位的生成式提示模型** \\\n*赵宇中、叶奇祥、吴伟佳、沈春华、万芳* \\\nICCV 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09756)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcallsys\u002FGenPromp)] \\\n2023年7月19日\n\n**扩散模型在图像分类上击败GAN** \\\n*苏米克·穆克霍帕迪亚、马修·格威利亚姆、瓦察尔·阿加瓦尔、纳米塔·帕德马纳班、阿尔恰娜·斯瓦米纳坦、斯里尼迪·黑吉德、周天毅、阿比纳夫·施里瓦斯塔瓦* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08702)] \\\n2023年7月17日\n\n**从扩散到困惑：基于扩散模型为目标检测器生成自然主义对抗补丁** \\\n*林硕延、厄尼·楚、林哲贤、陈俊诚、王家靖* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08076)] \\\n2023年7月16日\n\n**DreamTeacher：利用深度生成模型对图像骨干网络进行预训练** \\\n*李大青、凌欢、阿姆兰·卡尔、大卫·阿库尼亚、金承旭、卡斯滕·克莱斯、安东尼奥·托拉尔巴、桑雅·菲德勒* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07487)] [[项目](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Ftoronto-ai\u002FDreamTeacher\u002F)] \\\n2023年7月14日\n\n**ProtoDiff：通过任务引导的扩散模型学习原型网络** \\\n*杜英俊、肖泽浩、廖圣才、西斯·斯诺克* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14770)] \\\n2023年6月26日\n\n**掩码扩散模型是快速学习者** \\\n*雷家琛、程鹏、巴忠杰、任奎* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11363)] \\\n2023年6月20日\n\n\n**渲染器是优秀的零样本表征学习器：探索用于度量学习的扩散潜变量** \\\n*迈克尔·唐、大卫·舒斯廷* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10721)] \\\n2023年6月19日\n\n**大数据神话：利用扩散模型生成数据集以训练深度检测模型** \\\n*罗伊·沃特曼、玛雅·阿盖伊、克拉斯·迪克斯特拉* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09762)] \\\n2023年6月16日\n\n**高光谱图像分类与扩散模型的结合：一种无监督特征学习框架** \\\n*周静怡、盛嘉木、范佳源、叶鹏、何彤、王斌、陈涛* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08964)] \\\n2023年6月15日\n\n**DDLP：基于深度动态潜粒子的无监督以物体为中心的视频预测** \\\n*塔尔·丹尼尔、阿维夫·塔马尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05957)] \\\n2023年6月9日\n\n**ADDP：利用交替去噪扩散过程学习用于图像识别与生成的通用表征** \\\n*田昌耀、陶晨欣、戴继峰、李浩、李子恒、陆磊威、王小刚、李洪生、黄高、朱锡舟* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05423)] \\\n2023年6月8日\n\n**利用去噪器表征从无条件扩散模型进行条件生成** \\\n*亚历山德罗斯·格莱科斯、斯里卡尔·耶拉普拉加达、迪米特里斯·萨马拉斯* \\\nBMVC 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01900)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcvlab-stonybrook\u002Ffewshot-conditional-diffusion)] \\\n2023年6月2日\n\n**DiffCLIP：利用稳定扩散实现语言驱动的3D分类** \\\n*沈思恬、朱子林、范琳倩、张哈里、吴新晓* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15957)] \\\n2023年5月25日\n\n\n**凭空训练：用生成数据提升图像分类性能** \\\n*周永超、赫什马特·萨哈克、吉米·巴* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15316)] [[项目](https:\u002F\u002Fsites.google.com\u002Fview\u002Fdiffusion-inversion)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyongchao97\u002Fdiffusion_inversion)] \\\n2023年5月24日\n\n**来自扩散模型的合成数据是否已准备好用于知识蒸馏？** \\\n*李政、李宇轩、赵鹏海、宋仁杰、李翔、杨健* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12954)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fzhengli97\u002FDM-KD)] \\\n2023年5月22日\n\n**利用文本到图像扩散模型提升人-物体交互检测能力** \\\n*杨洁、李炳良、杨丰宇、曾爱玲、张磊、张瑞茂* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12252)] \\\n2023年5月20日\n\n\n**Meta-DM：扩散模型在少样本学习中的应用** \\\n*胡文韬、蒋秀蓉、刘嘉润、杨雨琪、田慧* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08092)] \\\n2023年5月14日\n\n**类别平衡扩散模型** \\\n*秦一鸣、郑黄杰、姚江超、周明远、张娅* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00562)] \\\n2023年4月30日\n\n**来自扩散模型的合成数据提升了ImageNet分类性能** \\\n*谢库菲·阿齐齐、西蒙·科恩布利斯、奇特万·萨哈里亚、穆罕默德·诺鲁齐、大卫·J·弗利特* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08466)] \\\n2023年4月17日\n\n\n\n**OVTrack：开放词汇多目标跟踪** \\\n*李思远、托比亚斯·费舍尔、柯磊、丁恒辉、马丁·丹内尔扬、余斐* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08408)] \\\n2023年4月17日\n\n**你的扩散模型其实是一个零样本分类器** \\\n*亚历山大·C·李、米希尔·普拉布德赛、希瓦姆·杜格尔、埃利斯·布朗、迪帕克·帕塔克* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16203)] [[项目](https:\u002F\u002Fdiffusion-classifier.github.io\u002F)] \\\n2023年3月28日\n\n\n**文本到图像扩散模型是零样本分类器** \\\n*凯文·克拉克、普里扬克·贾尼* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15233)] \\\n2023年3月27日\n\n**基于扩散去噪平滑的认证且对抗鲁棒的分布外检测** \\\n*尼古拉·佛朗哥、丹尼尔·科尔斯、珍妮特·米里亚姆·洛伦茨、卡斯滕·罗舍尔、施特凡·根内曼* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14961)] \\\n2023年3月27日\n\n\n\n**CIFAKE：图像分类及对AI生成合成图像的可解释性识别** \\\n*乔丹·J·伯德、艾哈迈德·洛特菲* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14126)] \\\n2023年3月24日\n\n\n\n**去噪扩散自编码器是统一的自监督学习器** \\\n*向伟来、杨宏宇、黄迪、王云鸿* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09769)] )] \\\n2023年3月17日\n\n**借助稳定扩散提升零样本分类中合成数据的多样性** \\\n*乔丹·希帕德、阿诺德·威廉、阮清坚、向伟、克林顿·福克斯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03298)] \\\n2023年2月7日\n\n**假装直到成功：从一个合成的ImageNet克隆中学习** \\\n*梅尔特·布伦特·萨里伊尔迪兹、卡尔泰克·阿拉哈里、黛安·拉尔吕斯、扬尼斯·卡兰蒂迪斯* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08420)] [[项目](https:\u002F\u002Feurope.naverlabs.com\u002Fresearch\u002Fcomputer-vision\u002Fimagenet-sd\u002F)] \\\n2022年12月16日\n\n**DiffAlign：基于扩散合成与对齐的少样本学习** \\\n*阿尼凯特·罗伊、安舒尔·沙阿、凯图尔·沙阿、阿尼尔班·罗伊、拉马·切拉帕* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05404)] \\\n2022年12月11日\n\n\n**用于分布外检测的感知机偏置扩散去噪过程** \\\n*刘路平、任毅、程熙泽、赵周* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11255)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fluping-liu\u002FDiffOOD)] \\\n2022年11月21日\n\n\n**DiffusionDet：用于目标检测的扩散模型** \\\n*陈寿发、孙培泽、宋义兵、罗平* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09788)] [[GitHub](https:\u002F\u002Fgithub.com\u002FShoufaChen\u002FDiffusionDet)] \\\n2022年11月17日\n\n\n\n**用于分布外检测的去噪扩散模型** \\\n*马克·S·格雷厄姆、沃尔特·H.L.皮纳亚、彼得鲁-丹尼尔·图多修、帕拉什凯夫·纳切夫、塞巴斯蒂安·乌尔塞林、M·豪尔赫·卡多索* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.07740)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmarksgraham\u002Fddpm-ood)] \\\n2022年11月14日\n\n\n\n**一种简单、高效且可扩展的对比掩码自编码器，用于学习视觉表征** \\\n*什洛克·米什拉、乔舒亚·罗宾逊、常慧雯、大卫·雅各布斯、亚伦·萨尔纳、亚伦·马斯基诺特、迪利普·克里希南* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.16870)] \\\n2022年10月30日\n\n**从点到函数：扩散模型中的无限维表征** \\\n*萨尔塔克·米塔尔、纪йом·拉若伊、斯特凡·鲍尔、阿拉什·梅赫久* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.13774)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsarthmit\u002Ftraj_drl)] \\\n2022年10月25日\n\n**回旋镖：基于扩散模型的图像流形局部采样** \\\n*洛伦佐·卢齐、阿里·西亚库希、保罗·M·梅耶、何塞·卡斯科-罗德里格斯、理查德·巴拉纽克* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12100)] [[Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1PV5Z6b14HYZNx1lHCaEVhId-Y4baKXwt)] \\\n2022年10月21日\n\n\n**通过分类器（无）引导的元学习** \\\n*埃尔维斯·纳瓦、小林诚二、尹一飞、罗伯特·K·卡茨施曼、本杰明·F·格雷韦* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.08942)] \\\n2022年10月17日\n\n\n\n\n### 分割\n\n**利用基础模型对医学图像进行单样本定位与分割** \\\n*迪帕·阿南德、古鲁纳特·雷迪·M、瓦尼卡·辛格哈尔、达特什·D·桑巴格、希里拉姆·KS、乌代·帕蒂尔、奇特雷斯·布尚、卡维塔·马尼克坎、戴伟·圭、拉凯什·穆利克、阿维纳什·戈帕尔、帕尔明德·巴蒂亚、塔哈·卡斯-豪特* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18642)] \\\n2023年10月28日\n\n**基于条件扩散模型的语义保持图像编码** \\\n*弗朗切斯科·佩佐内、奥斯曼·穆萨、朱塞佩·凯雷、塞尔吉奥·巴尔巴罗萨* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15737)] \\\n2023年10月24日\n\n**基于扩散的数据增强用于细胞核图像分割** \\\n*于欣怡、李冠斌、楼伟、刘思琪、万翔、陈燕、李浩峰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14197)] \\\n2023年10月22日\n\n**EMIT-Diff：通过文本引导的扩散模型提升医学图像分割效果** \\\n*张哲远、姚兰红、王斌、德贝什·贾、埃莉夫·凯莱斯、阿尔派·梅代塔利贝约卢、乌拉斯·巴格奇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12868)] \\\n2023年10月19日\n\n**借助图像提示的基础模型实现无需训练的开放世界分割** \\\n*唐律、蒋鹏涛、肖浩克、李博* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10912)] \\\n2023年10月17日\n\n**面向体数据医学图像分割的通用半监督框架** \\\n*王浩楠、李晓梦* \\\nNeurIPS 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11320)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fxmed-lab\u002FGenericSSL)] \\\n2023年10月17日\n\n**受控扩散图像增强在弱监督语义分割中的应用** \\\n*吴旺宇、戴天宏、黄晓伟、马飞、肖继民* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09760)] \\\n2023年10月15日\n\n\n**引导式扩散：一种用于即插即用条件图像合成的通用框架** \\\n*尼廷·戈帕拉克里希南·奈尔、阿努普·切里安、苏哈斯·洛希特、叶王、小池俊明、维沙尔·M·帕特尔、蒂姆·K·马克斯* \\\nICCV 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00224)] \\\n2023年9月30日\n\n**分解式扩散架构用于无监督图像生成与分割** \\\n*袁鑫、迈克尔·梅尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15726)] \\\n2023年9月27日\n\n**数据集扩散：基于扩散的合成数据集生成用于像素级语义分割** \\\n*阮光、武壮、陈英、阮恢* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14303)] \\\n2023年9月25日\n\n**马赛克融合：扩散模型作为大词汇量实例分割的数据增强工具** \\\n*谢家豪、李伟、李向泰、刘子威、翁业顺、陈昌洛伊* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13042)] [[GitHub](https:\u002F\u002Fgithub.com\u002FJiahao000\u002FMosaicFusion)] \\\n2023年9月22日\n\n**超越生成：利用文生图模型进行目标检测与分割** \\\n*葛云浩、徐嘉树、布莱恩·N·赵、尼尔·乔希、劳伦特·伊蒂、维巴夫·维尼特* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05956)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fgyhandy\u002FText2Image-for-Detection)] \\\n2023年9月12日\n\n**在扩散模型中引入形状先验模块用于医学图像分割** \\\n*张志清、范国佳、刘天勇、李楠、刘宇阳、刘子宇、董灿伟、周守军* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05929)] \\\n2023年9月12日\n\n**从文本到掩码：利用文生图扩散模型的注意力机制定位实体** \\\n*肖长明、杨琦、周峰、张昌水* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04109)] \\\n2023年9月8日\n\n**SLiMe：像我一样分割** \\\n*阿里萨加尔·卡尼、赛义德·阿斯加里·塔加纳基、阿迪提亚·桑吉、阿里·马赫达维·阿米里、加桑·哈马尔内* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03179)] [[GitHub](https:\u002F\u002Fgithub.com\u002Faliasgharkhani\u002FSLiMe)] \\\n2023年9月6日\n\n**扩散模型其实是无需训练的开放词汇语义分割器** \\\n*王景隆、李夏伟、张静、许青源、周秦、于倩、盛璐、徐东* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02773)] \\\n2023年9月6日\n\n\n**GenSelfDiff-HIS：利用扩散进行组织病理学图像分割的生成式自监督** \\\n*维什努瓦尔丹·普尔马、苏哈斯·斯里纳特、塞山·斯里兰加拉詹、安恰尔·卡卡尔、普拉托什·A·P* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01487)] [[GitHub](https:\u002F\u002Fgithub.com\u002FPurmaVishnuVardhanReddy\u002FGenSelfDiff-HIS)] \\\n2023年9月4日\n\n**注意力即标注：利用扩散生成图像和伪掩码用于弱监督语义分割** \\\n*吉桥亮太、大冢悠也、土井健二、田中智弘* \\\nAAAI 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01369)] \\\n2023年9月4日\n\n**ArSDM：采用自适应精炼语义扩散模型合成结肠镜检查图像** \\\n*杜宇浩、江云成、谭双义、吴旭升、窦祺、李振、李冠斌、万翔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01111)] \\\n2023年9月3日\n\n**Ref-Diff：利用生成模型实现零样本指代图像分割** \\\n*倪明恒、张亚博、冯凯来、李晓明、郭艺文、左望蒙* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16777)] \\\n2023年8月31日\n\n**基于掩码条件扩散的模态循环用于MRI中的无监督异常分割** \\\n*梁子云、哈里·安东尼、费利克斯·瓦格纳、康斯坦丁诺斯·卡姆尼察斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16150)] \\\n2023年8月30日\n\n**基于扩散去噪模型的医学图像分割循环训练策略** \\\n*傅永冠、李艺文、沙希尔·U·赛义德、马修·J·克拉克森、胡一鹏* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16355)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmathpluscode\u002FImgX-DiffSeg)] \\\n2023年8月30日\n\n**扩散、注意与分割：使用Stable Diffusion实现无监督零样本分割** \\\n*田俊娇、拉维莎·阿加瓦尔、安德烈娅·科拉科、佐尔特·基拉、玛尔·冈萨雷斯-弗兰科* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12469)] \\\n2023年8月23日\n\n**基于扩散的带标签指导图像转换用于领域自适应语义分割** \\\n*彭多、胡平、邱红可、刘俊* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12350)] \\\n2023年8月23日\n\n**DMCVR：基于形态学指导的扩散模型用于三维心脏体积重建** \\\n*何晓晓、谭超伟、韩立功、刘博、莱昂·阿克塞尔、李康、迪米特里斯·N·梅塔克萨斯* \\\nMICCAI 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09223)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhexiaoxiao-cs\u002FDMCVR)] \\\n2023年8月18日\n\n**掩码扩散模型作为自监督表征学习器** \\\n*潘子轩、陈建旭、史一宇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05695)] \\\n2023年8月10日\n\n**DermoSegDiff：用于皮肤病变勾画的边界感知分割扩散模型** \\\n*阿夫辛·博佐尔普尔、优赛夫·萨德盖伊、阿米尔侯赛因·卡泽鲁尼、雷扎·阿扎德、多丽特·梅尔霍夫* \\\nMICCAI研讨会 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02959)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmindflow-institue\u002Fdermosegdiff)] \\\n2023年8月5日\n\n**DiffusePast：基于扩散的生成式回放用于类别增量语义分割** \\\n*陈景凡、王宇熙、王鹏飞、陈晓、张兆翔、雷震、李青* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01127)] \\\n2023年8月2日\n\n**DAVIS：基于生成式扩散模型的高质量视听分离** \\\n*黄超、苏珊·梁、田亚鹏、阿努拉格·库马尔、徐晨亮* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00122)] \\\n2023年7月31日\n\n**使用扩散模型进行牙科X线图像分割的预训练** \\\n*杰雷米·鲁索、克里斯蒂安·阿拉卡、艾玛·科维利、伊波利特·马亚尔、劳拉·米斯拉奇、威利·奥* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14066)] \\\n2023年7月26日\n\n**FEDD——公平、高效且多样化的基于扩散的病变分割与恶性度分类** \\\n*埃克托·卡里翁、纳尔吉斯·诺鲁齐* \\\nMICCAI 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11654)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhectorcarrion\u002Ffedd)] \\\n2023年7月21日\n\n**DreamTeacher：利用深度生成模型预训练图像骨干网络** \\\n*李代庆、胡安·凌、阿姆兰·卡尔、大卫·阿库纳、金承昱、卡斯滕·克莱斯、安东尼奥·托拉尔巴、桑雅·菲德勒* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07487)] [[项目](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Ftoronto-ai\u002FDreamTeacher\u002F)] \\\n2023年7月14日\n\n**通过提示引导扩散表征实现跨域语义分割** \\\n*龚锐、马丁·丹内尔扬、孙汉、胡里奥·德尔加多·曼加斯、卢克·范古尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.02138)] \\\n2023年7月5日\n\n**DifFSS：用于少样本语义分割的扩散模型** \\\n*谭伟民、陈思远、严波* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00773)] \\\n2023年7月3日\n\n\n**借助扩散模型迈向更优的认证分割** \\\n*奥斯曼·劳西、亚历山大·阿拉乌若、纪йом·沙萨尼翁、玛丽-皮埃尔·雷韦尔、西达尔特·加格、法尔沙德·霍拉米、玛丽亚·瓦卡洛普卢* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09949)] \\\n2023年6月16日\n\n**用于零样本开放词汇分割的扩散模型** \\\n*劳里纳斯·卡拉齐亚、伊罗·莱娜、安德烈亚·韦达尔迪、克里斯蒂安·鲁普雷希特* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09316)] \\\n2023年6月15日\n\n\n**利用扩散模型进行医学图像分割的标注者共识预测** \\\n*托默·阿米特、什穆埃尔·希赫鲁尔、塔尔·沙哈拉巴尼、利奥尔·沃尔夫* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09004)] \\\n2023年6月15日\n\n\n**生成式语义通信：超越比特恢复的扩散模型** \\\n*埃莱奥诺拉·格拉斯丘奇、塞尔吉奥·巴尔巴罗萨、达尼洛·孔米涅洛* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04321)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fispamm\u002FGESCO)] \\\n2023年6月7日\n\n**用于弱监督医学图像分割的条件扩散模型** \\\n*胡新荣、陈宇珍、何宗毅、史一宇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03878)] \\\n2023年6月6日\n\n**DFormer：扩散引导的通用图像分割Transformer** \\\n*王贺峰、曹佳乐、拉奥·穆罕默德·安维尔、谢进、法哈德·沙赫巴兹·汗、庞燕伟* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03437)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcp3wan\u002FDFormer)] \\\n2023年6月6日\n\n**采用掩码先验建模的去噪扩散语义分割** \\\n*赖泽强、段宇辰、戴继峰、李子恒、傅颖、李洪生、乔宇、王文海* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01721)] \\\n2023年6月2日\n\n**基于扩散模型的半监督超声图像分割中的多级全局上下文交叉一致性模型** \\\n*唐凤河、丁建瑞、王灵涛、冼敏、宁春平* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09447)] [[GitHub](https:\u002F\u002Fgithub.com\u002FFengheTan9\u002FMulti-Level-Global-Context-Cross-Consistency)] \\\n2023年5月16日\n\n**从噪声中回响：利用扩散模型生成合成超声图像以辅助真实图像分割** \\\n*大卫·斯托亚诺夫斯基、乌希奥·埃尔米达、巴勃罗·拉马塔、阿里安·贝奇里、阿尔贝托·戈麦斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05424)] \\\n2023年5月9日\n\n**单次操作即可个性化Segment Anything Model** \\\n*张仁睿、蒋正凯、郭子宇、闫士林、潘俊廷、董浩、高鹏、李洪生* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03048)] [[GitHub](https:\u002F\u002Fgithub.com\u002FZrrSkywalker\u002FPersonalize-SAM)] \\\n2023年5月4日\n\n\n**单次操作即可个性化Segment Anything Model** \\\n*张仁睿、蒋正凯、郭子宇、闫士林、潘俊廷、董浩、高鹏、李洪生* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03048)] [[GitHub](https:\u002F\u002Fgithub.com\u002FZrrSkywalker\u002FPersonalize-SAM)] \\\n2023年5月4日\n\n**利用生成式扩散特征无监督发现三维层次结构** \\\n*努里斯拉姆·图尔辛别克、马克·尼特哈默* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00067)] \\\n2023年4月28日\n\n**DiffuseExpand：利用扩散模型扩充二维医学图像分割数据集** \\\n*邵世通、袁晓涵、黄振、邱子明、王帅、周凯文* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.13416)] [[GitHub](https:\u002F\u002Fanonymous.4open.science\u002Fr\u002FDiffuseExpand\u002FREADME.md)] \\\n2023年4月26日\n\n\n\n**用于组织病理学中稳健图像分割的真实数据增强** \\\n*莎拉·切赫尼卡、詹姆斯·鲍尔、卡勒姆·阿瑟斯、坎迪斯·鲁福斯、伯恩哈德·凯因茨* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09534)] \\\n2023年4月19日\n\n**去噪扩散医学模型** \\\n*范玉辉、陈明权* \\\nIEEE ISBI 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09383)] \\\n2023年4月19日\n\n\n**利用扩散模型进行模糊医学图像分割** \\\n*艾蒙·拉赫曼、杰娅·玛丽亚·约瑟·瓦拉纳拉苏、伊尔克尔·哈奇哈利洛卢、维沙尔·M·帕特尔* \\\nCVPR 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04745)] [[GitHub](https:\u002F\u002Fgithub.com\u002Faimansnigdha\u002FAmbiguous-Medical-Image-Segmentation-using-Diffusion-Models)] \\\n2023年4月10日\n\n**BerDiff：用于医学图像分割的条件伯努利扩散模型** \\\n*陈涛、王晨辉、单宏明* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04429)] \\\n2023年4月10日\n\n\n**分布对齐扩散与原型引导网络用于无监督领域自适应分割** \\\n*周海鹏、朱磊、周雨音* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12313)] \\\n2023年3月22日\n\n**基于扩散自编码器的语义潜在空间回归用于椎体骨折分级** \\\n*马蒂亚斯·凯彻、马坦·阿塔德、大卫·辛茨、亚历山德拉·S·格尔辛、萨拉·C·福尔曼、索菲娅·S·戈勒、尤尔根·魏辛格、乔恩·里舍夫斯基、安娜-索菲娅·迪特里希、本尼迪克特·维斯特勒、扬·S·基尔施克、纳西尔·纳瓦布* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12031)] \\\n2023年3月21日\n\n**LD-ZNet：一种基于文本的图像分割潜在扩散方法** \\\n*库提利亚·普纳弗、巴拉特·辛格、帕拉比·戈什、贝赫贾特·西迪奎、戴维·雅各布斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12343)] \\\n2023年3月22日\n\n**DiffuMask：利用扩散模型合成带有像素级标注的图像用于语义分割** \\\n*吴伟嘉、赵宇中、Mike Zheng Shou、周宏、沈春华* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11681)] [[项目](https:\u002F\u002Fweijiawu.github.io\u002FDiffusionMask\u002F)] \\\n2023年3月21日\n\n**以物体为中心的槽位扩散** \\\n*蒋金东、邓飞、高谭·辛格、安成镇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10834)] \\\n2023年3月20日\n\n\n**Diff-UNet：一种嵌入扩散网络的体积分割方法** \\\n*邢兆虎、万亮、傅华柱、杨光、朱磊* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10326)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fge-xing\u002FDiff-UNet)] \\\n2023年3月18日\n\n**DiffusionSeg：将扩散模型应用于无监督目标发现** \\\n*马超凡、杨宇桓、鞠晨、张飞、刘金祥、王宇、张亚、王延峰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09813)] \\\n2023年3月17日\n\n**基于条件分类扩散模型的随机分割** \\\n*卢卡斯·茨宾登、拉尔斯·多伦博斯、西奥多罗斯·皮萨斯、拉斐尔·斯兹尼特曼、巴勃罗·马尔克斯-内伊拉* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08888)] [[GitHub](https:\u002F\u002Fgithub.com\u002FLarsDoorenbos\u002Fccdm-stochastic-segmentation)] \\\n2023年3月15日\n\n**DiffBEV：用于鸟瞰感知的条件扩散模型** \\\n*邹佳宇、朱正、叶云、王兴刚* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08333)] \\\n2023年3月15日\n\n**在三维多类别分割中，训练策略与评估对齐对于扩散模型的重要性** \\\n*付云冠、李艺文、沙希尔·U·赛义德、马修·J·克拉克森、胡一鹏* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06040)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmathpluscode\u002FImgX-DiffSeg)] \\\n2023年3月10日\n\n**MaskDiff：利用扩散概率模型建模掩码分布以实现少样本实例分割** \\\n*黎明权、阮氏谭、黎仲义、杜清端、杜明宁、陈明哲* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05105)] \\\n2023年3月9日\n\n\n**基于文本到图像扩散模型的开放词汇全景分割** \\\n*徐家瑞、刘思飞、阿拉什·瓦赫达特、卞元民、王晓龙、莎莉妮·德梅洛* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04803)] [[项目](https:\u002F\u002Fjerryxu.net\u002FODISE\u002F)] \\\n2023年3月8日\n\n\n**MedSegDiff-V2：基于Transformer的扩散医学图像分割** \\\n*吴俊德、傅饶、方慧慧、张宇、许燕武* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11798)] \\\n2023年1月19日\n\n**DiffusionInst：用于实例分割的扩散模型** \\\n*顾轩宣、陈浩星、徐卓尔、兰军、孟昌华、王伟强* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02773)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fchenhaoxing\u002FDiffusionInst)] \\\n2022年12月6日\n\n**利用递归噪声扩散从航拍图像进行多类别分割** \\\n*本尼迪克特·科尔拜因松、克里斯蒂安·米科瓦伊奇克* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00787)] \\\n2022年12月1日\n\n**Peekaboo：文本到图像扩散模型是零样本分割器** \\\n*瑞安·伯格特、坎查娜·拉纳辛格、李翔、迈克尔·S·柳* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13224)] \\\n2022年11月23日\n\n**利用深度生成网络进行亚型平衡以改进HER2肿瘤分割** \\\n*马蒂亚斯·厄特尔、雅娜·莫尼乌斯、马蒂亚斯·吕布纳、卡罗尔·I·盖珀特、邱静娜、弗劳克·维尔姆、阿恩特·哈特曼、马蒂亚斯·W·贝克曼、彼得·A·法辛、安德烈亚斯·迈尔、拉莫娜·埃尔伯、卡塔琳娜·布赖宁格* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06150)] \\\n2022年11月11日\n\n**MedSegDiff：基于扩散概率模型的医学图像分割** \\\n*吴俊德、方慧慧、张宇、杨业辉、许燕武* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.00611)] \\\n2022年11月1日\n\n**通过预分割扩散采样加速医学图像分割中的扩散模型** \\\n*郭旭涛、杨燕武、叶晨菲、尚陆、向阳、马婷* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.17408)] \\\n2022年10月27日\n\n**基于解剖学约束的CT图像转换用于异质性血管分割** \\\n*吉安马尔科·拉巴贝拉、海瑟姆·布赛德、弗朗切斯科·马索、萨宾·萨尔纳基、劳伦斯·鲁埃、皮耶特罗·戈里、伊莎贝尔·布洛赫* \\\nBMVC 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.01713)] \\\n2022年10月4日\n\n**用于自监督血管分割的扩散对抗性表征学习** \\\n*金宝河、吴有珍、叶钟哲* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14566)] \\\n2022年9月29日\n\n**是否可以用完全合成的数据训练分割模型？** \\\n*弗吉尼亚·费尔南德斯、沃尔特·雨果·洛佩斯·皮纳亚、佩德罗·博尔赫斯、彼特鲁-丹尼尔·图多修、马克·S·格雷厄姆、汤姆·韦尔考特伦、M·豪尔赫·卡多索* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.08256)] \\\n2022年9月17日\n\n**让我们架起桥梁：理解与扩展扩散生成模型** \\\n*刘兴超、吴乐萌、叶茂、刘强* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.14699)] \\\n2022年8月31日\n\n\n**基于扩散模型的语义图像合成** \\\n*王伟伦、鲍建敏、周文刚、陈冬冬、陈东、袁璐、李厚强* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.00050)] \\\n2022年6月30日\n\n\n**利用去噪扩散概率模型进行遥感变化检测（分割）** \\\n*韦莱·格达拉·查敏达·班达拉、尼廷·戈帕克里希南·奈尔、维沙尔·M·帕特尔* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.11892)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fwgcban\u002Fddpm-cd)] \\\n2022年6月23日\n\n\n\n**扩散模型作为即插即用先验** \\\n*亚历山德罗斯·格莱科斯、尼古拉·马尔金、内博伊沙·约伊奇、季米特里斯·萨马拉斯* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.09012)] \\\n2022年6月17日\n\n\n**利用扩散模型快速进行无监督脑部异常检测与分割** \\\n*沃尔特·H·L·皮纳亚、马克·S·格雷厄姆、罗伯特·格雷、佩德罗·F·达科斯塔、彼特鲁-丹尼尔·图多修、保罗·赖特、易·H·马赫、安德鲁·D·麦金农、詹姆斯·T·特奥、罗尔夫·雅格尔、大卫·韦林、杰兰特·里斯、帕拉什凯夫·纳切夫、塞巴斯蒂安·乌尔塞林、M·豪尔赫·卡多索* \\\nMICCAI 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.03461)] \\\n2022年6月7日\n\n\n**用于语义分割的解码器去噪预训练** \\\n*埃曼努埃尔·布雷蒙格·阿西杜、西蒙·科恩布利特、陈婷、尼基·帕尔马尔、马蒂亚斯·明德勒、穆罕默德·诺鲁齐* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.11423)] \\\n2022年5月23日\n\n**用于隐式图像分割集成的扩散模型** \\\n*朱莉娅·沃勒布、罗宾·桑德库勒、弗洛伦丁·比德尔、菲利普·瓦尔马吉亚、菲利普·C·卡坦* \\\nMIDL 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.03145)] \\\n2021年12月6日\n\n**基于扩散模型的标签高效语义分割** \\\n*德米特里·巴拉丘克、伊万·鲁巴切夫、安德烈·沃伊诺夫、瓦伦丁·赫鲁尔科夫、阿廖姆·巴班科* \\\nICLR 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.03126)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyandex-research\u002Fddpm-segmentation)] \\\n2021年12月6日\n\n**SegDiff：基于扩散概率模型的图像分割** \\\n*托梅尔·阿米特、埃利亚·纳赫马尼、塔尔·沙哈尔巴尼、利奥尔·沃尔夫* \\\narXiv 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.00390)] \\\n2021年12月1日\n\n\n**Argmax 流与多项式扩散：学习分类分布** \\\n*埃米尔·霍格博姆、迪德里克·尼尔森、普里扬克·贾尼、帕特里克·福雷、马克斯·韦林* \\\nNeurIPS 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.05379)] \\\n2021年2月10日\n\n\n\n\n\n\n### 图像转换\n\n**潜在扩散反事实解释** \\\n*卡里姆·法里德、西蒙·施罗迪、马克思·阿古斯、托马斯·布罗克斯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06668)] \\\n2023年10月10日\n\n**基于相位内容融合扩散模型与方向分布一致性的少样本模型适配** \\\n*胡腾、张江宁、刘亮、易然、寇思琪、朱浩坤、陈旭、王亚彪、王成杰、马立壮* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03729)] \\\n2023年9月7日\n\n**潜画家** \\\n*苏世杰* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16490)] \\\n2023年8月31日\n\n**基于扩散模型的零样本反转过程用于图像属性编辑** \\\n*冯占波、凌泽南、龚赐、周峰、李杰、罗伯特·C·邱* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15854)] \\\n2023年8月30日\n\n**DiffI2I：高效的图像到图像转换扩散模型** \\\n*夏斌、张宇伦、王世银、王一彤、吴兴隆、田亚鹏、杨文明、拉杜·蒂莫特费、卢克·范古尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13767)] \\\n2023年8月26日\n\n**SSMG：空间-语义地图引导的自由形式布局到图像生成扩散模型** \\\n*贾承友、罗敏楠、党卓航、戴广、常晓军、王梦梦、王京东* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10156)] \\\n2023年8月20日\n\n**MeDM：具有时间对应指导的中介图像扩散模型，用于视频到视频的转换** \\\n*厄尼·楚、黄祖轩、林硕延、陈俊诚* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10079)] [[项目](https:\u002F\u002Fmedm2023.github.io\u002F)] \\\n2023年8月19日\n\n**风格扩散：通过扩散模型实现可控的解耦风格迁移** \\\n*王志忠、赵磊、邢伟* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07863)] \\\n2023年8月15日\n\n**逆向逆向：基于示例的素描到照片合成，无需训练即可通过随机微分方程实现** \\\n*邢锡明、王闯、周海涛、胡志豪、李崇轩、徐东、于倩* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07665)] \\\n2023年8月15日\n\n**利用外观流驾驭扩散模型的力量，实现高质量虚拟试穿** \\\n*苟俊宏、孙思宇、张建富、司建楼、钱晨、张丽清* \\\nACM MM 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06101)] \\\n2023年8月11日\n\n**去噪扩散模型中的头部旋转** \\\n*安德烈亚·阿斯佩尔蒂、加布里埃莱·科拉苏翁诺、安东尼奥·格拉* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06057)] \\\n2023年8月11日\n\n**基于潜在扩散模型的真实感且保留身份的图像情感操控** \\\n*伊万尼斯·皮库利斯、帕纳约蒂斯·P·菲尔恩提西斯、彼得罗斯·马拉戈斯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03183)] \\\n2023年8月6日\n\n**SDDM：基于流形上的分数分解扩散模型，用于无配对图像到图像的转换** \\\n*孙士坤、魏龙辉、邢俊良、贾佳、田琦* \\\nICML 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02154)] \\\n2023年8月4日\n\n**使用扩散模型在图像之间进行插值** \\\n*王健君、波琳娜·戈兰德* \\\nICML 研讨会 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12560)] [[项目](https:\u002F\u002Fclintonjwang.github.io\u002Finterpolation)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fclintonjwang\u002FControlNet)] \\\n2023年7月24日\n\n**TF-ICON：基于扩散的免训练跨域图像合成** \\\n*陆诗琳、刘燕竹、康永健* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12493)] [[GitHub](https:\u002F\u002Fgithub.com\u002FShilin-LU\u002FTF-ICON)] \\\n2023年7月24日\n\n**DiffuseGAE：从解耦表示中实现可控且高保真的图像操控** \\\n*冷毅鹏、黄强娟、王志远、刘阳阳、张浩宇* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.05899)] \\\n2023年7月12日\n\n\n**DIFF-NST：用于可变形神经风格迁移的扩散交织** \\\n*丹·鲁塔、杰玛·卡内特·塔雷斯、安德鲁·吉尔伯特、埃利·谢赫特曼、尼古拉斯·科尔金、约翰·科洛莫斯塞* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04157)] \\\n2023年7月9日\n\n**使用扩散模型进行局部控制的颜色调色板应用** \\\n*瓦伊巴夫·瓦维拉拉、大卫·福赛思* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.02698)] \\\n2023年7月6日\n\n\n**DragonDiffusion：在扩散模型上实现拖拽式操控** \\\n*丛茂、王新涛、宋继冲、山英、张健* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.02421)] [[项目](https:\u002F\u002Fmc-e.github.io\u002Fproject\u002FDragonDiffusion\u002F)] \\\n2023年7月5日\n\n**DragDiffusion：利用扩散模型进行交互式基于点的图像编辑** \\\n*石宇俊、薛楚晖、潘家春、张文庆、谭文义、白松* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14435)] \\\n2023年6月26日\n\n**ArtFusion：使用双重条件潜在扩散模型实现可控的任意风格迁移** \\\n*陈达仁* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09330)] [[GitHub](https:\u002F\u002Fgithub.com\u002FChenDarYen\u002FArtFusion)] \\\n2023年6月15日\n\n\n**InfoDiffusion：利用信息最大化扩散模型进行表征学习** \\\n*王英恒、亚伊尔·希夫、亚伦·戈卡斯兰、潘伟申、王飞、克里斯托弗·德萨、沃洛迪米尔·库列绍夫* \\\nICML 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08757)] \\\n2023年6月14日\n\n**TryOnDiffusion：两个 UNet 的故事** \\\n*朱路洋、杨大伟、泰勒·朱、菲茨姆·雷达、威廉·陈、萨哈里亚·奇特万、穆罕默德·诺鲁齐、伊拉·凯梅尔马赫尔-施利策曼* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08276)] \\\n2023年6月14日\n\n\n**利用非对称梯度指导改进基于扩散的图像转换** \\\n*权基贤、叶宗哲* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04396)] \\\n2023年6月7日\n\n\n**DiffSketching：基于扩散模型的草图控制图像合成** \\\n*王强、孔迪、林凤音、齐永刚* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18812)] \\\n2023年5月30日\n\n**通过对齐扩散反演链实现真实世界图像变化** \\\n*张月晨、邢金波、埃里克·洛、贾佳亚* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18729)] \\\n2023年5月30日\n\n**Photoswap：图像中的个性化主体替换** \\\n*顾静、王怡琳、赵楠轩、傅祖睿、熊伟、刘青、张志飞、张鹤、张建明、郑贤俊、王新埃里克* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18286)] [[项目](https:\u002F\u002Fphotoswap.github.io\u002F)] \\\n2023年5月29日\n\n**利用自动扩散增强技术丰富您的视觉数据集** \\\n*丽莎·邓拉普、艾莉莎·宇野、张翰、杨杰志、约瑟夫·E·冈萨雷斯、特雷弗·达雷尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16289)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flisadunlap\u002FALIA)] \\\n2023年5月25日\n\n**基于神经薛定谔桥的非配对图像到图像转换** \\\n*金宝洙、权基贤、金宽永、叶宗哲* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15086)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcyclomon\u002FUNSB)] \\\n2023年5月24日\n\n**受热力学启发的网络用于合成孔径雷达到光学图像的转换** \\\n*张明进、徐嘉敏、何成宇、商文腾、李云松、高信博* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13839)] \\\n2023年5月23日\n\n\n**扩散模型中的空文本引导其实是一位卡通风格创作者** \\\n*赵晶、郑和亮、王超悦、兰龙、黄万荣、杨文静* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06710)] [[项目](https:\u002F\u002Fnulltextforcartoon.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FNullTextforCartoon\u002FNullTextforCartoon)] \\\n2023年5月11日\n\n\n**利用丰富提示进行零样本图像转换的扩散模型再生成学习** \\\n*林宇培、张森、杨晓军、王肖、史玉凯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04651)] [[项目](https:\u002F\u002Fyupeilin2388.github.io\u002Fpublication\u002FReDiffuser)] \\\n2023年5月8日\n\n**层次化扩散自编码器与解耦图像操控** \\\n*陆泽宇、吴承悦、陈欣远、王耀辉、乔宇、刘熙晖* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.11829)] \\\n2023年4月24日\n\n**DiffusionRig：用于人脸外观编辑的个性化先验学习** \\\n*丁征、张宣儿、夏志浩、拉尔斯·耶贝、涂卓文、张秀明* \\\nCVPR 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06711)] [[项目](https:\u002F\u002Fdiffusionrig.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fadobe-research\u002Fdiffusion-rig)] \\\n2023年4月13日\n\n\n\n**基于属性引导的扩散模型进行人脸动画** \\\n*曾博文、刘旭辉、高思诚、刘博宇、李宏、刘建庄、张宝昌* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03199)] \\\n2023年4月6日\n\n\n\n**基于草图的参考图像合成：结构感知扩散模型的应用** \\\n*金康烈、朴成贤、李俊洙、秋在国* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09748)] \\\n2023年3月31日\n\n**扩散模型中h空间涌现的免训练风格迁移** \\\n*郑在锡、权珉奇、禹英贞* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15403)] [[项目](https:\u002F\u002Fcurryjung.github.io\u002FDiffStyle\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcurryjung\u002FDiffStyle_official)] \\\n2023年3月27日\n\n**基于扩散的目标采样器用于无监督域适应** \\\n*张宇龙、陈书豪、张宇、陆江刚* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12724)] \\\n2023年3月17日\n\n**StyO：仅需一次即可为您的面部风格化** \\\n*李博南、张子程、聂学成、韩聪颖、胡银涵、郭天德* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.03231)] \\\n2023年3月6日\n\n\n**DiffFashion：基于参考的时尚设计——扩散模型的结构感知迁移** \\\n*曹世东、柴文浩、郝圣宇、张艳婷、陈航越、王高昂* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.06826)] \\\n2023年2月14日\n\n**I2SB：图像到图像的薛定谔桥** \\\n*刘冠宏、阿拉什·瓦赫达特、黄德安、埃万格洛斯·A·西奥多鲁、聂伟力、阿尼玛·阿南德库马尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.05872)] [[项目](https:\u002F\u002Fi2sb.github.io\u002F)] \\\n2023年2月12日\n\n**通过互信息引导的随机扩散实现零样本跨模态数据转换** \\\n*王子浩、杨英宇、马克西姆·塞尔梅桑、埃尔韦·德林热特、欧娜·吴* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13743)] \\\n2023年1月31日\n\n**DiffFace：基于扩散的人脸交换——结合面部指导** \\\n*金基洪、金允浩、赵锡柱、徐俊英、南智秀、李奎哲、金承龙、李光熙* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.13344)] [[项目](https:\u002F\u002Fhxngiee.github.io\u002FDiffFace\u002F)] \\\n2022年12月27日\n\n**HS-Diffusion：学习语义引导的扩散模型用于头部交换** \\\n*王庆河、刘丽洁、华淼、何倩、朱鹏飞、曹冰、胡庆华* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06458)] \\\n2022年12月13日\n\n\n**基于反演的扩散模型创意迁移** \\\n*张宇鑫、黄妮莎、唐凡、黄海斌、马崇阳、董伟明、许昌盛* \\\nCVPR 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13203)] [[GitHub](https:\u002F\u002Fgithub.com\u002FzyxElsa\u002FInST)] \\\n2022年11月23日\n\n\n**基于去噪扩散模型的人物图像合成** \\\n*安坎·库马尔·布尼亚、萨尔曼·汗、希沙姆·乔拉卡尔、拉奥·穆罕默德·安维尔、约尔马·拉科宁、穆巴拉克·沙赫、法哈德·沙赫巴兹·汗* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12500)] \\\n2022年11月22日\n\n**统一扩散模型的潜在空间及其在循环扩散和指导中的应用** \\\n*吴亨利、费尔南多·德拉托雷* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05559)] [[GitHub-1](https:\u002F\u002Fgithub.com\u002FChenWu98\u002Fcycle-diffusion)] [[GitHub-2](https:\u002F\u002Fgithub.com\u002FChenWu98\u002Funified-generative-zoo)] \\\n2022年10月11日\n\n\n**基于解剖约束的CT图像转换用于异质性血管分割** \\\n*贾马尔科·拉巴贝拉、海瑟姆·布赛德、弗朗切斯科·马索、萨宾·萨尔纳基、劳伦斯·鲁埃、皮耶特罗·戈里、伊莎贝尔·布洛赫* \\\nBMVC 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.01713)] \\\n2022年10月4日\n\n\n**基于解耦风格与内容表征的扩散图像转换** \\\n*权基贤、叶宗哲* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.15264)] \\\n2022年9月30日\n\n\n**MIDMs：匹配交错扩散模型用于基于示例的图像转换** \\\n*徐俊英、李圭成、赵锡柱、李智英、金承龙* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.11047)] [[项目](https:\u002F\u002Fku-cvlab.github.io\u002FMIDMs\u002F)] \\\n2022年9月22日\n\n\n**利用基于补丁的去噪扩散模型在恶劣天气条件下恢复视觉** \\\n*奥赞·厄兹德尼兹吉、罗伯特·莱根斯坦* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.14626)] \\\n2022年7月29日\n\n**非均匀扩散模型** \\\n*乔治奥斯·巴佐利斯、扬·斯坦丘克、卡罗拉-比比安·舍恩利布、克里斯蒂安·埃特曼* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.09786)] \\\n2022年7月20日\n\n**基于对抗扩散模型的无监督医学图像转换** \\\n*穆扎费尔·厄兹贝伊、萨尔曼·U·H·达尔、哈桑·A·贝德尔、奥纳特·达尔马兹、沙班·厄兹图尔克、阿尔珀·京格尔、托尔加·丘库尔* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.08208)] \\\n2022年7月17日\n\n**EGSDE：基于能量引导随机微分方程的非配对图像到图像转换** \\\n*赵敏、鲍帆、李崇轩、朱俊* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.06635)] \\\n2022年7月14日\n\n**用于跨模态和条件生成的离散对比扩散模型** \\\n*朱叶、吴宇、凯尔·奥尔谢夫斯基、任健、谢尔盖·图利亚科夫、严燕* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07771)] [[GitHub](https:\u002F\u002Fgithub.com\u002FL-YeZhu\u002FCDCD)] \\\n2022年6月15日\n\n**预训练是图像到图像转换的全部需求** \\\n*王腾飞、张婷、张博、欧阳浩、陈东、陈启峰、文芳* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.12952)] [[项目](https:\u002F\u002Ftengfei-wang.github.io\u002FPITI\u002Findex.html)] [[GitHub](https:\u002F\u002Fgithub.com\u002FPITI-Synthesis\u002FPITI)] \\\n2022年5月25日\n\n**VQBB：基于向量量化布朗桥的图像到图像转换** \\\n*李博、薛凯涛、刘斌、赖宇坤* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.07680)] \\\n2022年5月16日\n\n**图像到图像转换的瑞士军刀：多任务扩散模型** \\\n*朱莉娅·沃勒布、罗宾·桑德库勒、弗洛伦丁·比德尔、菲利普·C·卡廷* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.02641)] \\\n2022年4月6日\n\n\n**用于图像到图像转换的双重扩散隐式桥梁** \\\n*苏璇、宋嘉明、孟晨琳、斯特凡诺·埃尔蒙* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.08382)] \\\n2022年3月16日\n\n**去噪扩散修复模型** \\\n*巴哈贾特·卡瓦尔、迈克尔·埃拉德、斯特凡诺·埃尔蒙、宋嘉明* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.11793)] \\\n2022年1月27日\n\n**DiffuseMorph：利用扩散模型在连续轨迹上进行无监督可变形图像配准** \\\n*金宝河、韩仁华、叶宗哲* \\\narXiv 2021年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.05149)] \\\n2021年12月9日\n\n**扩散自编码器：迈向有意义且可解码的表征** \\\n*孔帕特·普里查库尔、纳塔纳特·恰提、苏提萨克·维扎德翁萨、苏帕索恩·苏瓦贾纳科恩* \\\narXiv 2021年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15640)] [[项目](https:\u002F\u002Fdiff-ae.github.io\u002F)] \\\n2021年12月30日\n\n**基于分数函数的扩散模型的条件图像生成** \\\n*乔治奥斯·巴佐利斯、扬·斯坦丘克、卡罗拉-比比安妮·舍恩利布、克里斯蒂安·埃特曼* \\\narXiv 2021年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.13606)] \\\n2021年11月26日\n\n**ILVR：去噪扩散概率模型的条件化方法** \\\n*崔柱荣、金成元、郑容贤、权英俊、尹成路* \\\nICCV 2021（口头报告）。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.02938)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fjychoi118\u002Filvr_adm)] \\\n2021年8月6日\n\n**UNIT-DDPM：基于去噪扩散概率模型的非配对图像转换** \\\n*佐佐木博史、克里斯·G·威尔科克斯、托比·P·布雷肯* \\\narXiv 2021年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.05358)] \\\n2021年4月12日\n\n\n\n### 反问题\n\n**EDiffSR：用于遥感图像超分辨率的有效扩散概率模型** \\\n*肖毅、袁强强、蒋奎、何江、金先宇、张良培* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19288)] \\\n2023年10月30日\n\n\n**面向低光照图像增强的全局结构感知扩散过程** \\\n*侯锦辉、朱志宇、侯俊辉、刘辉、曾焕强、袁辉* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17577)] \\\n2023年10月26日\n\n\n**从后验采样到图像修复中的有意义多样性** \\\n*诺亚·科恩、希拉·马诺尔、尤瓦尔·巴哈特、托梅尔·米哈伊利* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16047)] \\\n2023年10月24日\n\n**扩散模型辅助的密度估计生成模型监督学习** \\\n*刘艳芳、杨茗蕾、张泽中、鲍峰、曹彦钊、张冠楠* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14458)] \\\n2023年10月22日\n\n**基于仿射卷积网络的高质量三维人脸重建** \\\n*林志谦、林江科、李林成、袁义、邹正霞* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14237)] \\\n2023年10月22日\n\n**通过潜在扩散进行图像超分辨率：采样空间专家混合与频率增强解码器方法** \\\n*罗峰、项金喜、张俊、韩晓、杨伟* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12004)] \\\n2023年10月18日\n\n**迈向在超低比特率下实现完美真实感的图像压缩** \\\n*玛琳·卡雷伊、马修·J·马基利、雅各布·韦尔贝克、斯蒂芬·拉图利耶* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10325)] \\\n2023年10月16日\n\n**AutoDIR：基于潜在扩散的全自动一体化图像修复** \\\n*姜一彤、张兆阳、薛天凡、顾金伟* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10123)] \\\n2023年10月16日\n\n**探索用于人脸变形的扩散自编码器设计空间** \\\n*赞德·布莱辛格姆、刘晨* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09484)] \\\n2023年10月14日\n\n**基于扩散模型的低剂量CT迭代重建及扩散先验正则化** \\\n*夏文军、石勇毅、牛创、丛文祥、王戈* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06949)] \\\n2023年10月10日\n\n\n**SMRD：基于SURE的鲁棒MRI重建，结合扩散模型** \\\n*巴图·厄兹图尔克勒、刘超、本杰明·埃克哈特、莫特扎·马尔达尼、宋嘉明、扬·考茨* \\\nMICCAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01799)] [[GitHub](https:\u002F\u002Fgithub.com\u002FNVlabs\u002FSMRD)] \\\n2023年10月3日\n\n**条件扩散蒸馏** \\\n*梅康福、毛里西奥·德尔布拉西奥、侯赛因·塔莱比、涂正中、维沙尔·M·帕特尔、佩曼·米兰法尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01407)] \\\n2023年10月2日\n\n**CommIN：作为反问题的语义图像通信，基于INN引导的扩散模型** \\\n*陈家康、游迪、代尼兹·居恩杜兹、皮埃尔·路易吉·德拉戈蒂* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01130)] \\\n2023年10月2日\n\n\n**针对反问题的提示调优潜在扩散模型** \\\n*郑炯镇、叶宗哲、佩曼·米兰法尔、毛里西奥·德尔布拉西奥* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01110)] \\\n2023年10月2日\n\n**引导扩散：一种通用的即插即用条件图像合成框架** \\\n*尼廷·戈帕克里希南·奈尔、阿努普·切里安、苏哈斯·洛希特、王晔、小池晃明、维沙尔·M·帕特尔、蒂姆·K·马克斯* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00224)] \\\n2023年9月30日\n\n**从触觉生成视觉场景** \\\n*杨丰宇、张佳诚、安德鲁·欧文斯* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15117)] [[项目](https:\u002F\u002Ffredfyyang.github.io\u002Fvision-from-touch\u002F)] \\\n2023年9月26日\n\n**用于高分辨率低光照图像增强的自举扩散模型曲线估计** \\\n*黄建诚、刘一凡、陈世峰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14709)] \\\n2023年9月26日\n\n**用于半监督多域翻译的扩散模型中的多重噪声** \\\n*Tsiry Mayet、Simon Bernard、Clement Chatelain、Romain Herault* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14394)] \\\n2023年9月25日\n\n**用于无监督域适应的领域引导条件扩散模型** \\\n*Yulong Zhang、Shuhao Chen、Weisen Jiang、Yu Zhang、Jiangang Lu、James T. Kwok* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14360)] \\\n2023年9月23日\n\n**基于扩散模型的车牌超分辨率** \\\n*Sawsan AlHalawani、Bilel Benjdira、Adel Ammar、Anis Koubaa、Anas M. Ali* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.12506)] \\\n2023年9月21日\n\n**去阴影一切：当Segment Anything模型遇上零样本去阴影** \\\n*Xiao Feng Zhang、Tian Yi Song、Jia Wei Yao* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11715)] \\\n2023年9月21日\n\n\n**基于扩散编辑的人脸老化** \\\n*Xiangyi Chen、Stéphane Lathuilière* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11321)] \\\n2023年9月20日\n\n**PGDiff：通过部分引导实现多功能人脸修复的扩散模型指导方法** \\\n*Peiqing Yang、Shangchen Zhou、Qingyi Tao、Chen Change Loy* \\\nNeurIPS 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10810)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fpq-yang\u002FPGDiff)] \\\n2023年9月19日\n\n**用于细节保留图像去噪的重建与生成扩散模型** \\\n*Yujin Wang、Lingen Li、Tianfan Xue、Jinwei Gu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10714)] \\\n2023年9月19日\n\n**Gradpaint：基于梯度引导的扩散模型修复** \\\n*Asya Grechka、Guillaume Couairon、Matthieu Cord* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09614)] \\\n2023年9月18日\n\n\n\n**AdBooster：利用稳定扩散外延生成个性化广告创意** \\\n*Veronika Shilova、Ludovic Dos Santos、Flavian Vasile、Gaëtan Racic、Ugo Tanielian* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11507)] \\\n2023年9月8日\n\n**基于Transformer的扩散模型结合非均匀采样跳跃策略的水下图像增强** \\\n*Yi Tang、Takafumi Iwaguchi、Hiroshi Kawasaki* \\\nACM MM 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03445)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fpiggy2009\u002FDM_underwater)] \\\n2023年9月7日\n\n**使用代理分数基先验的高效贝叶斯计算成像** \\\n*Berthy T. Feng、Katherine L. Bouman* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01949)] \\\n2023年9月5日\n\n**具有领域条件先验指导的扩散建模，用于加速MRI和qMRI重建** \\\n*Wanyu Bian、Albert Jang、Fang Liu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00783)] \\\n2023年9月2日\n\n**针对高度欠采样MRI重建的相关性和多频扩散建模** \\\n*Yu Guan、Chuanming Yu、Shiyu Lu、Zhuoxu Cui、Dong Liang、Qiegen Liu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00853)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyqx7150\u002FCM-DM)] \\\n2023年9月2日\n\n**快速扩散EM：一种用于盲逆问题的扩散模型，应用于反卷积** \\\n*Charles Laroche、Andrés Almansa、Eva Coupete* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00287)] [[GitHub](https:\u002F\u002Fanonymous.4open.science\u002Fr\u002FFastDiffusionEM-26BE\u002FREADME.md)] \\\n2023年9月1日\n\n**通过在双域中插入扩散先验实现无监督CT金属伪影去除** \\\n*Xuan Liu、Yaoqin Xie、Songhui Diao、Shan Tan、Xiaokun Liang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16742)] \\\n2023年8月31日\n\n**用于稀疏视角CT重建的分阶段小波优化精炼扩散模型** \\\n*Kai Xu、Shiyu Lu、Bin Huang、Weiwen Wu、Qiegen Liu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15942)] \\\n2023年8月30日\n\n**物理信息驱动的DeepMRI：从热扩散到k空间插值的桥梁** \\\n*Zhuo-Xu Cui、Congcong Liu、Xiaohong Fan、Chentao Cao、Jing Cheng、Qingyong Zhu、Yuanyuan Liu、Sen Jia、Yihang Zhou、Haifeng Wang、Yanjie Zhu、Jianping Zhang、Qiegen Liu、Dong Liang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15918)] \\\n2023年8月30日\n\n**DiffBIR：迈向基于生成式扩散先验的盲图像修复** \\\n*Xinqi Lin、Jingwen He、Ziyan Chen、Zhaoyang Lyu、Ben Fei、Bo Dai、Wanli Ouyang、Yu Qiao、Chao Dong* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15070)] [[GitHub](https:\u002F\u002Fgithub.com\u002FXPixelGroup\u002FDiffBIR)] \\\n2023年8月29日\n\n**像素感知稳定扩散用于真实感图像超分辨率和个性化风格化** \\\n*Tao Yang、Peiran Ren、Xuansong Xie、Lei Zhang* \\\nAAAI 2024。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14469)] \\\n2023年8月28日\n\n**用于稳定超稀疏视角CT重建的数据迭代优化分数模型** \\\n*Weiwen Wu、Yanyang Wang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14437)] \\\n2023年8月28日\n\n**残差去噪扩散模型** \\\n*Jiawei Liu、Qiang Wang、Huijie Fan、Yinong Wang、Yandong Tang、Liangqiong Qu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13712)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fnachifur\u002FRDDM)] \\\n2023年8月25日\n\n**Diff-Retinex：用生成式扩散模型重新思考低光照图像增强** \\\n*Xunpeng Yi、Han Xu、Hao Zhang、Linfeng Tang、Jiayi Ma* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13164)] \\\n2023年8月25日\n\n**利用高效扩散去噪概率模型从低剂量PET合成全剂量PET** \\\n*Shaoyan Pan、Elham Abouei、Junbo Peng、Joshua Qian、Jacob F Wynne、Tonghe Wang、Chih-Wei Chang、Justin Roper、Jonathon A Nye、Hui Mao、Xiaofeng Yang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13072)] \\\n2023年8月24日\n\n**InverseSR：使用潜在扩散模型进行3D脑部MRI超分辨率** \\\n*Jueqi Wang、Jacob Levman、Walter Hugo Lopez Pinaya、Petru-Daniel Tudosiu、M. Jorge Cardoso、Razvan Marinescu* \\\nMICCAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12465)] [[GitHub](https:\u002F\u002Fgithub.com\u002FBioMedAI-UCSC\u002FInverseSR)] \\\n2023年8月23日\n\n**基于扩散模型的高质量图像去雾** \\\n*Hu Yu、Jie Huang、Kaiwen Zheng、Man Zhou、Feng Zhao* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11949)] \\\n2023年8月23日\n\n**用于真实场景去雾的频率补偿扩散模型** \\\n*Jing Wang、Songtao Wu、Kuanhong Xu、Zhiqiang Yuan* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10510)] \\\n2023年8月21日\n\n\n\n**具有辅助指导的对比扩散模型，用于粗粒度到细粒度的PET重建** \\\n*Zeyu Han、Yuhan Wang、Luping Zhou、Peng Wang、Binyu Yan、Jiliu Zhou、Yan Wang、Dinggang Shen* \\\nMICCAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10157)] [[GitHub](https:\u002F\u002Fgithub.com\u002FShow-han\u002FPET-Reconstruction)] \\\n2023年8月20日\n\n**DiffLLE：用于无监督低光照图像增强的扩散引导域校准** \\\n*Shuzhou Yang、Xuanyu Zhang、Yinhuai Wang、Jiwen Yu、Yuhan Wang、Jian Zhang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09279)] \\\n2023年8月18日\n\n**用于图像修复的粗细结合扩散Transformer学习** \\\n*王丽燕、杨钦宇、王聪、王伟、潘金山、苏志勋* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08730)] \\\n2023年8月17日\n\n**蒙特卡洛引导的贝叶斯线性反问题扩散模型** \\\n*加布里埃尔·卡多索、亚齐德·贾纳蒂·伊德里西、西尔万·勒科夫、埃里克·穆兰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07983)] \\\n2023年8月15日\n\n**视觉皮层的几何结构及其在图像修复与增强中的应用** \\\n*弗朗切斯科·巴莱林、埃尔伦德·格隆格* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07652)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fballerin\u002Fv1diffusion)] \\\n2023年8月15日\n\n**YODA：仅扩散区域——一种基于区域掩码的扩散方法用于图像超分辨率** \\\n*布莱恩·B·莫瑟、斯坦尼斯拉夫·弗罗洛夫、费德里科·劳厄、塞巴斯蒂安·帕拉西奥、安德烈亚斯·登格尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07977)] \\\n2023年8月15日\n\n**TextDiff：基于掩码引导的残差扩散模型用于场景文本图像超分辨率** \\\n*刘宝林、杨宗源、王鹏飞、周俊杰、刘子琪、宋子怡、刘妍、熊永平* \\\nAAAI 2024。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06743)] \\\n2023年8月13日\n\n**CLE Diffusion：可控光照增强扩散模型** \\\n*殷雨阳、徐德佳、谭创创、刘平、赵瑶、魏云超* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06725)] [[项目](https:\u002F\u002Fyuyangyin.github.io\u002FCLEDiffusion\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FYuyangYin\u002FCLEDiffusion)] \\\n2023年8月13日\n\n**稀疏标注下的扩散增强深度预测** \\\n*李佳琪、王一然、黄子豪、郑景宏、冼可、曹志国、张建明* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02283)] \\\n2023年8月4日\n\n**基于扩散模型的绘画风格图像和谐化** \\\n*陆凌霄、李江通、曹俊彦、牛莉、张立青* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02228)] \\\n2023年8月4日\n\n**基于扩散模型的无参考各向同性三维电子显微镜重建** \\\n*李京润、郑元基* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01594)] \\\n2023年8月3日\n\n\n\n**用于MRI重建的傅里叶约束扩散桥梁学习** \\\n*穆罕默德·U·米尔扎、奥纳特·达尔马兹、哈桑·A·贝德尔、戈克贝尔克·埃尔马斯、耶尔马兹·科尔克马兹、阿尔珀·贡古尔、萨尔曼·UH·达尔、托尔加·丘库尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01096)] \\\n2023年8月2日\n\n\n**基于去噪扩散恢复模型的超声图像重建** \\\n*张宇欣、克莱芒·于诺、热罗姆·伊迪耶、黛安娜·马特乌斯* \\\nMICCAI研讨会2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.15990)] [[GitHub](https:\u002F\u002Fgithub.com\u002FYuxin-Zhang-Jasmine\u002FDRUS-v1)] \\\n2023年7月29日\n\n**LLDiffusion：在扩散模型中学习退化表征以用于低光图像增强** \\\n*王涛、张凯浩、邵子谦、罗文翰、比约恩·斯滕格、金泰均、刘伟、李洪东* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14659)] \\\n2023年7月27日\n\n**利用扩散概率模型修复组织学图像中的伪影** \\\n*何振奇、何俊俊、叶进、沈义清* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14262)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fzhenqi-he\u002FArtiFusion)] \\\n2023年7月26日\n\n**ResShift：通过残差移位实现高效图像超分辨率的扩散模型** \\\n*岳宗生、王建毅、陈昌礼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12348)] [[GitHub](https:\u002F\u002Fgithub.com\u002FzsyOAOA\u002FResShift)] \\\n2023年7月23日\n\n\n**基于潜在扩散模型的迭代重建用于稀疏数据重构** \\\n*何林超、严鸿宇、罗梦婷、罗坤明、王旺、杜文超、陈虎、杨鸿宇、张毅* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12070)] \\\n2023年7月22日\n\n**PartDiff：基于部分扩散模型的图像超分辨率** \\\n*赵凯、凌宇恒、庞凯峰、郑浩鑫、成庆贤* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11926)] \\\n2023年7月21日\n\n**基于参考的绘画风格图像修复：跨越野生参考域差距** \\\n*徐德佳、许兴谦、丛文燕、休谟里·史密斯、王章洋* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10584)] [[项目](https:\u002F\u002Fvita-group.github.io\u002FRefPaint\u002F)] \\\n2023年7月20日\n\n**AnyDoor：零样本对象级图像定制** \\\n*陈曦、黄良华、刘宇、沈宇君、赵德利、赵恒爽* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09481)] [[项目](https:\u002F\u002Fdamo-vilab.github.io\u002FAnyDoor-Page\u002F)] \\\n2023年7月18日\n\n**通过迭代扩散模型及更进一步实现真实人脸修复** \\\n*赵阳、侯廷博、苏宇川、贾旭辉、李延东、马蒂亚斯·格鲁德曼* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08996)] \\\n2023年7月18日\n\n\n\n**潜在空间中的流匹配** \\\n*权道、郝丰、彬阮、英陈* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08698)] [[项目](https:\u002F\u002Fvinairesearch.github.io\u002FLFM\u002F)] \\\n2023年7月17日\n\n**通过潜在扩散模型实现保留身份的人脸老化** \\\n*苏迪普塔·班纳吉、戈文德·米塔尔、阿梅亚·乔希、钦迈·赫格德、纳西尔·梅蒙* \\\nIJCB 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08585)] \\\n2023年7月17日\n\n\n\n**通过硬数据一致性利用潜在扩散模型求解反问题** \\\n*宋博文、权秀敏、张泽诚、胡新宇、屈青、沈丽悦* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08123)] \\\n2023年7月16日\n\n**ExposureDiffusion：学习曝光以增强低光图像** \\\n*王宇飞、余易、杨文瀚、郭兰青、周立培、柯亚历克斯、温碧涵* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07710)] \\\n2023年7月15日\n\n**DDGM：通过基于梯度的最小化过程中的扩散去噪来解决反问题** \\\n*凯尔·路德、H·塞巴斯蒂安·升* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04946)] \\\n2023年7月11日\n\n**通过自适应嵌入与集成技术刺激扩散模型进行图像去噪** \\\n*李彤、冯汉森、王立志、熊志伟、黄华* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03992)] \\\n2023年7月8日\n\n**IPO-LDM：基于潜在扩散模型的深度辅助360度室内RGB全景图外扩** \\\n*吴天昊、郑传霞、詹达珍* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03177)] [[GitHub](https:\u002F\u002Fsm0kywu.github.io\u002Fipoldm\u002F)] \\\n2023年7月6日\n\n**使用条件扩散将单张LDR图像转换为HDR图像** \\\n*德维普·达拉尔、高塔姆·瓦希什塔、普拉杰瓦尔·辛格、尚穆加纳坦·拉曼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.02814)] \\\n2023年7月6日\n\n**ACDMSR：加速的单幅图像超分辨率条件扩散模型** \\\n*牛阿喜、范春中、张康、孙金秋、朱宇、权仁素、张燕宁* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00781)] \\\n2023年7月3日\n\n**LEDITS：利用DDPM反演与语义指导进行真实图像编辑** \\\n*利诺伊·察班、阿波利纳里奥·帕索斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00522)] \\\n2023年7月2日\n\n**通过潜在扩散模型的后验采样可证明地求解线性逆问题** \\\n*利图·劳特、内金·拉乌夫、扬尼斯·达拉斯、康斯坦丁·卡拉马尼斯、亚历山德罗斯·G·迪马基斯、桑杰·沙科泰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00619)] [[GitHub](https:\u002F\u002Fgithub.com\u002FLituRout\u002FPSLD)] \\\n2023年7月2日\n\n**用于无监督AS-OCT图像去斑的保内容扩散模型** \\\n*李三谦、东田里纱、傅华柱、李恒、牛静轩、刘江* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17717)] \\\n2023年6月30日\n\n\n**基于展开式扩散模型的自监督MRI重建** \\\n*尤尔马兹·科尔克马兹、托尔加·丘库尔、维沙尔·帕特尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16654)] \\\n2023年6月29日\n\n**SVNR：基于去噪扩散的空间变噪声去除** \\\n*娜阿玛·珀尔、亚伦·布罗德斯基、达娜·伯曼、阿萨夫·佐梅特、亚历克斯·拉夫·阿查、丹尼尔·科恩-奥尔、丹尼·利希金斯基* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16052)] \\\n2023年6月28日\n\n\n**缓解基于分数的扩散模型中的色彩偏移** \\\n*凯瑟琳·德克、托比亚斯·比绍夫* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.15832)] \\\n2023年6月27日\n\n**基于扩散模型的航天卫星低光照图像增强** \\\n*朱一满、王璐、袁静怡、郭宇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14227)] \\\n2023年6月25日\n\n**DiffInfinite：通过组织病理学中的并行随机补丁扩散进行大尺寸掩膜图像合成** \\\n*马可·阿韦尔萨、加布里埃尔·诺比斯、米里亚姆·海格勒、凯·斯坦德沃斯、米哈埃拉·奇里卡、罗德里克·默里-史密斯、艾哈迈德·阿拉、卢卡斯·鲁夫、丹妮拉·伊万诺娃、沃伊切赫·萨梅克、弗雷德里克·克劳申、布鲁诺·桑吉内蒂、路易斯·奥阿拉* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13384)] \\\n2023年6月23日\n\n\n**基于扩散的随机再生模型用于风噪降低** \\\n*让-玛丽·勒梅西耶、约阿希姆·蒂曼、拉斐尔·科宁、蒂莫·格尔克曼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12867)] \\\n2023年6月22日\n\n\n**DiffuseIR：用于三维显微图像各向同性重建的扩散模型** \\\n*潘明杰、甘雨露、周方旭、刘嘉铭、王爱民、张尚航、李大伟* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12109)] \\\n2023年6月21日\n\n\n**HSR-Diff：基于条件扩散模型的高光谱图像超分辨率** \\\n*吴婵悦、王栋、毛涵宇、李颖* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12085)] \\\n2023年6月21日\n\n\n**带前向模型的扩散：无需直接监督即可求解随机逆问题** \\\n*阿尤什·特瓦里、尹天威、乔治·卡泽纳韦特、塞蒙·雷奇科夫、乔舒亚·B·特南鲍姆、弗雷多·杜兰、威廉·T·弗里曼、文森特·西茨曼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11719)] \\\n2023年6月20日\n\n**利用扩散概率模型进行深度超声去噪** \\\n*霍贾特·阿斯加里安德霍尔迪、索班·古达尔齐、阿德里安·巴萨拉布、哈桑·里瓦兹* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07440)] \\\n2023年6月12日\n\n**迈向物理场景的视觉基础模型** \\\n*切坦·帕拉梅什瓦拉、亚历山德罗·阿基莱、马修·特格、李晓龙、莫佳伟、马修·特格、阿什温·斯瓦米纳坦、CJ·泰勒、迪拉·文卡特拉曼、费晓晗、斯特凡诺·索阿托* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03727)] \\\n2023年6月6日\n\n\n**INDigo：一种由INN引导的用于逆问题的概率扩散算法** \\\n*游迪、安德烈亚斯·弗洛罗斯、皮埃尔·路易吉·德拉戈蒂* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02949)] \\\n2023年6月5日\n\n**扩散模型在光流和单目深度估计中的惊人有效性** \\\n*索拉布·萨克赛纳、查尔斯·赫尔曼、许俊华、阿比谢克·卡尔、穆罕默德·诺鲁齐、德庆·孙、大卫·J·弗利特* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01923)] \\\n2023年6月2日\n\n**从预训练扩散生成模型中解构任意尺度的超分辨率能力** \\\n*李瑞斌、周启华、郭松、张杰、郭景才、姜新阳、沈义飞、韩振华* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00714)] \\\n2023年6月1日\n\n**基于小波的扩散模型用于低光照图像增强** \\\n*江海、罗傲、韩松臣、范浩强、刘帅成* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00306)] \\\n2023年6月1日\n\n**面向基于扩散的图像修复的统一条件框架** \\\n*张毅、石晓宇、李大松、王小刚、王健、李洪生* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.20049)] \\\n2023年5月31日\n\n**利用数据一致性直接构建扩散桥梁以解决逆问题** \\\n*郑炯镇、金正率、叶宗哲* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19809)] \\\n2023年5月31日\n\n**通过捷径采样加速用于逆问题的扩散模型** \\\n*刘功业、孙浩泽、李佳怡、殷菲、杨宇久* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16965)] \\\n2023年5月26日\n\n**看，不用手！自我中心视频的智能体-环境分解** \\\n*马修·昌、阿迪提亚·普拉卡什、索拉布·古普塔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16301)] [[项目](https:\u002F\u002Fmatthewchang.github.io\u002Fvidm\u002F)] \\\n2023年5月25日\n\n**用于低剂量CT图像去噪的扩散概率先验** \\\n*刘璇、谢耀钦、刁松辉、谭山、梁晓坤* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15887)] \\\n2023年5月25日\n\n**通过最优边界条件求解扩散ODE以实现更好的图像超分辨率** \\\n*马一洋、杨欢、杨文翰、付建龙、刘佳莹* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15357)] \\\n2023年5月24日\n\n**WaveDM：用于图像修复的小波基扩散模型** \\\n*黄毅、黄建诚、刘建庄、于东、吕家熙、陈世峰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13819)] \\\n2023年5月23日\n\n**双扩散：用于遥感图像盲超分辨率重建的双重条件去噪扩散概率模型** \\\n*徐孟泽、马杰、朱媛媛* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12170)] [[GitHub](https:\u002F\u002Fgithub.com\u002FLincoln20030413\u002FDDSR)] \\\n2023年5月20日\n\n**UniControl：用于野外可控视觉生成的统一扩散模型** \\\n*秦灿、张书、于宁、冯一浩、杨欣怡、周英博、王欢、胡安·卡洛斯·涅布雷斯、熊才明、西尔维奥·萨瓦雷斯、斯特凡诺·埃尔蒙、傅云、徐然* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11147)] \\\n2023年5月18日\n\n**金字塔扩散模型用于低光照图像增强** \\\n*周德伟、杨宗鑫、杨毅* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10028)] \\\n2023年5月17日\n\n**用于射电干涉图像重建的条件去噪扩散概率模型** \\\n*王若琪、陈卓阳、罗琼、王峰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09121)] \\\n2023年5月16日\n\n**用于即插即用图像修复的去噪扩散模型** \\\n*朱元志、张凯、梁静云、曹杰章、文碧涵、拉杜·蒂莫夫特、吕克·范古尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08995)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyuanzhi-zhu\u002FDiffPIR)] \\\n2023年5月15日\n\n\n**利用扩散先验进行真实世界图像超分辨率** \\\n*王建义、岳宗胜、周尚晨、陈家健、罗伊·陈* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.07015)] [[项目](https:\u002F\u002Ficeclear.github.io\u002Fprojects\u002Fstablesr\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FIceClear\u002FStableSR)] \\\n2023年5月11日\n\n**基于变分深度扩散的湍流大气校正** \\\n*王锡军、圣地亚哥·洛佩斯-塔皮亚、安格洛斯·K·卡察格洛斯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05077)] \\\n2023年5月8日\n\n**用于人像的可控光线扩散** \\\n*大卫·富奇克、凯尔文·里特兰德、詹姆斯·维科尔、肖恩·法内洛、塞尔吉奥·奥尔茨-埃斯科拉诺、布赖恩·库尔斯、丹尼尔·西科拉、罗希特·潘迪* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04745)] \\\n2023年5月8日\n\n**DiffBFR：基于自举的扩散模型用于盲态人脸修复** \\\n*邱新民、韩聪颖、张子诚、李博楠、郭天德、聂学成* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04517)] \\\n2023年5月8日\n\n**基于扩散模型的真实场景去噪** \\\n*杨程、梁丽静、苏志勋* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04457)] \\\n2023年5月8日\n\n**从变分视角看如何用扩散模型求解逆问题** \\\n*莫尔特扎·马尔达尼、宋嘉明、扬·考茨、阿拉什·瓦赫达特* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04391)] \\\n2023年5月7日\n\n**利用联合扩散注意力模型从高场和超高场磁共振图像合成PET图像** \\\n*谢涛峰、曹晨涛、崔卓旭、郭宇、吴彩英、王雪梅、李庆宁、胡占利、孙涛、桑子儒、周一航、朱彦杰、梁东、金启宇、陈国清、王海峰* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03901)] \\\n2023年5月6日\n\n\n\n**DocDiff：基于残差扩散模型的文档增强** \\\n*杨宗源、刘宝林、熊永平、易兰、吴贵斌、唐晓军、刘子琪、周俊杰、张星* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03892)] [[GitHub](https:\u002F\u002Fgithub.com\u002FRoyalvice\u002FDocDiff)] \\\n2023年5月6日\n\n**利用从噪声数据中学习到的基于分数的生成先验求解逆问题** \\\n*阿萨德·阿里、马里乌斯·阿尔文特、西达尔特·库马尔、乔纳森·I·塔米尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01166)] \\\n2023年5月2日\n\n**基于自相似性的光声血管造影超分辨率——由手绘涂鸦生成** \\\n*马元征、周旺婷、马睿、杨思华、唐言松、关勋* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01165)] \\\n2023年5月2日\n\n**基于分数的扩散模型作为逆向成像的原理性先验** \\\n*伯西·T·冯、杰米·史密斯、迈克尔·鲁宾斯坦、常慧雯、凯瑟琳·L·鲍曼、威廉·T·弗里曼* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.11751)] \\\n2023年4月23日\n\n**通过搭便车模型改进基于扩散的图像着色** \\\n*刘汉元、邢金波、谢敏山、李承泽、王天赐* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.11105)] [[项目](https:\u002F\u002Fpiggyback-color.github.io\u002F)] \\\n2023年4月21日\n\n**DiFaReli：扩散人脸重照明** \\\n*蓬塔瓦特·蓬勒特纳帕功、农塔瓦特·特里通、苏帕索恩·苏瓦贾纳科恩* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09479)] [[项目](https:\u002F\u002Fdiffusion-face-relighting.github.io\u002F)] \\\n2023年4月19日\n\n**Inpaint Anything：Segment Anything与图像修复相遇** \\\n*余涛、冯润生、冯若雨、刘锦明、金鑫、曾文俊、陈志博* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06790)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fgeekyutao\u002FInpaint-Anything)] \\\n2023年4月13日\n\n**Refusion：利用潜在空间扩散模型实现大尺寸逼真图像修复** \\\n*罗子威、弗雷德里克·K·古斯塔夫森、赵郑、延斯·舍伦德、托马斯·B·舍恩* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08291)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAlgolzw\u002Fimage-restoration-sde)] \\\n2023年4月17日\n\n\n**SPIRiT-Diffusion：自一致性驱动的加速MRI扩散模型** \\\n*崔卓旭、曹晨涛、程静、贾森、郑海荣、梁东、朱彦杰* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05060)] \\\n2023年4月11日\n\n**使用无条件生成式扩散先验进行零样本CT视野补全** \\\n*徐凯文、阿拉文德·R·克里希南、李天佐、霍元凯、金·L·桑德勒、法比安·马尔多纳多、本内特·A·兰德曼* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03760)] \\\n2023年4月7日\n\n**SketchFFusion：基于草图引导的扩散模型图像编辑** \\\n*毛伟航、韩博、王子豪* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03174)] \\\n2023年4月6日\n\n\n**Inst-Inpaint：用扩散模型指示移除物体** \\\n*艾哈迈特·布拉克·耶尔迪里姆、韦达特·巴达伊、埃尔库特·埃尔德姆、艾库特·埃尔德姆、艾赛古尔·敦达尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03246)] [[项目](http:\u002F\u002Finstinpaint.abyildirim.com\u002F)] \\\n2023年4月6日\n\n**利用去噪扩散隐式模型实现连贯的图像修复** \\\n*张冠华、季宝基、张阳、于默、汤米·雅各拉、常世宇* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03322)] [[GitHub](https:\u002F\u002Fgithub.com\u002FUCSB-NLP-Chang\u002FCoPaint\u002F)] \\\n2023年4月6日\n\n**基于频率引导的扩散模型实现零样本医学图像转换** \\\n*李云翔、邵华杰、梁晓、陈立远、李瑞琪、江斯蒂夫、王晶、张友* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02742)] \\\n2023年4月5日\n\n**告别低分辨率：一种基于扩散-小波的图像超分辨率方法** \\\n*布莱恩·莫瑟、斯坦尼斯拉夫·弗罗洛夫、费德里科·劳厄、塞巴斯蒂安·帕拉西奥、安德烈亚斯·登格尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01994)] \\\n2023年4月4日\n\n\n**CoreDiff：上下文误差调制的广义扩散模型，用于低剂量CT去噪及泛化** \\\n*高齐、李子龙、张俊平、张毅、单鸿明* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01814)] \\\n2023年4月4日\n\n\n**用于统一图像修复与增强的生成式扩散先验** \\\n*费本、吕兆阳、潘亮、张俊哲、杨卫东、罗天悦、张博、戴博* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01247)] \\\n2023年4月3日\n\n**用于连续超分辨率的隐式扩散模型** \\\n*高思成、刘旭辉、曾博文、许晟、李燕京、罗晓燕、刘建庄、甄宪彤、张宝昌* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16491)] \\\n2023年3月29日\n\n\n**DiracDiffusion：保证数据一致性的去噪与增量重建** \\\n*扎兰·法比安、贝尔克·蒂纳兹、马赫迪·索尔坦奥尔科塔比* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14353)] \\\n2023年3月25日\n\n**MindDiffuser：基于语义与结构扩散的人脑活动可控图像重建** \\\n*陆一卓、杜昌德、王典鹏、何慧光* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14139)] \\\n2023年3月24日\n\n**DisC-Diff：用于多对比度MRI超分辨率的解耦条件扩散模型** \\\n*毛晔、江兰、陈曦、李超* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13933)] \\\n2023年3月23日\n\n\n**基于子体积的去噪扩散概率模型：用于不完全数据下的锥束CT重建** \\\n*夏文俊、牛闯、丛文祥、王革* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12861)] \\\n2023年3月22日\n\n\n\n**AIGC图像的感知质量评估探索** \\\n*张子成、李春毅、孙伟、刘晓红、闵雄阔、翟广涛* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12618)] \\\n2023年3月22日\n\n**直接迭代反演：一种替代去噪扩散的图像恢复方法** \\\n*毛里西奥·德尔布拉西奥、佩曼·米兰法尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11435)] \\\n2023年3月20日\n\n**用于均匀扩散修复的高效4K掩膜神经网络生成** \\\n*卡尔·施拉德、帕斯卡·彼得、尼克拉斯·坎珀、约阿希姆·魏克特* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10096)] \\\n2023年3月17日\n\n**低光照图像增强的去噪扩散后处理** \\\n*萨瓦斯·帕纳吉托、安娜·S·博斯曼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09627)] \\\n2023年3月16日\n\n**SUD2：基于去噪扩散模型的监督用于图像重建** \\\n*马修·A·陈、肖恩·I·杨、克里斯托弗·A·梅茨勒* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09642)] \\\n2023年3月16日\n\n**DiffIR：高效的图像恢复扩散模型** \\\n*夏彬、张玉伦、王世银、王一彤、吴兴隆、田亚鹏、杨文铭、卢克·范古尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09472)] \\\n2023年3月16日\n\n**ResDiff：结合CNN与扩散模型的图像超分辨率** \\\n*尚书瑶、单正阳、刘广星、张静林* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08714)] \\\n2023年3月15日\n\n**类别引导的图像到图像扩散：基于明场图像和类别标签的细胞着色** \\\n*扬·奥斯卡·克罗斯-扎米尔斯基、普拉文·安南德、盖伊·威廉姆斯、伊丽莎白·穆谢、王银海、卡罗拉-比比安妮·舍恩利布* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08863)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcrosszamirski\u002Fguided-I2I)] \\\n2023年3月15日\n\n\n**用于磁共振图像对比度协调的扩散模型** \\\n*艾丽西亚·杜雷尔、朱莉娅·沃莱布、弗洛伦丁·比德尔、蒂姆·辛内克、马蒂亚斯·韦格尔、罗宾·桑德库勒、克里斯蒂娜·格兰齐耶拉、厄兹居尔·亚尔迪兹利、菲利普·C·卡廷* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08189)] \\\n2023年3月14日\n\n**合成逼真的图像恢复训练样本对：一种扩散方法** \\\n*杨涛、任培然、谢宣松、张磊* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06994)] \\\n2023年3月13日\n\n**DR2：基于扩散的鲁棒退化去除器，用于盲态人脸修复** \\\n*王志新、张晓云、张子颖、郑黄杰、周明远、张雅、王延峰* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06885)] \\\n2023年3月13日\n\n**DDS2M：用于高光谱图像恢复的自监督去噪扩散时空谱模型** \\\n*缪宇春、张雷飞、张良培、陶大成* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06682)] \\\n2023年3月12日\n\n\n**基于几何分解的反问题快速扩散采样器** \\\n*郑炯镇、李秀贤、叶宗哲* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05754)] \\\n2023年3月10日\n\n**利用Swin Transformer进行广义扩散MRI去噪与超分辨率** \\\n*阿米尔·萨迪科夫、杰米·温伦-贾维斯、潘欣蕾、蔡兰娅·T、普拉蒂克·穆克吉* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05686)] \\\n2023年3月10日\n\n**DiffusionDepth：用于单目深度估计的扩散去噪方法** \\\n*段一群、朱政、郭显达* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05021)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fduanyiqun\u002FDiffusionDepth)] \\\n2023年3月9日\n\n**从退化中学习增强：用于眼底图像增强的扩散模型** \\\n*程沛瑾、林丽、黄一进、何华清、罗文翰、唐小英* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04603)] [[GitHub](https:\u002F\u002Fgithub.com\u002FQtacierP\u002FLED)] \\\n2023年3月8日\n\n**无尺寸限制的扩散修复** \\\n*王银怀、于继文、于润义、张健* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.00354)] \\\n2023年3月1日\n\n**利用扩散修复进行无监督的分布外检测** \\\n*刘珍珍、周金鹏、王宇凡、基利安·Q·温伯格* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10326)] \\\n2023年2月20日\n\n**基于修复的生成模型** \\\n*崔在模、朴艺森、姜明珠* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05456)] \\\n2023年2月20日\n\n**基于高斯混合模型图像先验的显式扩散** \\\n*马丁·扎赫、托马斯·波克、埃里希·科布勒、安东尼·尚博勒* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08411)] \\\n2023年2月16日\n\n**用于野外场景下鲁棒图像超分辨率的去噪扩散概率模型** \\\n*哈什马特·萨哈克、丹尼尔·沃森、奇特万·萨哈里亚、大卫·弗利特* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.07864)] \\\n2023年2月15日\n\n\n\n**CDPMSR：用于单幅图像超分辨率的条件扩散概率模型** \\\n*牛阿喜、张康、范中X、孙金秋、朱宇、权仁昭、张燕宁* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.12831)] \\\n2023年2月14日\n\n**如何信任你的扩散模型：一种基于凸优化的保形风险控制方法** \\\n*雅各波·特内吉、马特·蒂夫南、J·韦伯斯特·斯泰曼、杰雷米亚斯·苏拉姆* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03791)] \\\n2023年2月7日\n\n**DDM2：使用生成扩散模型的自监督扩散MRI去噪** \\\n*向天歌、马赫穆特·尤尔特、阿里·B·赛义德、卡温·塞特索姆波、阿克沙伊·乔杜里* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03018)] [[GitHub](https:\u002F\u002Fgithub.com\u002FStanfordMIMI\u002FDDM2)] \\\n2023年2月6日\n\n\n\n\n**用于生成式图像去噪的扩散模型** \\\n*谢宇通、袁敏讷、董斌、李全正* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02398)] \\\n2023年2月5日\n\n\n\n**基于去噪扩散概率模型的图像修复理论依据** \\\n*利图·劳特、阿德瓦伊特·帕鲁莱卡、康斯坦丁·卡拉马尼斯、桑杰·沙科泰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.01217)] \\\n2023年2月2日\n\n**GibbsDDRM：一种部分坍缩的吉布斯采样器，用于通过去噪扩散修复解决盲态反问题** \\\n*村田直树、斋藤浩一、赖启信、泷田裕太、上坂俊光、三藤由纪、斯特凡诺·埃尔蒙* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12686)] \\\n2023年1月30日\n\n**基于分裂数值方法加速引导扩散采样**  \n*苏提萨克·维扎冬萨、苏帕索恩·苏瓦查诺克*  \nICLR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11558)]  \n2023年1月27日\n\n**用于低剂量CT的扩散去噪模型**  \n*李润一*  \narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11482)]  \n2023年1月27日\n\n**基于可见性位掩码的屏幕空间间接光照**  \n*奥利维尔·泰里安、扬尼克·勒韦斯克、纪尧姆·吉莱*  \nVisual Computer 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11376)]  \n2023年1月26日\n\n\n**用于鱼眼图像校正的双扩散架构：从合成到真实场景的泛化**  \n*杨尚荣、林春宇、廖康、赵瑶*  \narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11785)]  \n2023年1月26日\n\n**RainDiffusion：无监督学习与扩散模型结合用于真实世界图像去雨**  \n*魏明强、沈益阳、王永振、谢浩然、王福礼*  \narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.09430)]  \n2023年1月23日\n\n**Dif-Fusion：利用扩散模型实现红外与可见光图像融合中的高色彩保真度**  \n*魏明强、沈益阳、王永振、谢浩然、王福礼*  \narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.09430)]  \n2023年1月23日\n\n**利用扩散模型去除结构化噪声**  \n*特里斯坦·S.W. 史蒂文斯、让-吕克·罗伯特、法伊克·C·梅拉尔、杰森·余、申俊燮、鲁德·J.G. 范斯隆*  \narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.05290)]  \n2023年1月20日\n\n**基于均值回复随机微分方程的图像修复**  \n*罗子威、弗雷德里克·K·古斯塔夫松、赵铮、延斯·舍伦德、托马斯·B·舍恩*  \narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11699)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAlgolzw\u002Fimage-restoration-sde)]  \n2023年1月20日\n\n\n**DiffusionCT：用于CT图像标准化的潜在扩散模型**  \n*穆罕默德·塞利姆、张洁、迈克尔·A·布鲁克斯、王革、陈进*  \narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.08815)]  \n2023年1月20日\n\n**通过采样预训练扩散模型进行目标图像重建**  \n*郑家庚*  \narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.07557)]  \n2023年1月18日\n\n**用于减少MR运动伪影的退火分数驱动扩散模型**  \n*吴奎泽、李贞恩、叶宗哲*  \narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.03027)]  \n2023年1月8日\n\n**探索视觉Transformer作为扩散学习器**  \n*曹鹤、王佳楠、任天赫、齐献标、陈义豪、姚远、张磊*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.13771)]  \n2022年12月28日\n\n\n**迈向盲水印技术：结合可逆与不可逆机制**  \n*马睿、郭孟溪、侯毅、杨帆、李源、贾慧珠、谢晓东*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.12678)] [[GitHub](https:\u002F\u002Fgithub.com\u002Frmpku\u002FCIN)]  \n2022年12月24日\n\n**双噪声扩散：面向具有生成式修复先验的条件扩散模型**  \n*梅康富、尼廷·戈帕拉克里希南·奈尔、维沙尔·M·帕特尔*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.07352)] [[项目](https:\u002F\u002Fkfmei.page\u002Fbi-noising\u002F)]  \n2022年12月14日\n\n**SPIRiT-Diffusion：SPIRiT驱动的分数基生成建模用于血管壁成像**  \n*曹晨涛、崔卓旭、程静、贾森、郑海荣、梁栋、朱彦杰*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.11274)]  \n2022年12月14日\n\n**用于动态MR成像的双域通用生成建模**  \n*于传明、关宇、柯子文、梁栋、刘启根*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.07599)]  \n2022年12月15日\n\n**DifFace：基于扩散误差收缩的盲人脸修复**  \n*岳宗生、陈昌洛伊*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06512)] [[GitHub](https:\u002F\u002Fgithub.com\u002FzsyOAOA\u002FDifFace)]  \n2022年12月13日\n\n**ShadowDiffusion：当退化先验与扩散模型结合用于阴影去除**  \n*郭兰青、王冲、杨文翰、黄思宇、王宇飞、汉斯彼得·普菲斯特、温碧涵*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04711)]  \n2022年12月9日\n\n\n**用于低剂量CT成像的投影域单样本扩散模型**  \n*黄斌、张刘、陆世宇、林博宇、吴伟文、刘启根*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03630)]  \n2022年12月7日\n\n**SDM：用于大孔洞图像修复的空间扩散模型**  \n*李文博、于欣、周坤、宋义兵、林哲、贾嘉亚*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02963)]  \n2022年12月6日\n\n**ADIR：用于图像重建的自适应扩散**  \n*沙迪·阿布-侯赛因、汤姆·蒂雷尔、拉贾·吉里耶斯*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03221)] [[项目](https:\u002F\u002Fshadyabh.github.io\u002FADIR\u002F)]  \n2022年12月6日\n\n**使用领域泛化扩散模型进行图像去模糊**  \n*任梦伟、毛里西奥·德尔布拉西奥、侯赛因·塔莱比、圭多·格里格、佩曼·米兰法尔*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.01789)]  \n2022年12月4日\n\n\n**使用去噪扩散零空间模型进行零样本图像修复**  \n*王银怀、于继文、张健*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00490)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fwyhuai\u002FDDNM)]  \n2022年12月1日\n\n\n**FREDSR：用于单幅图像超分辨率的傅里叶残差高效扩散GAN**  \n*禹京完、阿丘塔·拉贾拉姆*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16678)]  \n2022年11月30日\n\n**CHIMLE：用于多模态条件图像合成的条件层次IMLE**  \n*彭世冲、阿里雷扎·莫阿泽尼、李科*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.14286)]  \n2022年11月25日\n\n\n\n**DOLCE：一种基于模型的概率扩散框架，用于有限角度CT重建**  \n*刘嘉铭、鲁希尔·阿尼鲁德、贾亚拉曼·J·蒂亚加拉詹、斯图尔特·何、K·阿迪蒂亚·莫汉、乌卢格贝克·S·卡米洛夫、金孝珍*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12340)]  \n2022年11月22日\n\n**基于扩散模型的后验采样用于含噪线性反问题**  \n*孟祥明、加岛义之*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12343)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmengxiangming\u002Fdmps)]  \n2022年11月20日\n\n**用于盲反问题的算子与图像并行扩散模型**  \n*郑炯镇、金正率、金世辉、叶宗哲*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10656)]  \n2022年11月19日\n\n\n**使用预训练的2D扩散模型求解3D反问题**  \n*郑炯镇、柳道勋、迈克尔·T·麦肯、马克·L·克拉斯基、叶宗哲*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10655)]  \n2022年11月19日\n\n**用于稀疏视角CT重建的基于块的去噪扩散概率模型**  \n*夏文军、丛文祥、王革*  \narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10388)]  \n2022年11月18日\n\n\n**一种结构引导的扩散模型用于大孔洞多样本图像补全**  \n*堀田大地、杨交龙、陈东、小山由纪、相泽清治*  \nBMVC 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10437)]  \n2022年11月18日\n\n**Conffusion：扩散模型的置信区间** \\\n*埃利亚胡·霍维茨、耶迪德·霍申* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09795)] \\\n2022年11月17日\n\n**基于潜在特征的单张图像超分辨率重建** \\\n*王欣、严景科、蔡静晔、邓建华、秦琴、王秦、肖恒、程瑶、叶鹏飞* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12845)] \\\n2022年11月16日\n\n\n\n**学习点燃星光** \\\n*袁宇、吴佳琪、王林东、景中梁、亨利·梁、朱书远、潘汉* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09206)] \\\n2022年11月16日\n\n\n**ShadowDiffusion：基于分类器驱动注意力与结构保持的扩散模型去阴影方法** \\\n*金烨颖、杨文翰、叶伟、袁媛、罗比·T·谭* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.08089)] \\\n2022年11月15日\n\n\n**DriftRec：将扩散模型适配于盲图像恢复任务** \\\n*西蒙·韦尔克、亨利·N·查普曼、蒂莫·格尔克曼* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06757)] \\\n2022年11月12日\n\n**从去噪扩散模型到去噪马尔可夫模型** \\\n*乔·本顿、史宇阳、瓦伦丁·德·博托利、乔治·德利吉安尼迪斯、阿诺·杜塞* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03595)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyuyang-shi\u002Fgeneralized-diffusion)] \\\n2022年11月7日\n\n\n\n**基于分数导向生成模型的量化压缩感知** \\\n*孟祥明、加岛义之* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13006)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmengxiangming\u002FQCS-SGM)] \\\n2022年11月2日\n\n\n\n\n**智能画家：利用重采样扩散模型进行画面构图** \\\n*顾永丰、萧婉芝、程曦、H·安东尼·陈* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.17106)] \\\n2022年10月31日\n\n**基于扩散模型的多任务脑肿瘤修复：方法学报告** \\\n*普里亚·鲁兹罗赫、巴尔迪亚·霍斯拉维、沙赫里亚尔·法加尼、玛娜·莫阿塞菲、萨纳兹·瓦赫达蒂、布拉德利·J·埃里克森* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12113)] [[GitHub](https:\u002F\u002Fgithub.com\u002FMayo-Radiology-Informatics-Lab\u002FMBTI)] \\\n2022年10月21日\n\n\n**DiffGAR：利用图像到图像扩散模型对生成性伪影进行模型无关的修复** \\\n*尹悦琴、黄良华、刘宇、黄凯奇* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.08573)] \\\n2022年10月16日\n\n**基于去噪扩散概率模型的低剂量CT，实现20倍加速** \\\n*夏文俊、吕青、王革* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.15136)] \\\n2022年9月29日\n\n**用于一般噪声反问题的扩散后验采样** \\\n*郑炯镇、金正率、迈克尔·T·麦肯恩、马克·L·克拉斯基、芮宗哲* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14687)] [[GitHub](https:\u002F\u002Fgithub.com\u002FDPS2022\u002Fdiffusion-posterior-sampling)] \\\n2022年9月29日\n\n**利用随机微分方程进行人脸超分辨率** \\\n*马塞洛·多斯桑托斯、雷森·拉罗卡、拉斐尔·O·里贝罗、若昂·内维斯、雨果·普罗恩萨、大卫·梅诺蒂* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.12064)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmarcelowds\u002Fsr-sde)] \\\n2022年9月24日\n\n\n**基于去噪扩散修复模型的JPEG伪影校正** \\\n*巴哈杰特·卡瓦尔、宋嘉铭、斯特凡诺·埃尔蒙、迈克尔·埃拉德* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.11888)] \\\n2022年9月23日\n\n\n\n\n**T2V-DDPM：基于去噪扩散概率模型的热成像到可见光人脸转换** \\\n*尼廷·戈帕拉克里希南·奈尔、维沙尔·M·帕特尔* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.08814)] \\\n2022年9月19日\n\n\n**全局深入纹理与结构以进行图像修复** \\\n*刘海鹏、王洋、王萌、阮勇* \\\nACM 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.08217)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhtyjers\u002FDGTS-Inpainting)] \\\n2022年9月17日\n\n\n**基于去噪扩散概率模型的PET图像去噪** \\\n*龚矿、基思·A·约翰逊、乔治·埃尔法赫里、李全正、潘天树* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.06167)] \\\n2022年9月13日\n\n**Self-Score：基于分数模型的自监督学习用于MRI重建** \\\n*崔卓旭、曹晨涛、刘绍楠、朱庆勇、程静、王海峰、朱彦杰、梁栋* \\\nIEEE TMI 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.00835)] \\\n2022年9月2日\n\n**AT-DDPM：利用去噪扩散概率模型修复受大气湍流退化的面部图像** \\\n*尼廷·戈帕拉克里希南·奈尔、梅康富、维沙尔·M·帕特尔* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.11284)] \\\n2022年8月24日\n\n**冷扩散：无噪声地逆向任意图像变换** \\\n*阿尔皮特·班萨尔、伊坦·博格尼亚、朱宏民、李继胜、哈米德·卡泽米、黄福荣、米迦·戈德布卢姆、乔纳斯·盖平、汤姆·戈德斯坦* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.09392)] [[GitHub](https:\u002F\u002Fgithub.com\u002Farpitbansal297\u002FCold-Diffusion-Models)] \\\n2022年8月19日\n\n\n\n**高频空间扩散模型用于加速MRI** \\\n*曹晨涛、崔卓旭、刘绍楠、梁栋、朱彦杰* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.05481)] \\\n2022年8月10日\n\n\n**基于补丁的去噪扩散模型在恶劣天气条件下恢复视觉** \\\n*奥赞·厄兹代尼兹吉、罗伯特·莱根施泰因* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.14626)] [[GitHub](https:\u002F\u002Fgithub.com\u002FIGITUGraz\u002FWeatherDiffusion)] \\\n2022年7月29日\n\n\n\n\n\n**非均匀扩散模型** \\\n*乔治奥斯·巴佐利斯、扬·斯坦丘克、卡罗拉-比比安妮·舍恩利布、克里斯蒂安·埃特曼* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.09786)] \\\n2022年7月20日\n\n**基于对抗性扩散模型的无监督医学图像翻译** \\\n*穆扎费尔·厄兹贝伊、萨尔曼·UH·达尔、哈桑·A·贝德尔、奥纳特·达尔马兹、沙班·厄兹图尔克、阿尔珀·京格尔、托尔加·丘库尔* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.08208)] \\\n2022年7月17日\n\n**用于加速MRI重建的自适应扩散先验** \\\n*萨尔曼·UH·达尔、沙班·厄兹图尔克、尤尔马兹·科尔克马兹、戈克贝尔克·埃尔马斯、穆扎费尔·厄兹贝伊、阿尔珀·京格尔、托尔加·丘库尔* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.05876)] \\\n2022年7月12日\n\n**一种新颖的统一条件式分数导向生成框架，用于多模态医学图像补全** \\\n*孟祥熙、顾宇宁、潘永生、王尼专、薛鹏、陆孟康、何旭明、詹毅强、沈定刚* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.03430)] \\\n2022年7月7日\n\n\n**基于去噪扩散概率模型的SAR去斑处理** \\\n*马尔莎·V·佩雷拉、尼廷·戈帕拉克里希南·奈尔、韦勒·格达拉·查敏达·班达拉、维沙尔·M·帕特尔* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.04514)] \\\n2022年6月9日\n\n\n**利用流形约束改进扩散模型用于反问题** \\\n*郑炯镇、沈炳洙、柳度勋、芮宗哲* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00941)] \\\n2022年6月2日\n\n\n**图像到图像翻译的瑞士军刀：多任务扩散模型** \\\n*茱莉娅·沃勒布、罗宾·桑德库勒、弗洛伦廷·比德尔、菲利普·C·卡汀* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.02641)] \\\n2022年4月6日\n\n**基于正则化逆扩散的MR图像去噪与超分辨率** \\\n*Hyungjin Chung、Eun Sun Lee、Jong Chul Ye* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.12621)] \\\n2022年3月23日\n\n\n**通过扩散模型采样实现高效可靠的欠采样MR重建** \\\n*Cheng Peng、Pengfei Guo、S. Kevin Zhou、Vishal Patel、Rama Chellappa* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.04292)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcpeng93\u002Fdiffuserecon)] \\\n2022年3月8日\n\n**面向欠采样医学图像重建的测量条件约束去噪扩散概率模型** \\\n*Yutong Xie、Quanzheng Li* \\\nMICCAI 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.03623)] [[GitHub](https:\u002F\u002Fgithub.com\u002FTheodore-PKU\u002FMC-DDPM)] \\\n2022年3月5日\n\n**基于数据驱动马尔可夫链的MRI重建及其联合不确定性估计** \\\n*Guanxiong Luo、Martin Heide、Martin Uecker* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.01479)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmrirecon\u002Fspreco)] \\\n2022年2月3日\n\n**利用扩散概率模型对视网膜OCT进行无监督去噪** \\\n*Dewei Hu、Yuankai K. Tao、Ipek Oguz* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.11760)] [[GitHub](https:\u002F\u002Fgithub.com\u002FDeweiHu\u002FOCT_DDPM)] \\\n2022年1月27日\n\n**去噪扩散恢复模型** \\\n*Bahjat Kawar、Michael Elad、Stefano Ermon、Jiaming Song* \\\nICLR 2022研讨会（口头报告）。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.11793)] \\\n2022年1月27日\n\n\n\n**RePaint：基于去噪扩散概率模型的图像修复** \\\n*Andreas Lugmayr、Martin Danelljan、Andres Romero、Fisher Yu、Radu Timofte、Luc Van Gool* \\\nCVPR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.09865)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fandreas128\u002FRePaint)] \\\n2022年1月24日\n\n**DiffuseVAE：从低维潜在空间高效、可控且高保真地生成图像** \\\n*Kushagra Pandey、Avideep Mukherjee、Piyush Rai、Abhishek Kumar* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.00308)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fkpandey008\u002FDiffuseVAE)] \\\n2022年1月2日\n\n**基于潜在扩散模型的高分辨率图像合成** \\\n*Robin Rombach、Andreas Blattmann、Dominik Lorenz、Patrick Esser、Björn Ommer* \\\nCVPR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.10752)] [[GitHub](https:\u002F\u002Fgithub.com\u002FCompVis\u002Flatent-diffusion)] \\\n2021年12月20日\n\n\n**更近一步，更快扩散：通过随机收缩加速用于逆问题的条件扩散模型** \\\n*Hyungjin Chung、Byeongsu Sim、Jong Chul Ye* \\\nCVPR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.05146)] \\\n2021年12月9日\n\n**基于随机细化的去模糊** \\\n*Jay Whang、Mauricio Delbracio、Hossein Talebi、Chitwan Saharia、Alexandros G. Dimakis、Peyman Milanfar* \\\nCVPR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.02475)] \\\n2021年12月5日\n\n**基于分数函数的扩散模型进行条件图像生成** \\\n*Georgios Batzolis、Jan Stanczuk、Carola-Bibiane Schönlieb、Christian Etmann* \\\narXiv 2021年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.13606)] \\\n2021年11月26日\n\n**利用基于分数函数的生成模型解决医学影像中的逆问题** \\\n*Yang Song、Liyue Shen、Lei Xing、Stefano Ermon* \\\nNeurIPS 2021研讨会。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.08005)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyang-song\u002Fscore_inverse_problems)] \\\n2021年11月15日\n\n\n**S3RP：自监督超分辨率及对流—扩散过程的预测** \\\n*Chulin Wang、Kyongmin Yeo、Xiao Jin、Andres Codas、Levente J. Klein、Bruce Elmegreen* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.04639)] \\\n2021年11月8日\n\n\n\n**基于分数函数的扩散模型用于加速MRI** \\\n*Hyungjin Chung、Jong chul Ye* \\\nMIA 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.05243)] [[GitHub](https:\u002F\u002Fgithub.com\u002FHJ-harry\u002Fscore-MRI)] \\\n2021年10月8日\n\n**自回归扩散模型** \\\n*Emiel Hoogeboom、Alexey A. Gritsenko、Jasmijn Bastings、Ben Poole、Rianne van den Berg、Tim Salimans* \\\nICLR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.02037)] \\\n2021年10月5日\n\n**ILVR：用于去噪扩散概率模型的条件化方法** \\\n*Jooyoung Choi、Sungwon Kim、Yonghyun Jeong、Youngjune Gwon、Sungroh Yoon* \\\nICCV 2021（口头报告）。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.02938)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fjychoi118\u002Filvr_adm)] \\\n2021年8月6日 \n\n**级联扩散模型用于高保真图像生成** \\\n*Jonathan Ho、Chitwan Saharia、William Chan、David J. Fleet、Mohammad Norouzi、Tim Salimans* \\\narXiv 2021年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.15282)] [[项目](https:\u002F\u002Fcascaded-diffusion.github.io\u002F)] \\\n2021年5月30日\n\n**SRDiff：基于扩散概率模型的单幅图像超分辨率** \\\n*Haoying Li、Yifan Yang、Meng Chang、Huajun Feng、Zhihai Xu、Qi Li、Yueting Chen* \\\nACM 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.14951)] \\\n2021年4月30日\n\n\n**基于迭代细化的图像超分辨率** \\\n*Chitwan Saharia、Jonathan Ho、William Chan、Tim Salimans、David J. Fleet、Mohammad Norouzi* \\\narXiv 2021年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.07636)] [[项目](https:\u002F\u002Fiterative-refinement.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FJanspiry\u002FImage-Super-Resolution-via-Iterative-Refinement)] \\\n2021年4月15日\n\n\n\n\n\n### 医学影像\n\n**基于扩散的数据增强用于细胞核图像分割** \\\n*Xinyi Yu、Guanbin Li、Wei Lou、Siqi Liu、Xiang Wan、Yan Chen、Haofeng Li* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14197)] \\\n2023年10月22日\n\n**EMIT-Diff：通过文本引导的扩散模型提升医学图像分割性能** \\\n*Zheyuan Zhang、Lanhong Yao、Bin Wang、Debesh Jha、Elif Keles、Alpay Medetalibeyoglu、Ulas Bagci* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12868)] \\\n2023年10月19日\n\n\n\n**迈向通用的半监督体积分割框架** \\\n*Haonan Wang、Xiaomeng Li* \\\nNeurIPS 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11320)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fxmed-lab\u002FGenericSSL)] \\\n2023年10月17日\n\n**基于辐射扩散生成模型的自监督胎儿MRI三维重建** \\\n*Junpeng Tan、Xin Zhang、Yao Lv、Xiangmin Xu、Gang Li* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10209)] \\\n2023年10月16日\n\n**JSMoCo：基于自校准分数函数扩散模型的并行MRI线圈灵敏度与运动校正** \\\n*Lixuan Chen、Xuanyu Tian、Jiangjie Wu、Ruimin Feng、Guoyan Lao、Yuyao Zhang、Hongjiang Wei* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09625)] \\\n2023年10月14日\n\n**基于直方图和扩散的医学领域外数据检测** \\\n*Evi M. C. Huijben、Sina Amirrajab、Josien P. W. Pluim* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08654)] \\\n2023年10月12日\n\n**基于扩散模型从舒张末期语义图合成超声心动图视频** \\\n*Phi Nguyen Van、Duc Tran Minh、Hieu Pham Huy、Long Tran Quoc* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07131)] \\\n2023年10月11日\n\n\n**基于扩散先验正则化的低剂量CT迭代重建** \\\n*Wenjun Xia、Yongyi Shi、Chuang Niu、Wenxiang Cong、Ge Wang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06949)] \\\n2023年10月10日\n\n**基于潜在扩散模型的乳腺X线摄影图像压缩与解压缩框架** \\\n*黄仁灿、禹敏宰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05299)] \\\n2023年10月8日\n\n\n**用于医学图像标准化与增强的潜在扩散模型** \\\n*塞利姆、张杰、法拉内·法蒂、迈克尔·A·布鲁克斯、王戈、于国强、陈进* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05237)] \\\n2023年10月8日\n\n**利用条件扩散概率模型表征有丝分裂像特征** \\\n*卡格拉·德尼兹·巴哈迪尔、本杰明·利奇蒂、大卫·J·皮萨皮亚、梅特·R·萨布恩库* \\\nMICCAI研讨会2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03893)] \\\n2023年10月5日\n\n**MedSyn：文本引导的解剖结构感知高保真3D CT图像合成** \\\n*许延武、孙丽、彭伟、夏姆·维斯韦斯瓦兰、凯汉·巴特曼格利奇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03559)] \\\n2023年10月5日\n\n\n**基于DDPM内容特征和Transformer架构的盲态CT图像质量评估** \\\n*史永毅、夏文俊、王戈、牟宣钦* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03118)] \\\n2023年10月4日\n\n\n**SMRD：基于SURE的鲁棒MRI重建与扩散模型** \\\n*巴图·厄兹图尔克勒、刘超、本杰明·埃卡特、莫特扎·马尔达尼、宋佳明、扬·考茨* \\\nMICCAI 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01799)] [[GitHub](https:\u002F\u002Fgithub.com\u002FNVlabs\u002FSMRD)] \\\n2023年10月3日\n\n**DiffGAN-F2S：对称且高效的去噪扩散GAN，用于从脑fMRI预测结构连接性** \\\n*左乾坤、李瑞恒、狄毅、田浩、景昌宏、陈旭航、王树强* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16205)] \\\n2023年9月28日\n\n**利用扩散增强图像提升膝骨关节炎严重程度分级** \\\n*帕莱蒂·尼基尔·乔达里、戈兰特拉·V N S L 维什努·瓦尔丹、门塔·赛·阿克沙伊、门塔·赛·阿希什、瓦德拉普迪·赛·阿拉文德、加拉帕蒂·文卡塔·克里希纳·拉亚卢、阿斯瓦蒂·P* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09328)] \\\n2023年9月17日\n\n**在扩散模型中引入形状先验模块用于医学图像分割** \\\n*张志清、范国嘉、刘天勇、李楠、刘宇阳、刘子宇、董灿伟、周守军* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05929)] \\\n2023年9月12日\n\n**面向治疗的扩散概率模型用于纵向MRI生成及弥漫性胶质瘤生长预测** \\\n*刘庆辉、埃利斯·富斯特-加西亚、伊瓦尔·托克莱·霍夫登、多纳塔斯·塞德雷维丘斯、卡罗琳·斯科根、布拉德利·J·麦金托什、埃德瓦尔·格罗德姆、蒂尔·谢尔霍恩、彼得·布兰达尔、阿特勒·比约内鲁德、克耶雷·E·埃姆布莱姆* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05406)] \\\n2023年9月11日\n\n**基于代理分数函数先验的高效贝叶斯计算成像** \\\n*伯西·T·冯、凯瑟琳·L·鲍曼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01949)] \\\n2023年9月5日\n\n**利用曲线骨架从CT图像中分割三维孔隙空间：应用于微生物分解的数值模拟** \\\n*奥利维尔·蒙加、扎卡里亚·贝尔加利、穆阿德·克拉伊、吕西·德鲁东、多米尼克·米歇卢奇、瓦莱丽·波特* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01611)] \\\n2023年9月4日\n\n\n\n**GenSelfDiff-HIS：基于扩散的生成式自监督方法用于组织病理学图像分割** \\\n*维什努瓦尔丹·普尔马、苏哈斯·斯里纳特、塞尚·斯里兰加拉詹、安查尔·卡卡尔、普拉托什·A·P* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01487)] [[GitHub](https:\u002F\u002Fgithub.com\u002FPurmaVishnuVardhanReddy\u002FGenSelfDiff-HIS)] \\\n2023年9月4日\n\n**针对高度欠采样MRI重建的相关性和多频扩散建模** \\\n*关宇、余传明、陆世宇、崔卓旭、梁东、刘启根* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00853)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyqx7150\u002FCM-DM)] \\\n2023年9月2日\n\n**基于域条件先验指导的扩散建模用于加速MRI和qMRI重建** \\\n*卞万宇、阿尔伯特·张、刘芳* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00783)] \\\n2023年9月2日\n\n**PathLDM：文本条件化的潜在扩散模型用于组织病理学** \\\n*斯里卡尔·耶拉普拉加达、亚历山德罗斯·格赖科斯、普拉提克·普拉桑纳、塔赫辛·库尔茨、乔尔·索尔茨、迪米特里斯·萨马拉斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00748)] \\\n2023年9月1日\n\n\n**通过在双域中嵌入扩散先验实现无监督的CT金属伪影去除** \\\n*刘轩、谢耀琴、刁松慧、谭珊、梁晓坤* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16742)] \\\n2023年8月31日\n\n**基于扩散去噪模型的医学图像分割循环训练策略** \\\n*傅云冠、李艺文、沙希尔·U·赛义德、马修·J·克拉克森、胡一鹏* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16355)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmathpluscode\u002FImgX-DiffSeg)] \\\n2023年8月30日\n\n**物理信息驱动的DeepMRI：从热扩散到k空间插值的桥梁** \\\n*崔卓旭、刘聪聪、范晓红、曹晨涛、程静、朱庆勇、刘媛媛、贾森、周易航、王海峰、朱彦杰、张建平、刘启根、梁东* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15918)] \\\n2023年8月30日\n\n\n**分阶段小波优化精炼扩散模型用于稀疏视角CT重建** \\\n*徐凯、陆世宇、黄斌、吴伟文、刘启根* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15942)] \\\n2023年8月30日\n\n**基于掩码条件扩散的模态循环用于MRI中的无监督异常分割** \\\n*梁子云、哈里·安东尼、费利克斯·瓦格纳、康斯坦蒂诺斯·卡姆尼察斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16150)] \\\n2023年8月30日\n\n\n\n**数据迭代优化分数模型用于稳定超稀疏视角CT重建** \\\n*吴伟文、王燕洋* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14437)] \\\n2023年8月28日\n\n\n\n**利用高效扩散去噪概率模型从低剂量PET合成全剂量PET** \\\n*潘绍燕、埃尔哈姆·阿布艾、彭俊博、钱若曦、雅各布·F·温恩、王通河、张志伟、贾斯汀·罗珀、乔纳森·A·奈、毛辉、杨晓峰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13072)] \\\n2023年8月24日\n\n**利用潜在扩散模型生成的合成数据增强医学图像分类器** \\\n*卢克·W·塞格斯、詹姆斯·A·刁、卢克·梅拉斯-基里亚齐、马修·格罗、普拉纳夫·拉吉普卡尔、阿德沃尔·S·亚当森、维罗妮卡·罗滕贝格、罗克萨娜·达内什乔、阿琼·K·曼赖* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12453)] \\\n2023年8月23日\n\n**InverseSR：基于潜在扩散模型的3D脑部MRI超分辨率** \\\n*王珏琪、雅各布·莱夫曼、沃尔特·雨果·洛佩斯·皮纳亚、彼特鲁-丹尼尔·图多修、M·豪尔赫·卡多佐、拉兹万·马林斯库* \\\nMICCAI 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12465)] [[GitHub](https:\u002F\u002Fgithub.com\u002FBioMedAI-UCSC\u002FInverseSR)] \\\n2023年8月23日\n\n**基于点-UV扩散的三维网格纹理生成** \\\n*辛宇、戴鹏、李文博、马兰、刘正哲、齐晓娟* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10490)] \\\n2023年8月21日\n\n**具有辅助引导的对比扩散模型用于从粗到细的PET重建** \\\n*韩泽宇、王宇涵、周鲁平、王鹏、闫彬宇、周继柳、王燕、沈定刚* \\\nMICCAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10157)] [[GitHub](https:\u002F\u002Fgithub.com\u002FShow-han\u002FPET-Reconstruction)] \\\n2023年8月20日\n\n**基于去噪扩散的MR到CT图像转换可在无需人工标注的情况下实现全脊柱椎体的二维和三维分割** \\\n*罗伯特·格拉夫、约阿希姆·施密特、莎拉·施莱格尔、亨德里克·克里斯蒂安·莫勒、瓦西利基·西德里-兰普雷察、安贾尼·塞库博伊纳、桑德罗·曼努埃尔·克里格、本尼迪克特·维斯特勒、比约恩·门策、丹尼尔·吕克特、扬·史蒂芬·基尔什克* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09345)] \\\n2023年8月18日\n\n**DMCVR：用于三维心脏容积重建的形态学引导扩散模型** \\\n*何潇潇、谭超伟、韩立功、刘博、莱昂·阿克塞尔、李康、迪米特里斯·N·梅塔克萨斯* \\\nMICCAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09223)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhexiaoxiao-cs\u002FDMCVR)] \\\n2023年8月18日\n\n**用于视网膜图像生成与分割的去噪扩散概率模型** \\\n*阿尔努尔·阿利马诺夫、穆罕默德·巴哈鲁尔·伊斯兰* \\\nICCP 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08339)] \\\n2023年8月16日\n\n**形状引导的条件潜在扩散模型用于合成脑血管结构** \\\n*雅什·迪奥、窦浩然、尼尚特·拉维库马尔、亚历杭德罗·F·弗兰吉、托尼·拉西拉* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06781)] \\\n2023年8月13日\n\n**掩码扩散作为自监督表征学习器** \\\n*潘子轩、陈建旭、史一宇* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05695)] \\\n2023年8月10日\n\n**基于大规模无条件预训练的合成增强** \\\n*叶嘉荣、倪浩淼、金鹏、黄莎伦·X、薛远* \\\nMICCAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04020)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fkarenyyy\u002FHistoDiffAug)] \\\n2023年8月8日\n\n**用于CBCT到CT合成的能量引导扩散模型** \\\n*付林杰、李霞、蔡秀丁、苗东、姚宇、申亚丽* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03354)] \\\n2023年8月7日\n\n\n**DermoSegDiff：一种边界感知的皮肤病变勾画分割扩散模型** \\\n*阿夫辛·博佐尔普尔、优素福·萨德盖赫、阿米尔侯赛因·卡泽鲁尼、雷扎·阿扎德、多丽特·梅尔霍夫* \\\nMICCAI研讨会2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02959)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmindflow-institue\u002Fdermosegdiff)] \\\n2023年8月5日\n\n**利用引导扩散模型合成罕见白内障手术样本** \\\n*扬尼克·弗里施、莫里茨·福克斯、安托万·桑纳、费利克斯·安东·乌卡尔、马里乌斯·弗伦策尔、乔安娜·瓦谢利卡-波斯列德尼克、阿德里安·格里克、费利克斯·马蒂亚斯·瓦格纳、托马斯·德拉奇、阿尼尔班·穆科帕迪亚伊* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02587)] \\\n2023年8月3日\n\n**用于脑部图像反事实生成与异常检测的扩散模型** \\\n*亚历山德罗·丰塔内拉、格兰特·梅尔、乔安娜·沃德劳、埃马努埃莱·特鲁科、阿莫斯·斯托基* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02062)] \\\n2023年8月3日\n\n**使用扩散模型进行无参考各向同性三维电子显微镜重建** \\\n*李京润、郑元基* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01594)] \\\n2023年8月3日\n\n**基于视觉Transformer的框架，用于将多模态淋巴瘤亚型分类模型的知识迁移到单模态模型** \\\n*比莱尔·古塔尼、费里亚尔·温达尔、哈利姆·本哈比勒斯、玛丽安娜·佩蒂、罗曼·杜布瓦、埃马纽埃尔·莱特尔特尔、多米尼克·科拉尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01328)] \\\n2023年8月2日\n\n**用于MRI重建的傅里叶约束扩散桥梁学习** \\\n*穆罕默德·U·米尔扎、奥纳特·达尔马兹、哈桑·A·贝德尔、戈克贝尔克·埃尔马斯、耶尔马兹·科尔克马兹、阿尔珀·贡戈尔、萨尔曼·UH·达尔、托尔加·丘库尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01096)] \\\n2023年8月2日\n\n\n**C-DARL：用于无标签血管分割的对比扩散对抗式表征学习** \\\n*金宝河、吴有珍、布拉德福德·J·伍德、罗纳德·M·萨默斯、叶宗哲* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00193)] \\\n2023年7月31日\n\n**基于去噪扩散恢复模型的超声图像重建** \\\n*张宇欣、克莱芒·于诺、热罗姆·伊迪耶、黛安娜·马特厄斯* \\\nMICCAI研讨会2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.15990)] [[GitHub](https:\u002F\u002Fgithub.com\u002FYuxin-Zhang-Jasmine\u002FDRUS-v1)] \\\n2023年7月29日\n\n\n**基于扩散模型的牙科X线分割预训练** \\\n*杰雷米·鲁索、克里斯蒂安·阿拉卡、艾玛·科维利、伊波利特·马亚尔、劳拉·米斯拉奇、威利·奥* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14066)] \\\n2023年7月26日\n\n\n**基于潜在扩散模型的迭代重建用于稀疏数据重建** \\\n*林超、严洪宇、罗梦婷、罗坤明、王旺、杜文超、陈虎、杨洪宇、张毅* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12070)] \\\n2023年7月22日\n\n**FSDiffReg：面向心脏图像的特征与分数引导的无监督可变形图像配准扩散模型** \\\n*秦怡、李晓萌* \\\nMICCAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12035)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fxmed-lab\u002FFSDiffReg)] \\\n2023年7月22日\n\n**FEDD——公平、高效且多样化的基于扩散的病变分割与恶性程度分类** \\\n*埃克托·卡里翁、纳尔盖斯·诺鲁齐* \\\nMICCAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11654)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhectorcarrion\u002Ffedd)] \\\n2023年7月21日\n\n\n\n**PartDiff：基于部分扩散模型的图像超分辨率** \\\n*赵凯、凌宇宏、庞凯峰、郑浩鑫、成庆贤* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11926)] \\\n2023年7月21日\n\n**Make-A-Volume：利用潜在扩散模型进行跨模态三维脑部MRI合成** \\\n*朱玲婷、薛泽悦、金振超、刘宪、何静珍、刘子威、余乐泉* \\\nMICCAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10094)] \\\n2023年7月19日\n\n**DiffDP：通过扩散模型预测放疗剂量** \\\n*冯正浩、温璐、王鹏、闫彬宇、吴曦、周继柳、王燕* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09794)] \\\n2023年7月19日\n\n**DreaMR：基于扩散的fMRI反事实解释** \\\n*哈桑·阿塔坎·贝德尔、托尔加·丘库尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09547)] \\\n2023年7月18日\n\n**TractCloud：采用新颖的局部-全局纤维束点云表示法进行无配准的白质束图谱划分** \\\n*薛腾飞、陈雨谦、张朝义、亚历山德拉·J·戈尔比、尼科斯·马克里斯、约格什·拉提、蔡卫东、张凡、劳伦·J·奥唐奈尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09000)] [[项目](https:\u002F\u002Ftractcloud.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FSlicerDMRI\u002FTractCloud)] \\\n2023年7月18日\n\n**基于硬数据一致性利用潜在扩散模型求解反问题**  \n*宋博文、权秀敏、张哲成、胡鑫宇、屈青、沈丽悦*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08123)]  \n2023年7月16日\n\n**文本到图像分类与生成中基于布拉德利-特里偏好模型的快速适应**  \n*维克托·加列戈*  \nEYSM 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07929)]  \n2023年7月15日\n\n**利用潜在扩散模型提升非酒精性脂肪性肝病分类性能**  \n*罗曼·哈迪、科内莉亚·伊林、乔·克莱皮奇、瑞安·米切尔、史蒂夫·霍尔、杰里科·维拉雷亚尔*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.06507)]  \n2023年7月13日\n\n\n\n**DDGM：通过基于梯度的最小化过程中的扩散去噪求解反问题**  \n*凯尔·路瑟、H·塞巴斯蒂安·圣*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04946)]  \n2023年7月11日\n\n**LLCaps：利用弯曲小波注意力和逆向扩散学习增强低光照胶囊内窥镜图像**  \n*白龙、陈通、吴雅楠、王安、莫巴拉科尔·伊斯兰、任洪亮*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.02452)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flongbai1006\u002FLLCaps)]  \n2023年7月5日\n\n**同步图像-标签扩散概率模型及其在非对比CT脑卒中病灶分割中的应用**  \n*张建海、万通华、伊森·麦克唐纳、比乔伊·梅农、阿拉文德·加内什、吴秋*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01740)]  \n2023年7月4日\n\n**医学图像合成中3D潜在扩散模型的数据记忆现象研究**  \n*萨尔曼·乌尔·哈桑·达尔、阿尔曼·加纳特、扬尼克·卡曼、伊莎贝尔·艾克斯、西阿诺·帕帕瓦西利乌、斯特凡·O·舍恩贝格、桑迪·恩格尔哈特*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01148)]  \n2023年7月3日\n\n**无监督AS-OCT图像去斑点的内容保持型扩散模型**  \n*李三迁、东下里沙、傅华珠、李恒、牛静轩、刘江*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17717)]  \n2023年6月30日\n\n**基于展开式扩散模型的自监督MRI重建**  \n*尤尔马兹·科尔克马兹、托尔加·丘库尔、维沙尔·帕特尔*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16654)]  \n2023年6月29日\n\n**DoseDiff：用于放射治疗剂量预测的距离感知扩散模型**  \n*张艺文、李传普、钟立明、陈泽利、杨伟、王学涛*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16324)]  \n2023年6月28日\n\n**DiffMix：基于扩散模型的数据合成方法，用于病理图像数据集中不平衡情况下的细胞核分割与分类**  \n*吴贤植、郑元基*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14132)]  \n2023年6月25日\n\n\n**DiffInfinite：通过组织病理学中的并行随机补丁扩散实现大规模掩膜图像合成**  \n*马可·阿韦尔萨、加布里埃尔·诺比斯、米里亚姆·黑格勒、凯·斯坦德沃斯、米哈埃拉·奇里卡、罗德里克·默里-史密斯、艾哈迈德·阿拉、卢卡斯·鲁夫、丹妮拉·伊万诺娃、沃伊切赫·萨梅克、弗雷德里克·克劳申、布鲁诺·桑吉内蒂、路易斯·奥阿拉*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13384)]  \n2023年6月23日\n\n\n**DiffuseIR：用于3D显微图像各向同性重建的扩散模型**  \n*潘明杰、甘雨露、周方旭、刘嘉铭、王爱民、张尚航、李大伟*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12109)]  \n2023年6月21日\n\n**TauPETGen：基于潜在扩散模型的文本条件化Tau PET图像合成**  \n*张世仁、克里斯蒂娜·洛伊斯、艾玛·蒂博、J·亚历克斯·贝克尔、董亚飞、马克·D·诺尔曼丁、朱莉·C·普赖斯、基思·A·约翰逊、乔治·埃尔法赫里、龚匡*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11984)]  \n2023年6月21日\n\n**SANO：基于分数函数的扩散模型用于皮肤病学中的异常定位**  \n*阿尔瓦罗·冈萨雷斯-希门尼斯、西蒙·利奥内蒂、马克·普利、亚历山大·A·纳瓦里尼*  \nCVPR研讨会2023年。[[论文](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2023W\u002FVAND\u002Fhtml\u002FGonzalez-Jimenez_SANO_Score-Based_Diffusion_Model_for_Anomaly_Localization_in_Dermatology_CVPRW_2023_paper.html)]  \n2023年6月18日\n\n\n**利用人类反馈将合成医学图像与临床知识对齐**  \n*孙胜欢、格里高利·M·戈德戈夫、阿图尔·巴特、艾哈迈德·M·阿拉*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12438)]  \n2023年6月16日\n\n**基于扩散模型的医学图像分割注释者共识预测**  \n*托梅尔·阿米特、舒穆埃尔·希赫鲁尔、塔尔·沙哈拉巴尼、利奥尔·沃尔夫*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09004)]  \n2023年6月15日\n\n**利用扩散概率模型进行深度超声去噪**  \n*霍贾特·阿斯加里安德霍尔迪、索班·古达尔齐、阿德里安·巴萨拉布、哈桑·里瓦兹*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07440)]  \n2023年6月12日\n\n**用于弱监督医学图像分割的条件扩散模型**  \n*胡欣荣、陈宇珍、何宗义、施一宇*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03878)]  \n2023年6月6日\n\n**通过对比扩散自编码器实现可解释的阿尔茨海默病分类**  \n*阿约德吉·伊吉沙金、艾哈迈德·阿卜杜拉尔、阿达莫斯·哈吉瓦西利乌、索菲·马丁、詹姆斯·科尔*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03022)]  \n2023年6月5日\n\n**利用扩散生成模型优化压缩感知MRI的采样模式**  \n*斯里拉姆·拉武拉、布雷特·莱瓦克、阿吉尔·贾拉尔、乔纳森·I·塔米尔、亚历山德罗斯·G·迪马基斯*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03284)]  \n2023年6月5日\n\n**使用合成MRI图像进行脑肿瘤分割——GAN与扩散模型的比较**  \n*穆罕默德·乌斯曼·阿克巴尔、芒斯·拉尔松、安德斯·埃克伦德*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02986)]  \n2023年6月5日\n\n\n**利用掩码扩散模型进行医学图像无监督异常检测**  \n*哈桑·伊克巴尔、乌马尔·哈立德、京华、陈晨*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19867)]  \n2023年5月31日\n\n**掩码、拼接与重采样：通过自动扩散模型提升异常检测的鲁棒性和泛化能力**  \n*科斯敏·I·贝尔恰、迈克尔·诺伊迈尔、丹尼尔·吕克特、朱莉娅·A·施纳贝尔*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19643)]  \n2023年5月31日\n\n**基于3D Transformer的去噪扩散模型从MRI生成合成CT图像**  \n*潘绍燕、埃尔哈姆·阿布埃伊、雅各布·温恩、王通河、理查德·L·J·邱、李宇恒、张志伟、彭俊波、贾斯汀·罗珀、普雷特什·帕特尔、大卫·S·余、毛辉、杨晓峰*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19467)]  \n2023年5月31日\n\n\n**用于语义3D医学图像合成的条件扩散模型**  \n*卓尔纳马尔·多日森贝、包兴国、索达提兰·奥东奇梅德、肖富仁*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18453)]  \n2023年5月29日\n\n**GenerateCT：文本引导的胸部CT三维生成** \\\n*易卜拉欣·埃森·哈马姆奇、塞兹金·埃尔、埃尼斯·辛姆萨尔、阿尔佩伦·泰兹詹、艾雪·古尔尼汉·辛姆谢克、富尔坎·阿尔马斯、塞瓦尔·尼尔·埃西尔贡、阿德里安·雷诺、萨尔塔克·帕蒂、克里斯蒂安·布吕特根、比约恩·门策* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16037)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fibrahimethemhamamci\u002FGenerateCT)] \\\n2023年5月25日\n\n**用于低剂量CT图像去噪的扩散概率先验模型** \\\n*刘轩、谢耀钦、刁松辉、谭山、梁晓坤* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15887)] \\\n2023年5月25日\n\n**基于扩散模型的半监督超声图像分割多级全局上下文交叉一致性模型** \\\n*唐峰鹤、丁建锐、王凌涛、咸敏、宁春平* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09447)] [[GitHub](https:\u002F\u002Fgithub.com\u002FFengheTan9\u002FMulti-Level-Global-Context-Cross-Consistency)] \\\n2023年5月16日\n\n**警惕用于合成医学图像的扩散模型——与GANs在记忆脑肿瘤图像方面的比较** \\\n*穆罕默德·乌斯曼·阿克巴尔、王武浩、安德斯·埃克伦德* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.07644)] \\\n2023年5月12日\n\n**利用扩散模型生成结构逼真的视网膜眼底图像** \\\n*高素贞、池英勋、朴尚俊、李秀灿* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06813)] \\\n2023年5月11日\n\n**从噪声中回响：利用扩散模型生成合成超声图像以用于真实图像分割** \\\n*大卫·斯托亚诺夫斯基、乌希奥·埃尔米达、巴勃罗·拉马塔、阿里安·贝奇里、阿尔贝托·戈麦斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05424)] \\\n2023年5月9日\n\n**使用联合扩散注意力模型从高场和超高场MRI图像合成PET图像** \\\n*谢涛峰、曹晨涛、崔卓旭、郭宇、吴彩英、王雪梅、李庆能、胡占利、孙涛、桑子儒、周一航、朱燕杰、梁东、金启宇、陈国清、王海峰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03901)] \\\n2023年5月6日\n\n**利用从噪声数据中学习到的基于分数的生成先验解决逆问题** \\\n*阿萨德·阿阿里、马里乌斯·阿尔文特、西达尔特·库马尔、乔纳森·I·塔米尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01166)] \\\n2023年5月2日\n\n**基于自相似性的光声血管造影超分辨率重建——由手绘涂鸦生成** \\\n*马元正、周旺廷、马睿、杨思华、唐言松、关迅* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01165)] \\\n2023年5月2日\n\n\n**利用语义扩散模型从肺结节病灶图生成高保真图像** \\\n*赵璇、本杰明·侯* \\\nMIDL 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01138)] \\\n2023年5月2日\n\n**利用生成式扩散特征无监督发现三维层次结构** \\\n*努里斯兰·图尔辛别克、马克·尼特哈默* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00067)] \\\n2023年4月28日\n\n**循环指导的去噪扩散概率模型用于三维跨模态MRI合成** \\\n*潘绍彦、张志伟、彭俊波、张佳涵、邱理杰、王通和、贾斯汀·罗珀、刘天、毛辉、杨晓峰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00042)] \\\n2023年4月28日\n\n**DiffuseExpand：利用扩散模型扩展用于二维医学图像分割的数据集** \\\n*邵世彤、袁晓涵、黄振、邱子明、王帅、周凯文* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.13416)] [[GitHub](https:\u002F\u002Fanonymous.4open.science\u002Fr\u002FDiffuseExpand\u002FREADME.md)] \\\n2023年4月26日\n\n\n**用于组织病理学中鲁棒图像分割的真实数据增强** \\\n*莎拉·切赫尼卡、詹姆斯·鲍尔、卡勒姆·阿瑟斯、坎迪斯·鲁福斯、伯恩哈德·凯因茨* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09534)] \\\n2023年4月19日\n\n**去噪扩散医学模型** \\\n*范玉辉、陈明权* \\\nIEEE ISBI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09383)] \\\n2023年4月19日\n\n**基于合成相关扩散成像数据的多机构开源基准数据集，用于乳腺癌临床决策支持** \\\n*戴琪恩·艾米、亨德森·冈拉吉、亚历山大·王* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05623)] \\\n2023年4月12日\n\n**Cancer-Net BCa-S：利用来自合成相关扩散成像的体积深度放射组学特征预测乳腺癌分级** \\\n*戴琪恩·艾米、亨德森·冈拉吉、亚历山大·王* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05899)] \\\n2023年4月12日\n\n**SPIRiT-Diffusion：自一致性驱动的加速MRI扩散模型** \\\n*崔卓旭、曹晨涛、程静、贾森、郑海荣、梁东、朱燕杰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05060)] \\\n2023年4月11日\n\n**基于掩码条件的潜在扩散模型生成胃肠道息肉图像** \\\n*罗马·马查切克、莱拉·莫扎法里、扎赫拉·塞帕斯达尔、斯拉万蒂·帕拉萨、帕尔·哈尔沃森、迈克尔·A·里格勒、瓦吉拉·坦巴维塔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05233)] \\\n2023年4月11日\n\n\n\n**BerDiff：用于医学图像分割的条件伯努利扩散模型** \\\n*陈涛、王晨晖、单洪明* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04429)] \\\n2023年4月10日\n\n\n**利用扩散模型进行模糊医学图像分割** \\\n*艾蒙·拉赫曼、杰娅·玛丽亚·若泽·瓦拉纳拉苏、伊尔克尔·哈奇哈利洛卢、维沙尔·M·帕特尔* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04745)] [[GitHub](https:\u002F\u002Fgithub.com\u002Faimansnigdha\u002FAmbiguous-Medical-Image-Segmentation-using-Diffusion-Models)] \\\n2023年4月10日\n\n**MedGen3D：用于成对三维图像和掩码生成的深度生成框架** \\\n*韩坤、熊益峰、游辰宇、波亚·霍斯拉维、孙善林、严向毅、詹姆斯·邓肯、谢晓辉* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04106)] [[项目](https:\u002F\u002Fkrishan999.github.io\u002FMedGen3D\u002F)] \\\n2023年4月8日\n\n**迈向逼真的胎儿大脑超声成像合成** \\\n*米歇尔·伊斯坎达尔、哈维·曼内林、孙展翔、雅克琳·马修、哈米德·克尔德加里、劳拉·佩拉尔塔、米格尔·肖奇卡尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03941)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fbudai4medtech\u002Fmidl2023)] \\\n2023年4月8日\n\n\n**无条件生成式扩散先验用于零样本CT视野补全** \\\n*徐凯文、阿拉文德·R·克里希南、李天择、霍元凯、金L·桑德勒、法比安·马尔多纳多、本内特·A·兰德曼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03760)] \\\n2023年4月7日\n\n\n**通过频率引导的扩散模型实现零样本医学图像转换** \\\n*李云翔、邵华杰、梁小、陈丽媛、李瑞琪、江斯蒂夫、王晶、张友* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02742)] \\\n2023年4月5日\n\n\n\n\n**CoreDiff：用于低剂量CT去噪与泛化的上下文误差调制广义扩散模型** \\\n*高齐、李子龙、张俊平、张毅、单洪明* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01814)] \\\n2023年4月4日\n\n**ViT-DAE：基于 Transformer 的扩散自编码器用于组织病理学图像分析**  \n*徐轩、萨尔塔克·卡普塞、拉贾尔西·古普塔、普拉蒂克·普拉桑纳*  \nMICCAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01053)]  \n2023年4月3日\n\n\n**请注意：微调扩散模型中的准确率与可解释性权衡**  \n*米沙·多姆布罗夫斯基、阿德里安·雷诺、约翰娜·P·穆勒、马修·鲍、伯恩哈德·凯因茨*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17908)]  \n2023年3月31日\n\n**DDMM-Synth：一种去噪扩散模型，用于稀疏视角测量嵌入的跨模态医学图像合成**  \n*李晓月、商凯、王高昂、马克·D·布塔拉*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15770)]  \n2023年3月28日\n\n**用于 3D 医学图像高效内存处理的扩散模型**  \n*弗洛伦丁·比德尔、朱莉娅·沃莱布、艾丽西亚·杜雷尔、罗宾·桑德库勒、菲利普·C·卡廷*  \nMIDL 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15288)]  \n2023年3月27日\n\n**针对弥漫性胶质瘤分类的组织学与分子标志物多任务学习**  \n*王晓飞、斯蒂芬·普赖斯、李超*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14845)]  \n2023年3月26日\n\n**CoLa-Diff：用于多模态 MRI 合成的条件潜扩散模型**  \n*江兰、毛叶、陈曦、王向峰、李超*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14081)]  \n2023年3月24日\n\n**DisC-Diff：用于多对比度 MRI 超分辨率的解耦条件扩散模型**  \n*毛叶、江兰、陈曦、李超*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13933)]  \n2023年3月23日\n\n**预算有限的医学扩散：用于医学图像生成的文本反演**  \n*布拉姆·德·维尔德、阿宁多·萨哈、理查德·P.G. 十布洛克、亨克扬·海斯曼*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13430)]  \n2023年3月23日\n\n**基于子体积的去噪扩散概率模型，用于从不完全数据重建锥束 CT**  \n*夏文俊、牛创、丛文祥、王革*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12861)]  \n2023年3月22日\n\n\n**基于特征条件的级联视频扩散模型，用于精确的心脏超声图像合成**  \n*阿德里安·雷诺、乔梦云、米沙·多姆布罗夫斯基、托马斯·戴、雷扎·拉扎维、阿尔贝托·戈麦斯、保罗·利森、伯恩哈德·凯因茨*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12644)]  \n2023年3月22日\n\n\n\n\n**分布对齐扩散与原型引导网络用于无监督领域自适应分割**  \n*周海鹏、朱磊、周宇音*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12313)]  \n2023年3月22日\n\n**扩散自编码器的语义潜在空间回归用于椎体骨折分级**  \n*马蒂亚斯·凯彻、马坦·阿塔德、大卫·辛茨、亚历山德拉·S·格辛、莎拉·C·福尔曼、索菲娅·S·戈勒、尤尔根·魏辛格、琼·里舍夫斯基、安娜-索菲娅·迪特里希、本尼迪克特·维斯特勒、扬·S·基尔施克、纳西尔·纳瓦布*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12031)]  \n2023年3月21日\n\n\n**NASDM：利用扩散模型进行细胞核感知的语义组织病理学图像生成**  \n*阿曼·什里瓦斯塔瓦、P·托马斯·弗莱彻*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11477)]  \n2023年3月20日\n\n**用于高分辨率胸部 X 光片合成的级联潜扩散模型**  \n*托比亚斯·韦伯、迈克尔·英格里施、伯恩德·比施尔、大卫·吕加默*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11224)]  \n2023年3月20日\n\n**DiffMIC：用于医学图像分类的双指导扩散网络**  \n*杨一军、傅华柱、安杰莉卡·阿维莱斯-里韦罗、卡罗拉-比比安·舍恩利布、朱磊*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10610)]  \n2023年3月19日\n\n**Diff-UNet：一种嵌入扩散的网络用于体积分割**  \n*邢兆虎、万亮、傅华柱、杨光、朱磊*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10326)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fge-xing\u002FDiff-UNet)]  \n2023年3月18日\n\n**逆转异常：用于异常检测的伪健康生成网络**  \n*科斯敏·I·贝尔恰、本尼迪克特·维斯特勒、丹尼尔·鲁克特、朱莉娅·A·施纳贝尔*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08452)]  \n2023年3月15日\n\n\n\n**利用预训练的垂直 2D 扩散模型提升 3D 成像质量**  \n*李秀贤、郑炯镇、朴敏英、朴宗赫、柳威顺、叶钟哲*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08440)]  \n2023年3月15日\n\n**类别引导的图像到图像扩散：基于明场图像和类别标签的细胞绘图**  \n*扬·奥斯卡·克罗斯-扎米尔斯基、普拉文·阿南德、盖伊·威廉姆斯、伊丽莎白·穆谢、王银海、卡罗拉-比比安·舍恩利布*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08863)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcrosszamirski\u002Fguided-I2I)]  \n2023年3月15日\n\n\n**使用条件分类扩散模型进行随机分割**  \n*卢卡斯·茨宾登、拉尔斯·多伦博斯、西奥多罗斯·皮萨斯、拉斐尔·斯兹尼特曼、巴勃罗·马尔克斯-内伊拉*  \nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08888)] [[GitHub](https:\u002F\u002Fgithub.com\u002FLarsDoorenbos\u002Fccdm-stochastic-segmentation)]  \n2023年3月15日\n\n**用于磁共振图像对比度协调的扩散模型**  \n*艾丽西亚·杜雷尔、朱莉娅·沃莱布、弗洛伦丁·比德尔、蒂姆·辛内克、马蒂亚斯·魏格尔、罗宾·桑德库勒、克里斯蒂娜·格兰齐耶拉、厄兹居尔·亚尔迪兹利、菲利普·C·卡廷*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08189)]  \n2023年3月14日\n\n\n**高效训练视觉 Transformer 以分析结构化 MRI 扫描，用于阿尔茨海默病检测**  \n*尼基尔·J·迪纳加尔、索菲娅·I·托莫普洛斯、艾米丽·拉尔图、保罗·M·汤普森*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08216)]  \n2023年3月14日\n\n\n**基于扩散的分层多标签目标检测，用于全景牙科 X 光片分析**  \n*易卜拉欣·埃特姆·哈马姆奇、塞兹金·埃尔、埃尼斯·辛姆萨尔、安贾尼·塞库博伊纳、穆斯塔法·贡多加尔、伯恩德·施塔德林格、阿尔伯特·梅尔、比约恩·门策*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06500)]  \n2023年3月11日\n\n**AugDiff：基于扩散的特征增强，用于全切片图像中的多实例学习**  \n*邵祝臣、戴刘熙、王一峰、王浩谦、张永兵*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06371)]  \n2023年3月11日\n\n**Brain Diffuser：端到端的脑影像到脑网络流程**  \n*陈旭航、雷白颖、潘志满、王书强*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06410)]  \n2023年3月11日\n\n**基于几何分解的快速扩散采样器，用于逆问题求解**  \n*郑炯镇、李秀贤、叶钟哲*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05754)]  \n2023年3月10日\n\n**利用 Swin Transformer 进行广义扩散磁共振成像去噪与超分辨率**  \n*阿米尔·萨迪科夫、杰米·温伦-贾维斯、潘新蕾、蔡兰雅·T、普拉蒂克·穆克吉*  \narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05686)]  \n2023年3月10日\n\n**在三维多类别分割中，使训练策略与评估相一致对于扩散模型的重要性** \\\n*傅云冠、李艺文、沙希尔·U·赛义德、马修·J·克拉克森、胡一鹏* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06040)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmathpluscode\u002FImgX-DiffSeg)] \\\n2023年3月10日\n\n**用于脑部MRI无监督异常检测的补丁式扩散模型** \\\n*芬恩·贝伦特、迪巴扬·巴塔查里亚、茱莉娅·克吕格、罗兰·奥普费尔、亚历山大·施莱弗* \\\nMIDL 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.03758)] \\\n2023年3月7日\n\n\n**基于病理和序列条件的稳定扩散模型的双参数前列腺MR图像合成** \\\n*沙希尔·U·赛义德、汤姆·赛尔、温燕、杨千叶、马克·恩伯顿、肖尼特·潘瓦尼、马修·J·克拉克森、迪恩·C·巴拉特、胡一鹏* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.02094)] \\\n2023年3月3日\n\n**溶解即增强：迈向细粒度异常检测** \\\n*石健、张鹏翼、张妮、哈基姆·加扎伊、耶希亚·马苏德* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.14696)] \\\n2023年2月28日\n\n**DDM2：利用生成式扩散模型进行自监督扩散MRI去噪** \\\n*项天戈、马赫穆特·尤尔特、阿里·B·赛义德、卡温·塞特索姆波普、阿克谢·乔杜里* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03018)] [[GitHub](https:\u002F\u002Fgithub.com\u002FStanfordMIMI\u002FDDM2)] \\\n2023年2月6日\n\n\n**零样本学习跨模态数据转换：通过互信息引导的随机扩散实现** \\\n*王子浩、杨英宇、马克西姆·塞尔梅桑、埃尔韦·德林热特、欧娜·吴* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13743)] \\\n2023年1月31日\n\n**低剂量CT模型的扩散去噪** \\\n*李润毅* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11482)] \\\n2023年1月27日\n\n**DiffusionCT：用于CT图像标准化的潜在扩散模型** \\\n*Md塞利姆、张杰、迈克尔·A·布鲁克斯、王革、陈进* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.08815)] \\\n2023年1月20日\n\n**MedSegDiff-V2：基于扩散的医学图像分割与Transformer结合** \\\n*吴俊德、傅饶、方慧慧、张宇、徐延武* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11798)] \\\n2023年1月19日\n\n**噪声在医学图像异常检测去噪模型中的作用** \\\n*安塔纳斯·卡斯切纳斯、佩德罗·桑切斯、帕特里克·施雷姆夫、王朝阳、威廉·克拉克特、莎迪娅·S·米凯尔、杰里米·P·沃西、基思·戈特曼、亚历山大·韦尔、尼古拉斯·普若、索蒂里奥斯·A·察法塔里斯、艾莉森·Q·奥尼尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.08330)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAntanasKascenas\u002FDenoisingAE)] \\\n2023年1月19日\n\n\n\n**基于扩散的数据增强用于皮肤病分类：从原始医学数据集到完全合成图像的影响** \\\n*穆罕默德·阿克鲁特、巴林特·杰佩西、彼得·霍洛、阿德里恩·波尔、布拉加·金乔、斯蒂芬·索利斯、卡特琳娜·西罗内、杰里米·川原、德克尔·斯莱德、拉提夫·阿比德、马特·科瓦奇、伊什特万·法泽卡斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.04802)] \\\n2023年1月12日\n\n**退火评分驱动的扩散模型用于减少MR运动伪影** \\\n*吴奎泽、李贞恩、叶宗哲* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.03027)] \\\n2023年1月8日\n\n**用于生成逼真且完全标注的显微镜图像数据集的去噪扩散概率模型** \\\n*丹尼斯·埃施韦勒、约翰内斯·施泰格迈尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.10227)] \\\n2023年1月2日\n\n**基于扩散模型的半监督学习在脑出血图像上的应用：高效量化中线移位** \\\n*龚世展、陈诚、龚宇琪、陈雅妍、马文傲、麦浩权、吉尔·阿布里戈、窦琦* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.00409)] \\\n2023年1月1日\n\n\n**SADM：面向纵向医学图像生成的序列感知扩散模型** \\\n*尹济锡、张成浩、苏兴日、郭佳、李晓晓* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08228)] \\\n2022年12月16日\n\n**双域通用生成建模用于动态MR成像** \\\n*于传明、关宇、柯子文、梁东、刘启根* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.07599)] \\\n2022年12月15日\n\n**使用条件扩散概率模型生成逼真的3D脑部MRI** \\\n*魏鹏、埃桑·阿德利、赵庆宇、基利安·M·波尔* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08034)] [[GitHub](https:\u002F\u002Fgithub.com\u002FProject-MONAI\u002FGenerativeModels\u002Ftree\u002F260-add-cdpm-model)] \\\n2022年12月15日\n\n\n**SPIRiT-扩散：基于SPIRiT驱动评分的生成建模用于血管壁成像** \\\n*曹晨涛、崔卓旭、程静、贾森、郑海荣、梁东、朱彦杰* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.11274)] \\\n2022年12月14日\n\n**扩散概率模型在医学图像上超越GAN** \\\n*古斯塔夫·穆勒-弗兰茨、扬·莫里茨·尼豪斯、菲拉斯·哈德尔、索鲁什·塔耶比·阿拉斯特、克里斯托夫·哈尔堡、克里斯蒂安·库尔、王天赐、韩天宇、斯文·内贝尔翁、雅各布·尼古拉斯·卡瑟、丹尼尔·特鲁恩* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.07501)] \\\n2022年12月14日\n\n\n**用于低剂量CT成像的投影域单样本扩散模型** \\\n*黄斌、张刘、陆诗雨、林博宇、吴伟文、刘启根* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03630)] \\\n2022年12月7日\n\n\n\n**通过光流扩散进行神经细胞视频合成** \\\n*曼努埃尔·塞纳-阿吉莱拉、阮科华、纳撒尼尔·哈里斯、邹敏* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03250)] \\\n2022年12月6日\n\n**利用大型扩散模型生成的图像改进跨人群皮肤科分类器** \\\n*卢克·W·塞格斯、詹姆斯·A·迪奥、马修·格罗、普拉纳夫·拉杰普卡尔、阿德韦勒·S·亚当森、阿琼·K·曼赖* \\\nNeurIPS研讨会2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13352)] \\\n2022年11月23日\n\n**RoentGen：用于胸部X光生成的视觉-语言基础模型** \\\n*皮埃尔·尚邦、克里斯蒂安·布吕特根、让-贝努瓦·德尔布鲁克、罗吉尔·范德斯吕伊斯、马尔戈扎塔·波拉钦、胡安·曼努埃尔·萨姆布拉诺·查韦斯、塔尼什克·马修·亚伯拉罕、希万舒·普罗希特、柯蒂斯·P·朗格洛茨、阿克谢·乔杜里* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12737)] \\\n2022年11月23日\n\n**DOLCE：基于模型的概率扩散框架用于有限角度CT重建** \\\n*刘嘉铭、鲁希尔·阿尼鲁德、贾亚拉曼·J·蒂亚加拉詹、斯图尔特·何、K·阿迪蒂亚·莫汉、乌卢格贝克·S·卡米洛夫、金孝珍* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12340)] \\\n2022年11月22日\n\n\n\n**利用预训练的2D扩散模型解决3D逆问题** \\\n*郑炯镇、柳度勋、迈克尔·T·麦肯、马克·L·克拉斯基、叶宗哲* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10655)] \\\n2022年11月19日\n\n**用于稀疏视角CT重建的基于补丁的去噪扩散概率模型** \\\n*夏文军、丛文祥、王革* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10388)] \\\n2022年11月18日\n\n**基于超高场扩散模型联合概率分布的MRI脑PET合成** \\\n*谢涛峰、曹晨涛、崔卓旭、李凡石、魏子东、朱彦杰、李晔、梁栋、金启宇、陈国庆、王海峰* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.08901)] \\\n2022年11月16日\n\n**利用深度生成网络进行亚型平衡的HER2肿瘤分割改进** \\\n*马蒂亚斯·厄特尔、雅娜·莫尼乌斯、马蒂亚斯·吕布纳、卡罗尔·I·盖珀特、邱静娜、弗劳克·维尔姆、阿恩特·哈特曼、马蒂亚斯·W·贝克曼、彼得·A·法辛、安德烈亚斯·迈尔、拉莫娜·埃尔伯、卡塔琳娜·布赖宁格* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06150)] \\\n2022年11月11日\n\n\n\n**一种用于医学图像标注的非侵入式质量监督方法** \\\n*松雅·昆茨曼、马蒂亚斯·厄特尔、普拉特梅什·马杜、费利克斯·登青格尔、安德烈亚斯·迈尔* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06146)] \\\n2022年11月11日\n\n\n**医学扩散——用于3D医学图像生成的去噪扩散概率模型** \\\n*菲拉斯·哈德尔、古斯塔夫·穆勒-弗兰泽斯、索鲁什·泰耶比·阿拉斯特、韩天宇、克里斯托夫·哈尔布尔格、马克西米利安·舒尔策-哈根、菲利普·沙德、桑迪·恩格尔哈特、贝蒂娜·贝斯勒、塞巴斯蒂安·福尔施、约翰内斯·施泰格迈尔、克里斯蒂安·库尔、斯文·内贝伦、雅各布·尼古拉斯·卡瑟、丹尼尔·特鲁恩* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03364)] \\\n2022年11月7日\n\n**使用潜在扩散模型生成匿名胸部X线片以训练胸腔异常分类系统** \\\n*凯·帕克豪瑟、卢卡斯·福勒、弗洛里安·塔姆、安德烈亚斯·迈尔* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01323)] \\\n2022年11月2日\n\n**识破假肺：利用神经扩散模型生成合成医学图像** \\\n*哈兹拉特·阿里、沙法克·穆拉德、祖拜尔·沙赫* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.00902)] [[项目](https:\u002F\u002Fwww.kaggle.com\u002Fdatasets\u002Fhazrat\u002Fawesomelungs)] \\\n2022年11月2日\n\n\n**MedSegDiff：基于扩散概率模型的医学图像分割** \\\n*吴俊德、方慧慧、张宇、杨叶辉、徐延武* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.00611)] \\\n2022年11月1日\n\n**通过预分割扩散采样加速医学图像分割的扩散模型** \\\n*郭旭涛、杨延武、叶晨飞、陆尚、向阳、马婷* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.17408)] \\\n2022年10月27日\n\n**基于扩散模型的多任务脑肿瘤修复：方法学报告** \\\n*普里亚·鲁兹罗赫、巴尔迪亚·霍斯拉维、沙赫里亚尔·法加尼、玛娜·莫阿塞菲、萨娜兹·瓦赫达蒂、布拉德利·J·埃里克森* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12113)] [[GitHub](https:\u002F\u002Fgithub.com\u002FMayo-Radiology-Informatics-Lab\u002FMBTI)] \\\n2022年10月21日\n\n\n**将预训练视觉-语言基础模型适配到医学影像领域** \\\n*皮埃尔·尚邦、克里斯蒂安·布吕特根、柯蒂斯·P·朗格洛茨、阿克谢·乔达里* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.04133)] \\\n2022年10月9日\n\n**解剖学约束下的CT图像转换用于异质性血管分割** \\\n*贾马尔科·拉·巴贝拉、海赛姆·布赛德、弗朗切斯科·马索、萨宾·萨尔纳基、劳伦斯·鲁埃、皮耶特罗·戈里、伊莎贝尔·布洛赫* \\\nBMVC 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.01713)] \\\n2022年10月4日\n\n**基于去噪扩散概率模型的低剂量CT实现20倍加速** \\\n*夏文军、吕庆、王革* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.15136)] \\\n2022年9月29日\n\n\n**基于扩散对抗性表征学习的自监督血管分割** \\\n*博阿·金、吴有珍、叶宗哲* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14566)] \\\n2022年9月29日\n\n**利用扩散和分数匹配模型在CT与MRI图像之间进行转换** \\\n*吕庆、王革* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.12104)] \\\n2022年9月24日\n\n**基于潜在扩散模型的脑部影像生成** \\\n*沃尔特·H·L·皮纳亚、佩特鲁-丹尼尔·图多修、杰西卡·达夫隆、佩德罗·F·达·科斯塔、维吉尼亚·费尔南德斯、帕拉什凯夫·纳切夫、塞巴斯蒂安·乌尔塞林、M·豪尔赫·卡多索* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.07162)] \\\n2022年9月15日\n\n**基于去噪扩散概率模型的PET图像去噪** \\\n*龚矿、基思·A·约翰逊、乔治斯·埃尔·法赫里、李全正、潘廷苏* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.06167)] \\\n2022年9月13日\n\n**Self-Score：基于分数模型的自监督学习用于MRI重建** \\\n*崔卓旭、曹晨涛、刘绍楠、朱庆勇、程静、王海峰、朱彦杰、梁栋* \\\nIEEE TMI 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.00835)] \\\n2022年9月2日\n\n**高频空间扩散模型用于加速MRI** \\\n*曹晨涛、崔卓旭、刘绍楠、梁栋、朱彦杰* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.05481)] \\\n2022年8月10日\n\n**什么是健康？用于病灶定位的生成式反事实扩散** \\\n*佩德罗·桑切斯、安塔纳斯·卡斯切纳斯、刘晓、艾莉森·Q·奥尼尔、索提里奥斯·A·察夫塔里斯* \\\nMICCAI 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.12268)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fvios-s\u002FDiff-SCM)] \\\n2022年7月25日\n\n\n**基于对抗性扩散模型的无监督医学图像转换** \\\n*穆扎费尔·厄兹贝伊、萨尔曼·UH·达尔、哈桑·A·贝德尔、奥纳特·达尔马兹、沙班·厄兹图尔克、阿尔珀·京格尔、托尔加·丘库尔* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.08208)] \\\n2022年7月17日\n\n**用于加速MRI重建的自适应扩散先验** \\\n*萨尔曼·UH·达尔、沙班·厄兹图尔克、尤尔马兹·科尔克马兹、戈克贝尔·埃尔马斯、穆扎费尔·厄兹贝伊、阿尔珀·京格尔、托尔加·丘库尔* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.05876)] \\\n2022年7月12日\n\n**一种新颖的统一条件分数生成框架用于多模态医学图像补全** \\\n*孟祥熙、顾宇宁、潘永生、王尼专、薛鹏、陆孟康、何旭明、詹义强、沈定刚* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.03430)] \\\n2022年7月7日\n\n\n**跨模态Transformer GAN：用于阿尔茨海默病的脑结构-功能深度融合框架** \\\n*潘俊仁、王书强* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.13393)] \\\n2022年6月20日\n\n**用于4D时间医学图像生成的扩散可变形模型** \\\n*博阿·金、叶宗哲* \\\nMICCAI 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.13295)] [[GitHub](https:\u002F\u002Fgithub.com\u002Ftorchddm\u002Fddm)] \\\n2022年6月27日\n\n\n**利用扩散模型快速进行无监督脑部异常检测与分割** \\\n*沃尔特·H·L·皮纳亚、马克·S·格雷厄姆、罗伯特·格雷、佩德罗·F·达·科斯塔、佩特鲁-丹尼尔·图多修、保罗·赖特、易·H·马赫、安德鲁·D·麦金农、詹姆斯·T·特奥、罗尔夫·雅格尔、戴维·韦林、杰莱因特·里斯、帕拉什凯夫·纳切夫、塞巴斯蒂安·乌尔塞林、M·豪尔赫·卡多索* \\\nMICCAI 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.03461)] \\\n2022年6月7日\n\n**利用流形约束改进用于逆问题的扩散模型** \\\n*郑炯镇、沈炳洙、柳度勋、叶宗哲* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00941)] \\\n2022年6月2日\n\n**AnoDDPM：基于单纯形噪声的去噪扩散概率模型异常检测** \\\n*朱利安·怀亚特、亚当·利奇、塞巴斯蒂安·M·施蒙、克里斯·G·威尔科克斯* \\\nCVPR 2022研讨会。[[论文](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2022W\u002FNTIRE\u002Fpapers\u002FWyatt_AnoDDPM_Anomaly_Detection_With_Denoising_Diffusion_Probabilistic_Models_Using_Simplex_CVPRW_2022_paper.pdf)] [[GitHub](https:\u002F\u002Fgithub.com\u002FJulian-Wyatt\u002FAnoDDPM)] \\\n2022年6月1日\n\n**图像到图像转换的瑞士军刀：多任务扩散模型** \\\n*茱莉娅·沃勒布、罗宾·桑德库勒、弗洛伦丁·比德尔、菲利普·C·卡廷* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.02641)] \\\n2022年4月6日\n\n**利用正则化反向扩散进行磁共振图像去噪与超分辨率** \\\n*郑炯镇、李恩善、芮钟哲* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.12621)] \\\n2022年3月23日\n\n**用于医学异常检测的扩散模型** \\\n*茱莉娅·沃勒布、弗洛伦丁·比德尔、罗宾·桑德库勒、菲利普·C·卡廷* \\\nMICCAI 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.04306)] [[GitHub](https:\u002F\u002Fgithub.com\u002FJuliaWolleb\u002Fdiffusion-anomaly)] \\\n2022年3月8日\n\n**通过扩散模型采样实现高效可靠的欠采样磁共振重建** \\\n*彭程、郭鹏飞、S·凯文·周、维沙尔·帕特尔、拉马·切拉帕* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.04292)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcpeng93\u002Fdiffuserecon)] \\\n2022年3月8日\n\n**面向欠采样医学图像重建的测量条件去噪扩散概率模型** \\\n*谢宇彤、李全政* \\\nMICCAI 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.03623)] [[GitHub](https:\u002F\u002Fgithub.com\u002FTheodore-PKU\u002FMC-DDPM)] \\\n2022年3月5日\n\n**基于数据驱动马尔可夫链的MRI重建及联合不确定性估计** \\\n*罗冠雄、马丁·海德、马丁·乌克尔* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.01479)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmrirecon\u002Fspreco)] \\\n2022年2月3日\n\n**使用扩散概率模型对视网膜OCT进行无监督去噪** \\\n*胡德伟、陶元凯、伊佩克·奥古兹* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.11760)] [[GitHub](https:\u002F\u002Fgithub.com\u002FDeweiHu\u002FOCT_DDPM)] \\\n2022年1月27日\n\n**越近越扩散越快：通过随机收缩加速逆问题的条件扩散模型** \\\n*郑炯镇、沈炳洙、芮钟哲* \\\nCVPR 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.05146)] \\\n2021年12月9日\n\n**基于分数函数生成模型解决医学影像中的逆问题** \\\n*杨松、沈丽悦、邢磊、斯特凡诺·埃尔蒙* \\\nNeurIPS 2021研讨会。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.08005)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyang-song\u002Fscore_inverse_problems)] \\\n2021年11月15日\n\n**基于分数函数的扩散模型用于加速MRI** \\\n*郑炯镇、芮钟哲* \\\nMIA 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.05243)] [[GitHub](https:\u002F\u002Fgithub.com\u002FHJ-harry\u002Fscore-MRI)] \\\n2021年10月8日\n\n\n\n\n\n\n### 多模态学习\n\n\n**IterInv：面向像素级T2I模型的迭代反演** \\\n*唐传明、王凯、约斯特·范德韦耶* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19540)] \\\n2023年10月30日\n\n\n**VideoCrafter1：用于高质量视频生成的开放扩散模型** \\\n*陈浩鑫、夏梦涵、何英青、张勇、孙晓东、杨绍书、邢金波、刘耀芳、陈启峰、王新涛、翁超、单颖* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19512)] \\\n2023年10月30日\n\n**IMPRESS：评估基于扩散的生成式AI中不可察觉扰动对未经授权数据使用的鲁棒性** \\\n*曹博川、李长江、王婷、贾金源、李博、陈静辉* \\\nNeurIPS 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19248)] \\\n2023年10月30日\n\n\n**CustomNet：文本到图像扩散模型中的零样本多视角对象定制** \\\n*袁子阳、曹明登、王新涛、齐仲刚、袁春、单颖* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19784)] \\\n2023年10月30日\n\n\n**透过对话看世界：基于扩散模型的音视频语音分离** \\\n*李秀妍、郑彩英、张英俊、金在勋、郑俊宣* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19581)] \\\n2023年10月30日\n\n\n**基于分类器分数蒸馏的文本到3D生成** \\\n*辛宇、郭元辰、李阳光、梁鼎、张松海、戚小娟* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19415)] \\\n2023年10月30日\n\n**通过文本到图像扩散模型定制360度全景图** \\\n*王海、向晓宇、范宇晨、薛景浩* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18840)] \\\n2023年10月28日\n\n**SD4Match：学习为稳定扩散模型提供语义匹配提示** \\\n*李兴辉、陆静怡、韩凯、维克托·普里萨卡留* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17569)] \\\n2023年10月26日\n\n\n\n\n\n**CADS：通过条件退火采样释放扩散模型的多样性** \\\n*赛耶德莫尔特扎·萨达特、雅各布·布赫曼、德里克·布拉德利、奥特马尔·希利格斯、罗马恩·M·韦伯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17347)] \\\n2023年10月26日\n\n**利用扩散模型进行视频定位的迭代细化探索** \\\n*梁晓、石涛、梁耀远、陶特、黄绍伦* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17189)] \\\n2023年10月26日\n\n**一图胜千言：基于原则的重新标题提升图像生成质量** \\\n*埃亚尔·塞加利斯、丹尼·瓦列夫斯基、丹尼·卢门、约西·马蒂亚斯、亚尼夫·莱维阿坦* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16656)] \\\n2023年10月25日\n\n\n\n**CommonCanvas：一个使用知识共享许可图片训练的开放扩散模型** \\\n*亚伦·戈卡斯兰、A·费德·库珀、贾斯敏·柯林斯、兰丹·塞金、奥斯汀·雅各布森、米希尔·帕特尔、乔纳森·弗兰克尔、科里·斯蒂芬森、沃洛迪米尔·库列绍夫* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16825)] \\\n2023年10月25日\n\n\n**关于如何使用良性提示从文本到图像模型中主动生成不安全图像** \\\n*吴毅欣、于宁、迈克尔·巴克斯、沈云、张洋* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16613)] \\\n2023年10月25日\n\n**融合你的潜在空间：基于多源潜在扩散模型的视频编辑** \\\n*陆天翼、张星、顾佳熙、徐航、裴仁静、许松岑、吴祖轩* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16400)] \\\n2023年10月25日\n\n\n\n**适应任何事物：利用文本到图像扩散模型跨领域和类别定制任意图像分类器** \\\n*陈伟杰、王浩宇、杨世才、张雷、魏伟、张燕宁、林洛君、谢迪、庄玉婷* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16573)] \\\n2023年10月25日\n\n**文本引导视频编辑竞赛** \\\n*吴章杰、李秀宇、高迪飞、董振、白金彬、辛哈尼·辛格、向晓宇、李友增、黄祖威、孙元熙、何锐、胡峰、胡俊华、黄海、朱汉宇、程旭、唐杰、郑守迈克、库尔特·凯策尔、福雷斯特·伊安多拉* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16003)] \\\n2023年10月24日\n\n**基于多条件扩散模型的语言驱动场景合成** \\\n*An Vuong, Minh Nhat Vu, Toan Tien Nguyen, Baoru Huang, Dzung Nguyen, Thieu Vo, Anh Nguyen* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15948)] \\\n2023年10月24日\n\n**FreeNoise：通过噪声重调度实现无需调优的长视频扩散生成** \\\n*Haonan Qiu, Menghan Xia, Yong Zhang, Yingqing He, Xintao Wang, Ying Shan, Ziwei Liu* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15169)] [[项目](http:\u002F\u002Fhaonanqiu.com\u002Fprojects\u002FFreeNoise.html)] \\\n2023年10月23日\n\n**SyncFusion：多模态同步触发的视频转音频拟音合成** \\\n*Marco Comunità, Riccardo F. Gramaccioni, Emilian Postolache, Emanuele Rodolà, Danilo Comminiello, Joshua D. Reiss* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15247)] \\\n2023年10月23日\n\n\n**套娃扩散模型** \\\n*Jiatao Gu, Shuangfei Zhai, Yizhe Zhang, Josh Susskind, Navdeep Jaitly* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15111)] \\\n2023年10月23日\n\n**大型语言模型也能分享图像！** \\\n*Young-Jun Lee, Jonghwan Hyeon, Ho-Jin Choi* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14804)] \\\n2023年10月23日\n\n**针对文本到图像生成模型的提示词特定中毒攻击** \\\n*Shawn Shan, Wenxin Ding, Josephine Passananti, Haitao Zheng, Ben Y. Zhao* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13828)] \\\n2023年10月20日\n\n\n**TexFusion：利用文本引导的图像扩散模型合成3D纹理** \\\n*Tianshi Cao, Karsten Kreis, Sanja Fidler, Nicholas Sharp, Kangxue Yin* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13772)] \\\n2023年10月20日\n\n\n\n**DPM-Solver-v3：结合经验模型统计的改进型扩散ODE求解器** \\\n*Kaiwen Zheng, Cheng Lu, Jianfei Chen, Jun Zhu* \\\nNeurIPS 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13268)] [[项目](https:\u002F\u002Fml.cs.tsinghua.edu.cn\u002Fdpmv3\u002F)] \\\n2023年10月20日\n\n\n**文本到图像生成模型中的知识定位与编辑** \\\n*Samyadeep Basu, Nanxuan Zhao, Vlad Morariu, Soheil Feizi, Varun Manjunatha* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13730)] \\\n2023年10月20日\n\n**TapMo：无骨骼角色的形状感知运动生成** \\\n*Jiaxu Zhang, Shaoli Huang, Zhigang Tu, Xin Chen, Xiaohang Zhan, Gang Yu, Ying Shan* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12678)] \\\n2023年10月19日\n\n**CycleNet：重新思考文本引导扩散在图像编辑中的循环一致性** \\\n*Sihan Xu, Ziqiao Ma, Yidong Huang, Honglak Lee, Joyce Chai* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13165)] \\\n2023年10月19日\n\n\n**DreamSpace：利用文本驱动的全景纹理传播打造你的房间空间** \\\n*Bangbang Yang, Wenqi Dong, Lin Ma, Wenbo Hu, Xiao Liu, Zhaopeng Cui, Yuewen Ma* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13119)] \\\n2023年10月19日\n\n**EMIT-Diff：通过文本引导的扩散模型提升医学图像分割效果** \\\n*Zheyuan Zhang, Lanhong Yao, Bin Wang, Debesh Jha, Elif Keles, Alpay Medetalibeyoglu, Ulas Bagci* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12868)] \\\n2023年10月19日\n\n**多样扩散：提升文本到图像生成中的图像多样性** \\\n*Mariia Zameshina, Olivier Teytaud, Laurent Najman* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12583)] \\\n2023年10月19日\n\n**DynamiCrafter：借助视频扩散先验动画化开放域图像** \\\n*Jinbo Xing, Menghan Xia, Yong Zhang, Haoxin Chen, Xintao Wang, Tien-Tsin Wong, Ying Shan* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12190)] \\\n2023年10月18日\n\n**Progressive3D：面向复杂语义提示的文本到3D内容创作中的渐进式局部编辑** \\\n*Xinhua Cheng, Tianyu Yang, Jianan Wang, Yu Li, Lei Zhang, Jian Zhang, Li Yuan* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11784)] \\\n2023年10月18日\n\n\n**用于大规模检测文本到图像模型中隐性刻板印象的语言代理** \\\n*Qichao Wang, Tian Bian, Yian Yin, Tingyang Xu, Hong Cheng, Helen M. Meng, Zibin Zheng, Liang Chen, Bingzhe Wu* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11778)] \\\n2023年10月18日\n\n**解析分类器引导扩散生成的设计空间** \\\n*Jiajun Ma, Tianyang Hu, Wenjia Wang, Jiacheng Sun* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11311)] [[GitHub](https:\u002F\u002Fgithub.com\u002Falexmaols\u002Felucd)] \\\n2023年10月17日\n\n**BayesDiff：基于贝叶斯推断估计扩散过程中的像素级不确定性** \\\n*Siqi Kou, Lei Gan, Dequan Wang, Chongxuan Li, Zhijie Deng* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11142)] \\\n2023年10月17日\n\n**GenEval：一种以对象为中心的文本到图像对齐评估框架** \\\n*Dhruba Ghosh, Hanna Hajishirzi, Ludwig Schmidt* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11513)] \\\n2023年10月17日\n\n**迈向无需训练的开放世界分割：基于图像提示的基础模型方法** \\\n*Lv Tang, Peng-Tao Jiang, Hao-Ke Xiao, Bo Li* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10912)] \\\n2023年10月17日\n\n**LAMP：学习少量样本的运动模式以进行视频生成** \\\n*Ruiqi Wu, Liangyu Chen, Tong Yang, Chunle Guo, Chongyi Li, Xiangyu Zhang* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10769)] [[项目](https:\u002F\u002Frq-wu.github.io\u002Fprojects\u002FLAMP\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FRQ-Wu\u002FLAMP)] \\\n2023年10月16日\n\n**潜在扩散中的场景图条件约束** \\\n*Frank Fundel* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10338)] [[GitHub](https:\u002F\u002Fgithub.com\u002FFrankFundel\u002FSGCond)] \\\n2023年10月16日\n\n\n**敲响警钟！扩散模型的概念移除方法究竟有多可靠？** \\\n*Yu-Lin Tsai, Chia-Yi Hsu, Chulin Xie, Chih-Hsun Lin, Jia-You Chen, Bo Li, Pin-Yu Chen, Chia-Mu Yu, Chun-Ying Huang* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10012)] \\\n2023年10月16日\n\n**利用预训练的图像编辑扩散模型实现零样本机器人操作** \\\n*Kevin Black, Mitsuhiko Nakamoto, Pranav Atreya, Homer Walke, Chelsea Finn, Aviral Kumar, Sergey Levine* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10639)] \\\n2023年10月16日\n\n**ViPE：几乎可以可视化任何东西** \\\n*Hassan Shahmohammadi, Adhiraj Ghosh, Hendrik P. A. Lensch* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10543)] \\\n2023年10月16日\n\n\n**TOSS：高质量单张图像文本引导新视角合成** \\\n*Yukai Shi, Jianan Wang, He Cao, Boshi Tang, Xianbiao Qi, Tianyu Yang, Yukun Huang, Shilong Liu, Lei Zhang, Heung-Yeung Shum* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10644)] \\\n2023年10月16日\n\n\n**LLM蓝图：支持复杂详尽提示的文本到图像生成** \\\n*Hanan Gani, Shariq Farooq Bhat, Muzammal Naseer, Salman Khan, Peter Wonka* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10640)] \\\n2023年10月16日\n\n\n**LOVECon：基于ControlNet的文本驱动无训练长视频编辑** \\\n*Zhenyi Liao, Zhijie Deng* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09711)] \\\n2023年10月15日\n\n**PaintHuman：通过去噪得分蒸馏实现高保真文本到3D人体纹理生成** \\\n*于建辉、朱浩、蒋利明、罗晨超、蔡伟东、吴伟伦* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09458)] \\\n2023年10月14日\n\n**组合能力以乘法方式涌现：在合成任务上探索扩散模型** \\\n*冈川真夜、埃克迪普·辛格·卢巴纳、罗伯特·P·迪克、田中秀典* \\\nICML研讨会2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09336)] \\\n2023年10月13日\n\n**基于WordNet层次结构的文本到图像模型上位词理解评估** \\\n*安东·巴里什尼科夫、马克西姆·里亚比宁* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09247)] \\\n2023年10月13日\n\n**让多模态生成更简单：当扩散模型遇见大语言模型** \\\n*赵翔宇、刘博、刘琪琼、史广源、吴晓明* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08949)] \\\n2023年10月13日\n\n\n**R&B：区域与边界感知的零样本接地文本到图像生成** \\\n*肖佳宇、李亮、吕恒磊、王淑慧、黄庆明* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08872)] \\\n2023年10月13日\n\n**DeltaSpace：用于灵活文本引导图像编辑的语义对齐特征空间** \\\n*吕岳明、赵康、彭博、江悦、张颖雅、董静* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08785)] \\\n2023年10月12日\n\n\n**OmniControl：为人体运动生成提供随时控制任意关节的能力** \\\n*谢一鸣、瓦伦·詹帕尼、钟磊、孙德清、姜怀祖* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08580)] [[项目](https:\u002F\u002Fneu-vi.github.io\u002Fomnicontrol\u002F)] \\\n2023年10月12日\n\n\n**HyperHuman：基于潜在结构扩散的超写实人像生成** \\\n*刘贤、任健、阿列克桑德尔·西亚罗欣、伊万·斯科罗霍多夫、李燕宇、林达华、刘熙晖、刘子威、谢尔盖·图利亚科夫* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08579)] [[项目](https:\u002F\u002Fsnap-research.github.io\u002FHyperHuman\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsnap-research\u002FHyperHuman)] \\\n2023年10月12日\n\n**GaussianDreamer：利用点云先验从文本快速生成3D高斯溅射场景** \\\n*易涛然、方继民、吴冠军、谢凌溪、张小鹏、刘文宇、田琦、王兴刚* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08529)] \\\n2023年10月12日\n\n\n**MotionDirector：文本到视频扩散模型的运动自定义工具** \\\n*赵睿、顾宇超、吴章杰、张俊豪、刘嘉伟、吴伟佳、尤西·凯波、郑守迈* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08465)] \\\n2023年10月12日\n\n**通过信息分解实现可解释的扩散模型** \\\n*孔祥昊、刘奥利、李涵、约加塔玛·丹妮、格雷格·韦斯特格* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07972)] \\\n2023年10月12日\n\n**DrivingDiffusion：基于布局引导的多视角驾驶场景视频生成，采用潜在扩散模型** \\\n*李晓凡、张一夫、叶晓青* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07771)] [[项目](https:\u002F\u002Fdrivingdiffusion.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fshalfun\u002FDrivingDiffusion)] \\\n2023年10月11日\n\n**ScaleCrafter：无需调优的高分辨率视觉生成，基于扩散模型** \\\n*何英青、杨绍书、陈浩鑫、寸晓东、夏梦寒、张勇、王新涛、何冉、陈启峰、山莺* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07702)] [[项目](https:\u002F\u002Fyingqinghe.github.io\u002Fscalecrafter\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FYingqingHe\u002FScaleCrafter)] \\\n2023年10月11日\n\n**ConditionVideo：无需训练的条件引导文本到视频生成** \\\n*彭博、陈鑫源、王耀辉、陆超超、乔宇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07697)] \\\n2023年10月11日\n\n\n**Mini-DALLE3：通过提示大型语言模型实现交互式文本到图像生成** \\\n*赖泽强、朱锡洲、戴继峰、乔宇、王文海* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07653)] \\\n2023年10月11日\n\n**Multi-Concept T2I-Zero：仅调整文本嵌入，别无其他** \\\n*哈扎拉佩特·图纳尼扬、徐德佳、尚特·纳瓦萨尔迪扬、王张阳、施汉弗里* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07419)] \\\n2023年10月11日\n\n**Uni-paint：基于预训练扩散模型的统一多模态图像修复框架** \\\n*杨世远、陈晓东、廖晶* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07222)] \\\n2023年10月11日\n\n**ObjectComposer：无需微调即可一致生成多个物体** \\\n*亚历克·赫尔布林、埃文·蒙托亚、周登鸿* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06968)] \\\n2023年10月10日\n\n\n**JointNet：扩展文本到图像扩散模型以进行密集分布建模** \\\n*张景阳、李世伟、陆元勋、方天、大卫·麦金农、秦洋海、权龙、姚瑶* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06347)] \\\n2023年10月10日\n\n**利用大型视觉—语言模型提升组合性文本到图像生成** \\\n*宋文、方桂安、张仁瑞、高鹏、董浩、迪米特里斯·梅塔克萨斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06311)] \\\n2023年10月10日\n\n**Geom-Erasing：基于几何的扩散模型中隐式概念移除** \\\n*刘志立、陈凯、张一帆、韩建华、洪兰青、许航、李振国、叶迪特-颜、郭詹姆斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05873)] \\\n2023年10月9日\n\n\n**FLATTEN：基于光流引导的注意力机制，用于一致性文本到视频编辑** \\\n*丛宇仁、徐萌萌、克里斯蒂安·西蒙、陈寿发、任嘉伟、谢艳萍、胡安-曼努埃尔·佩雷斯-鲁阿、博多·罗森汉、向涛、何森* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05922)] \\\n2023年10月9日\n\n**语言模型胜过扩散模型——分词器是视觉生成的关键** \\\n*于立军、何塞·莱萨马、尼特什·B·贡达瓦拉普、卢卡·维尔萨里、苏基赫·孙、大卫·明嫩、程勇、阿格里姆·古普塔、顾雪野、亚历山大·G·豪普特曼、龚博清、杨明轩、伊尔凡·埃萨、大卫·A·罗斯、江璐* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05737)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fmagvit2-pytorch)] \\\n2023年10月9日\n\n**IPDreamer：基于图像提示的外观可控3D对象生成** \\\n*曾博文、李尚林、冯玉堂、李宏、高思成、刘嘉铭、李华夏、唐旭、刘建庄、张宝昌* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05375)] \\\n2023年10月9日\n\n\n**扩散模型作为掩码音频—视频学习器** \\\n*埃尔维斯·努涅斯、金燕子、穆罕默德·拉斯泰加里、萨钦·梅塔、麦克斯韦尔·霍顿* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03937)] \\\n2023年10月5日\n\n**通过奖励反向传播对齐文本到图像扩散模型** \\\n*米希尔·普拉布杜赛、阿尼鲁德·戈亚尔、迪帕克·帕塔克、卡特琳娜·弗拉吉达基* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03739)] \\\n2023年10月5日\n\n**Ctrl-Room：在布局约束下可控的文本到3D房间网格生成** \\\n*方川、胡晓涛、罗昆明、谭平* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03602)] \\\n2023年10月5日\n\n**MedSyn：文本引导的解剖学感知高保真 3D CT 图像合成** \\\n*徐延武、孙莉、彭伟、夏姆·维斯韦斯瓦兰、凯汉·巴特曼格利奇* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03559)] \\\n2023年10月5日\n\n\n**Kandinsky：结合图像先验与潜在扩散模型的改进型文生图合成** \\\n*安东·拉日盖耶夫、阿尔谢尼·沙赫马托夫、安娜斯塔西娅·马尔采娃、弗拉基米尔·阿爾希普金、伊戈爾·帕夫洛夫、伊利亚·里亞波夫、安吉丽娜·库茨、亚历山大·潘琴科、安德烈·库兹涅佐夫、丹尼斯·季米特罗夫* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03502)] \\\n2023年10月5日\n\n**基于语音条件的潜在扩散模型与人脸先验的逼真语音到人脸生成** \\\n*王金亭、刘莉、王军、程海维克多* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03363)] \\\n2023年10月5日\n\n**T$^3$Bench：文本到3D生成领域当前进展的基准测试** \\\n*何宇泽、白宇诗、林哲宇、赵旺、胡宇斌、盛珍妮、易然、李娟子、刘永进* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02977)] [[项目](https:\u002F\u002Ft3bench.com\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FTHU-LYJ-Lab\u002FT3Bench)] \\\n2023年10月4日\n\n**利用视觉和文本提示的扩散模型提升皮肤镜病变分割效果** \\\n*杜世义、王晓松、陆永毅、周雨音、张绍婷、艾伦·尤伊尔、李康、周宗伟* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02906)] \\\n2023年10月4日\n\n\n**Magicremover：无需调优的文本引导图像修复——基于扩散模型** \\\n*杨思远、张璐、马立倩、刘宇、傅晶晶、何友* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02848)] \\\n2023年10月4日\n\n\n**ED-NeRF：利用潜在空间 NeRF 对 3D 场景进行高效的文本引导编辑** \\\n*朴章浩、权基贤、芮钟哲* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02712)] \\\n2023年10月4日\n\n**SweetDreamer：在 2D 扩散中对齐几何先验以实现一致的文生3D** \\\n*李伟宇、陈睿、陈雪琳、谭平* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02596)] [[项目](https:\u002F\u002Fsweetdreamer3d.github.io\u002F)] \\\n2023年10月4日\n\n**EditVal：基于扩散的文本引导图像编辑方法基准测试** \\\n*萨米迪普·巴苏、梅赫达德·萨贝里、什韦塔·巴尔德瓦杰、阿图萨·马莱米尔·切吉尼、丹妮拉·马西切蒂、马齐亚尔·桑贾比、许淑华、索海尔·费伊齐* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02426)] [[项目](https:\u002F\u002Fdeep-ml-research.github.io\u002Feditval\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fdeep-ml-research\u002Feditval_code)] \\\n2023年10月3日\n\n\n**FT-Shield：一种用于文生图扩散模型的防未经授权微调水印** \\\n*崔英倩、任杰、林玉萍、徐涵、何鹏飞、邢悦、范文琪、刘辉、唐继良* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02401)] \\\n2023年10月3日\n\n\n**惊人的组合创作：适用于文生图生成的可接受交换采样** \\\n*李俊、张泽东、杨健* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01819)] [[项目](https:\u002F\u002Fasst2i.github.io\u002Fanon\u002F)] \\\n2023年10月3日\n\n**通过文生图扩散跨越领域：一种无源域适应方法** \\\n*希万·乔普拉、苏拉杰·科塔瓦德、侯达·艾纳乌、阿曼·查达* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01701)] \\\n2023年10月2日\n\n\n**条件扩散蒸馏** \\\n*梅康富、毛里西奥·德尔布拉西奥、侯赛因·塔莱比、涂正中、维沙尔·M·帕特尔、佩曼·米兰法尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01407)] \\\n2023年10月2日\n\n**直接反演：仅需三行代码即可提升基于扩散的编辑能力** \\\n*鞠轩、曾爱玲、卞宇轩、刘绍腾、徐强* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01506)] \\\n2023年10月2日\n\n\n**针对逆问题的提示调优潜在扩散模型** \\\n*郑炯镇、芮钟哲、佩曼·米兰法尔、毛里西奥·德尔布拉西奥* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01110)] \\\n2023年10月2日\n\n\n**DataInf：高效估算 LoRA 微调后的 LLM 和扩散模型中的数据影响力** \\\n*权勇灿、吴埃里克、吴凯文、周詹姆斯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00902)] \\\n2023年10月2日\n\n**Ground-A-Video：使用文生图扩散模型进行零样本接地视频编辑** \\\n*郑贤浩、芮钟哲* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01107)] [[GitHub](https:\u002F\u002Fgithub.com\u002FGround-A-Video\u002FGround-A-Video)] \\\n2023年10月2日\n\n**音乐与歌词驱动的舞蹈合成** \\\n*尹文杰、姚庆元、于一、尹航、达妮卡·克拉吉奇、马尔滕·比约克曼* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00455)] \\\n2023年9月30日\n\n**DiffPoseTalk：基于扩散模型的语音驱动风格化 3D 面部动画及头部姿态生成** \\\n*孙志耀、吕天、叶晟、林马修·加埃坦、盛珍妮、温宇辉、余敏静、刘永进* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00434)] [[项目](https:\u002F\u002Fraineggplant.github.io\u002FDiffPoseTalk\u002F)] \\\n2023年9月30日\n\n**PixArt-$\\alpha$：用于照片级真实感文生图合成的快速训练扩散 Transformer** \\\n*陈俊松、俞锦程、葛崇建、姚雷威、谢恩泽、吴岳、王忠道、郭嘉诚、罗平、卢虎川、李振国* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00426)] [[项目](https:\u002F\u002Fpixart-alpha.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FPixArt-alpha\u002FPixArt-alpha)] \\\n2023年9月30日\n\n\n**InstructCV：指令微调的文生图扩散模型作为视觉通用模型** \\\n*甘玉露、朴成佑、亚历山大·舒伯特、安东尼·菲利帕基斯、艾哈迈德·M·阿拉* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00390)] \\\n2023年9月30日\n\n**Steered Diffusion：一种用于即插即用式条件图像合成的通用框架** \\\n*尼廷·戈帕克里希南·奈尔、阿努普·切里安、苏哈斯·洛希特、王晔、小池明昭、维沙尔·M·帕特尔、蒂姆·K·马克斯* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00224)] \\\n2023年9月30日\n\n**直接基于可微奖励对扩散模型进行微调** \\\n*凯文·克拉克、保罗·维科尔、凯文·斯韦斯基、大卫·J·弗利特* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.17400)] \\\n2023年9月29日\n\n**基于扩散的感知中的文本-图像对齐** \\\n*尼哈尔·孔达帕内尼、马库斯·马克斯、曼努埃尔·诺特、罗热里奥·吉马良斯、皮耶特罗·佩罗纳* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00031)] \\\n2023年9月29日\n\n\n**LLM 接地的视频扩散模型** \\\n*连龙、史百峰、亚当·亚拉、特雷弗·达雷尔、李博益* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.17444)] [[项目](https:\u002F\u002Fllm-grounded-diffusion.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FTonyLianLong\u002FLLM-groundedDiffusion)] \\\n2023年9月29日\n\n**KV 反演：用于文本条件下的真实图像动作编辑的 KV 嵌入学习** \\\n*黄建诚、刘一凡、秦晋、陈世峰* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16608)] \\\n2023年9月28日\n\n\n**CCEdit：基于扩散模型的创意可控视频编辑** \\\n*冯若宇、翁文明、王艳慧、袁雨晖、鲍建民、罗冲、陈志博、郭百宁* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16496)] \\\n2023年9月28日\n\n**展示-1：将像素模型与潜在扩散模型结合用于文本到视频生成** \\\n*David Junhao Zhang、Jay Zhangjie Wu、Jia-Wei Liu、Rui Zhao、Lingmin Ran、Yuchao Gu、Difei Gao、Mike Zheng Shou* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15818)] \\\n2023年9月27日\n\n**动态提示学习：解决基于文本的图像编辑中的交叉注意力泄漏问题** \\\n*Kai Wang、Fei Yang、Shiqi Yang、Muhammad Atif Butt、Joost van de Weijer* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15664)] \\\n2023年9月27日\n\n**DreamCom：针对图像合成微调文本引导的修复模型** \\\n*Lingxiao Lu、Bo Zhang、Li Niu* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15508)] \\\n2023年9月27日\n\n**利用文本到图像扩散模型生成的优势信息进行学习** \\\n*Rafael-Edy Menadil、Mariana-Iuliana Georgescu、Radu Tudor Ionescu* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15238)] \\\n2023年9月26日\n\n**LAVIE：基于级联潜在扩散模型的高质量视频生成** \\\n*Yaohui Wang、Xinyuan Chen、Xin Ma、Shangchen Zhou、Ziqi Huang、Yi Wang、Ceyuan Yang、Yinan He、Jiashuo Yu、Peiqing Yang、Yuwei Guo、Tianxing Wu、Chenyang Si、Yuming Jiang、Cunjian Chen、Chen Change Loy、Bo Dai、Dahua Lin、Yu Qiao、Ziwei Liu* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15103)] [[项目](https:\u002F\u002Fvchitect.github.io\u002FLaVie-project\u002F)] \\\n2023年9月26日\n\n**利用文本到图像扩散模型生成的优势信息进行学习** \\\n*Rafael-Edy Menadil、Mariana-Iuliana Georgescu、Radu Tudor Ionescu* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15238)] \\\n2023年9月26日\n\n**FEC：三种无需微调的方法以提升真实图像编辑的一致性** \\\n*Songyan Chen、Jiancheng Huang* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14934)] \\\n2023年9月26日\n\n**文本到图像定制指南：从LyCORIS微调到模型评估** \\\n*Shin-Ying Yeh、Yu-Guan Hsieh、Zhidong Gao、Bernard B W Yang、Giyeong Oh、Yanmin Gong* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14859)] \\\n2023年9月26日\n\n**文本-图像引导的扩散模型用于生成名人深度伪造互动** \\\n*Yunzhuo Chen、Nur Al Hasan Haldar、Naveed Akhtar、Ajmal Mian* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14751)] \\\n2023年9月26日\n\n**Free-Bloom：具有LLM导演和LDM动画师的零样本文本到视频生成器** \\\n*Hanzhuo Huang、Yufan Feng、Cheng Shi、Lan Xu、Jingyi Yu、Sibei Yang* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14494)] \\\n2023年9月25日\n\n**COCO-反事实：为图像-文本对自动生成反事实示例** \\\n*Tiep Le、Vasudev Lal、Phillip Howard* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14356)] \\\n2023年9月23日\n\n**基于语言-视觉模型的零样本目标计数** \\\n*Jingyi Xu、Hieu Le、Dimitris Samaras* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13097)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcvlab-stonybrook\u002Fzero-shot-counting)] \\\n2023年9月22日\n\n**MosaicFusion：将扩散模型作为数据增强工具用于大词汇量实例分割** \\\n*Jiahao Xie、Wei Li、Xiangtai Li、Ziwei Liu、Yew Soon Ong、Chen Change Loy* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13042)] [[GitHub](https:\u002F\u002Fgithub.com\u002FJiahao000\u002FMosaicFusion)] \\\n2023年9月22日\n\n**DurIAN-E：用于富有表现力的文本到语音合成的时长感知注意力网络** \\\n*Yu Gu、Yianrao Bian、Guangzhi Lei、Chao Weng、Dan Su* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.12792)] \\\n2023年9月22日\n\n**FreeU：扩散U型网络中的免费午餐** \\\n*Chenyang Si、Ziqi Huang、Yuming Jiang、Ziwei Liu* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11497)] \\\n2023年9月20日\n\n**探究文本到音乐生成中的个性化方法** \\\n*Manos Plitsis、Theodoros Kouzelis、Georgios Paraskevopoulos、Vassilis Katsouros、Yannis Panagakis* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11140)] [[项目](https:\u002F\u002Fzelaki.github.io\u002F)] \\\n2023年9月20日\n\n**通过一致性蒸馏加速基于扩散的文本到音频生成** \\\n*Yatong Bai、Trung Dang、Dung Tran、Kazuhito Koishida、Somayeh Sojoudi* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10740)] \\\n2023年9月19日\n\n\n**Forgedit：通过学习与遗忘实现文本引导的图像编辑** \\\n*Shiwen Zhang、Shuai Xiao、Weilin Huang* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10556)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fwitcherofresearch\u002FForgedit)] \\\n2023年9月19日\n\n**什么是公平的扩散模型？设计融入多种世界观的生成式文本到图像模型** \\\n*Zoe De Simone、Angie Boggust、Arvind Satyanarayan、Ashia Wilson* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09944)] \\\n2023年9月18日\n\n**Causal-Story：利用参数高效微调的局部因果注意力进行视觉故事合成** \\\n*Tianyi Song、Jiuxin Cao、Kun Wang、Bo Liu、Xiaofeng Zhang* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09553)] \\\n2023年9月18日\n\n**带有软潜在方向的渐进式文本到图像扩散** \\\n*YuTeng Ye、Jiale Cai、Hang Zhou、Guanwen Li、Youjia Zhang、Zikai Song、Chenxing Gao、Junqing Yu、Wei Yang* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09466)] \\\n2023年9月18日\n\n**LivelySpeaker：迈向语义感知的伴随言语手势生成** \\\n*Yihao Zhi、Xiaodong Cun、Xuelin Chen、Xi Shen、Wen Guo、Shaoli Huang、Shenghua Gao* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09294)] \\\n2023年9月17日\n\n**PromptTTS++：使用自然语言描述在基于提示的文本到语音中控制说话者身份** \\\n*Reo Shimizu、Ryuichi Yamamoto、Masaya Kawamura、Yuma Shirahata、Hironori Doi、Tatsuya Komatsu、Kentaro Tachibana* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.08140)] \\\n2023年9月15日\n\n**AV2Wav：基于扩散的连续自监督特征重合成用于视听语音增强** \\\n*Ju-Chieh Chou、Chung-Ming Chien、Karen Livescu* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.08030)] \\\n2023年9月14日\n\n\n**视点文本反转：利用预训练的2D扩散模型释放新颖的视图合成能力** \\\n*James Burgess、Kuan-Chieh Wang、Serena Yeung* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07986)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fjmhb0\u002Fview_neti)] \\\n2023年9月14日\n\n**用于反事实解释的文本到图像模型：一种黑盒方法** \\\n*Guillaume Jeanneret、Loïc Simon、Frédéric Jurie* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07944)] \\\n2023年9月14日\n\n**带有Transformer的大词汇量3D扩散模型** \\\n*Ziang Cao、Fangzhou Hong、Tong Wu、Liang Pan、Ziwei Liu* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07920)] [[项目](https:\u002F\u002Fziangcao0312.github.io\u002Fdifftf_pages\u002F)][[GitHub](https:\u002F\u002Fgithub.com\u002Fziangcao0312\u002FDiffTF)] \\\n2023年9月14日\n\n\n**DiffTalker：通过中间地标协同驱动的音像扩散用于会说话的人脸** \\\n*Zipeng Qi、Xulong Zhang、Ning Cheng、Jing Xiao、Jianzong Wang* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07509)] \\\n2023年9月14日\n\n**用于音频语义通信的扩散模型** \\\n*埃莱奥诺拉·格拉斯奇、克里斯蒂安·马里诺尼、安德烈亚·罗德里格斯、达尼洛·科明涅洛* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07195)] \\\n2023年9月13日\n\n**DreamStyler：基于文本到图像扩散模型的风格反演绘画** \\\n*安南赫、李俊秀、李忠基、金坤熙、金大植、南承勋、洪基范* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06933)] \\\n2023年9月13日\n\n**DCTTS：用于文本到语音生成的对比学习离散扩散模型** \\\n*吴志超、李秋琳、刘思行、杨群* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06787)] \\\n2023年9月13日\n\n\n**InstaFlow：高质量基于扩散的文本到图像生成只需一步即可完成** \\\n*刘兴超、张希文、马建竹、彭健、刘强* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06380)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow)] \\\n2023年9月12日\n\n\n\n**Fg-T2M：通过扩散模型实现细粒度文本驱动的人体运动生成** \\\n*王寅、冷志英、李弗雷德里克·W·B、吴顺成、梁晓辉* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06284)] \\\n2023年9月12日\n\n**Prompting4Debugging：通过寻找问题提示对文本到图像扩散模型进行红队测试** \\\n*秦志毅、蒋介明、黄清纯、陈品宇、邱伟辰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06135)] \\\n2023年9月12日\n\n**PhotoVerse：无需微调的文本到图像扩散模型图像定制** \\\n*陈莉、赵梦怡、刘一恒、丁明旭、宋阳阳、王世尊、王旭、杨浩、刘静、杜康、郑敏* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05793)] [[项目](https:\u002F\u002Fphotoverse2d.github.io\u002F)] \\\n2023年9月11日\n\n\n**PAI-Diffusion：在云端构建并服务用于文本到图像合成的开源中文扩散模型家族** \\\n*王成宇、段中杰、刘炳炎、邹欣怡、陈岑、贾奎、黄军* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05534)] \\\n2023年9月11日\n\n**基于扩散的联合文本和音频表示的伴随语音手势生成** \\\n*安娜·戴希勒、希瓦姆·梅塔、西蒙·亚历山德森、乔纳斯·贝斯科夫* \\\nICMI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05455)] \\\n2023年9月11日\n\n**利用加速迭代扩散反演进行有效的真实图像编辑** \\\n*潘志宏、里卡多·盖拉尔迪、谢秀峰、史蒂芬·黄* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04907)] \\\n2023年9月10日\n\n**前缀扩散：一种用于多样化图像字幕生成的轻量级扩散模型** \\\n*刘贵生、李毅、费正聪、傅海燕、罗向阳、郭艳青* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04965)] \\\n2023年9月10日\n\n**无需重新训练的文本驱动3D场景编辑** \\\n*方双康、王宇峰、杨毅、蔡宜轩、丁文睿、周书畅、杨明轩* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04917)] \\\n2023年9月10日\n\n**声音的力量（TPoS）：使用稳定扩散生成音频响应型视频** \\\n*郑有珍、柳元贞、李承贤、徐多彬、卞元民、金尚弼、金镇九* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04509)] \\\n2023年9月8日\n\n**创造你的世界：终身文本到图像扩散** \\\n*孙甘、梁文琪、董家华、李军、丁正明、丛阳* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04430)] \\\n2023年9月8日\n\n**MaskDiffusion：利用条件掩码提升文本到图像一致性** \\\n*周宇鹏、周大权、朱左良、王雅星、侯启斌、冯嘉仕* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04399)] \\\n2023年9月8日\n\n**MoEController：基于指令的任意图像操作，采用专家混合控制器** \\\n*李思佳、陈晨、陆浩楠* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04372)] [[项目](https:\u002F\u002Foppo-mente-lab.github.io\u002Fmoe_controller\u002F)] \\\n2023年9月8日\n\n**从文本到掩码：利用文本到图像扩散模型的注意力定位实体** \\\n*肖昌明、杨奇、周峰、张长水* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.04109)] \\\n2023年9月8日\n\n\n\n**InstructDiffusion：面向视觉任务的通用建模接口** \\\n*耿子刚、杨彬鑫、杭天凯、李晨、顾书洋、张婷、鲍建民、张政、胡汉、陈东、郭百宁* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03895)] [[项目](https:\u002F\u002Fgengzigang.github.io\u002Finstructdiffusion.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcientgu\u002FInstructDiffusion)] \\\n2023年9月7日\n\n**用于视听少样本学习的文本到特征扩散** \\\n*奥特尼尔-博格丹·梅尔恰、托马斯·胡梅尔、A·索菲娅·科普克、泽内普·阿卡塔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03869)] \\\n2023年9月7日\n\n**Text2Control3D：利用几何引导的文本到图像扩散模型，在神经辐射场中生成可控的3D虚拟形象** \\\n*黄成源、洪俊河、秋在吉* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03550)] [[项目](https:\u002F\u002Ftext2control3d.github.io\u002F)] \\\n2023年9月7日\n\n**复用与扩散：用于文本到视频生成的迭代去噪** \\\n*顾家熙、王世聪、赵浩宇、卢天义、张星、吴祖轩、徐松岑、张伟、蒋宇刚、许航* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03549)] \\\n2023年9月7日\n\n**SyncDreamer：从单视角图像生成多视角一致的图像** \\\n*刘渊、林诚、曾子娇、龙晓晓、刘凌杰、小村拓、王文平* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03453)] [[项目](https:\u002F\u002Fliuyuan-pal.github.io\u002FSyncDreamer\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fliuyuan-pal\u002FSyncDreamer)] \\\n2023年9月7日\n\n**MCM：面向多场景的多条件运动合成框架** \\\n*凌泽宇、韩博、王永康、康坎哈利、耿卫东* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03031)] \\\n2023年9月6日\n\n**扩散模型实际上是无需训练的开放词汇语义分割器** \\\n*王景隆、李夏伟、张静、徐庆远、周秦、于谦、盛路、徐东* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02773)] \\\n2023年9月6日\n\n\n**从野外采集的声音生成逼真的图像** \\\n*李泰京、姜正勋、金惠柔、金泰焕* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02405)] \\\n2023年9月5日\n\n**基于生成的多模态跟踪融合机制** \\\n*唐章勇、徐天阳、朱雪峰、吴晓军、约瑟夫·基特勒* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01728)] \\\n2023年9月4日\n\n**VGDiffZero：文本到图像扩散模型可以作为零样本视觉接地器** \\\n*刘旭阳、黄思腾、康雅臣、陈洪刚、王东林* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01141)] \\\n2023年9月3日\n\n**桥梁扩散模型：将非英语母语的文本到图像扩散模型与英语社区连接起来** \\\n*刘善源、冷大伟、尹玉慧* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00952)] \\\n2023年9月2日\n\n**MagicProp：基于扩散模型的运动感知外观传播视频编辑** \\\n*严汉书、刘俊豪、麦龙、林善川、冯嘉实* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00908)] \\\n2023年9月2日\n\n**基于扩散模型的迭代式多粒度图像编辑** \\\n*K J Joseph、普拉特克莎·乌达亚南、特里普蒂·舒克拉、艾什瓦里娅·阿加瓦尔、斯里克里希纳·卡兰南、考斯塔瓦·戈斯瓦米、巴拉吉·瓦桑·斯里尼瓦桑* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00613)] \\\n2023年9月1日\n\n**DiffuGen：利用稳定扩散模型生成标注图像数据集的可适应方法** \\\n*迈克尔·谢诺达、爱德华·金* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00248)] \\\n2023年9月1日\n\n**PathLDM：用于组织病理学的文本条件化潜在扩散模型** \\\n*斯里卡尔·耶拉普拉加达、亚历山德罗斯·格莱科斯、普拉提克·普拉桑纳、塔赫辛·库尔茨、乔尔·萨尔茨、迪米特里斯·萨马拉斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00748)] \\\n2023年9月1日\n\n**VideoGen：一种参考引导的潜在扩散方法，用于高清文生视频生成** \\\n*李欣、楚文清、吴烨、袁伟航、刘方龙、张琪、李福、冯浩成、丁尔瑞、王井东* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00398)] \\\n2023年9月1日\n\n**检测新闻中语境不符的图文配对：一种反直觉的方法** \\\n*埃文德·莫霍尔特、索海尔·艾哈迈德·汗、杜克-田恩·当-阮* \\\nCBMI 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16611)] \\\n2023年8月31日\n\n**Any-Size-Diffusion：面向任意尺寸高清图像的高效文本驱动合成** \\\n*郑庆平、郭元凡、邓建康、韩建华、李英、徐松岑、许航* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16582)] \\\n2023年8月31日\n\n**MVDream：用于3D生成的多视角扩散模型** \\\n*史一春、王鹏、叶江龙、麦龙、李克杰、杨晓* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16512)] \\\n2023年8月31日\n\n**扩散模型的有趣特性：用于评估文生图生成模型自然攻击能力的大规模数据集** \\\n*佐藤隆美、贾斯汀·岳、陈楠泽、王宁飞、陈启阿尔弗雷德* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15692)] \\\n2023年8月30日\n\n**DiffusionVMR：用于视频时刻检索的扩散模型** \\\n*赵恒昊、林庆宏、颜锐、李泽超* \\\nACM MM 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15109)] \\\n2023年8月29日\n\n**C2G2：基于潜在扩散模型的可控伴随语音手势生成** \\\n*季龙斌、魏鹏飞、任毅、刘景林、张晨、尹翔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15016)] \\\n2023年8月29日\n\n**从少量未配准的NFoV图像生成360度全景图** \\\n*王炯浩、陈子宇、凌军、谢荣、宋力* \\\nACM MM 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14686)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fshanemankiw\u002FPanodiff)] \\\n2023年8月28日\n\n**离散潜在空间中的优先级导向人体运动生成** \\\n*孔汉阳、龚克洪、连东泽、毕米·迈克尔、王新超* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14480)] \\\n2023年8月28日\n\n**SketchDreamer：交互式文本增强创意草图构思** \\\n*曲志宇、向涛、宋义哲* \\\nBMVC 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14191)] [[GitHub](https:\u002F\u002Fgithub.com\u002FWinKawaks\u002FSketchDreamer)] \\\n2023年8月27日\n\n**用大语言模型赋能动态感知的文生视频扩散模型** \\\n*郝飞、吴圣琼、季伟、张翰旺、蔡特生* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13812)] [[项目](https:\u002F\u002Fhaofei.vip\u002FDysen-VDM\u002F)] \\\n2023年8月26日\n\n**ORES：开放词汇负责任的视觉合成** \\\n*倪明恒、吴晨菲、王晓东、尹盛明、王丽娟、刘子诚、段楠* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13785)] \\\n2023年8月26日\n\n**DiffuseStyleGesture+ 参与 GENEA 挑战赛 2023 的作品** \\\n*杨思成、薛海威、张振松、李明磊、吴志勇、吴晓飞、徐松岑、戴宗宏* \\\nICMI 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13879)] [[GitHub](https:\u002F\u002Fgithub.com\u002FYoungSeng\u002FDiffuseStyleGesture\u002Ftree\u002FDiffuseStyleGesturePlus\u002FBEAT-TWH-main)] \\\n2023年8月26日\n\n**EfficientDreamer：通过正交视图扩散先验实现高保真且鲁棒的3D创作** \\\n*赵敏达、赵朝义、梁心悦、李林成、赵增、胡志鹏、范昌杰、辛宇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13223)] \\\n2023年8月25日\n\n**扩散模型中的统一概念编辑** \\\n*罗希特·甘迪科塔、哈达斯·奥尔加德、约纳坦·贝林科夫、乔安娜·马泰尔津斯卡、大卫·鲍* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14761)] [[项目](https:\u002F\u002Funified.baulab.info\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Frohitgandikota\u002Funified-concept-editing)] \\\n2023年8月25日\n\n**带有注意力调制的密集型文生图生成** \\\n*金云智、李智英、金镇和、河钟佑、朱俊彦* \\\nICCV 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12964)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fnaver-ai\u002FDenseDiffusion)] \\\n2023年8月24日\n\n**APLA：通过对抗训练对潜在噪声进行额外扰动以实现一致性** \\\n*姚玉璞、邓尚奇、曹子涵、张哈利、邓良健* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12605)] \\\n2023年8月24日\n\n**操纵稳定扩散提示的嵌入** \\\n*尼克拉斯·德克斯、朱莉娅·彼得斯、马丁·波塔斯特* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12059)] \\\n2023年8月23日\n\n\n**DF-3DFace：基于扩散的一对多语音同步3D人脸动画** \\\n*朴世珍、洪乔安娜、金民洙、卢永满* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05934)] \\\n2023年8月23日\n\n**IT3D：通过显式视图合成改进文生3D生成** \\\n*陈艺文、张驰、杨晓峰、蔡中刚、于刚、杨磊、林国胜* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11473)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FIT3D-text-to-3D)] \\\n2023年8月22日\n\n**DiffCloth：基于扩散的服装合成与操控，通过结构化的跨模态语义对齐实现** \\\n*张旭杰、杨彬彬、迈克尔·C·坎普夫迈耶、张文清、张诗悦、陆冠松、林亮、许航、梁晓丹* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11206)] \\\n2023年8月22日\n\n**MusicJam：通过生成的叙事插图可视化音乐洞察** \\\n*陈楚儿、曹楠、侯佳妮、郭怡、张雨蕾、石洋* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11329)] \\\n2023年8月22日\n\n**TADA！文本转可动画数字化身** \\\n*廖婷婷、易洪伟、修玉良、唐家兴、黄扬毅、尤斯图斯·蒂斯、迈克尔·J·布莱克* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10899)] \\\n2023年8月21日\n\n**EVE：基于深度图引导和时间一致性约束的高效零样本文本驱动视频编辑** \\\n*陈宇涛、董星宁、甘天、周春鸾、杨明、郭青培* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10648)] \\\n2023年8月21日\n\n**用于概念审查的文本反转后门技术** \\\n*吴宇彤、张杰、弗洛里安·克施鲍姆、张天伟* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10718)] [[项目](https:\u002F\u002Fconcept-censorship.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fconcept-censorship\u002Fconcept-censorship.github.io\u002Ftree\u002Fmain\u002Fcode)] \\\n2023年8月21日\n\n**AltDiffusion：多语言文本到图像扩散模型** \\\n*叶福龙、刘广、吴欣雅、吴乐迪尔* \\\nAAAI 2024。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09991)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsuperhero-7\u002FAltDiffuson)] \\\n2023年8月19日\n\n**DiffDis：赋予生成式扩散模型跨模态判别能力** \\\n*黄润辉、韩建华、陆冠松、梁晓丹、曾一涵、张伟、徐航* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09306)] \\\n2023年8月18日\n\n**MATLABER：基于潜伏BRDF自编码器的材质感知文本到3D生成** \\\n*许旭东、吕兆阳、潘星刚、戴博* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09278)] [[项目](https:\u002F\u002Fsheldontsui.github.io\u002Fprojects\u002FMatlaber)] \\\n2023年8月18日\n\n**Diff2Lip：音频条件下的唇形同步扩散模型** \\\n*苏米克·穆克霍帕迪亚伊、萨克沙姆·苏里、拉维·特贾·加德、阿比纳夫·施里瓦斯塔瓦* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09716)] [[项目](https:\u002F\u002Fsoumik-kanad.github.io\u002Fdiff2lip\u002F)]] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsoumik-kanad\u002Fdiff2lip)] \\\n2023年8月18日\n\n**Guide3D：通过文本和图像引导创建3D虚拟形象** \\\n*曹宇康、曹燕佩、韩凯、山英、王关义* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09705)] \\\n2023年8月18日\n\n**面向视觉定位的语言引导扩散模型** \\\n*陈思嘉、李宝春* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09599)] \\\n2023年8月18日\n\n**SimDA：用于高效视频生成的简单扩散适配器** \\\n*邢震、戴琪、胡汉、吴祖轩、蒋宇刚* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09710)] [[项目](https:\u002F\u002Fchenhsing.github.io\u002FSimDA\u002F)] \\\n2023年8月18日\n\n**StableVideo：文本驱动的一致性感知扩散视频编辑** \\\n*柴文浩、郭迅、王高昂、卢岩* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09592)] [[GitHub](https:\u002F\u002Fgithub.com\u002Frese1f\u002FStableVideo)] \\\n2023年8月18日\n\n**利用图像扩散模型编辑时序一致的视频** \\\n*王元志、李勇、刘鑫、戴安波、安东尼·陈、崔振* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09091)] \\\n2023年8月17日\n\n**留意你的脚步：通过文本指令进行局部图像与场景编辑** \\\n*阿什坎·米尔扎伊、特里斯坦·奥门塔多-阿姆斯特朗、马库斯·A·布鲁贝克、乔纳森·凯利、亚历克斯·列文施泰因、康斯坦蒂诺斯·G·德尔帕尼斯、伊戈尔·吉利琴斯基* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08947)] [[项目](https:\u002F\u002Fashmrz.github.io\u002FWatchYourSteps\u002F)] \\\n2023年8月17日\n\n**学习生成语义布局以提高文本到图像合成中的文本-图像对应关系** \\\n*朴敏浩、尹柱烈、崔承焕、秋在国* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08157)] [[项目](https:\u002F\u002Fpmh9960.github.io\u002Fresearch\u002FGCDP\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fpmh9960\u002FGCDP\u002F)] \\\n2023年8月16日\n\n\n**DragNUWA：通过整合文本、图像和轨迹实现在视频生成中的细粒度控制** \\\n*殷盛明、吴晨飞、梁健、石洁、李厚强、龚明、段楠* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08089)] [[项目](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fproject\u002Fdragnuwa\u002F)] \\\n2023年8月16日\n\n**双流扩散网络用于文本到视频生成** \\\n*刘斌辉、刘鑫、戴安波、曾志勇、崔振、杨健* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08316)] \\\n2023年8月16日\n\n**DiffV2S：基于扩散的视频转语音合成，结合视觉引导的说话人嵌入** \\\n*崔正洙、洪智恩、罗永满* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07787)] \\\n2023年8月15日\n\n**SGDiff：一种风格引导的时尚合成扩散模型** \\\n*孙正万泰、周扬宏、何红红、莫佩怡* \\\nACM MM 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07605)] \\\n2023年8月15日\n\n**舞蹈化身：利用图像扩散模型实现姿态与文本引导的人体动作视频合成** \\\n*秦博生、叶文涛、于奇凡、唐思亮、庄玉婷* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07749)] \\\n2023年8月15日\n\n**基于扩散的增强技术用于文化遗产领域的字幕生成与检索** \\\n*达里奥·乔尼、洛伦佐·贝尔林乔尼、费德里科·贝卡蒂尼、阿尔贝托·德尔·宾博* \\\nICCV研讨会2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07151)] \\\n2023年8月14日\n\n**侏罗纪世界重制版：通过零样本长距离图像到图像翻译让古代化石重现生机** \\\n*亚历山大·马丁、郑海天、安杰、罗杰波* \\\nACM MM 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07316)] \\\n2023年8月14日\n\n**UniBrain：将图像重建与字幕生成统一于一个基于人类脑活动的扩散模型中** \\\n*麦伟健、张志军* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07428)] \\\n2023年8月14日\n\n**Free-ATM：利用自由注意力掩码探索扩散生成图像上的无监督学习** \\\n*张俊豪、徐牧田、薛楚辉、张文庆、韩晓光、白松、郑守迈* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06739)] \\\n2023年8月13日\n\n**IP适配器：用于文本到图像扩散模型的文本兼容图像提示适配器** \\\n*叶虎、张军、刘思博、韩晓、杨伟* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06721)] [[项目](https:\u002F\u002Fip-adapter.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Ftencent-ailab\u002FIP-Adapter)] \\\n2023年8月13日\n\n**LAW-Diffusion：利用布局进行扩散的复杂场景生成** \\\n*杨彬彬、罗毅、陈子良、王广润、梁晓丹、林亮* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06713)] \\\n2023年8月13日\n\n**ModelScope文本到视频技术报告** \\\n*王九牛、袁航杰、陈大有、张颖雅、王翔、张世伟* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06571)] \\\n2023年8月12日\n\n**DatasetDM：利用扩散模型合成带有感知标注的数据集** \\\n*吴伟佳、赵宇中、陈浩、顾宇超、赵锐、何业飞、周虹、郑守迈、沈春华* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06160)] [[项目](https:\u002F\u002Fweijiawu.github.io\u002FDatasetDM_page\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fshowlab\u002FDatasetDM)] \\\n2023年8月11日\n\n**利用扩散进行多样化的数据增强，以实现有效的测试时提示调优** \\\n*冯春梅、于凯、刘勇、萨尔曼·汗、左望盟* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06038)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fchunmeifeng\u002FDiffTPT)] \\\n2023年8月11日\n\n**带掩码注意力的扩散引导，用于空间控制文本到图像生成** \\\n*远藤由纪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06027)] \\\n2023年8月11日\n\n**音频一体化：基于WavLM预训练模型的语音驱动手势合成** \\\n*张帆、季娜耶、高福兴、赵思远、王兆涵、李顺满* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05995)] \\\n2023年8月11日\n\n**零样本文本驱动的物理可解释人脸编辑** \\\n*孟亚鹏、杨松儒、胡旭、赵睿、李林成、史振伟、邹正霞* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05976)] \\\n2023年8月11日\n\n**PromptPaint：通过类似绘画媒介的交互引导文生图生成** \\\n*John Joon Young Chung、Eytan Adar* \\\nUIST 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05184)] \\\n2023年8月9日\n\n**LayoutLLM-T2I：从大语言模型中提取布局指导用于文生图生成** \\\n*Qu Leigang、吴圣琼、Fei Hao、Nie Liqiang、Chua Tat-Seng* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05095)] [[项目](https:\u002F\u002Flayoutllm-t2i.github.io\u002F)] \\\n2023年8月9日\n\n**Cloth2Tex：用于3D虚拟试衣的定制化布料纹理生成流水线** \\\n*Gao Daiheng、Chen Xu、Zhang Xindi、Wang Qi、Sun Ke、Zhang Bang、Bo Liefeng、Huang Qixing* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04288)] \\\n2023年8月8日\n\n**MindDiffuser：基于语义与结构扩散模型，从人类脑活动中可控地重建图像** \\\n*Lu Yizhuo、Du Changde、Zhou Qiongyi、Wang Dianpeng、He Huiguang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04249)] \\\n2023年8月8日\n\n**FLIRT：反馈循环式上下文红队攻击** \\\n*Mehrabi Ninareh、Goyal Palash、Dupuy Christophe、Hu Qian、Ghosh Shalini、Zemel Richard、Chang Kai-Wei、Galstyan Aram、Gupta Rahul* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04265)] \\\n2023年8月8日\n\n**DiffSynth：用于逼真视频合成的潜在空间迭代去 flicker 技术** \\\n*Duan Zhongjie、You Lizhou、Wang Chengyu、Chen Cen、Wu Ziheng、Qian Weining、Huang Jun* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03463)] [[项目](https:\u002F\u002Fanonymous456852.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Falibaba\u002FEasyNLP\u002Ftree\u002Fmaster\u002Fdiffusion)] \\\n2023年8月7日\n\n**AvatarVerse：基于文本和姿态的高质量且稳定的3D虚拟形象生成** \\\n*Zhang Huichao、Chen Bowen、Yang Hao、Qu Liao、Wang Xu、Chen Li、Long Chao、Zhu Feida、Du Kang、Zheng Min* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03610)] [[项目](https:\u002F\u002Favatarverse3d.github.io\u002F)] \\\n2023年8月7日\n\n**迈向场景文本到场景文本的翻译** \\\n*Susladkar Onkar、Gatti Prajwal、Mishra Anand* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03024)] \\\n2023年8月6日\n\n**草图与文本引导的扩散模型用于彩色点云生成** \\\n*Wu Zijie、Wang Yaonan、Feng Mingtao、Xie He、Mian Ajmal* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02874)] \\\n2023年8月5日\n\n**ConceptLab：利用扩散先验约束进行创意生成** \\\n*Richardson Elad、Goldberg Kfir、Alaluf Yuval、Cohen-Or Daniel* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02669)] [[项目](https:\u002F\u002Fkfirgoldberg.github.io\u002FConceptLab\u002F)]] [[GitHub](https:\u002F\u002Fgithub.com\u002Fkfirgoldberg\u002FConceptLab)] \\\n2023年8月3日\n\n**DiffColor：基于扩散模型的高保真文本引导图像上色** \\\n*Lin Jianxin、Xiao Peng、Wang Yijun、Zhang Rongju、Zeng Xiangxiang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01655)] \\\n2023年8月3日\n\n**通过连贯采样利用扩散模型合成长期人体运动** \\\n*Yang Zhao、Su Bing、Wen Ji-Rong* \\\nACM MM 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01850)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyangzhao1230\u002FPCMDM)] \\\n2023年8月3日\n\n**逆向稳定扩散：这张图是用什么提示词生成的？** \\\n*Croitoru Florinel-Alin、Hondru Vlad、Ionescu Radu Tudor、Shah Mubarak* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01472)] \\\n2023年8月2日\n\n**退化调优：利用打乱网格屏蔽稳定扩散中的不良概念** \\\n*Ni Zixuan、Wei Longhui、Li Jiacheng、Tang Siliang、Zhuang Yueting、Tian Qi* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02552)] \\\n2023年8月2日\n\n**ImageBrush：学习基于示例的图像操作的视觉上下文指令** \\\n*Sun Yasheng、Yang Yifan、Peng Houwen、Shen Yifei、Yang Yuqing、Hu Han、Qiu Lili、Koike Hideki* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00906)] \\\n2023年8月2日\n\n**文生图生成中的偏差放大悖论** \\\n*Seshadri Preethi、Singh Sameer、Elazar Yanai* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00755)] \\\n2023年8月1日\n\n**BAGM：一种针对文生图生成模型的后门攻击方法** \\\n*Vice Jordan、Akhtar Naveed、Hartley Richard、Mian Ajmal* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16489)] [[GitHub](https:\u002F\u002Fgithub.com\u002FJJ-Vice\u002FBAGM)] [[数据集](https:\u002F\u002Fieee-dataport.org\u002Fdocuments\u002Fmarketable-foods-mf-dataset)] \\\n2023年7月31日\n\n**MobileVidFactory：基于扩散模型的移动端自动文生社交短视频生成** \\\n*Zhu Junchen、Yang Huan、Wang Wenjing、He Huiguo、Tuo Zixi、Yu Yongsheng、Cheng Wen-Huang、Gao Lianli、Song Jingkuan、Fu Jianlong、Luo Jiebo* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16371)] \\\n2023年7月31日\n\n**DAVIS：利用生成式扩散模型实现高质量音视频分离** \\\n*Huang Chao、Liang Susan、Tian Yapeng、Kumar Anurag、Xu Chenliang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00122)] \\\n2023年7月31日\n\n**对比条件潜在扩散用于音视频分割** \\\n*Mao Yuxin、Zhang Jing、Xiang Mochu、Lv Yunqiu、Zhong Yiran、Dai Yuchao* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16579)] \\\n2023年7月31日\n\n**HD-Fusion：利用多噪声估计实现细节丰富的文生3D生成** \\\n*Wu Jinbo、Gao Xiaobo、Liu Xing、Shen Zhengyang、Zhao Chen、Feng Haocheng、Liu Jingtuo、Ding Errui* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16183)] \\\n2023年7月30日\n\n**透过大脑看世界：从人类脑信号中重建视觉感知图像** \\\n*Lan Yu-Ting、Ren Kan、Wang Yansen、Zheng Wei-Long、Li Dongsheng、Lu Bao-Liang、Qiu Lili* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02510)] \\\n2023年7月27日\n\n**VideoControlNet：基于ControlNet的扩散模型驱动的运动引导视频到视频转换框架** \\\n*Hu Zhihao、Xu Dong* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14073)] [[项目](https:\u002F\u002Fvcg-aigc.github.io\u002F)] \\\n2023年7月26日\n\n\n**Points-to-3D：弥合稀疏点云与形状可控的文生3D生成之间的差距** \\\n*Yu Chaohui、Zhou Qiang、Li Jingliang、Zhang Zhe、Wang Zhibin、Wang Fan* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.13908)] \\\n2023年7月26日\n\n**视觉指令反演：通过视觉提示进行图像编辑** \\\n*Nguyen Thao、Li Yuheng、Ojha Utkarsh、Lee Yong Jae* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14331)] [[项目](https:\u002F\u002Fthaoshibe.github.io\u002Fvisii\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fthaoshibe\u002Fvisii)] \\\n2023年7月26日\n\n**复合扩散 | 整体 >= \\Sigma 部分** \\\n*维克拉姆·贾姆瓦尔，拉马内斯瓦兰·S* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.13720)] \\\n2023年7月25日\n\n\n**时尚矩阵：仅通过对话编辑照片** \\\n*郑冲，张旭杰，赵福伟，谢振宇，梁晓丹* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.13240)] [[项目](https:\u002F\u002Fzheng-chong.github.io\u002FFashionMatrix\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FZheng-Chong\u002FFashionMatrix)] \\\n2023年7月25日\n\n**从黎曼几何视角理解扩散模型的潜在空间** \\\n*朴勇贤，权明基，崔在雄，曹正孝，禹英中* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12868)] \\\n2023年7月24日\n\n**InFusion：注入与注意力融合用于多概念零样本文本驱动视频编辑** \\\n*阿南特·坎德尔瓦尔* \\\nICCV研讨会2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00135)] \\\n2023年7月22日\n\n**主体扩散：无需测试时微调的开放域个性化文生图生成** \\\n*马健，梁俊豪，陈晨，陆浩楠* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.11410)] [[项目](https:\u002F\u002Foppo-mente-lab.github.io\u002Fsubject_diffusion\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FOPPO-Mente-Lab\u002FSubject-Diffusion)] \\\n2023年7月21日\n\n**分割并绑定你的注意力以提升生成式语义护理** \\\n*李雨萌，玛格丽特·科伊珀，张丹，安娜·霍列娃* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10864)] [[项目](https:\u002F\u002Fsites.google.com\u002Fview\u002Fdivide-and-bind)] \\\n2023年7月20日\n\n**AdjointDPM：用于扩散概率模型梯度反向传播的伴随灵敏度方法** \\\n*潘嘉淳，刘俊豪，谭永辉，冯家世，严汉书* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10711)] \\\n2023年7月20日\n\n**BoxDiff：无训练约束框扩散的文生图合成** \\\n*谢金恒，李越翔，黄雅文，刘浩哲，张文天，郑业峰，Mike Zheng Shou* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10816)] [[GitHub](https:\u002F\u002Fgithub.com\u002FSierkinhane\u002FBoxDiff)] \\\n2023年7月20日\n\n**Text2Layer：基于潜在扩散模型的分层图像生成** \\\n*张新阳，赵文天，卢欣，Jeff Chien* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09781)] \\\n2023年7月19日\n\n**FABRIC：利用迭代反馈个性化扩散模型** \\\n*迪米特里·冯·吕特，伊丽莎白·费德莱，乔纳森·托姆，卢卡斯·沃尔夫* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10159)] \\\n2023年7月19日\n\n**TokenFlow：用于一致视频编辑的一致性扩散特征** \\\n*米哈尔·盖耶，奥默·巴尔-塔尔，沙伊·巴贡，塔莉·德克尔* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10373)] [[项目](https:\u002F\u002Fdiffusion-tokenflow.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fomerbt\u002FTokenFlow)] \\\n2023年7月19日\n\n**多模态扩散分割模型用于基于操作指令的对象分割** \\\n*井冈由衣，吉田优，和田唯贺，波中周平，杉浦公明* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08597)] \\\n2023年7月17日\n\n**并非所有步骤都同等重要：用于图像操作的选择性扩散蒸馏** \\\n*王洛舟，杨帅，刘舒，陈英聪* \\\nICCV 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.08448)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAndysonYs\u002FSelective-Diffusion-Distillation)] \\\n2023年7月17日\n\n**基于骨骼的视频异常检测的多模态运动条件扩散模型** \\\n*亚历山德罗·弗拉博雷亚，卢卡·科洛罗内，圭多·达梅利，斯特凡诺·达里戈，巴尔德·普伦卡伊，法比奥·加拉索* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07205)] \\\n2023年7月14日\n\n**HyperDreamBooth：用于快速个性化文生图模型的超网络** \\\n*纳塔尼尔·鲁伊斯，李元珍，瓦伦·詹帕尼，魏巍，侯廷博，雅埃尔·普里奇，尼尔·瓦德瓦，迈克尔·鲁宾斯坦，克菲尔·阿伯曼* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.06949)] [[项目](https:\u002F\u002Fhyperdreambooth.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FJiauZhang\u002Fhyperdreambooth)] \\\n2023年7月13日\n\n**通过双向积分近似实现精确的扩散逆向过程** \\\n*张国强，J. P. 路易斯，W. 巴斯蒂安·克莱因* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10829)] \\\n2023年7月10日\n\n**AnimateDiff：无需特定微调即可动画化你的个性化文生图扩散模型** \\\n*郭宇威，杨策源，饶安怡，王耀辉，乔宇，林大华，戴博* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04725)] [[项目](https:\u002F\u002Fanimatediff.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fguoyww\u002Fanimatediff\u002F)] \\\n2023年7月10日\n\n\n**划分、评估与精炼：利用迭代VQA反馈评估和改进文生图对齐** \\\n*贾斯基拉特·辛格，郑亮* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04749)] [[项目](https:\u002F\u002F1jsingh.github.io\u002Fdivide-evaluate-and-refine)] [[GitHub](https:\u002F\u002Fgithub.com\u002F1jsingh\u002FDivide-Evaluate-and-Refine)] \\\n2023年7月10日\n\n**SemEval-2023任务1中的增强器：通过提示增强和文生图扩散提升CLIP在处理组合性和歧义方面的零样本视觉WSD能力** \\\n*李杰思，萧友庭，施永祥，乔纳斯·盖平* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.05564)] \\\n2023年7月9日\n\n**衡量扩散模型模仿人类艺术家的成功程度** \\\n*斯蒂芬·卡斯珀，郭子凡，莫古洛图·施瑞娅，扎卡里·马里诺夫，钦迈·德什潘德，余睿杰，戴征，迪伦·哈德菲尔德-梅内尔* \\\nICML研讨会2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04028)] \\\n2023年7月8日\n\n**如何检测文生图扩散模型中的未经授权数据使用** \\\n*王振霆，陈晨，刘宇辰，吕玲娟，迪米特里斯·梅塔克萨斯，马士清* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03108)] \\\n2023年7月6日\n\n\n**协作评分蒸馏用于一致性视觉合成** \\\n*金秀彬，李京民，崔俊锡，郑宗宪，孙起赫，申镇宇* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04787)] [[项目](https:\u002F\u002Fsubin-kim-cv.github.io\u002FCSD\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsubin-kim-cv\u002FCSD)] \\\n2023年7月4日\n\n\n\n**SDXL：改进潜在扩散模型以实现高分辨率图像合成** \\\n*达斯汀·波德尔，锡安·英格利什，凯尔·莱西，安德烈亚斯·布拉特曼，蒂姆·多克霍恩，约纳斯·穆勒，乔·佩纳，罗宾·罗姆巴赫* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01952)] [[GitHub](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fgenerative-models)] \\\n2023年7月4日\n\n\n\n**MVDiffusion：通过对应感知扩散实现整体多视角图像生成** \\\n*唐世涛，张富阳，陈嘉诚，王鹏，古川康隆* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01097)] [[项目](https:\u002F\u002Fmvdiffusion.github.io\u002F)] \\\n2023年7月3日\n\n**计数引导用于高保真文生图合成** \\\n*姜元俊，凯文·加林，具亨一* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17567)] \\\n2023年6月30日\n\n**米开朗基罗：基于形状-图像-文本对齐潜在表征的条件化3D形状生成** \\\n*赵子博、刘文、陈欣、曾先芳、王睿、程培、傅斌、陈涛、于刚、高胜华* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17115)] \\\n2023年6月29日\n\n**在任何场景中任意位置生成任何内容** \\\n*李宇恒、刘海天、温阳明、李勇 Jae* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17154)] [[项目](https:\u002F\u002Fyuheng-li.github.io\u002FPACGen\u002F)] \\\n2023年6月29日\n\n**Diff-Foley：基于潜在扩散模型的同步视频到音频合成** \\\n*罗思勉、闫川浩、胡晨旭、赵航* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17203)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fluosiallen\u002FDiff-Foley)] \\\n2023年6月29日\n\n**PFB-Diff：用于文本驱动图像编辑的渐进式特征融合扩散模型** \\\n*黄文静、涂世奎、徐磊* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16894)] \\\n2023年6月28日\n\n**DiffSketcher：通过潜在扩散模型实现的文本引导矢量草图合成** \\\n*邢锡明、王闯、周海涛、张静、于倩、徐东* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14685)] \\\n2023年6月26日\n\n**A-STAR：用于文本到图像合成的测试时注意力分离与保留** \\\n*艾什瓦里娅·阿加瓦尔、斯里克里希纳·卡兰南、K J 约瑟夫、阿普尔夫·萨克塞纳、考斯塔瓦·戈斯瓦米、巴拉吉·瓦桑·斯里尼瓦桑* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14544)] \\\n2023年6月26日\n\n**分解与重对齐：解决文本到图像扩散模型中的条件错位问题** \\\n*王洛舟、沈贵宝、李一君、陈英聪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14408)] \\\n2023年6月26日\n\n**面向文本到图像扩散模型的零样本空间布局条件化** \\\n*纪尧姆·库瓦隆、玛琳·卡雷伊、马蒂厄·科尔德、斯特凡·拉图利耶、雅各布·韦伯克* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13754)] \\\n2023年6月23日\n\n**DreamTime：一种改进的文本到3D内容生成优化策略** \\\n*黄玉坤、王佳楠、史宇凯、齐宪标、查正军、张磊* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12422)] \\\n2023年6月21日\n\n**对齐、适配与注入：声音引导的统一图像生成** \\\n*杨悦、张凯鹏、葛雨莹、邵文琪、薛泽越、乔宇、罗平* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11504)] \\\n2023年6月20日\n\n\n**EMoG：利用扩散模型合成富有情感的伴随语音3D手势** \\\n*尹莲英、王一君、何天宇、刘金明、赵伟、李博文、金鑫、林建新* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11496)] \\\n2023年6月20日\n\n**RS5M：用于遥感视觉-语言基础模型的大规模视觉-语言数据集** \\\n*张子伦、赵天成、郭宇龙、尹建伟* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11300)] \\\n2023年6月20日\n\n\n**Instruct-NeuralTalker：使用指令编辑音频驱动的说话辐射场** \\\n*孙宇奇、何瑞安、谭伟民、严波* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10813)] \\\n2023年6月19日\n\n**基于扩散模型的条件化文本图像生成** \\\n*朱元志、李兆海、王天伟、何孟超、姚聪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10804)] \\\n2023年6月19日\n\n**利用预训练文本到图像扩散模型进行点云补全** \\\n*科斯滕·约尼、拉哈米姆·欧哈德、切奇克·加尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10533)] \\\n2023年6月18日\n\n**用于文本到图像扩散模型中贝叶斯上下文更新的能量基交叉注意力** \\\n*朴健荣、金正率、金범洙、李相完、叶宗哲* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09869)] \\\n2023年6月16日\n\n\n\n**评估文本到图像扩散模型对现实攻击的鲁棒性** \\\n*高洪成、张浩、董银鹏、邓志杰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13103)] \\\n2023年6月16日\n\n**CLIPSonic：利用未标注视频和预训练语言-视觉模型进行文本到音频合成** \\\n*董浩文、刘晓宇、庞斯·若尔迪、巴塔查里亚·高塔姆、帕斯夸尔·圣地亚哥、塞拉·琼安、伯格-柯克帕特里克·泰勒、麦考利·朱利安* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09635)] \\\n2023年6月16日\n\n**驯服扩散模型以生成音乐驱动的指挥动作** \\\n*赵卓然、白金彬、陈德龙、王德邦、潘宇博* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10065)] \\\n2023年6月15日\n\n\n**Diff-TTSG：去噪概率集成的语音与手势合成** \\\n*梅塔·希瓦姆、王思扬、亚历山大森·西蒙、贝斯科夫·乔纳斯、塞凯利·埃娃、亨特·古斯塔夫·埃耶* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09417)] \\\n2023年6月15日\n\n**用于零样本开放词汇分割的扩散模型** \\\n*卡拉齐亚·劳里纳斯、莱娜·伊罗、韦达尔迪·安德烈亚、鲁普雷希特·克里斯蒂安* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09316)] \\\n2023年6月15日\n\n**扩散模型中的语言绑定：通过注意力图对齐增强属性对应关系** \\\n*拉辛·罗伊、赫尔施·埃兰、格利克曼·丹尼尔、拉夫福格尔·绍利、戈德堡·约阿夫、切奇克·加尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08877)] \\\n2023年6月15日\n\n**使用生成的图像和字幕训练多媒体事件提取** \\\n*杜子林、李云欣、郭旭、孙怡丹、李博洋* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08966)] \\\n2023年6月15日\n\n**VidEdit：零样本且具有空间感知的文本驱动视频编辑** \\\n*库瓦隆·保罗、朗布尔·克莱芒、奥热尔·让-埃马纽埃尔、托梅·尼古拉斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08707)] \\\n2023年6月14日\n\n\n**面向文本到图像生成的范数引导潜在空间探索** \\\n*萨缪尔·德维尔、本-阿里·拉米、达尔尚·尼尔、马龙·哈盖、切奇克·加尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08687)] \\\n2023年6月14日\n\n\n**用于可变尺寸文本到图像合成的无训练扩散模型适应** \\\n*金志宇、申旭丽、李斌、薛向阳* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08645)] \\\n2023年6月14日\n\n**GBSD：基于阶段扩散的散景生成** \\\n*邓继仁、周欣、田浩、潘志宏、阿吉亚尔·德里克* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08251)] \\\n2023年6月14日\n\n**扩散中的扩散：用于文本-视觉条件化生成的循环单向扩散** \\\n*杨永奇、王若宇、钱志豪、朱烨、吴宇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08247)] \\\n2023年6月14日\n\n**重新渲染一段视频：零样本文本引导的视频到视频转换** \\\n*杨帅、周义凡、刘子威、洛伊·陈昌* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07954)] \\\n2023年6月13日\n\n**去噪式粘贴、修复与调和：基于预训练扩散模型的主题驱动图像编辑** \\\n*张欣、郭家贤、尤保罗、松尾丰、岩泽佑介* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07596)] \\\n2023年6月13日\n\n**通过正交微调控制文本到图像的扩散模型** \\\n*邱泽宇、刘伟阳、冯海文、薛宇轩、冯瑶、刘振、张丹、阿德里安·韦勒、伯恩哈德·肖尔科普夫* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07280)] \\\n2023年6月12日\n\n\n**MovieFactory：利用大型语言和图像生成模型从文本自动生成电影** \\\n*朱俊臣、杨欢、何慧国、王文静、拓子熙、程文煌、高连丽、宋景宽、傅建龙* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07257)] \\\n2023年6月12日\n\n**InstructP2P：学习使用文本指令编辑三维点云** \\\n*徐佳乐、王新涛、曹燕佩、程伟浩、单颖、高圣华* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07154)] \\\n2023年6月12日\n\n\n**基于场景级扩散的文本引导交通仿真** \\\n*钟子渊、戴维斯·伦佩、陈宇晓、鲍里斯·伊万诺维奇、曹宇龙、徐丹菲、马可·帕沃内、贝莎基·雷* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.06344)] \\\n2023年6月10日\n\n**BOOT：基于自举的数据无依赖去噪扩散模型蒸馏** \\\n*顾嘉涛、翟双飞、张一哲、刘凌杰、乔什·萨斯金德* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05544)] \\\n2023年6月8日\n\n\n**基于注意力重聚焦的接地型文本到图像合成** \\\n*阮氏琼、葛松伟、黄家彬* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05427)] \\\n2023年6月8日\n\n**SyncDiffusion：通过同步联合扩散实现连贯蒙太奇** \\\n*李有成、金坤浩、金贤珍、成珉赫* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05178)] [[项目](https:\u002F\u002Fsyncdiffusion.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FKAIST-Geometric-AI-Group\u002FSyncDiffusion)] \\\n2023年6月8日\n\n**借助近端指导改进无需调优的真实图像编辑** \\\n*韩立功、温松、陈琪、张志兴、宋坤鹏、任孟威、高瑞江、陈宇晓、刘迪、张启龙、阿纳斯塔西斯·斯塔索普洛斯、蒋金东、夏兆阳、阿卡什·斯里瓦斯塔瓦、迪米特里斯·梅塔克萨斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05414)] \\\n2023年6月8日\n\n**WOUAF：用于文本到图像扩散模型中用户归属与指纹识别的权重调制** \\\n*金昌勋、迈克尔·闵、梅特雷亚·帕特尔、程晟、杨业周* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04744)] \\\n2023年6月7日\n\n\n**ConceptBed：评估文本到图像扩散模型的概念学习能力** \\\n*梅特雷亚·帕特尔、泰贾斯·戈克莱、奇塔·巴拉尔、杨业周* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04695)] \\\n2023年6月7日\n\n**为StableDiffusion设计更好的非对称VQGAN** \\\n*朱子欣、冯雪露、陈冬冬、鲍建民、王乐、陈银鹏、袁璐、华刚* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04632)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fbuxiangzhiren\u002FAsymmetric_VQGAN)] \\\n2023年6月7日\n\n**多模态潜在扩散** \\\n*穆斯塔法·布努阿、朱利奥·弗朗泽塞、皮耶特罗·米基阿尔迪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04445)] \\\n2023年6月7日\n\n**将几何控制融入文本到图像扩散模型，以文本提示生成高质量检测数据** \\\n*陈凯、谢恩泽、陈哲、洪兰青、李振国、叶德言* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04607)] \\\n2023年6月7日\n\n**利用非对称梯度引导改进基于扩散的图像翻译** \\\n*权基贤、叶宗哲* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04396)] \\\n2023年6月7日\n\n**Stable Diffusion并不稳定** \\\n*杜成斌、李艳希、邱仲伟、许畅* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02583)] \\\n2023年6月5日\n\n**LipVoicer：基于唇读引导从无声视频生成语音** \\\n*约哈伊·耶米尼、阿维夫·沙姆西安、利奥尔·布拉查、沙龙·加诺特、伊森·费塔亚* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03258)] [[项目](https:\u002F\u002Flipvoicer.github.io\u002F)] \\\n2023年6月5日\n\n**HeadSculpt：用文本打造三维头部头像** \\\n*韩晓、曹宇康、韩凯、朱夏天、邓健康、宋义哲、向涛、王冠仪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03038)] [[项目](https:\u002F\u002Fbrandonhan.uk\u002FHeadSculpt\u002F)] \\\n2023年6月5日\n\n**Instruct-Video2Avatar：带指令的视频到头像生成** \\\n*李绍旭* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02903)] \\\n2023年6月5日\n\n**迈向统一的基于文本的人物检索：大规模多属性与语言搜索基准测试** \\\n*杨书宇、周怡楠、王雅雄、吴玉娇、朱莉、郑哲东* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02898)] \\\n2023年6月5日\n\n**只需少量文本输入即可实现用户友好的图像编辑：利用标题生成与注入技术** \\\n*金善宇、张宇锡、金贤洙、金俊浩、崔允洁、金承龙、李佳英* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02717)] \\\n2023年6月5日\n\n**用于多对象文本到图像生成的检测器引导** \\\n*刘鲁平、张子健、任毅、黄荣杰、尹翔、赵舟* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02236)] \\\n2023年6月4日\n\n**VideoComposer：具有运动可控性的组合式视频合成** \\\n*王翔、袁航杰、张世伟、陈大有、王九牛、张英雅、沈宇君、赵德利、周敬仁* \\\nNeruIPS 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02018)] [[项目](https:\u002F\u002Fvideocomposer.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fdamo-vilab\u002Fvideocomposer)] \\\n2023年6月3日\n\n\n**用于分析文本到图像模型偏差的词级解释** \\\n*亚历山大·林、卢卡斯·蒙特罗·佩斯、斯里·哈尔沙·坦内鲁、苏拉杰·斯里尼瓦斯、希玛宾杜·拉卡拉朱* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05500)] \\\n2023年6月3日\n\n\n**基于分布上的分数蒸馏采样的高效文本引导三维人像生成** \\\n*程义吉、殷飞、黄小科、于欣彤、刘家祥、冯世坤、杨宇久、唐延松* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02083)] \\\n2023年6月3日\n\n**文本到视频模型的概率适应** \\\n*杨梦娇、杜一伦、戴博、戴尔·舒尔曼斯、乔舒亚·B·特南鲍姆、皮特·阿贝尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01872)] [[项目](https:\u002F\u002Fvideo-adapter.github.io\u002Fvideo-adapter\u002F)] \\\n2023年6月2日\n\n\n**利用预训练的文本到图像扩散模型进行视频着色** \\\n*刘汉元、谢敏山、邢金波、李成泽、王天赐* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01732)] \\\n2023年6月2日\n\n\n**基于分数的生成模型的视听语音增强** \\\n*尤利乌斯·里希特、西蒙娜·弗林特罗普、蒂莫·格尔克曼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01432)] \\\n2023年6月2日\n\n**隐私蒸馏：降低多模态扩散模型的再识别风险** \\\n*弗吉尼亚·费尔南德斯、佩德罗·桑切斯、沃尔特·雨果·洛佩斯·皮纳亚、格热戈日·雅琴科夫、索提里奥斯·A·察夫塔里斯、若热·卡多佐* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01322)] \\\n2023年6月2日\n\n**StableRep：文本到图像模型生成的合成图像可构建强大的视觉表征学习器** \\\n*田永龙、范丽洁、菲利普·伊索拉、常慧文、迪利普·克里希南* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00984)] \\\n2023年6月1日\n\n**用于可控图像生成的扩散自引导** \\\n*戴夫·埃普斯坦、艾伦·贾布里、本·普尔、阿列克谢·A·叶夫罗斯、亚历山大·霍林斯基* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00986)] [[项目](https:\u002F\u002Fdave.ml\u002Fselfguidance\u002F)] \\\n2023年6月1日\n\n\n**StyleDrop：以任意风格进行文本到图像生成** \\\n*苏基赫、纳塔尼尔·鲁伊斯、金民李、丹尼尔·卡斯特罗·钦、伊琳娜·布洛克、常慧文、贾雷德·巴伯、陆江、格伦·恩蒂斯、李元振、袁浩、伊尔凡·埃萨、迈克尔·鲁宾斯坦、迪利普·克里希南* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00983)] [[项目](https:\u002F\u002Fstyledrop.github.io\u002F)] \\\n2023年6月1日\n\n\n**文本引导的扩散模型的有趣特性** \\\n*刘启豪、亚当·科蒂莱夫斯基、白宇彤、白松、艾伦·尤伊尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00974)] \\\n2023年6月1日\n\n\n**智能格林——基于潜在扩散模型的开放式视觉叙事** \\\n*刘畅、吴浩宁、钟宇杰、张晓云、谢伟迪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00973)] [[项目](https:\u002F\u002Fhaoningwu3639.github.io\u002FStoryGen_Webpage\u002F)] \\\n2023年6月1日\n\n\n**ViCo：用于个性化文本到图像生成的细节保留型视觉条件** \\\n*郝绍哲、韩凯、赵世昊、王冠义* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00971)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhaoosz\u002FViCo)] \\\n2023年6月1日\n\n**扩散模型的隐藏语言** \\\n*希拉·切费尔、奥兰·朗、莫尔·格瓦、沃洛季米尔·波洛苏欣、阿萨夫·肖彻、米哈尔·伊拉尼、因巴尔·莫塞里、利奥尔·沃尔夫* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00966)] [[项目](https:\u002F\u002Fhila-chefer.github.io\u002FConceptor\u002F)] \\\n2023年6月1日\n\n**鸡尾酒：用于文本条件图像生成的多模态控制混合** \\\n*胡明辉、郑建斌、刘大清、郑传霞、王超跃、陶大成、詹达珍* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00964)] [[项目](https:\u002F\u002Fmhh0318.github.io\u002Fcocktail\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmhh0318\u002FCocktail)] \\\n2023年6月1日\n\n**制作你的视频：利用文本和结构指导进行定制化视频生成** \\\n*邢金波、夏梦涵、刘宇鑫、张悦晨、张勇、何英青、刘汉源、陈浩鑫、孙晓东、王新涛、单颖、王天赐* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00943)] [[项目](https:\u002F\u002Fdoubiiu.github.io\u002Fprojects\u002FMake-Your-Video\u002F)] \\\n2023年6月1日\n\n**通过名人基底将任何人插入扩散模型** \\\n*袁戈、孙晓东、张勇、李茂茂、齐晨阳、王新涛、单颖、郑惠成* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00926)] [[项目](https:\u002F\u002Fceleb-basis.github.io\u002F)] \\\n2023年6月1日\n\n**香肠：高效预训练文本到图像模型** \\\n*巴勃罗·佩尔尼亚斯、多米尼克·兰帕斯、马克·奥布雷维尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00637)] \\\n2023年6月1日\n\n**UniDiff：通过生成式与判别式学习推进视觉—语言模型** \\\n*董晓、黄润辉、魏小勇、解泽群、于建兴、尹健、梁晓丹* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00813)] \\\n2023年6月1日\n\n**FigGen：文本到科学图表生成** \\\n*胡安·A·罗德里格斯、大卫·巴斯克斯、伊萨姆·拉拉吉、马可·佩德罗利、保·罗德里格斯* \\\nICLR 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00800)] \\\n2023年6月1日\n\n\n**扩散画笔：基于潜在扩散模型的AI生成图像编辑工具** \\\n*佩曼·戈拉米、罗伯特·萧* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00219)] \\\n2023年5月31日\n\n**理解并缓解扩散模型中的抄袭问题** \\\n*高塔米·索梅帕利、瓦苏·辛格拉、米卡·戈德布卢姆、乔纳斯·盖平、汤姆·戈德斯坦* \\\nCVPR 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.20086)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsomepago\u002FDCR)] \\\n2023年5月31日\n\n\n**Control4D：从2D扩散编辑器中学习4D GAN实现动态人像编辑** \\\n*邵睿智、孙景翔、彭程、郑泽荣、周博耀、张洪文、刘业彬* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.20082)] [[项目](https:\u002F\u002Fcontrol4darxiv.github.io\u002F)] \\\n2023年5月31日\n\n\n**通过细粒度语义奖励提升文本到图像扩散模型** \\\n*方桂安、蒋祖涛、韩建华、陆冠松、徐航、梁晓丹* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19599)] [[GitHub](https:\u002F\u002Fgithub.com\u002FEnderfga\u002FFineRewards)] \\\n2023年5月31日\n\n\n\n**扰动辅助样本合成：一种用于不确定性量化的新方法** \\\n*刘一飞、沈瑞克、沈晓彤* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18671)] \\\n2023年5月30日\n\n**PanoGen：用于视觉—语言导航的文本条件全景环境生成** \\\n*李佳璐、莫希特·班萨尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19195)] [[项目](https:\u002F\u002Fpano-gen.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fjialuli-luka\u002FPanoGen)] \\\n2023年5月30日\n\n**视频ControlNet：利用条件图像扩散模型实现时序一致的合成到真实视频转换** \\\n*厄尼·楚、林硕延、陈俊诚* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19193)] \\\n2023年5月30日\n\n**嵌套扩散过程用于随时图像生成** \\\n*诺姆·埃拉塔、巴哈贾特·卡瓦尔、托默·米哈埃利、迈克尔·埃拉德* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19066)] \\\n2023年5月30日\n\n**StyleAvatar3D：利用图像—文本扩散模型生成高保真3D头像** \\\n*张驰、陈艺文、傅亦军、周正林、于刚、王比兹、付斌、陈涛、林国生、沈春华* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19012)] \\\n2023年5月30日\n\n**HiFA：借助先进扩散引导实现高保真文本到3D生成** \\\n*朱俊哲、庄培烨* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18766)] \\\n2023年5月30日\n\n**LayerDiffusion：利用扩散模型进行分层可控图像编辑** \\\n*李鹏志、黄钦轩、丁益康、李志恒* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18676)] \\\n2023年5月30日\n\n**使用GPT-4进行可控文本到图像生成** \\\n*张天俊、张毅、维布哈夫·维尼特、尼尔·乔希、王欣* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18583)] \\\n2023年5月29日\n\n**受认知启发的跨模态数据生成：利用扩散模型** \\\n*胡子钊、穆罕默德·罗斯塔米* \\\nNeurIPS 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18433)] \\\n2023年5月28日\n\n**RAPHAEL：通过大量扩散路径组合进行文本到图像生成** \\\n*薛泽越、宋广禄、郭秋珊、刘博晓、宗卓凡、刘宇、罗平* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18295)] \\\n2023年5月29日\n\n**Mix-of-Show：用于扩散模型多概念定制的去中心化低秩适配** \\\n*顾宇超、王新涛、吴章杰、史宇俊、陈云鹏、范子涵、肖武友、赵睿、常淑宁、吴伟嘉、葛一骁、单颖、寿正中* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18292)] [[项目](https:\u002F\u002Fshowlab.github.io\u002FMix-of-Show\u002F)] \\\n2023年5月29日\n\n**Gen-L-Video：通过时间协同去噪实现多文本到长视频生成** \\\n*王福云、陈文硕、宋广路、叶韩佳、刘宇、李洪胜* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18264)] [[GitHub](https:\u002F\u002Fgithub.com\u002FG-U-N\u002FGen-L-Video)] \\\n2023年5月29日\n\n\n**基于多上下文数据生成的纯文本图像字幕生成** \\\n*马飞鹏、周义舟、饶凤云、张悦怡、孙晓燕* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18072)] \\\n2023年5月29日\n\n**InstructEdit：利用用户指令改进基于扩散的图像编辑自动掩码** \\\n*王倩、张彪、迈克尔·比尔萨克、彼得·翁卡* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18047)] \\\n2023年5月29日\n\n\n**文本驱动的图像到图像转换中的条件分数引导** \\\n*李贤洙、姜珉洙、韩宝亨* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18007)] \\\n2023年5月29日\n\n**通过移除图像信息进行文本到图像编辑** \\\n*张仲平、郑健、方志远、布莱恩·A·普拉默* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17489)] \\\n2023年5月27日\n\n**利用文本到图像扩散模型实现一致的视频编辑** \\\n*张子程、李博楠、聂学成、韩聪颖、郭天德、刘洛琪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17431)] \\\n2023年5月27日\n\n\n**FISEdit：通过启用缓存的稀疏扩散推理加速文本到图像编辑** \\\n*于子豪、李浩洋、傅方成、缪旭鹏、崔斌* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17423)] \\\n2023年5月27日\n\n**ControlVideo：为一次性文本到视频编辑添加条件控制** \\\n*赵敏、王荣振、鲍凡、李崇轩、朱军* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17098)] [[项目](https:\u002F\u002Fml.cs.tsinghua.edu.cn\u002Fcontrolvideo\u002F)] \\\n2023年5月26日\n\n\n**基于自适应上下文建模的视觉故事生成优化** \\\n*冯章银、任宇辰、于欣淼、冯晓成、唐杜宇、施书铭、秦冰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16811)] \\\n2023年5月26日\n\n\n**负提示反演：用于文本引导扩散模型编辑的快速图像反演** \\\n*宫胁大辉、井原彰宏、斋藤优、田中俊之* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16807)] \\\n2023年5月26日\n\n**扩散模型是视觉与语言推理者吗？** \\\n*本诺·克罗耶尔、埃莉诺·普尔-达扬、维克拉姆·沃莱蒂、克里斯托弗·帕尔、西瓦·雷迪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16397)] [[GitHub](https:\u002F\u002Fgithub.com\u002FMcGill-NLP\u002Fdiffusion-itm)] \\\n2023年5月25日\n\n\n**DPOK：用于微调文本到图像扩散模型的强化学习** \\\n*范莹、奥利维亚·沃特金斯、杜玉清、刘浩、柳文京、克雷格·布提利耶、皮特·阿贝尔、穆罕默德·加瓦姆扎德、李康昱、李基民* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16381)] \\\n2023年5月25日\n\n**Uni-ControlNet：面向文本到图像扩散模型的一体化控制** \\\n*赵世昊、陈东东、陈彦君、包建民、郝绍哲、袁璐、黄冠仪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16322)] [[项目](https:\u002F\u002Fshihaozhaozsh.github.io\u002Funicontrolnet\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FShihaoZhaoZSH\u002FUni-ControlNet)] \\\n2023年5月25日\n\n\n**扩散模型的并行采样** \\\n*安迪·石、苏尼尔·贝尔哈勒、斯特法诺·埃尔蒙、多尔萨·萨迪格、尼玛·阿纳里* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16317)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAndyShih12\u002Fparadigms)] \\\n2023年5月25日\n\n**Break-A-Scene：从单张图像中提取多个概念** \\\n*欧姆里·阿夫拉哈米、克菲尔·阿伯曼、欧哈德·弗里德、丹尼尔·科恩-奥尔、达尼·利希金斯基* \\\nSIGGRAPH Asia 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16311)] [[项目](https:\u002F\u002Fomriavrahami.com\u002Fbreak-a-scene\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbreak-a-scene)] \\\n2023年5月25日\n\n**使用自动扩散增强多样化您的视觉数据集** \\\n*丽莎·邓拉普、艾丽莎·乌米诺、张翰、杨洁智、约瑟夫·E·冈萨雷斯、特雷弗·达雷尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16289)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flisadunlap\u002FALIA)] \\\n2023年5月25日\n\n**无提示扩散：将“文本”从文本到图像扩散模型中移除** \\\n*徐兴谦、郭嘉怡、王张阳、黄高、伊尔凡·埃萨、胡佛·石* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16223)] [[GitHub](https:\u002F\u002Fgithub.com\u002FSHI-Labs\u002FPrompt-Free-Diffusion)] \\\n2023年5月25日 \n\n**ProSpect：扩展条件以实现属性感知图像生成的个性化** \\\n*张宇鑫、董伟明、汤凡、黄妮莎、黄海彬、马重阳、李通义、奥利弗·多森、许昌盛* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16225)] \\\n2023年5月25日\n\n**ProlificDreamer：利用变分分数蒸馏实现高保真度和多样性的文本到3D生成** \\\n*王政毅、陆诚、王亦凯、鲍凡、李崇轩、苏航、朱军* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16213)] [[项目](https:\u002F\u002Fml.cs.tsinghua.edu.cn\u002Fprolificdreamer\u002F)] \\\n2023年5月25日\n\n**关于文本到图像扩散模型的架构压缩** \\\n*金宝庆、宋炯奎、蒂博·卡斯特尔斯、崔信国* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15798)] \\\n2023年5月25日\n\n\n**Custom-Edit：利用定制扩散模型进行文本引导的图像编辑** \\\n*崔柔英、崔允婕、金允芝、金俊浩、尹成禄* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15779)] \\\n2023年5月25日\n\n**MultiFusion：融合预训练模型实现多语言、多模态图像生成** \\\n*马可·贝拉根特、曼努埃尔·布拉克、汉娜·特乌费尔、菲利克斯·弗里德里希、比约恩·戴泽罗斯、康斯坦丁·艾肯贝格、安德鲁·戴、罗伯特·巴尔多克、索拉迪普·南达、科恩·奥斯特迈耶、安德烈斯·费利佩·克鲁斯-萨利纳斯、帕特里克·施拉莫夫斯基、克里斯蒂安·克尔斯廷、塞缪尔·温巴赫* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15296)] \\\n2023年5月24日\n\n**ChatFace：通过扩散潜在空间操作实现聊天引导的真实人脸编辑** \\\n*岳东旭、郭琴、宁木楠、崔家熙、朱跃生、袁立* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14742)] \\\n2023年5月24日\n\n**DiffBlender：可扩展且可组合的多模态文本到图像扩散模型** \\\n*金成润、李俊秀、洪基范、金大植、安南赫* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15194)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsungnyun\u002Fdiffblender)] \\\n2023年5月24日\n\n**我看到一个隐喻：大型语言模型与扩散模型共同创作视觉隐喻** \\\n*图欣·查克拉巴蒂、阿尔卡迪·萨基扬、奥利维亚·温恩、阿耳忒弥斯·帕纳戈普卢、杨悦、玛丽安娜·阿皮迪亚纳基、斯马兰达·穆雷桑* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14724)] \\\n2023年5月24日\n\n**BLIP-Diffusion：用于可控文本到图像生成与编辑的预训练主体表征** \\\n*李东旭、李俊楠、史蒂文·C·H·霍伊* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14720)] \\\n2023年5月24日\n\n**对抗性啃噬者：一项以数据为中心的挑战，旨在提升文本到图像模型的安全性** \\\n*艾丽西亚·帕里什、汉娜·罗斯·柯克、杰西卡·夸耶、查尔维·拉斯托吉、马克·巴托洛、欧娜·伊内尔、胡安·西罗、拉斐尔·莫斯克拉、阿迪森·霍华德、威尔·库基尔斯基、D·斯库利、维杰·贾纳帕·雷迪、洛拉·阿罗约* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14384)] \\\n2023年5月22日\n\n**基于注意力图控制扩散模型的组合式文本到图像合成** \\\n*王瑞晨、陈泽康、陈晨、马健、陆浩南、林晓东* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13921)] \\\n2023年5月23日\n\n**不安全扩散：关于从文本到图像模型中生成不安全图像和仇恨表情包的研究** \\\n*瞿一婷、申心悦、何新磊、迈克尔·巴克斯、萨瓦斯·赞内托、张洋* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13873)] \\\n2023年5月23日\n\n\n**Control-A-Video：基于扩散模型的可控文本到视频生成** \\\n*陈伟峰、吴杰、谢攀、吴鹤峰、李嘉诗、夏鑫、肖雪峰、林亮* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13840)] \\\n2023年5月23日\n\n**通过扩散模型的关键帧协作理解文本驱动的运动合成** \\\n*魏东、孙晓宁、孙怀江、李斌、胡盛祥、李卫青、陆建峰* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13773)] \\\n2023年5月23日\n\n**LLM加持的扩散模型：利用大型语言模型增强文本到图像扩散模型的提示理解能力** \\\n*连龙、李博毅、亚当·亚拉、特雷弗·达雷尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13655)] \\\n2023年5月23日\n\n**LaDI-VTON：基于潜在扩散与文本反演技术的虚拟试穿增强** \\\n*大卫·莫雷利、阿尔贝托·巴尔德拉蒂、朱塞佩·卡特拉、马切拉·科尔尼亚、马可·贝尔蒂尼、丽塔·库奇阿拉* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13501)] \\\n2023年5月22日\n\n\n\n**FACTIFY3M：一种多模态事实核查基准，结合5W问答提供可解释性** \\\n*梅加·查克拉博蒂、库什布·帕瓦、安库·拉妮、阿达尔什·马霍尔、阿迪提亚·帕卡拉、阿尔加亚·萨卡尔、哈尔希特·戴夫、伊山·保罗、詹维塔·雷迪、普里蒂·古鲁穆尔蒂、里特维克·G、萨玛赫里蒂·穆克吉、施雷亚斯·查特吉、金贾尔·森沙尔马、德维普·达拉尔、苏里亚瓦丹·S、施雷亚什·米什拉、帕尔特·帕特瓦、阿曼·查达、阿米特·谢特、阿米塔瓦·达斯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05523)] \\\n2023年5月22日\n\n**使用强化学习训练扩散模型** \\\n*凯文·布莱克、迈克尔·詹纳、杜奕伦、伊利亚·科斯特里科夫、谢尔盖·列文* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13301)] \\\n2023年5月22日\n\n\n**失败了就再试一次：通过选择实现忠实的基于扩散的文本到图像生成** \\\n*夏姆戈帕尔·卡尔蒂克、卡斯滕·罗斯、马西米利亚诺·曼奇尼、泽内普·阿卡塔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13308)] [[项目](https:\u002F\u002Frl-diffusion.github.io\u002F)] \\\n2023年5月22日\n\n**ControlVideo：无需训练的可控文本到视频生成** \\\n*张亚博、魏宇翔、姜东升、张晓鹏、左望盟、田琪* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13077)] [[GitHub](https:\u002F\u002Fgithub.com\u002FYBYBZhang\u002FControlVideo)] \\\n2023年5月22日\n\n**AudioToken：面向音频到图像生成的文本条件扩散模型适配** \\\n*盖伊·亚里夫、伊泰·加特、利奥尔·沃尔夫、约西·阿迪、伊丹·施瓦茨* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13050)] \\\n2023年5月22日\n\n**CLIP模型其实是秘密的图像到提示转换器** \\\n*丁宇轩、田春娜、丁浩轩、刘凌巧* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12716)] \\\n2023年5月22日\n\n**InstructVid2Vid：通过自然语言指令进行可控视频编辑** \\\n*秦博生、李俊成、唐思良、蔡特生、庄玉亭* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12328)] \\\n2023年5月21日\n\n**SneakyPrompt：评估文本到图像生成模型安全过滤器的鲁棒性** \\\n*杨宇辰、胡波、袁浩林、尼尔·龚、曹银志* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12082)] \\\n2023年5月20日\n\n**晚期约束扩散引导用于可控图像合成** \\\n*刘畅、刘栋* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11520)] [[项目](https:\u002F\u002Falonzoleeeooo.github.io\u002FLCDG\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAlonzoLeeeooo\u002FLCDG)] \\\n2023年5月19日\n\n**通过可组合扩散实现任意到任意的生成** \\\n*唐子能、杨子怡、朱成光、郑迈克尔、班萨尔·莫希特* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11846)] [[项目](https:\u002F\u002Fcodi-gen.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fi-Code\u002Ftree\u002Fmain\u002Fi-Code-V3)] \\\n2023年5月19日\n\n**Text2NeRF：基于神经辐射场的文本驱动3D场景生成** \\\n*张景博、李晓宇、万子宇、王灿、廖静* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11588)] \\\n2023年5月19日\n\n**大脑字幕：将人类大脑活动解码为图像和文字** \\\n*马泰奥·费兰特、富尔坎·厄兹切利克、托马索·博卡托、鲁芬·范鲁伦、尼古拉·托斯基* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11560)] \\\n2023年5月19日\n\n\n**以图像为枢纽的中文Stable Diffusion高效跨语言迁移** \\\n*胡锦义、韩旭、易晓源、陈宇彤、李文豪、刘志远、孙茂松* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11540)] \\\n2023年5月19日\n\n**判别式扩散模型作为少样本视觉与语言学习者** \\\n*何学海、冯伟熙、傅次睿、贾姆帕尼·瓦伦、阿库拉·阿琼、纳拉亚纳·普拉迪尤姆纳、巴萨·苏加托、威廉·杨·王、王欣·埃里克* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10722)] \\\n2023年5月18日\n\n**通过个性化实现针对文本到图像扩散模型的零日后门攻击** \\\n*黄一浩、郭清、费利克斯·居飞徐* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10701)] \\\n2023年5月18日\n\n\n**AI写作：图像生成与数字写作之间的关系** \\\n*斯科特·雷特伯格、塔兰·梅莫特、吉尔·沃克·雷特伯格、杰森·尼尔森、帕特里克·利希蒂* \\\nISEA 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10834)] \\\n2023年5月18日\n\n**TextDiffuser：扩散模型作为文本画家** \\\n*陈靖业、黄宇潘、吕腾超、崔磊、陈启峰、魏福儒* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10855)] \\\n2023年5月18日\n\n**VideoFactory：在时空扩散中交换注意力以实现文本到视频生成** \\\n*王文静、杨欢、拓子熙、何慧国、朱俊臣、付建龙、刘佳颖* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10874)] \\\n2023年5月18日\n\n**LDM3D：用于三维的潜在扩散模型** \\\n*加布里埃拉·本·梅莱赫·斯坦、黛安娜·沃尔克、斯科蒂·福克斯、亚历克斯·雷登、威尔·萨克斯顿、简·于、埃斯特尔·阿夫拉洛、邵延曾、法比奥·诺纳托、马蒂亚斯·穆勒、瓦塞德夫·拉尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10853)] \\\n2023年5月18日\n\n**X-IQE：基于视觉大型语言模型的文本到图像生成可解释图像质量评估** \\\n*陈一雄* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10843)] [[GitHub](https:\u002F\u002Fgithub.com\u002FSchuture\u002FBenchmarking-Awesome-Diffusion-Models)] \\\n2023年5月18日\n\n**检查文本到图像模型生成图像的地理代表性** \\\n*阿比普萨·巴苏、R·文卡特什·巴布、丹尼什·普鲁提* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11080)] \\\n2023年5月18日\n\n**保留你自己的相关性：一种用于视频扩散模型的噪声先验** \\\n*葛松伟、郑承俊、刘桂林、泰勒·潘、安德鲁·陶、布莱恩·卡坦扎罗、戴维·雅各布斯、黄家彬、刘明宇、约格什·巴拉吉* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10474)] [[项目](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Fdir\u002Fpyoco\u002F)] \\\n2023年5月17日\n\n**AMD：自回归运动扩散** \\\n*韩博、彭浩、董敏静、徐畅、任毅、沈怡轩、李宇恒* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09381)] \\\n2023年5月16日\n\n**利用ChatGPT和Stable Diffusion生成具有丰富故事性的连贯漫画** \\\n*金泽、佐丽娜·宋* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11067)] \\\n2023年5月16日\n\n\n**Make-An-Animation：大规模文本条件化三维人体运动生成** \\\n*萨曼内·阿扎迪、阿克巴尔·沙阿、托马斯·海耶斯、德维·帕里克、索纳尔·古普塔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09662)] [[项目](https:\u002F\u002Fazadis.github.io\u002Fmake-an-animation\u002F)] \\\n2023年5月16日\n\n**Make-A-Protagonist：基于专家集成的通用视频编辑** \\\n*赵宇阳、谢恩泽、洪兰青、李振国、李金熙* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08850)] [[项目](https:\u002F\u002Fmake-a-protagonist.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FMake-A-Protagonist\u002FMake-A-Protagonist)] \\\n2023年5月15日\n\n**常见的扩散噪声调度和采样步数存在缺陷** \\\n*林善川、刘炳辰、李嘉世、杨晓* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08891)] \\\n2023年5月15日\n\n\n\n**使用LLM和潜在扩散模型进行交互式时尚内容生成** \\\n*克里希纳·斯里·伊普西特·曼特里、内瓦西尼·萨西库马尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05182)] \\\n2023年5月15日\n\n\n**扩散模型中的空文本引导实际上是一位卡通风格的创作者** \\\n*赵晶、郑鹤良、王超跃、兰龙、黄万荣、杨文静* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06710)] [[项目](https:\u002F\u002Fnulltextforcartoon.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FNullTextforCartoon\u002FNullTextforCartoon)] \\\n2023年5月11日\n\n**iEdit：弱监督下的局部文本引导图像编辑** \\\n*鲁梅萨·博杜尔、埃尔汗·贡多格杜、比诺德·巴塔赖、金泰均、迈克尔·多诺瑟、洛里斯·巴扎尼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05947)] \\\n2023年5月10日\n\n**SUR适配器：用大型语言模型增强文本到图像预训练扩散模型** \\\n*钟珊珊、黄中展、温武绍、秦景辉、林亮* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05189)] [[GitHub](https:\u002F\u002Fgithub.com\u002FQrange-group\u002FSUR-adapter)] \\\n2023年5月9日\n\n**Style-A-Video：用于任意文本驱动视频风格迁移的敏捷扩散** \\\n*黄妮莎、张宇欣、董伟明* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05464)] \\\n2023年5月9日\n\n**DiffuseStyleGesture：基于扩散模型的风格化音频驱动共言语手势生成** \\\n*杨思成、吴志勇、李明磊、张振松、郝雷、鲍伟红、程明、肖龙* \\\nIJCAI 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04919)] [[GitHub](https:\u002F\u002Fgithub.com\u002FYoungSeng\u002FDiffuseStyleGesture)] \\\n2023年5月8日\n\n**IIITD-20K：用于文本-图像ReID的密集标注** \\\n*A V 苏布拉马尼扬、尼兰詹·孙达拉拉詹、维布胡·杜贝、布雷杰什·拉尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04497)] \\\n2023年5月8日\n\n**利用丰富提示进行零样本图像转换的扩散模型再生成学习** \\\n*林宇培、张森、杨晓军、王小、石雨凯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04651)] [[项目](https:\u002F\u002Fyupeilin2388.github.io\u002Fpublication\u002FReDiffuser)] \\\n2023年5月8日\n\n**基于提示调优反演的文本驱动扩散模型图像编辑** \\\n*董文凯、薛松、段晓月、韩淑敏* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04441)] \\\n2023年5月8日\n\n\n**文本到图像扩散模型可通过多模态数据投毒轻易被后门攻击** \\\n*翟盛芳、董银鹏、申庆妮、蒲诗、方跃建、苏航* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04175)] \\\n2023年5月7日\n\n\n**AADiff：基于文本到图像扩散的音频对齐视频合成** \\\n*李承佑、孔彩琳、全东贤、郭诺俊* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04001)] \\\n2023年5月6日\n\n**利用文本到图像生成模型进行图像描述的数据整理** \\\n*李文燕、乔纳斯·F·洛茨、邱晨、德斯蒙德·埃利奥特* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03610)] \\\n2023年5月5日\n\n**DisenBooth：用于主体驱动文本到图像生成的身份保持解耦调优** \\\n*陈宏、张一鹏、王鑫、段旭光、周宇威、朱文武* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03374)] [[项目](https:\u002F\u002Fdisenbooth.github.io\u002F)] \\\n2023年5月5日\n\n**通过扩散模型中的初始图像编辑进行引导式图像合成** \\\n*毛家峰、王雪婷、相泽清治* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03382)] \\\n2023年5月5日\n\n**扩散解释器：用于文本到图像Stable Diffusion的可视化解释** \\\n*李成珉、本杰明·胡佛、亨德里克·施特罗贝尔、王子杰、彭圣云、奥斯汀·赖特、李凯文、朴海奎、杨浩洋、周敦鸿* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03509)] [[项目](https:\u002F\u002Fpoloclub.github.io\u002Fdiffusion-explainer\u002F)] \\\n2023年5月4日\n\n\n**多模态驱动的说话人脸生成、换脸及扩散模型** \\\n*许超、朱少婷、朱俊伟、黄天心、张江宁、邰颖、刘勇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.02594)] \\\n2023年5月4日\n\n\n**利用扩散模型进行图像描述的多模态数据增强** \\\n*肖昌荣、辛信徐、张坤鹏* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01855)] \\\n2023年5月3日\n\n**为扩散模型解锁上下文学习** \\\n*王振东、蒋逸凡、陆亚东、沈业隆、何鹏程、陈伟竹、王章阳、周明远* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01115)] [[项目](https:\u002F\u002Fzhendong-wang.github.io\u002Fprompt-diffusion.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FZhendong-Wang\u002FPrompt-Diffusion)] \\\n2023年5月1日\n\n**SceneGenie：基于场景图引导的扩散模型用于图像合成** \\\n*阿扎德·法尔沙德、优赛夫·耶加内、于驰、沈成志、比约恩·奥默、纳西尔·纳瓦布* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14573)] \\\n2023年4月28日\n\n**关键在于起点：通过种子选择实现文生图** \\\n*德维尔·萨缪尔、拉米·本-阿里、西蒙·拉维夫、尼尔·达尔尚、加尔·切奇克* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14530)] \\\n2023年4月27日\n\n**编辑一切：一种文本引导的图像编辑生成系统** \\\n*谢德峰、王瑞琛、马健、陈晨、陆浩楠、杨东、史佛波、林晓东* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14006)] [[GitHub](https:\u002F\u002Fgithub.com\u002FDefengXie\u002FEdit_Everything)] \\\n2023年4月27日\n\n**无需训练的地点感知文生图合成** \\\n*毛家锋、王雪婷* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.13427)] \\\n2023年4月26日\n\n**TextMesh：从文本提示生成逼真的3D网格模型** \\\n*克里斯蒂娜·察利科格鲁、法比安·曼哈特、阿莱西奥·托尼奥尼、迈克尔·尼迈耶、费德里科·汤巴里* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12439)] \\\n2023年4月24日\n\n**利用文生图技术进行建筑设计构思** \\\n*维勒·帕阿南宁、乔纳斯·奥本兰德、阿库·维苏里* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10182)] \\\n2023年4月20日\n\n\n**Anything-3D：迈向单视角下的任意物体野外重建** \\\n*沈秋红、杨兴义、王新超* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10261)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAnything-of-anything\u002FAnything-3D)] \\\n2023年4月19日\n\n\n**UPGPT：用于人物图像生成、编辑及姿态迁移的通用扩散模型** \\\n*孙耀昌、阿明·穆斯塔法、安德鲁·吉尔伯特* \\\nICCV 2023研讨会。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08870)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsoon-yau\u002Fupgpt)] \\\n2023年4月18日\n\n**TTIDA：基于文本到文本与文本到图像模型的可控生成式数据增强** \\\n*殷宇伟、让·卡杜尔、张翔、聂一欣、刘振国、孔令鹏、刘琪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08821)] \\\n2023年4月18日\n\n**对齐潜在空间：基于潜扩散模型的高分辨率视频合成** \\\n*安德烈亚斯·布拉特曼、罗宾·伦巴赫、黄凌、蒂姆·多克霍恩、金承旭、桑雅·菲德勒、卡斯滕·克莱斯* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08818)] [[项目](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Ftoronto-ai\u002FVideoLDM\u002F)] \\\n2023年4月18日\n\n**Text2Performer：文本驱动的人体视频生成** \\\n*蒋宇明、杨帅、梁通、吴威、洛辰昌、刘子威* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08483)] [[项目](https:\u002F\u002Fyumingj.github.io\u002Fprojects\u002FText2Performer.html)] \\\n2023年4月17日\n\n**Latent-Shift：结合时间偏移的潜扩散模型，用于高效文生视频生成** \\\n*安杰、张松阳、杨哈利、索娜尔·古普塔、黄嘉斌、罗杰波、尹希* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08477)] [[项目](https:\u002F\u002Flatent-shift.github.io\u002F)] \\\n2023年4月17日\n\n**MasaCtrl：无需调优的互斥自注意力控制，用于一致的图像合成与编辑** \\\n*曹明登、王新涛、齐中刚、应珊、戚晓虎、郑银强* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08465)] [[GitHub](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FMasaCtrl)] \\\n2023年4月17日\n\n**基于文本条件的上下文化身，实现零样本个性化** \\\n*萨曼内·阿扎迪、托马斯·海耶斯、阿克巴尔·沙赫、潘冠、黛薇·帕里克、索娜尔·古普塔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.07410)] \\\n2023年4月14日\n\n**Delta降噪分数** \\\n*阿米尔·赫兹、克菲尔·阿贝尔曼、丹尼尔·科恩-奥尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.07090)] [[项目](https:\u002F\u002Fdelta-denoising-score.github.io\u002F)] \\\n2023年4月14日\n\n**使用富文本实现富有表现力的文生图** \\\n*葛松伟、朴泰成、朱俊彦、黄嘉斌* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06720)] [[项目](https:\u002F\u002Frich-text-to-image.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FSongweiGe\u002Frich-text-to-image)] \\\n2023年4月13日\n\n\n\n**Soundini：基于声音引导的扩散模型用于自然视频编辑** \\\n*李承贤、金世恩、柳仁范、杨峰、赵东贤、金英书、张慧雯、金镇久、金相弼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06818)] [[项目](https:\u002F\u002Fkuai-lab.github.io\u002Fsoundini-gallery\u002F)] \\\n2023年4月13日\n\n\n\n**利用双编码器改进场景文本编辑的扩散模型** \\\n*季家宝、张冠华、王兆文、侯百儒、张志飞、布莱恩·普赖斯、常诗雨* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05568)] [[GitHub](https:\u002F\u002Fgithub.com\u002FUCSB-NLP-Chang\u002FDiffSTE)] \\\n2023年4月12日\n\n**一种便于编辑的DDPM噪声空间：反演与操控** \\\n*因巴尔·胡伯曼-施皮格尔格拉斯、弗拉基米尔·库利科夫、托梅尔·米凯利* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06140)] \\\n2023年4月12日\n\n**持续扩散：利用C-LoRA对文生图扩散模型进行持续定制** \\\n*詹姆斯·希尔·史密斯、许延昌、张凌宇、华婷、齐索尔特·基拉、沈怡琳、金洪霞* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06027)] [[项目](https:\u002F\u002Fjamessealesmith.github.io\u002Fcontinual-diffusion\u002F)] \\\n2023年4月12日\n\n**HRS-Bench：面向文生图模型的全面、可靠且可扩展的基准测试平台** \\\n*埃斯拉姆·穆罕默德·巴克尔、孙鹏展、申晓倩、法伊赞·法鲁克·汗、李尔然·李、穆罕默德·埃尔霍塞尼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05390)] [[项目](https:\u002F\u002Feslambakr.github.io\u002Fhrsbench.github.io\u002F)] \\\n2023年4月11日\n\n**重新构想负向提示算法：将2D扩散转化为3D，缓解Janus问题并进一步拓展** \\\n*穆罕默德雷扎·阿曼德普尔、郑煌杰、阿里·萨德吉安、阿米尔·萨德吉安、周明远* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04968)] \\\n2023年4月11日\n\n**借助无条件扩散模型实现实时文本驱动的图像操控** \\\n*尼基塔·斯塔罗杜布采夫、德米特里·巴兰丘克、瓦伦丁·赫鲁尔科夫、阿特姆·巴班科* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04344)] \\\n2023年4月10日\n\n**HumanSD：一种原生骨骼引导的扩散模型，用于人体图像生成** \\\n*宣菊、曾爱玲、赵晨晨、王佳楠、张磊、徐强* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04269)] [[GitHub](https:\u002F\u002Fidea-research.github.io\u002FHumanSD\u002F)] \\\n2023年4月9日\n\n**利用扩散模型的时空注意力实现高保真文生图合成** \\\n*吴秋成、刘宇健、赵汉东、武仲、林哲、张洋、常诗雨* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03869)] [[GitHub](https:\u002F\u002Fgithub.com\u002FUCSB-NLP-Chang\u002FDiffusion-SpaceTime-Attn)] \\\n2023年4月7日\n\n**基于图像特定提示学习的零样本生成模型适配** \\\n*郭佳怡、王超飞、吴友、张逸伦、王凯、徐星谦、宋世基、施恒瑞、黄高* \\\nCVPR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03119)] [[GitHub](https:\u002F\u002Fgithub.com\u002FPicsart-AI-Research\u002FIPL-Zero-Shot-Generative-Model-Adaptation)] \\\n2023年4月6日\n\n**无需训练的跨注意力引导版面控制** \\\n*陈明浩、伊罗·莱纳、安德烈亚·韦达尔迪* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03373)] [[项目](https:\u002F\u002Fsilent-chen.github.io\u002Flayout-guidance\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsilent-chen\u002Flayout-guidance)] \\\n2023年4月6日\n\n\n**文本引导噪声鲁棒性基准测试** \\\n*穆罕默德雷扎·莫法耶齐、雅斯敏·梅德加尔奇* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02963)] \\\n2023年4月6日\n\n\n**DITTO-NeRF：基于扩散的迭代式文本到全向3D模型生成** \\\n*徐浩基、金夏妍、金光贤、春世英* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02827)] [[项目](https:\u002F\u002Fjaneyeon.github.io\u002Fditto-nerf\u002F)] \\\n2023年4月6日\n\n\n\n**利用文本到图像扩散模型实现零微调图像定制的编码器驯化** \\\n*贾旭辉、赵阳、陈嘉健、李彦东、张翰、龚博清、侯廷波、王慧生、苏宇川* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02642)] \\\n2023年4月5日\n\n\n**一种基于扩散的多轮组合式图像生成方法** \\\n*王超、杨晓宇、黄锦淼、凯文·费雷拉* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02192)] \\\n2023年4月5日\n\n**viz2viz：基于扩散模型的提示驱动风格化可视化生成** \\\n*吴佳琪、郑俊荣、艾坦·阿达尔* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01919)] \\\n2023年4月4日\n\n**多模态服装设计师：以人为本的潜伏扩散模型用于时尚图像编辑** \\\n*阿尔贝托·巴尔德拉蒂、达维德·莫雷利、朱塞佩·卡特拉、马切拉·科尔尼亚、马可·贝尔蒂尼、丽塔·库奇阿拉* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02051)] \\\n2023年4月4日\n\n**PODIA-3D：利用姿态保留的文本到图像扩散模型，在巨大领域差距下实现3D生成模型的域适应** \\\n*金光贤、张智河、春世英* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01900)] [[项目](https:\u002F\u002Fgwang-kim.github.io\u002Fpodia_3d\u002F)] \\\n2023年4月4日\n\n**基于掩码生成模型的文本到图像生成文本条件采样框架** \\\n*李在雄、张相源、曹在亨、尹在洪、金允智、金镇华、河正佑、黄成柱* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01515)] \\\n2023年4月4日\n\n\n**ReMoDiffuse：检索增强型运动扩散模型** \\\n*张明远、郭欣颖、潘亮、蔡中刚、洪方舟、李慧蓉、杨磊、刘子威* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01116)] [[项目](https:\u002F\u002Fmingyuan-zhang.github.io\u002Fprojects\u002FReMoDiffuse.html)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmingyuan-zhang\u002FReMoDiffuse)] \\\n2023年4月3日\n\n**DreamAvatar：通过扩散模型实现文本与形状引导的3D人类化身生成** \\\n*曹宇康、曹燕沛、韩凯、山英、黄冠义* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.00916)] \\\n2023年4月3日\n\n**DreamFace：在文本指导下逐步生成可动画化的3D人脸** \\\n*张龙文、邱启伟、林宏洋、张祺轩、石诚、杨伟、史叶、杨思蓓、许兰、于静怡* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03117)] [[项目](https:\u002F\u002Fsites.google.com\u002Fview\u002Fdreamface)] \\\n2023年4月1日\n\n**GlyphDraw：在图像合成模型中学习连贯地绘制汉字** \\\n*马健、赵明俊、陈晨、王睿琛、牛迪、陆浩楠、林晓东* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17870)] [[项目](https:\u002F\u002F1073521013.github.io\u002Fglyph-draw.github.io\u002F)] \\\n2023年3月31日\n\n**AvatarCraft：通过参数化形状和姿态控制将文本转化为神经网络人类化身** \\\n*蒋锐翔、王灿、张景博、柴孟蕾、何明明、陈冬冬、廖晶* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17606)] [[项目](https:\u002F\u002Favatar-craft.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsongrise\u002Favatarcraft)] \\\n2023年3月30日\n\n**PAIR-Diffusion：基于结构与外观配对扩散模型的对象级图像编辑** \\\n*维迪特·戈埃尔、埃利亚·佩鲁佐、姜一凡、徐德佳、尼库·塞贝、特雷弗·达雷尔、王章扬、施恒瑞* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17546)] [[GitHub](https:\u002F\u002Fgithub.com\u002FPicsart-AI-Research\u002FPAIR-Diffusion)] \\\n2023年3月30日\n\n**通过文本到图像生成视角看社会偏见** \\\n*兰吉塔·奈克、贝斯米拉·努希* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06034)] \\\n2023年3月30日\n\n\n**勿忘我：在文本到图像扩散模型中学习遗忘** \\\n*张逸伦、王凯、徐星谦、王章扬、施恒瑞* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17591)] [[GitHub](https:\u002F\u002Fgithub.com\u002FSHI-Labs\u002FForget-Me-Not)] \\\n2023年3月30日\n\n**DiffCollage：利用扩散模型并行生成大量内容** \\\n*张秦胜、宋家铭、黄勋、陈永鑫、刘明宇* \\\nCVPR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17076)] [[项目](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Fdir\u002Fdiffcollage\u002F)] \\\n2023年3月30日\n\n**使用现成图像扩散模型进行零样本视频编辑** \\\n*王文、谢康阳、刘子德、陈浩、曹悦、王新龙、沈春华* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17599)] \\\n2023年3月30日\n\n\n**用于文本到图像扩散模型的判别类标记** \\\n*伊丹·施瓦茨、韦斯特恩·斯奈比亚尔松、萨吉·贝奈姆、希拉·切弗、瑞安·科特雷尔、利奥尔·沃尔夫、塞尔日·贝隆吉* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17155)] \\\n2023年3月30日\n\n\n\n**DAE-Talker：基于扩散自编码器的高保真语音驱动说话人脸生成** \\\n*杜晨鹏、陈琦、何天宇、谭旭、陈曦、于凯、赵盛、卞江* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17550)] \\\n2023年3月30日\n\n**LayoutDiffusion：用于版面到图像生成的可控扩散模型** \\\n*郑广聪、周宪潘、李学伟、齐中刚、山英、李熙* \\\nCVPR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17189)] [[GitHub](https:\u002F\u002Fgithub.com\u002FZGCTroy\u002FLayoutDiffusion)] \\\n2023年3月30日\n\n\n**4D面部表情扩散模型** \\\n*邹凯峰、西尔万·费桑、于博洋、塞巴斯蒂安·瓦莱特、徐惠媛* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16611)] [[GitHub](https:\u002F\u002Fgithub.com\u002FZOUKaifeng\u002F4DFM)] \\\n2023年3月29日\n\n**MDP：通过操纵扩散路径实现文本引导图像编辑的通用框架** \\\n*王倩、张彪、迈克尔·比尔萨克、彼得·翁卡* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16765)] [[GitHub](https:\u002F\u002Fgithub.com\u002FQianWangX\u002FMDP-Diffusion)] \\\n2023年3月29日\n\n**Instruct 3D-to-3D：文本指令引导的3D到3D转换** \\\n*Hiromichi Kamata、Yuiko Sakuma、Akio Hayakawa、Masato Ishii、Takuya Narihira* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15780)] [[GitHub](https:\u002F\u002Fsony.github.io\u002FInstruct3Dto3D-doc\u002F)] \\\n2023年3月28日\n\n**StyleDiffusion：基于提示嵌入反演的文本驱动编辑** \\\n*Senmao Li、Joost van de Weijer、Taihang Hu、Fahad Shahbaz Khan、Qibin Hou、Yaxing Wang、Jian Yang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15649)] \\\n2023年3月28日\n\n**Seer：基于潜在扩散模型的语言指令视频预测** \\\n*Xianfan Gu、Chuan Wen、Jiaming Song、Yang Gao* \\\nCVPR研讨会2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14897)] \\\n2023年3月27日\n\n\n**去偏置2D扩散模型的分数与提示以实现稳健的文本到3D生成** \\\n*Susung Hong、Donghoon Ahn、Seungryong Kim* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15413)] \\\n2023年3月27日\n\n**Anti-DreamBooth：保护用户免受个性化文本到图像合成侵害** \\\n*Thanh Van Le、Hao Phung、Thuan Hoang Nguyen、Quan Dao、Ngoc Tran、Anh Tran* \\\nSIGGRAPH 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15433)] [[GitHub](https:\u002F\u002Fgithub.com\u002FVinAIResearch\u002FAnti-DreamBooth)] \\\n2023年3月27日\n\n**GestureDiffuCLIP：基于CLIP潜在空间的手势扩散模型** \\\n*Tenglong Ao、Zeyi Zhang、Libin Liu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14613)] \\\n2023年3月26日\n\n**更好地对齐文本到图像模型与人类偏好** \\\n*Xiaoshi Wu、Keqiang Sun、Feng Zhu、Rui Zhao、Hongsheng Li* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14420)] [[GitHub](https:\u002F\u002Ftgxs002.github.io\u002Falign_sd_web\u002F)] \\\n2023年3月25日\n\n**ISS++：以图像为跳板的文本指导3D形状生成** \\\n*Zhengzhe Liu、Peng Dai、Ruihui Li、Xiaojuan Qi、Chi-Wing Fu* \\\nICLR 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15181)] \\\n2023年3月24日\n\n**DiffuScene：用于室内场景生成的场景图去噪扩散概率模型** \\\n*Jiapeng Tang、Yinyu Nie、Lev Markhasin、Angela Dai、Justus Thies、Matthias Nießner* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14207)] [[项目](https:\u002F\u002Ftangjiapeng.github.io\u002Fprojects\u002FDiffuScene\u002F)] \\\n2023年3月24日\n\n**CompoNeRF：可编辑3D场景布局的文本指导多物体组合式NeRF** \\\n*Yiqi Lin、Haotian Bai、Sijia Li、Haonan Lu、Xiaodong Lin、Hui Xiong、Lin Wang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13843)] [[项目](https:\u002F\u002Ffantasia3d.github.io\u002F)] \\\n2023年3月24日\n\n**Fantasia3D：解耦几何与外观以实现高质量的文本到3D内容创作** \\\n*Rui Chen、Yongwei Chen、Ningxin Jiao、Kui Jia* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13873)] \\\n2023年3月24日\n\n**ReVersion：基于扩散的关系反演方法** \\\n*Ziqi Huang、Tianxing Wu、Yuming Jiang、Kelvin C.K. Chan、Ziwei Liu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13495)] [[项目](https:\u002F\u002Fziqihuangg.github.io\u002Fprojects\u002Freversion.html)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fziqihuangg\u002FReVersion)] \\\n2023年3月23日\n\n**在文本到图像扩散模型中消融概念** \\\n*Nupur Kumari、Bingliang Zhang、Sheng-Yu Wang、Eli Shechtman、Richard Zhang、Jun-Yan Zhu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13516)] [[项目](https:\u002F\u002Fwww.cs.cmu.edu\u002F~concept-ablation\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fnupurkmr9\u002Fconcept-ablation)] \\\n2023年3月23日\n\n**Text2Video-Zero：文本到图像扩散模型即为零样本视频生成器** \\\n*Levon Khachatryan、Andranik Movsisyan、Vahram Tadevosyan、Roberto Henschel、Zhangyang Wang、Shant Navasardyan、Humphrey Shi* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13439)] [[GitHub](https:\u002F\u002Fgithub.com\u002FPicsart-AI-Research\u002FText2Video-Zero)] \\\n2023年3月23日\n\n**MagicFusion：通过融合扩散模型提升文本到图像生成性能** \\\n*Jing Zhao、Heliang Zheng、Chaoyue Wang、Long Lan、Wenjing Yang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13126)] [[项目](https:\u002F\u002Fmagicfusion.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FMagicFusion\u002FMagicFusion.github.io)] \\\n2023年3月23日\n\n**Pix2Video：利用图像扩散进行视频编辑** \\\n*Duygu Ceylan、Chun-Hao Paul Huang、Niloy J. Mitra* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12688)] [[项目](https:\u002F\u002Fduyguceylan.github.io\u002Fpix2video.github.io\u002F)] \\\n2023年3月22日\n\n**Instruct-NeRF2NeRF：通过指令编辑3D场景** \\\n*Ayaan Haque、Matthew Tancik、Alexei A. Efros、Aleksander Holynski、Angjoo Kanazawa* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12789)] [[项目](https:\u002F\u002Finstruct-nerf2nerf.github.io\u002F)] \\\n2023年3月22日\n\n**SALAD：面向3D形状生成与操控的部分级潜在扩散模型** \\\n*Juil Koo、Seungwoo Yoo、Minh Hieu Nguyen、Minhyuk Sung* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12236)] [[项目](https:\u002F\u002Fsalad3d.github.io\u002F)] \\\n2023年3月21日\n\n**Vox-E：文本指导的3D对象体素编辑** \\\n*Etai Sella、Gal Fiebelman、Peter Hedman、Hadar Averbuch-Elor* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12048)] [[项目](https:\u002F\u002Ftau-vailab.github.io\u002FVox-E\u002F)] \\\n2023年3月21日\n\n**CompoDiff：基于潜在扩散的多功能组合图像检索** \\\n*Geonmo Gu、Sanghyuk Chun、Wonjae Kim、HeeJae Jun、Yoohoon Kang、Sangdoo Yun* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11916)] \\\n2023年3月21日\n\n\n**3D-CLFusion：基于对比潜在扩散的快速文本到3D渲染** \\\n*Yu-Jhe Li、Kris Kitani* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11938)] \\\n2023年3月21日\n\n**Text2Tex：基于扩散模型的文本驱动纹理合成** \\\n*Dave Zhenyu Chen、Yawar Siddiqui、Hsin-Ying Lee、Sergey Tulyakov、Matthias Nießner* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11396)] [[项目](https:\u002F\u002Fdaveredrum.github.io\u002FText2Tex\u002F)] \\\n2023年3月20日\n\n**利用文本到图像扩散模型定位对象级形状变化** \\\n*Or Patashnik、Daniel Garibi、Idan Azuri、Hadar Averbuch-Elor、Daniel Cohen-Or* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11306)] [[项目](https:\u002F\u002Forpatashnik.github.io\u002Flocal-prompt-mixing\u002F)] \\\n2023年3月20日\n\n**SVDiff：用于扩散模型微调的紧凑参数空间** \\\n*Ligong Han、Yinxiao Li、Han Zhang、Peyman Milanfar、Dimitris Metaxas、Feng Yang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11305)] \\\n2023年3月20日\n\n**发现扩散模型语义潜在空间中的可解释方向** \\\n*René Haas、Inbar Huberman-Spiegelglas、Rotem Mulayoff、Tomer Michaeli* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11073)] \\\n2023年3月20日\n\n**SKED：草图指导的文本驱动3D编辑** \\\n*Aryan Mikaeili、Or Perel、Daniel Cohen-Or、Ali Mahdavi-Amiri* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10735)] \\\n2023年3月19日\n\n**DialogPaint：基于对话的图像编辑模型** \\\n*Jingxuan Wei、Shiyu Wu、Xin Jiang、Yequan Wang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10073)] \\\n2023年3月17日\n\n**GlueGen：用于X-to-image生成的即插即用多模态编码器** \\\n*秦灿、于宁、邢晨、张舒、陈泽远、斯特凡诺·埃尔蒙、傅云、熊才明、徐然* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10056)] \\\n2023年3月17日\n\n**DiffusionRet：基于扩散模型的生成式文本-视频检索** \\\n*金鹏、李浩、程泽森、李科涵、季向阳、刘畅、袁立、陈杰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09867)] \\\n2023年3月17日\n\n**FreeDoM：无需训练的能量引导条件扩散模型** \\\n*于继文、王银怀、赵晨、伯纳德·加内姆、张健* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09833)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fvvictoryuki\u002FFreeDoM)] \\\n2023年3月17日\n\n**统一的多模态潜在扩散模型：联合主体与文本条件的图像生成** \\\n*马一洋、杨欢、王文静、傅建龙、刘佳颖* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09319)] \\\n2023年3月16日\n\n**FateZero：融合注意力机制的零样本文本驱动视频编辑** \\\n*齐晨阳、寸晓东、张勇、雷晨阳、王新涛、单莹、陈启峰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09535)] [[项目](https:\u002F\u002Ffate-zero-edit.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FChenyangQiQi\u002FFateZero)] \\\n2023年3月16日\n\n\n**HIVE：利用人类反馈进行指令式视觉编辑** \\\n*张舒、杨欣怡、冯义豪、秦灿、陈嘉志、于宁、陈泽远、王欢、西尔维奥·萨瓦雷斯、斯特凡诺·埃尔蒙、熊才明、徐然* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09618)] \\\n2023年3月16日\n\n\n**P+：文本到图像生成中的扩展文本条件控制** \\\n*安德烈·沃伊诺夫、楚庆浩、丹尼尔·科恩-奥尔、克菲尔·阿伯曼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09522)] [[项目](https:\u002F\u002Fprompt-plus.github.io\u002F)] \\\n2023年3月16日\n\n**用于Stable Diffusion图像操控的高度个性化文本嵌入** \\\n*韩仁和、杨世琳、权泰成、叶宗哲* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08767)] \\\n2023年3月15日\n\n**Aerial Diffusion：基于扩散模型的单张图像地面视角到航拍视角转换，由文本指导** \\\n*迪维娅·科坦达拉曼、周天一、林明、迪内什·马诺查* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11444)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fdivyakraman\u002FAerialDiffusion)] \\\n2023年3月15日\n\n\n**用于文本引导扩散图像风格迁移的零样本对比损失** \\\n*杨世琳、黄贤珉、叶宗哲* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08622)] \\\n2023年3月15日\n\n**Edit-A-Video：具有对象感知一致性的单视频编辑** \\\n*申彩勋、金熙胜、李哲贤、李相吉、尹成路* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07945)] [[项目](https:\u002F\u002Fedit-a-video.github.io\u002F)] \\\n2023年3月14日\n\n**编辑文本到图像扩散模型中的隐含假设** \\\n*哈达斯·奥尔加德、巴赫贾特·卡瓦尔、约纳坦·贝林科夫* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08084)] [[项目](https:\u002F\u002Ftime-diffusion.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fbahjat-kawar\u002Ftime-diffusion)] \\\n2023年3月14日\n\n\n\n**让2D扩散模型了解3D一致性，以实现稳健的文本到3D生成** \\\n*徐俊英、张宇锡、郭敏燮、高在勋、金贤洙、金俊浩、金镇华、李智英、金承龙* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07937)] \\\n2023年3月14日\n\n**Visual ChatGPT：与视觉基础模型对话、绘图和编辑** \\\n*吴晨飞、殷圣明、戚伟珍、王晓东、唐泽成、段楠* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04671)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fvisual-chatgpt)] \\\n2023年3月8日\n\n**Video-P2P：通过交叉注意力控制进行视频编辑** \\\n*刘绍腾、张悦辰、李文博、林哲、贾佳亚* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04761)] [[项目](https:\u002F\u002Fvideo-p2p.github.io\u002F)] \\\n2023年3月8日\n\n**从扩散模型中擦除概念** \\\n*罗希特·甘迪科塔、乔安娜·马特任斯卡、贾登·菲奥托-考夫曼、大卫·鲍* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07345)] [[项目](https:\u002F\u002Ferasing.baulab.info\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Frohitgandikota\u002Ferasing)] \\\n2023年3月13日\n\n\n**一个Transformer适用于大规模多模态扩散中的所有分布** \\\n*鲍帆、聂深、薛凯文、李崇轩、蒲石、王耀乐、岳刚、曹悦、苏航、朱军* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.06555)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fthu-ml\u002Funidiffuser)] \\\n2023年3月12日\n\n**Cones：扩散模型中的概念神经元，用于定制化生成** \\\n*刘志恒、冯瑞丽、朱凯、张艺飞、郑可成、刘宇、赵德利、周景仁、曹阳* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05125)] \\\n2023年3月9日\n\n**文本到图像生成系统的提示日志分析** \\\n*谢宇彤、潘兆英、马金格、罗杰、梅巧竹* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04587)] \\\n2023年3月8日\n\n**零阶优化结合人类反馈：基于排序预言机的可证明学习** \\\n*唐志伟、德米特里·雷宾、常宗辉* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.03751)] [[GitHub](https:\u002F\u002Fgithub.com\u002FTZW1998\u002FTaming-Stable-Diffusion-with-Human-Ranking-Feedback)] \\\n2023年3月7日\n\n\n**释放文本到图像扩散模型在视觉感知中的潜力** \\\n*赵文亮、饶永明、刘祖彦、刘本林、周杰、陆继文* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.02153)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fwl-zhao\u002FVPD)] \\\n2023年3月3日\n\n**Collage Diffusion** \\\n*维什努·萨鲁凯、林登·李、阿登·马、克里斯托弗·雷、凯文·法塔哈利安* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.00262)] \\\n2023年3月1日\n\n**迈向增强扩散模型的可控性** \\\n*曹元雄、哈里什·拉维、米敦·哈里库马尔、文赫·库克、克里希纳·库马尔·辛格、卢静婉、戴维·I·井上、阿金基亚·卡莱* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.14368)] \\\n2023年2月28日\n\n**定向扩散：通过注意力引导直接控制物体放置** \\\n*万朵·库尔特·马、J.P.刘易斯、W.巴斯蒂安·克莱因、托马斯·梁* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.13153)] \\\n2023年2月25日\n\n**调制预训练扩散模型以实现多模态图像合成** \\\n*库苏·哈姆、詹姆斯·海斯、卢静婉、克里希纳·库马尔·辛格、张志飞、托比亚斯·欣茨* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.12764)] \\\n2023年2月24日\n\n**区域感知扩散：用于零样本文本驱动图像编辑** \\\n*黄妮莎、唐凡、董伟明、李通义、许昌盛* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11797)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhaha-lisa\u002FRDM-Region-Aware-Diffusion-Model)] \\\n2023年2月23日\n\n**基于扩散先验的可控且条件化的文本到图像生成** \\\n*普拉纳夫·阿加瓦尔、哈里什·拉维、纳文·马里、萨钦·凯尔卡尔、陈峰斌、文·屈克、米敦·哈里库马尔、里蒂兹·坦比、苏达尔尚·雷迪·卡库马努、普尔瓦克·拉普西娅、阿尔文·古阿斯、萨拉·萨贝尔、马拉维卡·拉姆普拉萨德、巴尔多·法耶塔、阿金基亚·卡莱* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11710)] \\\n2023年2月23日\n\n**减量、再利用、循环：基于能量模型的扩散模型与MCMC的组合式生成** \\\n*杜一伦、康纳·杜尔坎、罗宾·斯特鲁德尔、乔舒亚·B·特南鲍姆、桑德·迪勒曼、罗布·费格斯、雅莎·索尔-迪克斯坦、阿诺·杜塞、威尔·格拉斯沃思* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11552)] [[项目](https:\u002F\u002Fenergy-based-model.github.io\u002Freduce-reuse-recycle\u002F)] \\\n2023年2月22日\n\n**通过单张图像上的自监督扩散学习3D摄影视频** \\\n*王晓东、吴晨飞、尹圣明、倪明恒、王建峰、李林杰、杨正元、杨帆、王丽娟、刘子成、方跃健、段楠* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10781)] \\\n2023年2月21日\n\n\n**通过内在维度视角探索Stable Diffusion的表征流形** \\\n*亨利·克温格、戴维斯·布朗、查尔斯·戈德弗里* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.09301)] \\\n2023年2月16日\n\n**基于潜在扩散先验的文本驱动视觉合成** \\\n*廖廷轩、葛松伟、徐艺然、李耀志、巴杜尔·阿尔巴哈尔、黄家彬* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08510)] [[项目](https:\u002F\u002Flatent-diffusion-prior.github.io\u002F)] \\\n2023年2月16日\n\n**T2I-Adapter：学习适配器以挖掘文本到图像扩散模型的更多可控能力** \\\n*牟冲、王新涛、谢良斌、张健、齐中刚、山英、切晓虎* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08453)] [[GitHub](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FT2I-Adapter)] \\\n2023年2月16日\n\n**MultiDiffusion：融合扩散路径实现可控图像生成** \\\n*奥默·巴尔-塔尔、利奥尔·亚里夫、亚龙·利普曼、塔莉·德克尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08113)] [项目](https:\u002F\u002Fmultidiffusion.github.io\u002F) [[GitHub](https:\u002F\u002Fgithub.com\u002Fomerbt\u002FMultiDiffusion)] \\\n2023年2月16日\n\n**基于边界引导的混合轨迹用于扩散模型的语义控制** \\\n*朱晔、吴宇、邓志伟、奥尔加·鲁萨科夫斯基、严燕* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08357)] \\\n2023年2月16日\n\n**数据集接口：利用可控反事实生成诊断模型故障** \\\n*乔舒亚·文德罗、萨奇·贾因、洛根·恩格斯特罗姆、亚历山大·马德里* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.07865)] [[GitHub](https:\u002F\u002Fgithub.com\u002FMadryLab\u002Fdataset-interfaces)] \\\n2023年2月15日\n\n**PRedItOR：基于扩散先验的文本引导图像编辑**\\\n*哈里什·拉维、萨钦·凯尔卡尔、米敦·哈里库马尔、阿金基亚·卡莱* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.07979)] \\\n2023年2月15日\n\n**文本引导的场景草图到照片合成** \\\n*AprilPyone MaungMaung、真木诚、三井健太郎、泽田圭、冈仓文雄* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.06883)] \\\n2023年2月14日\n\n**扩散模型的通用指导机制** \\\n*阿尔皮特·班萨尔、洪敏楚、阿维·施瓦茨希尔德、索米亚迪普·森古普塔、米卡·戈德布鲁姆、乔纳斯·盖平、汤姆·戈德斯坦* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.07121)] [[GitHub](https:\u002F\u002Fgithub.com\u002Farpitbansal297\u002FUniversal-Guided-Diffusion)] \\\n2023年2月14日\n\n**为文本到图像扩散模型添加条件控制** \\\n*张吕民、马尼什·阿格拉瓦拉* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.05543)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flllyasviel\u002FControlNet)] \\\n2023年2月10日\n\n\n**通过生成式扩散指导视角分析多模态目标** \\\n*孔彩琳、郭诺俊* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10305)] \\\n2023年2月10日\n\n**这种损失有信息量吗？通过确定性目标评估加速文本反转** \\\n*安东·沃罗诺夫、米哈伊尔·霍罗希赫、阿特姆·巴奔科、马克西姆·里亚比宁* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04841)] \\\n2023年2月9日\n\n\n**Q-Diffusion：量化扩散模型** \\\n*李秀宇、连龙、刘义江、杨焕瑞、董振、丹尼尔·康、张尚航、库尔特·凯策尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04304)] [[GitHub](https:\u002F\u002Fgithub.com\u002FXiuyu-Li\u002Fq-diffusion)] \\\n2023年2月8日\n\n\n**GLAZE：保护艺术家免受文本到图像模型的风格模仿** \\\n*肖恩·山、珍娜·克莱恩、艾米丽·温格、郑海涛、拉娜·哈诺卡、本·Y·赵* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.04222)] \\\n2023年2月8日\n\n**使用扩散模型从纯文本故事零样本生成连贯的故事书** \\\n*郑贤浩、权基贤、叶宗哲* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03900)] \\\n2023年2月8日\n\n**公平扩散：在文本到图像生成模型中引入公平性指导** \\\n*菲利克斯·弗里德里希、帕特里克·施拉莫夫斯基、曼努埃尔·布拉克、卢卡斯·斯特鲁佩克、多米尼克·欣特斯多夫、萨莎·卢奇奥尼、克里斯蒂安·克尔斯廷* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10893)] \\\n2023年2月7日\n\n**让硬提示变得简单：基于梯度的离散优化用于提示调优和发现** \\\n*温宇鑫、尼尔·贾因、约翰·基兴鲍尔、米卡·戈德布鲁姆、乔纳斯·盖平、汤姆·戈德斯坦* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03668)] [[GitHub](https:\u002F\u002Fgithub.com\u002FYuxinWenRick\u002Fhard-prompts-made-easy)] \\\n2023年2月7日\n\n**零样本图像到图像转换** \\\n*高拉夫·帕尔马尔、克里希纳·库马尔·辛格、理查德·张、李义军、陆静婉、朱俊彦* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03027)] \\\n2023年2月6日\n\n**基于结构与内容引导的扩散模型视频合成** \\\n*帕特里克·埃瑟、乔纳森·邱、帕米达·阿提格赫恰恩、乔纳森·格兰斯科格、阿纳斯塔西斯·杰尔马尼迪斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03011)] [[项目](https:\u002F\u002Fresearch.runwayml.com\u002Fgen1)] \\\n2023年2月6日\n\n**用于场景构图和高分辨率图像生成的扩散模型混合体** \\\n*阿尔瓦罗·巴尔贝罗·希门尼斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02412)] [[GitHub](https:\u002F\u002Fgithub.com\u002Falbarji\u002Fmixture-of-diffusers)] \\\n2023年2月5日\n\n**ReDi：通过轨迹检索实现高效无训练扩散推理** \\\n*张可勋、杨宪军、威廉·杨·王、李磊* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02285)] \\\n2023年2月5日\n\n**通过双循环扩散消除先验偏见，实现语义图像编辑** \\\n*杨佐鹏、褚天舒、林欣、高尔敦、刘大庆、杨洁、王超悦* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02394)] \\\n2023年2月5日\n\n**基于预训练模型的语义引导图像增强** \\\n*李博涵、王星昊、徐晓、侯宇泰、冯云龙、王峰、车万祥* \\\nSIGGRAPH 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02070)] [[项目](https:\u002F\u002Ftexturepaper.github.io\u002FTEXTurePaper\u002F)] \\\n2023年2月4日\n\n**TEXTure：基于文本的三维形状纹理化** \\\n*埃拉德·里查森、加尔·梅策尔、尤瓦尔·阿拉卢夫、拉贾·吉里耶斯、丹尼尔·科恩-奥尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.01721)] [[项目](https:\u002F\u002Ftexturepaper.github.io\u002FTEXTurePaper\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FTEXTurePaper\u002FTEXTurePaper)] \\\n2023年2月3日\n\n**Dreamix：视频扩散模型是通用的视频编辑工具** \\\n*埃亚尔·莫拉德、埃利亚胡·霍维茨、达尼·瓦列夫斯基、亚历克斯·拉夫·阿查、约西·马蒂亚斯、雅埃尔·普里奇、亚尼夫·莱维坦、耶迪德·霍申* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.01329)] [[项目](https:\u002F\u002Fdreamix-video-editing.github.io\u002F)] \\\n2023年2月2日\n\n**变废为宝：利用文本到图像模型指导实体艺术品的设计** \\\n*艾米·史密斯、霍普·施罗德、齐夫·埃普斯坦、迈克尔·库克、西蒙·科尔顿、安德鲁·利普曼* \\\nAAAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.00561)] \\\n2023年2月1日\n\n**Attend-and-Excite：基于注意力的语义引导用于文本到图像扩散模型** \\\n*希拉·切费尔、尤瓦尔·阿拉卢夫、雅埃尔·温克尔、利奥尔·沃尔夫、丹尼尔·科恩-奥尔* \\\nSIGGRAPH 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13826)] [[项目](https:\u002F\u002Fattendandexcite.github.io\u002FAttend-and-Excite\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAttendAndExcite\u002FAttend-and-Excite)] \\\n2023年1月31日\n\n**Zero3D：语义驱动的多类别三维形状生成** \\\n*韩博、刘一彤、沈奕轩* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13591)] \\\n2023年1月31日\n\n**形状感知的文本驱动分层视频编辑** \\\n*李耀志、张季泽·珍妮薇、陈怡婷、伊丽莎白·邱、黄家彬* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13173)] [[项目](https:\u002F\u002Ftext-video-edit.github.io\u002F)] \\\n2023年1月30日\n\n**PromptMix：文本到图像扩散模型提升轻量级网络性能** \\\n*阿里安·巴赫蒂亚尔尼亚、张琪、亚历山德罗斯·伊奥西菲迪斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12914)] [[GitHub](https:\u002F\u002Fgitlab.au.dk\u002Fmaleci\u002Fpromptmix)] \\\n2023年1月30日\n\n**GALIP：用于文本到图像合成的生成对抗CLIP模型** \\\n*陶明、鲍炳坤、唐浩、徐昌盛* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12959)] [[GitHub](https:\u002F\u002Fgithub.com\u002Ftobran\u002FGALIP)] \\\n2023年1月30日\n\n\n**SEGA：利用语义维度指导扩散模型** \\\n*曼努埃尔·布拉克、费利克斯·弗里德里希、多米尼克·欣特斯多夫、卢卡斯·斯特鲁佩克、帕特里克·施拉姆沃斯基、克里斯蒂安·克尔斯廷* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12247)] \\\n2023年1月28日\n\n**通过跨文化理解基准（CCUB）数据集实现文本到图像合成模型中的公平表征** \\\n*刘志轩、申友恩、贝弗利-克莱尔·奥科古、尹英植、莉娅·科尔曼、彼得·沙尔登布兰德、金智惠、欧珍* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12073)] \\\n2023年1月28日\n\n**文本到4D动态场景生成** \\\n*乌里埃尔·辛格、雪莉·谢因、亚当·波利亚克、奥伦·阿舒阿尔、尤里·马卡罗夫、菲利波斯·科基诺斯、纳曼·戈亚尔、安德烈亚·韦达尔迪、戴维·帕里克、贾斯汀·约翰逊、亚尼夫·泰格曼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11280)] \\\n2023年1月26日\n\n**引导文本到图像扩散模型实现 grounded generation** \\\n*李子怡、周琴叶、张晓云、张娅、王燕峰、谢伟迪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.05221)] [[项目](https:\u002F\u002Flipurple.github.io\u002FGrounded_Diffusion\u002F)] \\\n2023年1月12日\n\n\n\n**基于音频条件扩散模型的语音驱动视频编辑** \\\n*丹·比吉奥伊、舒巴吉特·巴萨克、休·乔丹、瑞秋·麦克唐奈尔、彼得·科科兰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.04474)] [[项目](https:\u002F\u002Fdanbigioi.github.io\u002FDiffusionVideoEditing\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FDanBigioi\u002FDiffusionVideoEditing)] \\\n2023年1月10日\n\n**基于情感和关键词的视觉故事生成** \\\n*陈悦天、李若华、石博文、刘培儒、司美* \\\nAIIDE INT 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.02777)] \\\n2023年1月7日\n\n\n**DiffTalk：面向通用说话头合成的扩散模型构建** \\\n*沈帅、赵文亮、孟子斌、李万华、朱正、周杰、陆继文* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.03786)] \\\n2023年1月10日\n\n**基于音频条件扩散模型的语音驱动视频编辑** \\\n*丹·比吉奥伊、舒巴吉特·巴萨克、休·乔丹、瑞秋·麦克唐奈尔、彼得·科科兰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.04474)] \\\n2023年1月10日\n\n**Diffused Heads：扩散模型在说话人脸生成上超越GAN** \\\n*米哈尔·斯蒂普乌科夫斯基、康斯坦提诺斯·武吉乌卡斯、何森、马切伊·津巴、斯塔夫罗斯·佩特里迪斯、玛雅·潘蒂奇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.03396)] [[项目](https:\u002F\u002Fmstypulkowski.github.io\u002Fdiffusedheads\u002F)] \\\n2023年1月6日\n\n\n**Muse：基于掩码生成式Transformer的文本到图像生成** \\\n*常慧雯、张涵、贾雷德·巴伯、AJ·马什诺特、何塞·莱萨马、江璐、杨明轩、凯文·墨菲、威廉·T·弗里曼、迈克尔·鲁宾斯坦、李元振、迪利普·克里希南* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.00704)] [[项目](https:\u002F\u002Fmuse-model.github.io\u002F)] \\\n2023年1月2日\n\n**Dream3D：利用三维形状先验和文本到图像扩散模型实现零样本文本到三维合成** \\\n*许佳乐、王新涛、程伟豪、曹燕沛、单颖、戚晓虎、高圣华* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.14704)] [[项目](https:\u002F\u002Fbluestyle97.github.io\u002Fdream3d\u002F)] \\\n2022年12月28日\n\n**探索将视觉Transformer作为扩散学习器** \\\n*曹鹤、王嘉楠、任天贺、齐宪标、陈一浩、姚远、张磊* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.13771)] \\\n2022年12月28日\n\n**Tune-A-Video：针对文本到视频生成对图像扩散模型进行一次调优** \\\n*吴章杰、葛益骁、王新涛、雷伟贤、顾宇超、许咏恩、单颖、戚晓虎、郑守迈* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.11565)] [[项目](https:\u002F\u002Ftuneavideo.github.io\u002F)] \\\n2022年12月22日\n\n**在从网络抓取的多模态数据上预训练的对比语言-视觉AI模型表现出性对象化偏见** \\\n*罗伯特·沃尔夫、杨毅伟、比尔·豪、艾琳·卡利斯坎* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.11261)] \\\n2022年12月21日\n\n**优化文本到图像生成的提示词** \\\n*郝亚茹、迟泽文、董立、魏福如* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.09611)] [[项目](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fmicrosoft\u002FPromptist)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FLMOps\u002Ftree\u002Fmain\u002Fpromptist)] \\\n2022年12月19日\n\n**揭示文本到图像扩散模型中的解耦能力** \\\n*吴秋成、刘宇健、赵汉东、阿金基亚·卡莱、武仲、于通、林哲、张阳、常世宇* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08698)] [[GitHub](https:\u002F\u002Fgithub.com\u002FUCSB-NLP-Chang\u002FDiffusionDisentanglement)] \\\n2022年12月16日\n\n**TeTIm-Eval：一个用于比较文本到图像模型的新型精选评估数据集** \\\n*费德里科·A·加拉托洛、马里奥·G·C·A·西米诺、爱德华多·科戈蒂* \\\narXiv 2022年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.07839)] \\\n2022年12月15日\n\n**无限索引：生成式文本到图像模型中的信息检索** \\\n*尼克拉斯·德克尔斯、迈克·弗罗贝、约翰内斯·基塞尔、詹卢卡·潘多尔福、克里斯托弗·施罗德、本诺·施泰因、马丁·波塔斯特* \\\nCHIIR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.07476)] \\\n2022年12月14日\n\n\n**LidarCLIP 或：我如何学会与点云对话** \\\n*格奥尔格·赫斯、亚当·通德尔斯基、克里斯托弗·彼得森、伦纳特·斯文松、卡勒·奥斯特伦姆* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06858)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fatonderski\u002Flidarclip)] \\\n2022年12月13日\n\n**Imagen Editor 和 EditBench：推进并评估文本引导的图像修复** \\\n*王苏、奇特万·萨哈里亚、塞斯莉·蒙哥马利、乔迪·蓬特图塞特、沙伊·诺伊、斯特凡诺·佩莱格里尼、小野靖正、莎拉·拉斯洛、大卫·J·弗利特、拉杜·索里库特、杰森·鲍德里奇、穆罕默德·诺鲁齐、彼得·安德森、威廉·陈* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06909)] \\\n2022年12月13日\n\n**稳定艺术家：在扩散潜空间中引导语义** \\\n*曼努埃尔·布拉克、帕特里克·施拉莫夫斯基、费利克斯·弗里德里希、多米尼克·欣特斯多夫、克里斯蒂安·克尔斯廷* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06013)] \\\n2022年12月12日\n\n**SmartBrush：基于扩散模型的文本和形状引导对象修复** \\\n*谢绍安、张志飞、林哲、托比亚斯·欣茨、张坤* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05034)] \\\n2022年12月9日\n\n**用于组合式文本到图像合成的无训练结构化扩散引导** \\\n*冯伟西、何学海、傅祖睿、瓦伦·詹帕尼、阿琼·阿库拉、普拉迪尤姆纳·纳拉亚纳、苏加托·巴苏、王鑫埃里克、王威廉杨* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05032)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fweixi-feng\u002FStructured-Diffusion-Guidance)] \\\n2022年12月9日\n\n**MoFusion：基于去噪扩散的运动合成框架** \\\n*里沙布·达布拉尔、穆罕默德·哈姆扎·穆加尔、弗拉季斯拉夫·戈利亚尼克、克里斯蒂安·特奥巴尔特* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04495)] [[项目](https:\u002F\u002Fvcai.mpi-inf.mpg.de\u002Fprojects\u002FMoFusion\u002F)] \\\n2022年12月8日\n\n\n**SDFusion：多模态3D形状补全、重建与生成** \\\n*程彦驰、李欣颖、谢尔盖·图利亚科夫、亚历山大·施温格、桂良燕* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04493)] [[项目](https:\u002F\u002Fyccyenchicheng.github.io\u002FSDFusion\u002F)] \\\n2022年12月8日\n\n\n**SINE：利用文本到图像扩散模型进行单张图像编辑** \\\n*张志兴、韩立功、阿尔纳布·戈什、迪米特里斯·梅塔克萨斯、任健* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04489)] [[项目](https:\u002F\u002Fzhang-zx.github.io\u002FSINE\u002F)][[GitHub](https:\u002F\u002Fgithub.com\u002Fzhang-zx\u002FSINE)] \\\n2022年12月8日\n\n**文本到图像扩散的多概念自定义** \\\n*努普尔·库玛丽、张冰亮、理查德·张、伊莱·谢赫特曼、朱俊彦* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04488)] [[项目](https:\u002F\u002Fwww.cs.cmu.edu\u002F~custom-diffusion\u002F)] \\\n2022年12月8日\n\n\n**图像生成器的扩散引导域适应** \\\n*宋坤鹏、韩立功、刘炳辰、迪米特里斯·梅塔克萨斯、艾哈迈德·埃尔加马尔* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04473)] [[项目](https:\u002F\u002Fstyleganfusion.github.io\u002F)] \\\n2022年12月8日\n\n**通过潜空间中的运动扩散执行你的命令** \\\n*陈鑫、江彪、刘文、黄子龙、付斌、陈涛、于静怡、于刚* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04048)] [[项目](https:\u002F\u002Fchenxin.tech\u002Fmld\u002F)] \\\n2022年12月8日\n\n\n\n**基于概率性音频到视觉扩散先验的说话人头像生成** \\\n*余振涛、尹子欣、周德宇、王多民、芬恩·王、王宝元* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04248)] [[项目](https:\u002F\u002Fzxyin.github.io\u002FTH-PAD\u002F)] \\\n2022年12月7日\n\n**Magic：多艺术流派智能编舞数据集及用于3D舞蹈生成的网络** \\\n*李荣辉、赵俊凡、张亚超、苏明阳、任泽平、张涵、李秀* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03741)] \\\n2022年12月7日\n\n**判断、定位与编辑：确保文本到图像生成的视觉常识道德** \\\n*朴成范、文秀洪、金镇奎* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03507)] \\\n2022年12月7日\n\n\n**NeRDi：以语言引导的扩散作为通用图像先验的单视图NeRF合成** \\\n*邓聪悦、蒋驰宇“Max”、查尔斯·R·齐、严新晨、周寅、列奥尼达斯·吉巴斯、德拉戈米尔·安古洛夫* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03267)] \\\n2022年12月6日\n\n\n**面向图像字幕的语义条件扩散网络** \\\n*罗建杰、李业豪、潘英伟、姚婷、冯建林、曹宏洋、梅涛* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03099)] [[GitHub](https:\u002F\u002Fgithub.com\u002FYehLi\u002Fxmodaler\u002Ftree\u002Fmaster\u002Fconfigs\u002Fimage_caption\u002Fscdnet)] \\\n2022年12月6日\n\n**Diffusion-SDF：通过体素化扩散实现文本到形状** \\\n*李木恒、段跃奇、周杰、陆继文* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03293)] [[项目](https:\u002F\u002Fttlmh.github.io\u002FDiffusionSDF\u002F)][[GitHub](https:\u002F\u002Fgithub.com\u002Fttlmh\u002FDiffusion-SDF)] \\\n2022年12月6日\n\n\n\n**ADIR：用于图像重建的自适应扩散** \\\n*沙迪·阿布-侯赛因、汤姆·提雷尔、拉贾·吉里耶斯* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03221)] [[项目](https:\u002F\u002Fshadyabh.github.io\u002FADIR\u002F)] \\\n2022年12月6日\n\n**M-VADER：一种具有多模态上下文的扩散模型** \\\n*塞缪尔·温巴赫、马可·贝拉根特、康斯坦丁·艾亨贝格、安德鲁·戴、罗伯特·博尔多克、苏拉迪普·南达、比约恩·代泽罗斯、科恩·奥斯特迈耶、汉娜·特乌费尔、安德烈斯·费利佩·克鲁斯-萨利纳斯* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02936)] \\\n2022年12月6日\n\n**扩散视频自编码器：通过解耦视频编码实现时间一致的人脸视频编辑** \\\n*金京满、沈夏珍、金贤洙、崔允洁、金俊浩、梁恩浩* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02802)] [[项目](https:\u002F\u002Fdiff-video-ae.github.io\u002F)][[GitHub](https:\u002F\u002Fgithub.com\u002Fman805\u002FDiffusion-Video-Autoencoders)] \\\n2022年12月6日\n\n\n**联合与征服：利用扩散模型进行跨数据集多模态合成** \\\n*尼廷·戈帕拉克里希南·奈尔、韦勒·格达拉·查敏达·班达拉、维沙尔·M·帕特尔* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00793)] [[项目](https:\u002F\u002Fnithin-gk.github.io\u002Fprojectpages\u002FMultidiff\u002Findex.html)] \\\n2022年12月1日\n\n**基于内外注意力的形状引导扩散** \\\n*朴东旭、罗格蕾丝、克莱顿·托斯特、萨曼内·阿扎迪、刘熙慧、玛卡·卡拉拉什维利、安娜·罗尔巴赫、特雷弗·达雷尔* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00210)] [[项目](https:\u002F\u002Fshape-guided-diffusion.github.io\u002F)] \\\n2022年12月1日\n\n\n**SinDDM：一种单张图像去噪扩散模型** \\\n*弗拉基米尔·库利科夫、沙哈尔·亚丁、马坦·克莱纳、托梅尔·米凯利* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16582)] [[项目](https:\u002F\u002Fmatankleiner.github.io\u002Fsinddm\u002F)] \\\n2022年11月29日\n\n**DATID-3D：基于文本到图像扩散模型的保多样性的领域自适应方法，用于三维生成模型** \\\n*金光贤、春世英* \\\nCVPR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16374)] [[GitHub](https:\u002F\u002Fdatid-3d.github.io\u002F)] \\\n2022年11月29日\n\n\n**面向视频字幕生成的频率扩散的精细化语义增强** \\\n*钟贤、李子鹏、陈淑琴、蒋奎、陈晨、叶芒* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.15076)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flzp870\u002FRSFD)] \\\n2022年11月28日\n\n**用于同时进行视觉—语言生成的统一离散扩散模型** \\\n*胡明辉、郑川夏、郑和亮、詹达珍、王超悦、杨作鹏、陶大成、苏甘坦* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.14842)] \\\n2022年11月27日\n\n\n**3DDesigner：基于文本引导的扩散模型实现逼真三维物体生成与编辑** \\\n*李刚、郑和亮、王超悦、李畅、郑昌文、陶大成* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.14108)] \\\n2022年11月25日\n\n\n**SpaText：用于可控图像生成的时空文本表征** \\\n*奥姆里·阿夫拉哈米、托马斯·海耶斯、奥兰·加夫尼、索纳尔·古普塔、亚尼夫·泰格曼、戴维·帕里克、丹妮·利希金斯基、欧哈德·弗里德、殷曦* \\\nCVPR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.14305)] [[项目](https:\u002F\u002Fomriavrahami.com\u002Fspatext\u002F)] \\\n2022年11月25日\n\n**草图引导的文本到图像扩散模型** \\\n*安德烈·沃伊诺夫、基菲尔·阿伯曼、丹尼尔·科恩-奥尔* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13752)] [[项目](https:\u002F\u002Fsketch-guided-diffusion.github.io\u002F)] \\\n2022年11月24日\n\n**用于文本到图像生成的偏移扩散** \\\n*周宇凡、刘炳辰、朱一哲、杨晓、陈昌友、徐锦辉* \\\nCVPR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.15388)] \\\n2022年11月24日\n\n\n**Make-A-Story：基于视觉记忆条件的一致性故事生成** \\\n*坦齐拉·拉赫曼、李欣颖、任健、谢尔盖·图利亚科夫、什韦塔·马哈詹、列昂尼德·西格尔* \\\nCVPR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13319)] \\\n2022年11月23日\n\n\n\n**薛定谔的蝙蝠：扩散模型有时会在叠加态中生成多义词** \\\n*詹妮弗·C·怀特、瑞安·科特雷尔* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13095)] \\\n2022年11月23日\n\n**EDICT：通过耦合变换实现精确的扩散反演** \\\n*布拉姆·华莱士、阿卡什·戈库尔、尼基尔·奈克* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12446)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsalesforce\u002FEDICT)] \\\n2022年11月22日\n\n\n**用于文本驱动图像到图像转换的即插即用扩散特征** \\\n*纳雷克·图马尼扬、米哈尔·盖耶尔、沙伊·巴贡、塔莉·德克尔* \\\nCVPR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12572)] [[GitHub](https:\u002F\u002Fgithub.com\u002FMichalGeyer\u002Fplug-and-play)] \\\n2022年11月22日\n\n**文本到图像模型在多任务基准上的人工评估** \\\n*维塔利·佩秋克、亚历山大·E·西门恩、赛萨姆里特·苏尔贝赫拉、扎德·钦、基思·泰瑟、格雷戈里·亨特、阿尔温德·拉加万、扬·希克、布莱恩·A·普拉默、奥里·凯雷特、托尼奥·布奥纳西西、凯特·萨恩科、阿曼多·索拉尔-莱萨马、伊多·德罗里* \\\nNeurIPS研讨会2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12112)] \\\n2022年11月22日\n\n**SinDiffusion：从单张自然图像中学习扩散模型** \\\n*王伟伦、鲍建民、周文刚、陈东东、陈东、袁璐、李厚强* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.12445)] [[GitHub](https:\u002F\u002Fgithub.com\u002FWeilunWang\u002FSinDiffusion)] \\\n2022年11月22日\n\n**SinFusion：在单张图像或视频上训练扩散模型** \\\n*亚尼夫·尼坎金、尼夫·海姆、米哈尔·伊拉尼* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11743)] [[GitHub](https:\u002F\u002Fyanivnik.github.io\u002Fsinfusion\u002F)] \\\n2022年11月21日\n\n**探索用于图像字幕生成的离散扩散模型** \\\n*朱子欣、魏一轩、王建峰、甘哲、张正、王乐、华刚、王丽娟、刘子程、胡汉* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11694)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fbuxiangzhiren\u002FDDCap)] \\\n2022年11月21日\n\n**研究扩散模型中的提示工程** \\\n*萨姆·维特韦恩、马丁·安德鲁斯* \\\nNeurIPS研讨会2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.15462)] \\\n2022年11月21日\n\n**VectorFusion：通过抽象像素级扩散模型实现文本到SVG的转换** \\\n*阿贾伊·贾因、安珀·谢、皮特·阿贝尔* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.11319)] [[项目](https:\u002F\u002Fajayj.com\u002Fvectorfusion)] \\\n2022年11月21日\n\n\n\n**利用自回归潜扩散模型合成连贯的故事** \\\n*潘锡臣、秦鹏达、李宇宏、薛辉、陈文虎* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10950)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fxichenpan\u002FARLDM)] \\\n2022年11月20日\n\n**DiffStyler：用于文本驱动图像风格化的可控双扩散模型** \\\n*尼莎·黄、张雨欣、唐帆、马重阳、黄海彬、张勇、董伟明、许长生* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10682)] \\\n2022年11月19日\n\n**Magic3D：高分辨率文本到三维内容创作** \\\n*林振轩、高俊、唐露明、泷川拓也、曾晓辉、黄勋、卡斯滕·克莱斯、桑雅·菲德勒、刘明宇、林宗毅* \\\nCVPR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10440)] [[项目](https:\u002F\u002Fdeepimagination.cc\u002FMagic3D\u002F)] \\\n2022年11月18日\n\n**通过扩散梦境中的分布偏移进行不变量学习** \\\n*普里亚塔姆·卡塔金达、亚历山大·莱文、索海尔·费伊齐* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10370)] \\\n2022年11月18日\n\n**无文本反演：利用引导式扩散模型编辑真实图像** \\\n*罗恩·莫卡迪、阿米尔·赫兹、基菲尔·阿伯曼、雅埃尔·普里奇、丹尼尔·科恩-奥尔* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09794)] \\\n2022年11月17日\n\n**InstructPix2Pix：学习遵循图像编辑指令** \\\n*蒂姆·布鲁克斯、亚历山大·霍林斯基、阿列克谢·A·埃夫罗斯* \\\nCVPR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09800)] [[项目](https:\u002F\u002Fwww.timothybrooks.com\u002Finstruct-pix2pix)] [[GitHub](https:\u002F\u002Fgithub.com\u002Ftimothybrooks\u002Finstruct-pix2pix)] \\\n2022年11月17日\n\n\n**多功能扩散：文本、图像及变体一体化扩散模型** \\\n*徐兴谦、王章洋、张力行、王凯、史恒瑞* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.08332)] [[GitHub](https:\u002F\u002Fgithub.com\u002FSHI-Labs\u002FVersatile-Diffusion)] \\\n2022年11月15日\n\n**直接反演：无需优化的文本驱动真实图像编辑，基于扩散模型** \\\n*阿德哈姆·艾拉拉巴维、哈里什·卡马特、塞缪尔·登顿* \\\narXiv 2022. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.07825)] \\\n2022年11月15日\n\n\n**任意风格引导下的增强型基于扩散的文本到图像生成** \\\n*潘志洪、周鑫、田浩* \\\nWACV 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.07751)] \\\n2022年11月14日\n\n\n**安全潜扩散：缓解扩散模型中的不当退化问题** \\\n*帕特里克·施拉莫夫斯基、曼努埃尔·布拉克、比约恩·代泽罗特、克里斯蒂安·克尔斯廷* \\\nCVPR 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.05105)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fml-research\u002Fsafe-latent-diffusion)] \\\n2022年11月9日\n\n**艺术家的瑞克摇：在文本引导的图像生成模型中注入隐形后门** \\\n*卢卡斯·斯特鲁佩克、多米尼克·欣特斯多夫、克里斯蒂安·克尔斯廷* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.02408)] [[GitHub](https:\u002F\u002Fgithub.com\u002FLukasStruppek\u002FRickrolling-the-Artist)] \\\n2022年11月4日\n\n**eDiffi：基于专家去噪器集成的文生图扩散模型** \\\n*约格什·巴拉吉、徐俊娜、黄勋、阿拉什·瓦赫达特、宋嘉铭、卡斯滕·克莱斯、米卡·艾塔拉、蒂莫·艾拉、萨穆利·莱内、布莱恩·卡坦扎罗、泰罗·卡拉斯、刘明宇* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01324)] [[GitHub](https:\u002F\u002Fdeepimagination.cc\u002FeDiffi\u002F)] \\\n2022年11月2日\n\n\n**MagicMix：基于扩散模型的语义混合** \\\n*刘俊豪、严汉书、周大泉、冯家世* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.16056)] [[项目](https:\u002F\u002Fmagicmix.github.io\u002F)] \\\n2022年10月28日\n\n**UPainting：跨模态引导的统一文生图扩散生成** \\\n*李伟、许雪、肖新燕、刘佳晨、杨虎、李国昊、王占鹏、冯志凡、佘巧巧、吕雅娟、吴华* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.16031)] \\\n2022年10月28日\n\n**文生图生成模型能多好地理解伦理自然语言干预？** \\\n*赫里提克·班萨尔、殷达、马苏德·莫纳贾蒂普尔、张凯威* \\\nEMNLP 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.15230)] [[GitHub](https:\u002F\u002Fgithub.com\u002FHritikbansal\u002Fentigen_emnlp)] \\\n2022年10月27日\n\n**ERNIE-ViLG 2.0：基于知识增强的去噪专家混合体改进文生图扩散模型** \\\n*冯志达、张振宇、于欣彤、方业伟、李兰馨、陈旭毅、陆宇翔、刘家祥、尹维冲、冯世坤、孙宇、田浩、吴华、王海峰* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.15257)] \\\n2022年10月27日\n\n**DiffusionDB：面向文生图生成模型的大规模提示图库数据集** \\\n*王子杰·J、埃文·蒙托亚、大卫·穆内奇卡、杨浩洋、本杰明·胡佛、周登鸿* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.14896)] [[项目](https:\u002F\u002Fpoloclub.github.io\u002Fdiffusiondb\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fpoloclub\u002Fdiffusiondb)] \\\n2022年10月26日\n\n**Lafite2：少样本文生图生成** \\\n*周宇凡、李春元、陈昌友、高建峰、徐金辉* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.14124)] \\\n2022年10月25日\n\n**通过多阶段混合扩散进行高分辨率图像编辑** \\\n*约翰内斯·阿克曼、李敏俊* \\\nNeurIPS研讨会2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12965)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fmulti-stage-blended-diffusion)] \\\n2022年10月24日\n\n**利用模型预测控制实现更少显式指导的条件扩散** \\\n*麦克斯·W·申、埃桑·哈吉拉梅扎纳利、加布里埃莱·斯卡利亚、亚历克斯·曾、纳撒尼尔·迪亚曼特、托马索·比安卡拉尼、安德烈亚斯·卢卡斯* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12192)] \\\n2022年10月21日\n\n**当前多模态语言模型面临的挑战概览** \\\n*沙尚克·松卡尔、刘乃明、理查德·G·巴拉纽克* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12565)] \\\n2022年10月22日\n\n**DiffEdit：基于扩散的掩码引导语义图像编辑** \\\n*纪尧姆·库瓦隆、雅各布·费尔贝克、霍尔格·施文克、马蒂厄·科尔德* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.11427)] \\\n2022年10月20日\n\n**扩散模型已经具备语义潜在空间** \\\n*权珉基、郑在锡、禹英中* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.10960)] [[项目](https:\u002F\u002Fkwonminki.github.io\u002FAsyrp\u002F)] \\\n2022年10月20日\n\n\n**UniTune：通过在单张图像上微调图像生成模型实现文本驱动的图像编辑** \\\n*丹妮·瓦列夫斯基、马坦·卡尔曼、约西·马蒂亚斯、亚尼夫·列维坦* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.09477)] \\\n2022年10月18日\n\n**Swinv2-Imagen：用于文生图生成的层次化视觉Transformer扩散模型** \\\n*李瑞军、李卫华、杨毅、魏涵宇、江建华、白泉* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.09549)] \\\n2022年10月18日\n\n**Imagic：基于扩散模型的文本驱动真实图像编辑** \\\n*巴哈贾特·卡瓦尔、希兰·扎达、奥兰·朗、奥默·托夫、常慧雯、塔莉·德克尔、因巴尔·莫塞里、米哈尔·伊拉尼* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.09276)] [[项目](https:\u002F\u002Fimagic-editing.github.io\u002F)] \\\n2022年10月17日\n\n**利用现成扩散模型进行多属性时尚图像操控** \\\n*孔彩琳、全东贤、权五俊、郭诺俊* \\\nWACV 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05872)] \\\n2022年10月12日\n\n**统一扩散模型的潜在空间及其在循环扩散和引导中的应用** \\\n*陈亨利·吴、费尔南多·德拉托雷* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05559)] [[GitHub-1](https:\u002F\u002Fgithub.com\u002FChenWu98\u002Fcycle-diffusion)] [[GitHub-2](https:\u002F\u002Fgithub.com\u002FChenWu98\u002Funified-generative-zoo)] \\\n2022年10月11日\n\n**Imagen Video：基于扩散模型的高清视频生成** \\\n*乔纳森·霍、威廉·钱、奇特万·萨哈里亚、杰伊·旺、高睿琪、阿列克谢·格里琴科、迪德里克·P·金玛、本·普尔、穆罕默德·诺鲁齐、戴维·J·弗利特、蒂姆·萨利曼斯* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02303)] \\\n2022年10月5日\n\n\n**DALL-E-Bot：将网络规模扩散模型引入机器人技术** \\\n*伊万·卡佩柳赫、维塔利斯·沃西柳斯、爱德华·约翰斯* \\\nIEEE RA-L 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02438)] \\\n2022年10月5日\n\n\n**LDEdit：迈向基于潜在扩散模型的通用文本引导图像操控** \\\n*帕拉马南德·钱德拉穆利、坎恰娜·维什纳维·甘迪科塔* \\\nBMVC 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02249)] \\\n2022年10月5日\n\n**clip2latent：利用去噪扩散和CLIP对预训练StyleGAN进行文本驱动采样** \\\n*贾斯汀·N·M·平克尼、李川* \\\nBMVC 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02347)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fjustinpinkney\u002Fclip2latent)] \\\n2022年10月5日\n\n**针对文生图生成模型的成员推断攻击** \\\n*吴一昕、于宁、李正、迈克尔·巴克斯、张阳* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.00968)] \\\n2022年10月3日\n\n**Make-A-Video：无需文本-视频数据的文生视频生成** \\\n*乌里埃尔·辛格、亚当·波利亚克、托马斯·海耶斯、阴曦、安洁、张颂阳、胡启源、杨哈利、阿舒阿尔、加夫尼、帕里克、古普塔、泰格曼* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14792)] \\\n2022年9月29日\n\n**DreamFusion：使用2D扩散进行文生3D** \\\n*本·普尔、阿贾伊·贾因、乔纳森·T·巴伦、本·米尔登霍尔* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14988)] [[GitHub](https:\u002F\u002Fdreamfusion3d.github.io\u002F)] \\\n2022年9月29日\n\n**Re-Imagen：检索增强型文生图生成器** \\\n*陈文虎、胡恒翔、奇特万·萨哈里亚、威廉·W·科恩* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14491)] \\\n2022年9月29日\n\n**利用潜在扩散模型进行创意绘画** \\\n*吴宪超* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14697)] \\\n2022年9月29日\n\n**绘制你的艺术梦想：多模态引导扩散的多样化数字艺术合成** \\\n*尼莎·黄、唐凡、董伟明、徐长生* \\\nACM MM 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.13360)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhaha-lisa\u002FMGAD-multimodal-guided-artwork-diffusion)] \\\n2022年9月27日\n\n**通过美学梯度个性化文本到图像生成** \\\n*维克托·加列戈* \\\nNeurIPS 工作坊 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.12330)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fvicgalle\u002Fstable-diffusion-aesthetic-gradients)] \\\n2022年9月25日\n\n**文本到图像模型的最佳提示及其寻找方法** \\\n*尼基塔·帕夫利琴科、德米特里·乌斯塔洛夫* \\\nNeurIPS 工作坊 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.11711)] \\\n2022年9月23日\n\n**有偏见的艺术家：利用同形异义词在文本引导图像生成模型中挖掘文化偏见** \\\n*卢卡斯·斯特鲁佩克、多米尼克·欣特斯多夫、克里斯蒂安·克尔斯廷* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.08891)] [[GitHub](https:\u002F\u002Fgithub.com\u002FLukasStruppek\u002FThe-Biased-Artist)] \\\n2022年9月19日\n\n**生成式视觉提示：统一预训练生成模型的分布控制** \\\n*陈亨利·吴、萨曼·莫塔梅德、绍纳克·斯里瓦斯塔瓦、费尔南多·德拉托雷* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.06970)] [[GitHub](https:\u002F\u002Fgithub.com\u002FChenWu98\u002FGenerative-Visual-Prompt)] \\\n2022年9月14日\n\n\n\n**ISS：以图像为跳板的文本引导三维形状生成** \\\n*刘正哲、戴鹏、李瑞辉、齐晓娟、傅志文* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04145)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fliuzhengzhe\u002FISS-Image-as-Stepping-Stone-for-Text-Guided-3D-Shape-Generation)] \\\n2022年9月9日\n\n**DreamBooth：针对主体驱动生成的文本到图像扩散模型微调** \\\n*纳塔尼尔·鲁伊斯、李远振、瓦伦·詹帕尼、雅埃尔·普里奇、迈克尔·鲁宾斯坦、克菲尔·阿伯曼* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.12242)] [[项目](https:\u002F\u002Fdreambooth.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FVictarry\u002Fstable-dreambooth)] \\\n2022年8月25日\n\n\n**基于检索增强扩散模型的文本引导艺术图像合成** \\\n*罗宾·隆巴赫、安德烈亚斯·布拉特曼、比约恩·奥默* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.13038)] [[GitHub](https:\u002F\u002Fgithub.com\u002FCompVis\u002Flatent-diffusion)] \\\n2022年7月26日\n\n**用于跨模态和条件生成的离散对比扩散** \\\n*朱叶、吴宇、凯尔·奥尔谢夫斯基、任健、谢尔盖·图利亚科夫、严燕* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07771)] [[GitHub](https:\u002F\u002Fgithub.com\u002FL-YeZhu\u002FCDCD)] \\\n2022年6月15日\n\n**混合潜在扩散** \\\n*奥姆里·阿夫拉哈米、欧哈德·弗里德、丹尼·利希金斯基* \\\nACM 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.02779)] [[项目](https:\u002F\u002Fomriavrahami.com\u002Fblended-latent-diffusion-page\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fomriav\u002Fblended-latent-diffusion)] \\\n2022年6月6日\n\n**基于可组合扩散模型的组合式视觉生成** \\\n*刘楠、李爽、杜一伦、安东尼奥·托拉尔巴、乔舒亚·B·特南鲍姆* \\\nECCV 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.01714)] [[项目](https:\u002F\u002Fenergy-based-model.github.io\u002FCompositional-Visual-Generation-with-Composable-Diffusion-Models\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fenergy-based-model\u002FCompositional-Visual-Generation-with-Composable-Diffusion-Models-PyTorch)] \\\n2022年6月3日\n\n**DiVAE：基于去噪扩散解码器的逼真图像合成** \\\n*施杰、吴晨飞、梁建、刘翔、段楠* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00386)] \\\n2022年6月1日\n\n\n**改进的向量量化扩散模型** \\\n*唐志聪、顾书阳、鲍建民、陈东、温芳* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.16007)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FVQ-Diffusion)] \\\n2022年5月31日\n\n**Text2Human：文本驱动的可控人体图像生成** \\\n*蒋宇明、杨帅、邱浩楠、吴伟恩、陈昌礼·洛伊、刘子威* \\\nACM 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.15996)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyumingj\u002FText2Human)] \\\n2022年5月31日\n\n**具有深度语言理解的逼真文本到图像扩散模型** \\\n*奇特万·萨哈里亚、威廉·钱、索拉布·萨克塞纳、拉拉·李、杰伊·王、艾米丽·登顿、赛耶德·卡米亚尔·赛耶德·加塞米普尔、布尔库·卡拉戈尔·阿扬、S·萨拉·马赫达维、拉法·贡蒂霍·洛佩斯、蒂姆·萨利曼斯、乔纳森·霍、大卫·J·弗利特、穆罕默德·诺鲁齐* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.11487)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fimagen-pytorch)] \\\n2022年5月23日\n\n\n**检索增强扩散模型** \\\n*安德烈亚斯·布拉特曼、罗宾·隆巴赫、卡恩·奥克泰、比约恩·奥默* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.11824)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fretrieval-augmented-ddpm)] \\\n2022年4月25日\n\n\n**基于CLIP潜在空间的层次化文本条件图像生成** \\\n*阿迪提亚·拉梅什、普拉富拉·达里瓦尔、亚历克斯·尼科尔、凯西·楚、马克·陈* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.06125)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flucidrains\u002FDALLE2-pytorch)] \\\n2022年4月13日\n\n\n**KNN-Diffusion：基于大规模检索的图像生成** \\\n*奥龙·阿舒阿尔、雪莉·谢因因、亚当·波利亚克、乌里埃尔·辛格、奥兰·加夫尼、埃利亚·纳赫马尼、亚尼夫·泰格曼* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.02849)] \\\n2022年4月6日\n\n**基于潜在扩散模型的高分辨率图像合成** \\\n*罗宾·隆巴赫、安德烈亚斯·布拉特曼、多米尼克·洛伦茨、帕特里克·埃瑟、比约恩·奥默* \\\nCVPR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.10752)] [[GitHub](https:\u002F\u002Fgithub.com\u002FCompVis\u002Flatent-diffusion)] \\\n2021年12月20日\n\n\n**免费获得更多控制！基于语义扩散引导的图像合成** \\\n*刘熙晖、朴东旭、萨曼内·阿扎迪、张功、阿尔曼·乔皮基扬、胡宇晓、洪福·史、安娜·罗尔巴赫、特雷弗·达雷尔* \\\nWACV 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.05744)] [[项目](https:\u002F\u002Fxh-liu.github.io\u002Fsdg\u002F)] \\\n2021年12月10日\n\n**用于文本到图像合成的向量量化扩散模型** \\\n*顾书阳、陈东、鲍建民、温芳、张博、陈冬冬、袁璐、郭百宁* \\\nCVPR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.14822)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FVQ-Diffusion)] \\\n2021年11月29日\n\n**用于自然图像文本驱动编辑的混合扩散** \\\n*奥姆里·阿夫拉哈米、丹尼·利希金斯基、欧哈德·弗里德* \\\nCVPR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.14818)] [[项目](https:\u002F\u002Fomriavrahami.com\u002Fblended-diffusion-page\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fomriav\u002Fblended-diffusion)] \\\n2021年11月29日\n\n**用去噪扩散GAN解决生成学习三难问题** \\\n*肖志胜、卡斯滕·克莱斯、阿拉什·瓦赫达特* \\\nICLR 2022（亮点论文）。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.07804)] [[项目](https:\u002F\u002Fnvlabs.github.io\u002Fdenoising-diffusion-gan)] \\\n2021年12月15日\n\n**DiffusionCLIP：使用扩散模型进行文本引导的图像操作** \\\n*金光贤、叶宗哲* \\\nCVPR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.02711)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fgwang-kim\u002FDiffusionCLIP)] \\\n2021年10月6日\n\n\n\n\n### 3D视觉\n\n**基于分类器分数蒸馏的文本到3D生成** \\\n*辛宇、郭元辰、李阳光、丁亮、张松海、齐晓娟* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19415)] \\\n2023年10月30日\n\n**使用对比扩散模型的可控群体编舞** \\\n*Nhát Lê、Tường Đỗ、Khoa Đỗ、Hiền Nguyễn、Erman Tjiputra、Quang D. Trần、Anh Nguyễn* \\\nACM ToG 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18986)] \\\n2023年10月29日\n\n**基于SE(3)扩散模型的点云配准用于鲁棒的6D物体位姿估计** \\\n*姜浩博、马蒂厄·萨尔茨曼、邓政、谢进、杨健* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17359)] \\\n2023年10月26日\n\n**通过扩散模型构建6自由度稳定性场** \\\n*米田拓真、蒋天冲、格雷戈里·沙赫纳罗维奇、马修·R·沃尔特* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17649)] \\\n2023年10月26日\n\n\n**DreamCraft3D：基于自举扩散先验的层次化3D生成** \\\n*孙景翔、张博、邵睿智、王丽珍、刘文、谢振达、刘业斌* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16818)] \\\n2023年10月25日\n\n\n**DiffRef3D：一种基于扩散的3D目标检测提案精炼框架** \\\n*金世浩、具仁勇、李仁英、朴炳俊、金昌植* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16349)] \\\n2023年10月25日\n\n**iNVS：将扩散修复模型重新用于新视角合成** \\\n*Yash Kant、Aliaksandr Siarohin、Michael Vasilkovsky、Riza Alp Guler、任坚、Sergey Tulyakov、Igor Gilitschenski* \\\nSIGGRAPH ASIA 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16167)] [[项目](https:\u002F\u002Fyashkant.github.io\u002Finvs\u002F)] \\\n2023年10月24日\n\n**Wonder3D：利用跨域扩散从单张图像生成3D** \\\n*龙晓晓、郭元辰、林诚、刘源、窦志扬、刘凌杰、马悦欣、张松海、马克·哈伯曼、克里斯蒂安·泰奥巴尔特、王文平* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15008)] \\\n2023年10月23日\n\n**MAS：基于2D扩散的多视角祖先采样用于3D运动生成** \\\n*罗伊·卡蓬、盖伊·特韦特、丹尼尔·科恩-奥尔、阿米特·H·贝尔马诺* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14729)] \\\n2023年10月23日\n\n**利用仿射卷积网络进行高质量3D人脸重建** \\\n*林志谦、林江科、李林成、袁毅、邹正霞* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14237)] \\\n2023年10月22日\n\n**TexFusion：利用文本引导的图像扩散模型合成3D纹理** \\\n*曹天时、卡斯滕·克莱斯、桑雅·菲德勒、尼古拉斯·夏普、尹康雪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13772)] \\\n2023年10月20日\n\n**面向图像、3D动画和视频的条件生成建模** \\\n*维克拉姆·沃莱蒂* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13157)] \\\n2023年10月19日\n\n**TapMo：无骨骼角色的形状感知运动生成** \\\n*张嘉旭、黄绍莉、涂志刚、陈鑫、詹晓航、于刚、山英* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12678)] \\\n2023年10月19日\n\n\n**通过逐像素梯度裁剪提升高分辨率3D生成质量** \\\n*潘子杰、陆嘉晨、朱夏添、张力* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12474)] \\\n2023年10月19日\n\n**Progressive3D：针对复杂语义提示的文本到3D内容创作中的渐进式局部编辑** \\\n*程新华、杨天宇、王佳楠、李宇、张磊、张健、袁立* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11784)] \\\n2023年10月18日\n\n**基于3D结构指导的网络用于2D照片中的牙齿矫正** \\\n*窦玉龙、梅兰珠菊、沈定刚、崔志明* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11106)] \\\n2023年10月17日\n\n**DynVideo-E：利用动态NeRF进行大规模、可变运动与视角的人像视频编辑** \\\n*刘家伟、曹燕佩、吴张洁、毛伟嘉、顾宇超、赵锐、尤西·凯波、山英、郑守迈克* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10624)] \\\n2023年10月16日\n\n**ConsistNet：为多视角图像扩散强制实现3D一致性** \\\n*杨佳宇、程子昂、段云飞、潘继、李洪东* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10343)] \\\n2023年10月16日\n\n**PaintHuman：通过去噪分数蒸馏实现高保真度文本到3D人体纹理生成** \\\n*俞建辉、朱浩、蒋利明、洛陈昌、蔡卫东、吴伟恩* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09458)] \\\n2023年10月14日\n\n**OmniControl：随时控制任意关节以生成人体运动** \\\n*谢一鸣、贾姆帕尼·瓦伦、钟磊、孙德清、蒋怀祖* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08580)] [[项目](https:\u002F\u002Fneu-vi.github.io\u002Fomnicontrol\u002F)] \\\n2023年10月12日\n\n**Consistent123：提升单张图像到3D物体合成的一致性** \\\n*翁浩然、杨天宇、王佳楠、李宇、张彤、C. L. Philip Chen、张磊* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08092)] [[项目](https:\u002F\u002Fconsistent-123.github.io\u002F)] \\\n2023年10月12日\n\n**稳定扩散对3D场景了解多少？** \\\n*展冠奇、郑传霞、谢伟迪、安德鲁·齐塞曼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06836)] \\\n2023年10月10日\n\n**HiFi-123：迈向高保真度单张图像到3D内容生成** \\\n*于王博、袁立、曹燕佩、高祥军、李晓宇、权龙、山英、田永红* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06744)] \\\n2023年10月10日\n\n**IPDreamer：基于图像提示的外观可控3D物体生成** \\\n*曾博文、李尚林、冯宇唐、李宏、高思成、刘嘉铭、李华夏、唐旭、刘建庄、张宝昌* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05375)] \\\n2023年10月9日\n\n**DragD3D：基于顶点的编辑，利用2D扩散先验实现逼真的网格变形** \\\n*谢天昊、尤金·贝利洛夫斯基、苏迪尔·穆杜尔、提贝里乌·波帕* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04561)] \\\n2023年10月6日\n\n**Ctrl-Room：在布局约束下可控的文本到3D房间网格生成** \\\n*方川、胡晓涛、罗昆明、谭平* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03602)] \\\n2023年10月5日\n\n**FreeReg：利用预训练扩散模型和单目深度估计器实现图像到点云配准** \\\n*王海平、刘源、王兵、孙玉静、董震、王文平、杨必胜* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03420)] \\\n2023年10月5日\n\n**Consistent-1-to-3：通过几何感知扩散模型实现一致的图像到3D视图合成** \\\n*叶江龙、王鹏、李克杰、史一春、王恒* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03020)] [[项目](https:\u002F\u002Fjianglongye.com\u002Fconsistent123\u002F)] \\\n2023年10月4日\n\n\n**Efficient-3DiM：一天内学习一个通用的单张图像新视角合成器** \\\n*蒋逸凡、唐浩、Rick Chang Jen-Hao、宋梁臣、王张洋、曹梁梁* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03015)] \\\n2023年10月4日\n\n**T$^3$Bench：文本到3D生成的当前进展基准测试** \\\n*何宇泽、白宇诗、马蒂厄·林、赵旺、胡雨斌、珍妮·盛、易然、李娟子、刘永进* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02977)] [[项目](https:\u002F\u002Ft3bench.com\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FTHU-LYJ-Lab\u002FT3Bench)] \\\n2023年10月4日\n\n\n**ED-NeRF：基于潜在空间NeRF的高效文本引导3D场景编辑** \\\n*朴章浩、权基贤、叶宗哲* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02712)] \\\n2023年10月4日\n\n**MagicDrive：具有多样化3D几何控制的街景生成** \\\n*高瑞源、陈凯、谢恩泽、洪兰青、李振国、杨德彦、徐强* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02601)] [[项目](https:\u002F\u002Fgaoruiyuan.com\u002Fmagicdrive\u002F)] \\\n2023年10月4日\n\n\n**SweetDreamer：在2D扩散模型中对齐几何先验以实现一致的文本到3D生成** \\\n*李伟宇、陈睿、陈雪琳、谭平* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02596)] [[项目](https:\u002F\u002Fsweetdreamer3d.github.io\u002F)] \\\n2023年10月4日\n\n**基于扩散概率模型的人体与物体交互分层生成** \\\n*皮怀瑾、彭思达、杨明辉、周晓伟、鲍虎军* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02242)] [[项目](https:\u002F\u002Fzju3dv.github.io\u002Fhghoi\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fzju3dv\u002Fhghoi)] \\\n2023年10月3日\n\n\n**HumanNorm：学习法线扩散模型以实现高质量和逼真的3D人体生成** \\\n*黄欣、邵睿智、张琪、张洪文、冯颖、刘业斌、王庆* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01406)] [[项目](https:\u002F\u002Fhumannorm.github.io\u002F)] \\\n2023年10月2日\n\n**用于歧义感知逆向渲染的扩散后验光照** \\\n*吕林杰、阿尤什·特瓦里、马克·哈伯曼、斋藤俊介、迈克尔·佐尔霍费尔、托马斯·莱姆库勒、克里斯蒂安·特奥巴尔特* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00362)] \\\n2023年9月30日\n\n**EPiC-ly：利用流匹配和扩散快速生成粒子云** \\\n*埃里克·布赫曼、塞德里克·埃文、达里乌斯·A·法鲁吉、托比亚斯·戈林、格雷戈尔·卡西奇卡、马修·利、纪尧姆·奎唐、约翰·安德鲁·雷恩、迪巴乔蒂·森古普塔、大卫·史密斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00049)] \\\n2023年9月29日\n\n**Consistent123：利用案例感知扩散先验，从一张图像生成高度一致的3D资产** \\\n*林宇康、韩浩楠、龚超群、许遵南、张亚超、李秀* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.17261)] \\\n2023年9月29日\n\n**由物体运动引导的人体运动合成** \\\n*李佳曼、吴嘉俊、C·凯伦·刘* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16237)] \\\n2023年9月28日\n\n**ITEM3D：面向3D模型的光照感知定向纹理编辑** \\\n*刘圣奇、陈卓、高静楠、严一超、朱文翰、李晓波、高科、吕江京、杨晓康* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.14872)] \\\n2023年9月26日\n\n\n\n\n**光场扩散用于单视图新视角合成** \\\n*熊义峰、马浩宇、孙善霖、韩坤、谢晓辉* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11525)] \\\n2023年9月20日\n\n**用于结构构件设计的潜在扩散模型** \\\n*伊桑·赫伦、贾迪普·拉德、阿努什鲁特·吉格纳苏、巴斯卡尔·加纳帕蒂苏布拉马尼亚、阿迪提亚·巴卢、索米克·萨卡尔、阿达尔什·克里希纳穆提* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11601)] \\\n2023年9月20日\n\n**FaceDiffuser：利用扩散技术实现语音驱动的3D面部动画合成** \\\n*斯特凡·斯坦、卡济·英贾马穆尔·哈克、泽林·尤马克* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11306)] \\\n2023年9月20日\n\n**TwinTex：面向抽象化3D建筑模型的几何感知纹理生成** \\\n*熊维丹、张红倩、彭博涛、胡子宇、吴勇力、郭建伟、黄辉* \\\nSIGGRAPH ASIA 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11258)] \\\n2023年9月20日\n\n\n**语言条件下的3D点云可达性—姿态检测** \\\n*阮端、武明日、黄宝如、武团文、张薇、黎银、武秋、黎北、阮英* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10911)] \\\n2023年9月19日\n\n**利用点扩散模型对大肠3D形状进行精细化处理以生成数字幻影** \\\n*考瑟·穆赫布、莫比娜·戈焦格·内贾德、拉夫森·达哈尔、埃桑·萨梅伊、W·保罗·塞加尔斯、约瑟夫·Y·洛* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.08289)] \\\n2023年9月15日\n\n**利用3D感知潜在扩散模型对人脸表征进行无监督解耦** \\\n*何瑞安、邢震、谭伟民、颜博* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.08273)] \\\n2023年9月15日\n\n**M3Dsynth：包含AI生成局部操作的医学3D图像数据集** \\\n*贾达·津加里尼、达维德·科佐利诺、里卡多·科尔维、乔瓦尼·波吉、路易莎·韦尔多利瓦* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07973)] \\\n2023年9月14日\n\n**基于Transformer的大词汇量3D扩散模型** \\\n*曹子昂、洪方舟、吴通、潘亮、刘子威* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07920)] [[项目](https:\u002F\u002Fziangcao0312.github.io\u002Fdifftf_pages\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fziangcao0312\u002FDiffTF)] \\\n2023年9月14日\n\n**UnifiedGesture：适用于多种骨骼的统一手势合成模型** \\\n*杨思成、王子林、吴志勇、李明磊、张振松、黄巧楚、郝磊、徐松岑、吴晓飞、杨昌鹏、戴宗宏* \\\nACM MM 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07051)] \\\n2023年9月13日\n\n**Fg-T2M：通过扩散模型实现细粒度文本驱动的人体运动生成** \\\n*王寅、冷志英、弗雷德里克·W·B·李、吴顺诚、梁晓辉* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06284)] \\\n2023年9月12日\n\n**SyncDreamer：从单视图图像生成多视角一致的图像** \\\n*刘源、林程、曾子娇、龙小晓、刘玲洁、小村拓、王文平* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03453)] [[项目](https:\u002F\u002Fliuyuan-pal.github.io\u002FSyncDreamer\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fliuyuan-pal\u002FSyncDreamer)] \\\n2023年9月7日\n\n**SADIR：面向3D图像重建的形状感知扩散模型** \\\n*尼维塔·贾亚库马尔、托姆莫伊·侯赛因、张苗苗* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03335)] \\\n2023年9月6日\n\n**MCM：面向多场景的多条件运动合成框架** \\\n*凌泽宇、韩博、王永康、康坎哈利·莫汉、耿卫东* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03031)] \\\n2023年9月6日\n\n**DiverseMotion：通过离散扩散模型迈向多样化的人体运动生成** \\\n*娄云鸿、朱林超、王亚雄、王晓涵、杨毅* \\\nAAAI 2024。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01372)] \\\n2023年9月4日\n\n**BuilDiff：利用单张图像条件下的点云扩散模型生成3D建筑形态** \\\n*姚伟、乔治·沃塞尔曼、杨明志* \\\nICCV研讨会2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00158)] \\\n2023年8月31日\n\n**MVDream：用于3D生成的多视角扩散模型** \\\n*史一春、王鹏、叶江龙、龙迈、李克杰、杨晓* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16512)] \\\n2023年8月31日\n\n**Diffusion Inertial Poser：从任意稀疏IMU配置中重建人体运动** \\\n*汤姆·范·沃韦、李承焕、安托万·法利斯、斯科特·德尔普、C·卡伦·刘* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16682)] \\\n2023年8月31日\n\n\n**InterDiff：基于物理约束的扩散模型生成3D人-物交互** \\\n*徐思睿、李正元、王宇雄、桂良燕* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.16905)] [[项目](https:\u002F\u002Fsirui-xu.github.io\u002FInterDiff\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FSirui-Xu\u002FInterDiff)] \\\n2023年8月31日\n\n\n\n**离散潜在空间中的优先级导向人体运动生成** \\\n*孔汉阳、龚可洪、连东泽、米凯尔·比米、王新超* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14480)] \\\n2023年8月28日\n\n**HoloFusion：迈向照片级逼真的3D生成建模** \\\n*阿尼梅什·卡尔内瓦尔、尼洛伊·J·米特拉、安德烈亚·韦达尔迪、大卫·诺沃特尼* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14244)] [[项目](https:\u002F\u002Fholodiffusion.github.io\u002Fholofusion\u002F)] \\\n2023年8月28日\n\n**使用Transformer的条件向量量化代码扩散进行未对齐的2D到3D转换** \\\n*阿布里尔·科罗纳-菲格罗亚、萨姆·邦德-泰勒、尼兰詹·鲍米克、约娜·法利涅·A·高斯、托比·P·布雷肯、胡伯特·P·H·舒姆、克里斯·G·威尔科克斯* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14152)] \\\n2023年8月27日\n\n**Sparse3D：从稀疏视图中蒸馏多视角一致的扩散模型以进行物体重建** \\\n*邹子欣、程伟浩、曹延佩、黄世盛、单颖、张松海* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14078)] \\\n2023年8月27日\n\n**基于多平面去噪扩散的维度扩展，用于具有协调采样的微结构2D到3D重建** \\\n*李康贤、尹根镇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14035)] \\\n2023年8月27日\n\n**DiffuseStyleGesture+ 参与2023年GENEA挑战赛的作品** \\\n*杨思成、薛海伟、张振松、李明磊、吴志勇、吴晓飞、徐松岑、戴宗宏* \\\nICMI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13879)] [[GitHub](https:\u002F\u002Fgithub.com\u002FYoungSeng\u002FDiffuseStyleGesture\u002Ftree\u002FDiffuseStyleGesturePlus\u002FBEAT-TWH-main)] \\\n2023年8月26日\n\n**分布对齐的扩散模型用于人体网格恢复** \\\n*林耿福、龚佳、侯赛因·拉赫马尼、刘俊* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13369)] [[项目](https:\u002F\u002Fgongjia0208.github.io\u002FHMDiff\u002F)] \\\n2023年8月25日\n\n**EfficientDreamer：通过正交视图扩散先验实现高保真且鲁棒的3D创作** \\\n*赵敏达、赵超毅、梁心悦、李林诚、赵增、胡志鹏、樊昌杰、辛宇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.13223)] \\\n2023年8月25日\n\n\n\n**DF-3DFace：基于扩散模型的一对多语音同步3D人脸动画** \\\n*朴世珍、洪乔安娜、金民洙、卢永满* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05934)] \\\n2023年8月23日\n\n**LongDanceDiff：基于条件扩散模型的长期舞蹈生成** \\\n*杨思琪、杨泽军、王志胜* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11945)] \\\n2023年8月23日\n\n**IT3D：通过显式视图合成改进文本到3D的生成** \\\n*陈艺文、张驰、杨晓峰、蔡中刚、于刚、杨磊、林国生* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11473)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FIT3D-text-to-3D)] \\\n2023年8月22日\n\n**基于点-UV扩散在3D网格上生成纹理** \\\n*辛宇、戴鹏、李文博、马兰、刘正哲、齐小娟* \\\nICCV 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10490)] \\\n2023年8月21日\n\n**基于物理引导的姿态概率建模的人体动作捕捉** \\\n*鞠静怡、黄步震、朱晨、李志豪、王洋刚* \\\nIJCAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09910)] [[GitHub](https:\u002F\u002Fgithub.com\u002FMe-Ditto\u002FPhysics-Guided-Mocap)] \\\n2023年8月19日\n\n**无监督的非刚性运动恢复结构建模下的3D姿态估计** \\\n*姬浩瑞、邓辉、戴宇超、李洪东* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.10705)] \\\n2023年8月18日\n\n**MATLABER：基于LAtent BRDF自动编码器的材料感知文本到3D生成** \\\n*许旭东、吕兆阳、潘兴刚、戴博* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09278)] [[项目](https:\u002F\u002Fsheldontsui.github.io\u002Fprojects\u002FMatlaber)] \\\n2023年8月18日\n\n**O^2-Recon：利用预训练的2D扩散模型完成场景中被遮挡物体的3D重建** \\\n*胡宇斌、叶晟、赵旺、林马蒂厄、何宇泽、温玉辉、何英、刘永进* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09591)] \\\n2023年8月18日\n\n\n**基于去噪扩散的图像到3D手部姿态估计** \\\n*马克西姆·伊瓦谢奇金、奥斯卡·门德斯、理查德·鲍登* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09523)] \\\n2023年8月18日\n\n**PoSynDA：用于鲁棒3D人体姿态估计的多假设姿态合成领域适应** \\\n*刘汉冰、何俊彦、程志奇、项望梦、杨启泽、柴文浩、王高昂、包旭、罗斌、耿义峰、谢宣松* \\\nACM MM 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09678)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhbing-l\u002FPoSynDA)] \\\n2023年8月18日\n\n**Guide3D：根据文本和图像指导创建3D虚拟形象** \\\n*曹宇康、曹延佩、韩凯、单颖、王关仪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09705)] \\\n2023年8月18日\n\n\n\n**DMCVR：用于3D心脏体积重建的形态学引导扩散模型** \\\n*何晓晓、谭朝伟、韩立功、刘波、莱昂·阿克塞尔、李康、迪米特里斯·N·梅塔克萨斯* \\\nMICCAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09223)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhexiaoxiao-cs\u002FDMCVR)] \\\n2023年8月18日\n\n**HumanLiff：基于扩散模型的分层3D人体生成** \\\n*胡守康、洪方舟、胡涛、潘亮、梅海怡、肖伟业、杨磊、刘子威* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09712)] [[项目](https:\u002F\u002Fskhu101.github.io\u002FHumanLiff\u002F)] \\\n2023年8月18日\n\n\n\n**注意你的脚步：通过文本指令进行局部图像和场景编辑** \\\n*阿什坎·米尔扎伊、特里斯坦·奥门塔多-阿姆斯特朗、马库斯·A·布鲁贝克、乔纳森·凯利、亚历克斯·列文施泰因、康斯坦丁诺斯·G·德尔帕尼斯、伊戈尔·吉利琴斯基* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08947)] [[项目](https:\u002F\u002Fashmrz.github.io\u002FWatchYourSteps\u002F)] \\\n2023年8月17日\n\n**TeCH：基于文本指导的逼真着装人类重建** \\\n*黄扬毅、易洪伟、修雨良、廖婷婷、唐家祥、蔡登、尤斯图斯·蒂斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.08545)] [[项目](https:\u002F\u002Fhuangyangyi.github.io\u002FTeCH\u002F)]] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhuangyangyi\u002FTeCH)] \\\n2023年8月16日\n\n**CCD-3DR：用于单图像 3D 重建的扩散模型中的一致性条件化** \\\n*Yan Di、Chenyangguang Zhang、Pengyuan Wang、Guangyao Zhai、Ruida Zhang、Fabian Manhardt、Benjamin Busam、Xiangyang Ji、Federico Tombari* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07837)] \\\n2023年8月15日\n\n**舞动化身：基于姿态与文本指导的图像扩散模型人体运动视频合成** \\\n*Bosheng Qin、Wentao Ye、Qifan Yu、Siliang Tang、Yueting Zhuang* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07749)] \\\n2023年8月15日\n\n**利用场景图的 3D 场景扩散引导** \\\n*Mohammad Naanaa、Katharina Schmid、Yinyu Nie* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04468)] \\\n2023年8月8日\n\n**Cloth2Tex：用于 3D 虚拟试衣的定制化布料纹理生成流水线** \\\n*Daiheng Gao、Xu Chen、Xindi Zhang、Qi Wang、Ke Sun、Bang Zhang、Liefeng Bo、Qixing Huang* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04288)] \\\n2023年8月8日\n\n\n\n**AvatarVerse：基于文本和姿态的高质量且稳定的 3D 化身生成** \\\n*Huichao Zhang、Bowen Chen、Hao Yang、Liao Qu、Xu Wang、Li Chen、Chao Long、Feida Zhu、Kang Du、Min Zheng* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03610)] [[项目](https:\u002F\u002Favatarverse3d.github.io\u002F)] \\\n2023年8月7日\n\n**基于扩散模型的概率人体网格恢复的生成式方法** \\\n*Hanbyel Cho、Junmo Kim* \\\nICCV 工作坊 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02963)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fhanbyel0105\u002FDiff-HMR)] \\\n2023年8月5日\n\n**DiffDance：用于舞蹈生成的级联人体运动扩散模型** \\\n*Qiaosong Qi、Le Zhuo、Aixi Zhang、Yue Liao、Fei Fang、Si Liu、Shuicheng Yan* \\\nACM MM 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02915)] \\\n2023年8月5日\n\n**基于草图和文本指导的彩色点云生成扩散模型** \\\n*Zijie Wu、Yaonan Wang、Mingtao Feng、He Xie、Ajmal Mian* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02874)] \\\n2023年8月5日\n\n**关于从神经表征到符号知识的过渡** \\\n*Junyan Cheng、Peter Chin* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02000)] \\\n2023年8月3日\n\n**通过连贯采样利用扩散模型合成长期人体运动** \\\n*Zhao Yang、Bing Su、Ji-Rong Wen* \\\nACM MM 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01850)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fyangzhao1230\u002FPCMDM)] \\\n2023年8月3日\n\n\n\n**HD-Fusion：利用多噪声估计实现细节丰富的文本到 3D 生成** \\\n*Jinbo Wu、Xiaobo Gao、Xing Liu、Zhengyang Shen、Chen Zhao、Haocheng Feng、Jingtuo Liu、Errui Ding* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16183)] \\\n2023年7月30日\n\n**TransFusion：一种实用且高效的基于 Transformer 的扩散模型，用于 3D 人体运动预测** \\\n*Sibo Tian、Minghui Zheng、Xiao Liang* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16106)] \\\n2023年7月30日\n\n**TEDi：用于长期运动合成的时间纠缠扩散模型** \\\n*Zihan Zhang、Richard Liu、Kfir Aberman、Rana Hanocka* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.15042)] \\\n2023年7月27日\n\n\n**Points-to-3D：弥合稀疏点云与形状可控的文本到 3D 生成之间的差距** \\\n*Chaohui Yu、Qiang Zhou、Jingliang Li、Zhe Zhang、Zhibin Wang、Fan Wang* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.13908)] \\\n2023年7月26日\n\n**假装而不造假：用于精确 3D 面部形状估计的条件化人脸生成** \\\n*Will Rowan、Patrik Huber、Nick Pears、Andrew Keeling* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.13639)] \\\n2023年7月25日\n\n**NIFTY：用于引导式人体运动合成的神经对象交互场** \\\n*Nilesh Kulkarni、Davis Rempe、Kyle Genova、Abhijit Kundu、Justin Johnson、David Fouhey、Leonidas Guibas* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07511)] [[项目](https:\u002F\u002Fnileshkulkarni.github.io\u002Fnifty\u002F)] \\\n2023年7月14日\n\n**AvatarFusion：使用 2D 指纹扩散模型零样本生成解耦服装的 3D 化身** \\\n*Shuo Huang、Zongxin Yang、Liangting Li、Yi Yang、Jia Jia* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.06526)] \\\n2023年7月13日\n\n**利用文本到图像扩散模型生成关节式 3D 头部化身** \\\n*Alexander W. Bergman、Wang Yifan、Gordon Wetzstein* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04859)] \\\n2023年7月10日\n\n**回归优化：基于扩散的零样本 3D 人体姿态估计** \\\n*Zhongyu Jiang、Zhuoran Zhou、Lei Li、Wenhao Chai、Cheng-Yen Yang、Jenq-Neng Hwang* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03833)] \\\n2023年7月7日\n\n**潜在 3D 指纹扩散模型的自动解码** \\\n*Evangelos Ntavelis、Aliaksandr Siarohin、Kyle Olszewski、Chaoyang Wang、Luc Van Gool、Sergey Tulyakov* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.05445)] \\\n2023年7月7日\n\n**SVDM：用于伪立体 3D 物体检测的单视图扩散模型** \\\n*Yuguang Shi* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.02270)] \\\n2023年7月5日\n\n**DiT-3D：探索用于 3D 形状生成的纯扩散 Transformer** \\\n*Shentong Mo、Enze Xie、Ruihang Chu、Lewei Yao、Lanqing Hong、Matthias Nießner、Zhenguo Li* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.01831)] \\\n2023年7月4日\n\n**Magic123：结合 2D 和 3D 指纹先验，仅凭一张图片即可生成高质量 3D 对象** \\\n*Guocheng Qian、Jinjie Mai、Abdullah Hamdi、Jian Ren、Aliaksandr Siarohin、Bing Li、Hsin-Ying Lee、Ivan Skorokhodov、Peter Wonka、Sergey Tulyakov、Bernard Ghanem* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17843)] [[项目](https:\u002F\u002Fguochengqian.github.io\u002Fproject\u002Fmagic123\u002F)] \\\n2023年6月30日\n\n**米开朗基罗：基于形状—图像—文本对齐的潜在表征的条件化 3D 形状生成** \\\n*Zibo Zhao、Wen Liu、Xin Chen、Xianfang Zeng、Rui Wang、Pei Cheng、Bin Fu、Tao Chen、Gang Yu、Shenghua Gao* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17115)] \\\n2023年6月29日\n\n**DiffComplete：基于扩散的生成式 3D 形状补全** \\\n*Ruihang Chu、Enze Xie、Shentong Mo、Zhenguo Li、Matthias Nießner、Chi-Wing Fu、Jiaya Jia* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16329)] \\\n2023年6月28日\n\n**DreamTime：用于文本到 3D 内容创作的改进优化策略** \\\n*Yukun Huang、Jianan Wang、Yukai Shi、Xianbiao Qi、Zheng-Jun Zha、Lei Zhang* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.12422)] \\\n2023年6月21日\n\n**EMoG：利用扩散模型合成富有情感的伴随言语 3D 手势** \\\n*Lianying Yin、Yijun Wang、Tianyu He、Jinming Liu、Wei Zhao、Bohan Li、Xin Jin、Jianxin Lin* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.11496)] \\\n2023年6月20日\n\n\n**利用预训练文本到图像指纹扩散模型进行点云补全** \\\n*Yoni Kasten、Ohad Rahamim、Gal Chechik* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.10533)] \\\n2023年6月18日\n\n**AvatarBooth：高质量且可定制的 3D 人类化身生成** \\\n*Yifei Zeng、Yuanxun Lu、Xinya Ji、Yao Yao、Hao Zhu、Xun Cao* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09864)] \\\n2023年6月16日\n\n**Edit-DiffNeRF：基于2D扩散模型的3D神经辐射场编辑** \\\n*陆宇、魏翔、韩康* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09551)] \\\n2023年6月15日\n\n**在扩散模型中加入3D几何控制** \\\n*马武飞、刘启豪、王嘉浩、王昂天、刘瑶瑶、亚当·科蒂莱夫斯基、艾伦·尤伊尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08103)] \\\n2023年6月13日\n\n**视图集扩散：从2D数据生成(0-)图像条件的3D生成模型** \\\n*斯坦尼斯瓦夫·希曼诺维奇、克里斯蒂安·鲁普雷希特、安德烈亚·韦达尔迪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07881)] \\\n2023年6月13日\n\n**通过去噪体素网格生成3D分子** \\\n*佩德罗·O·皮涅罗、乔舒亚·拉克斯、约瑟夫·克莱因亨茨、迈克尔·马瑟、奥马尔·马赫穆德、安德鲁·马丁·沃特金斯、斯蒂芬·拉、维什努·斯雷什特、萨伊德·萨雷米* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07473)] \\\n2023年6月13日\n\n**InstructP2P：学习使用文本指令编辑3D点云** \\\n*徐佳乐、王新涛、曹燕沛、程伟浩、单莹、高圣华* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07154)] \\\n2023年6月12日\n\n**RePaint-NeRF：通过语义掩码和扩散模型编辑NeRF** \\\n*周兴晨、何颖、F·理查德·余、李建强、李友* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05668)] \\\n2023年6月9日\n\n**随机多人3D运动预测** \\\n*徐思睿、王宇雄、桂良燕* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05421)] \\\n2023年6月8日\n\n**ARTIC3D：从噪声网络图像集合中学习鲁棒的可关节3D形状** \\\n*姚春汉、阿米特·拉杰、洪伟志、李元振、迈克尔·鲁宾斯坦、杨明轩、瓦伦·詹帕尼* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04619)] \\\n2023年6月7日\n\n**在潜在空间中利用去噪扩散合成逼真的沙粒集合** \\\n*尼古拉奥斯·N·弗拉西斯、孙伟清、哈立德·A·阿尔希布利、理查德·A·雷盖罗* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04411)] \\\n2023年6月7日\n\n\n**AvatarStudio：文本驱动的3D动态人头化身编辑** \\\n*莫希特·门迪拉塔、潘星刚、穆罕默德·埃尔加里卜、卡尔蒂克·提奥蒂亚、Mallikarjun B R、阿尤什·特瓦里、弗拉季斯拉夫·戈利亚尼克、亚当·科蒂莱夫斯基、克里斯蒂安·泰奥巴尔特* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00547)] \\\n2023年6月1日\n\n\n**DiffRoom：基于扩散模型的高质量3D房间重建与生成** \\\n*鞠晓亮、黄兆阳、李一瑾、张国峰、乔宇、李宏胜* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00519)] \\\n2023年6月1日\n\n**可控运动扩散模型** \\\n*史毅、王景博、蒋学坤、戴波* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00416)] [[项目](https:\u002F\u002Fcontrollablemdm.github.io\u002F)] \\\n2023年6月1日\n\n**FDNeRF：基于扩散模型的语义驱动人脸重建、提示编辑与重照明** \\\n*张浩、许延波、戴天远、于永、唐志强* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00783)] \\\n2023年6月1日\n\n**从单目图像中隐式重建手持物体并学习显式接触** \\\n*胡俊星、张洪文、陈泽瑞、李梦成、王云龙、刘业斌、孙振楠* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.20089)] [[项目](https:\u002F\u002Fjunxinghu.github.io\u002Fprojects\u002Fhoi.html)] \\\n2023年5月31日\n\n**StyleAvatar3D：利用图文扩散模型生成高保真3D化身** \\\n*张驰、陈艺文、傅一君、周正林、于刚、Billzb Wang、傅彬、陈涛、林国生、沈春华* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19012)] \\\n2023年5月30日\n\n**HiFA：基于先进扩散引导的高保真文本到3D生成** \\\n*朱俊哲、庄培烨* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18766)] \\\n2023年5月30日\n\n\n**用于语义3D医学图像合成的条件扩散模型** \\\n*卓那玛尔·多日森贝、包兴国、索达特维兰·奥东奇梅德、肖福仁* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18453)] \\\n2023年5月29日\n\n**ZeroAvatar：从单张图像零样本生成3D化身** \\\n*翁珍珍、王泽宇、谢丽娜·杨* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16411)] \\\n2023年5月25日\n\n**NAP：神经3D关节先验** \\\n*雷家辉、邓聪悦、申博魁、列奥尼达斯·吉巴斯、科斯塔斯·达尼利迪斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16315)] [[项目](https:\u002F\u002Fwww.cis.upenn.edu\u002F~leijh\u002Fprojects\u002Fnap\u002F)] \\\n2023年5月25日\n\n**CommonScenes：利用场景图生成常识性3D室内场景** \\\n*翟广耀、埃文·皮纳尔·厄内克、吴顺诚、严迪、费德里科·汤巴里、纳西尔·纳瓦布、本杰明·布萨姆* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16283)] \\\n2023年5月25日\n\n\n**ProlificDreamer：利用变分得分蒸馏实现高保真且多样化的文本到3D生成** \\\n*王政毅、卢成、王亦凯、鲍凡、李崇轩、苏航、朱军* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16213)] [[项目](https:\u002F\u002Fml.cs.tsinghua.edu.cn\u002Fprolificdreamer\u002F)] \\\n2023年5月25日\n\n**DiffCLIP：利用Stable Diffusion进行语言嵌入的3D分类** \\\n*沈思恬、朱子琳、范琳倩、张哈利、吴欣晓* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15957)] \\\n2023年5月25日\n\n**通过SE(3)上的基于分数的扩散解决6D目标位姿估计中的歧义问题** \\\n*萧祖青、陈浩伟、杨玄功、李春义* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15873)] \\\n2023年5月25日\n\n**Deceptive-NeRF：利用来自扩散模型的伪观测增强NeRF重建** \\\n*刘欣航、高修鸿、陈嘉奔、于永、唐志强* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15171)] \\\n2023年5月24日\n\n**流形扩散场** \\\n*艾哈迈德·A·埃尔哈格、乔书亚·M·萨斯金德、米格尔·安赫尔·巴乌蒂斯塔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15586)] \\\n2023年5月24日\n\n**Sin3DM：从单个3D纹理形状中学习扩散模型** \\\n*吴润地、刘若诗、卡尔·冯德里克、郑昌熙* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15399)] [[项目](https:\u002F\u002Fsin3dm.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FSin3DM\u002FSin3DM)] \\\n2023年5月24日\n\n**借助扩散模型的关键帧协作理解文本驱动的运动合成** \\\n*董伟、孙晓宁、孙怀江、李斌、胡盛祥、李卫青、陆建峰* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13773)] \\\n2023年5月23日\n\n**DiffHand：通过扩散模型端到端的手部网格重建** \\\n*李继军、卓莉安、张邦、薄立峰、陈晨* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13705)] \\\n2023年5月23日\n\n**GMD：通过引导式扩散模型实现可控的人体运动合成** \\\n*科拉韦·卡伦拉塔纳库尔、孔帕特·普里恰库尔、苏帕松·苏瓦贾纳科恩、唐思宇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12577)] [[项目](https:\u002F\u002Fkorrawe.github.io\u002Fgmd-project\u002F)] \\\n2023年5月21日\n\n**通过运动扩散实现全局一致的随机人体运动预测** \\\n*孙嘉睿、吉里什·乔杜里* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12554)] \\\n2023年5月21日\n\n**少样本三维形状生成** \\\n*朱京元、马慧敏、陈建生、袁健* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11664)] \\\n2023年5月19日\n\n**Chupa：利用二维扩散概率模型从蒙皮形状先验中雕刻出穿着衣物的三维人体** \\\n*金炳俊、帕特里克·权、李光浩、李明基、韩淑婉、金大植、朱汉别尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11870)] [[项目](https:\u002F\u002Fsnuvclab.github.io\u002Fchupa\u002F)] \\\n2023年5月19日\n\n**Text2NeRF：基于文本驱动的神经辐射场三维场景生成** \\\n*张景博、李晓宇、万子宇、王灿、廖静* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11588)] \\\n2023年5月19日\n\n\n**RoomDreamer：基于文本驱动的具有连贯几何与纹理的三维室内场景合成** \\\n*宋良辰、曹亮亮、许洪宇、康凯、唐峰、袁俊松、赵阳* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11337)] \\\n2023年5月18日\n\n**LDM3D：用于三维的潜在扩散模型** \\\n*加布里埃拉·本·梅莱赫·斯坦、黛安娜·沃尔夫克、斯科蒂·福克斯、亚历克斯·雷登、威尔·萨克斯顿、让·于、埃斯特尔·阿夫拉洛、邵燕·曾、法比奥·诺纳托、马蒂亚斯·穆勒、瓦塞德夫·拉尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10853)] \\\n2023年5月18日\n\n**Make-An-Animation：大规模文本条件化的三维人体运动生成** \\\n*萨曼内·阿扎迪、阿克巴尔·沙赫、托马斯·海耶斯、戴维·帕里克、索娜尔·古普塔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09662)] [[项目](https:\u002F\u002Fazadis.github.io\u002Fmake-an-animation\u002F)] \\\n2023年5月16日\n\n**FitMe：深度照片级逼真的三维可变形模型化身** \\\n*亚历山德罗斯·拉塔斯、斯蒂利亚诺斯·莫斯霍格卢、斯蒂利亚诺斯·普卢姆皮斯、巴里斯·盖切尔、邓建康、斯特凡诺斯·扎菲里乌* \\\nCVPR 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09641)] [[项目](https:\u002F\u002Falexlattas.com\u002Ffitme)] \\\n2023年5月16日\n\n**AMD：自回归运动扩散** \\\n*韩博、彭浩、董敏静、徐畅、任毅、沈一轩、李宇恒* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09381)] \\\n2023年5月16日\n\n\n**文本引导的高清晰度一致性纹理模型** \\\n*汤志斌、何天童* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05901)] \\\n2023年5月10日\n\n**Relightify：通过扩散模型从单张图像重建可重光照的三维人脸** \\\n*福伊沃斯·帕拉佩拉斯·帕潘托尼乌、亚历山德罗斯·拉塔斯、斯蒂利亚诺斯·莫斯霍格卢、斯特凡诺斯·扎菲里乌* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06077)] [[项目](https:\u002F\u002Ffoivospar.github.io\u002FRelightify\u002F)] \\\n2023年5月10日\n\n**CaloClouds：快速、与几何无关的高粒度量能器模拟** \\\n*埃里克·布赫曼、萨沙·迪芬巴赫、恩京·埃伦、弗兰克·盖德、格雷戈尔·卡西奇卡、阿纳托利·科罗尔、威廉·科尔卡里、卡佳·克吕格、彼得·麦基翁* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04847)] \\\n2023年5月8日\n\n**局部注意力SDF扩散用于可控三维形状生成** \\\n*郑新阳、潘浩、王鹏帅、佟欣、刘洋、沈向洋* \\\nSIGGRAPH 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.04461)] \\\n2023年5月8日\n\n**DiffFacto：基于跨扩散的可控部件式三维点云生成** \\\n*中山清弘、米凯拉·安杰莉娜·乌伊、黄家辉、胡士民、李科、列奥尼达斯·J·吉巴斯* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01921)] [[GitHub](https:\u002F\u002Fdifffacto.github.io\u002F)] \\\n2023年5月4日\n\n**Shap-E：生成条件化的三维隐式函数** \\\n*Jun Heewoo、Alex Nichol* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.02463)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fshap-e)] \\\n2023年5月3日\n\n**ContactArt：学习类别级别的可铰接物体及手部姿态估计的三维交互先验** \\\n*朱泽昊、王嘉顺、秦宇哲、孙德庆、瓦伦·詹帕尼、王小龙* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01618)] [[项目](https:\u002F\u002Fzehaozhu.github.io\u002FContactArt\u002F)] \\\n2023年5月2日\n\n**DreamPaint：无需三维建模的虚拟试穿用电商商品少样本修复** \\\n*梅赫梅特·赛金·塞菲奥卢、卡里姆·布亚尔曼、苏仁·库马尔、阿米尔·塔瓦奈伊、伊斯梅尔·B·图塔尔* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01257)] \\\n2023年5月2日\n\n**为NeRFs学习扩散先验** \\\n*杨冠道、阿比吉特·昆杜、列奥尼达斯·J·吉巴斯、乔纳森·T·巴伦、本·普尔* \\\nICLR研讨会2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14473)] \\\n2023年4月27日\n\n**TextMesh：根据文本提示生成逼真的三维网格** \\\n*克里斯蒂娜·察利科格鲁、法比安·曼哈特、阿莱西奥·托尼奥尼、迈克尔·尼迈耶、费德里科·汤巴里* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12439)] \\\n2023年4月24日\n\n**Nerfbusters：去除随意拍摄的NeRF中的鬼影伪影** \\\n*弗雷德里克·瓦尔堡、伊桑·韦伯、马修·坦西克、亚历山大·霍林斯基、安久·卡纳扎瓦* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10532)] [[项目](https:\u002F\u002Fethanweber.me\u002Fnerfbusters\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fethanweber\u002Fnerfbusters)] \\\n2023年4月20日\n\n**Farm3D：通过蒸馏二维扩散学习可铰接的三维动物** \\\n*托马斯·雅卡布、李瑞宁、吴尚哲、克里斯蒂安·鲁普雷希特、安德烈亚·韦达尔迪* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10535)] [[项目](https:\u002F\u002Ffarm3d.github.io\u002F)] \\\n2023年4月20日\n\n**Anything-3D：迈向野外单视图任意物体重建** \\\n*沈秋红、杨兴义、王新超* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10261)] \\\n2023年4月19日\n\n\n**化身长出双腿：利用扩散模型从稀疏跟踪输入生成平滑的人体运动** \\\n*杜宇明、罗宾·基普斯、阿尔伯特·普马罗拉、塞巴斯蒂安·施塔克、阿里·塔贝特、阿尔乔姆·萨纳科耶夫* \\\nCVPR 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08577)] [[项目](https:\u002F\u002Fdulucas.github.io\u002Fagrol\u002F)] [[GitHub]()] \\\n2023年4月17日\n\n**通过奖励引导的探索迈向可控扩散模型** \\\n*张恒通、许婷洋* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.07132)] \\\n2023年4月14日\n\n**从单视图图像学习可控三维扩散模型** \\\n*顾家涛、高青哲、翟双飞、陈宝泉、刘凌杰、乔什·萨斯金德* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06700)] [[项目](https:\u002F\u002Fjiataogu.me\u002Fcontrol3diff\u002F)] \\\n2023年4月13日\n\n**单阶段扩散NeRF：一种统一的三维生成与重建方法** \\\n*陈汉生、顾家涛、陈安培、田伟、涂卓文、刘凌杰、苏浩* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06714)] [[项目](https:\u002F\u002Flakonik.github.io\u002Fssdnerf\u002F)] \\\n2023年4月13日\n\n**从第一人称视角在三维场景中进行概率性人体网格恢复** \\\n*张思伟、马倩丽、张燕、萨德格·阿里阿克巴里安、达伦·科斯克、唐思宇* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06024)] [[项目](https:\u002F\u002Fsanweiliti.github.io\u002Fegohmr\u002Fegohmr.html)] \\\n2023年4月12日\n\n**InterGen：复杂交互下的基于扩散的多人体运动生成** \\\n*Han Liang、Wenqian Zhang、Wenxuan Li、Jingyi Yu、Lan Xu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.05684)] [[GitHub](https:\u002F\u002Fgithub.com\u002Ftr3e\u002FInterGen)] \\\n2023年4月12日\n\n**从第一人称视角中在3D场景中进行概率性人体网格恢复** \\\n*Siwei Zhang、Qianli Ma、Yan Zhang、Sadegh Aliakbarian、Darren Cosker、Siyu Tang* \\\narXiv 2023年。[[论文]()] [[项目](https:\u002F\u002Fsanweiliti.github.io\u002Fegohmr\u002Fegohmr.html)] \\\n2023年4月12日\n\n\n**重新构想负向提示算法：将2D扩散模型转化为3D，缓解Janus问题及更多** \\\n*Mohammadreza Armandpour、Huangjie Zheng、Ali Sadeghian、Amir Sadeghian、Mingyuan Zhou* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04968)] [[项目](https:\u002F\u002Fperp-neg.github.io\u002F)] \\\n2023年4月11日\n\n\n\n**NeRF应用于卫星影像以进行地表重建** \\\n*Federico Semeraro、Yi Zhang、Wenying Wu、Patrick Carroll* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04133)] [[GitHub](https:\u002F\u002Fgithub.com\u002Ffsemerar\u002Fsatnerf)] \\\n2023年4月9日\n\n**DITTO-NeRF：基于扩散的迭代式文本到全向3D模型生成** \\\n*Hoigi Seo、Hayeon Kim、Gwanghyun Kim、Se Young Chun* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02827)] [[项目](https:\u002F\u002Fjaneyeon.github.io\u002Fditto-nerf\u002F)] \\\n2023年4月6日\n\n\n**基于3D感知扩散模型的生成式新视图合成** \\\n*Eric R. Chan、Koki Nagano、Matthew A. Chan、Alexander W. Bergman、Jeong Joon Park、Axel Levy、Miika Aittala、Shalini De Mello、Tero Karras、Gordon Wetzstein* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.02602)] [[项目](https:\u002F\u002Fnvlabs.github.io\u002Fgenvs\u002F)] \\\n2023年4月5日\n\n**Trace and Pace：通过引导轨迹扩散实现可控行人动画** \\\n*Davis Rempe、Zhengyi Luo、Xue Bin Peng、Ye Yuan、Kris Kitani、Karsten Kreis、Sanja Fidler、Or Litany* \\\nCVPR 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01893)] [[GitHub](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Ftoronto-ai\u002Ftrace-pace\u002F)] \\\n2023年4月4日\n\n**PODIA-3D：利用姿态保持的文生图扩散模型，在大领域差距下实现3D生成模型的域适应** \\\n*Gwanghyun Kim、Ji Ha Jang、Se Young Chun* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01900)] [[项目](https:\u002F\u002Fgwang-kim.github.io\u002Fpodia_3d\u002F)] \\\n2023年4月4日\n\n**ReMoDiffuse：检索增强型运动扩散模型** \\\n*Mingyuan Zhang、Xinying Guo、Liang Pan、Zhongang Cai、Fangzhou Hong、Huirong Li、Lei Yang、Ziwei Liu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01116)] [[项目](https:\u002F\u002Fmingyuan-zhang.github.io\u002Fprojects\u002FReMoDiffuse.html)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fmingyuan-zhang\u002FReMoDiffuse)] \\\n2023年4月3日\n\n**基于自回归扩散模型的可控运动合成与重建** \\\n*Wenjie Yin、Ruibo Tu、Hang Yin、Danica Kragic、Hedvig Kjellström、Mårten Björkman* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04681)] \\\n2023年4月3日\n\n**DreamAvatar：通过扩散模型实现文本与形状引导的3D人类化身生成** \\\n*Yukang Cao、Yan-Pei Cao、Kai Han、Ying Shan、Kwan-Yee K. Wong* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.00916)] \\\n2023年4月3日\n\n**DreamFace：在文本指导下逐步生成可动画化的3D人脸** \\\n*Longwen Zhang、Qiwei Qiu、Hongyang Lin、Qixuan Zhang、Cheng Shi、Wei Yang、Ye Shi、Sibei Yang、Lan Xu、Jingyi Yu* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03117)] [[项目](https:\u002F\u002Fsites.google.com\u002Fview\u002Fdreamface)] \\\n2023年4月1日\n\n\n**AvatarCraft：通过参数化形状和姿态控制，将文本转化为神经网络驱动的人类化身** \\\n*Ruixiang Jiang、Can Wang、Jingbo Zhang、Menglei Chai、Mingming He、Dongdong Chen、Jing Liao* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17606)] [[项目](https:\u002F\u002Favatar-craft.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fsongrise\u002Favatarcraft)] \\\n2023年3月30日\n\n**HOLODIFFUSION：使用2D图像训练3D扩散模型** \\\n*Animesh Karnewar、Andrea Vedaldi、David Novotny、Niloy Mitra* \\\nCVPR 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16509)] [[项目](https:\u002F\u002Fholodiffusion.github.io\u002F)] \\\n2023年3月29日\n\n**4D面部表情扩散模型** \\\n*Kaifeng Zou、Sylvain Faisan、Boyang Yu、Sébastien Valette、Hyewon Seo* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16611)] [[GitHub](https:\u002F\u002Fgithub.com\u002FZOUKaifeng\u002F4DFM)] \\\n2023年3月29日\n\n\n**Instruct 3D-to-3D：文本指令引导的3D到3D转换** \\\n*Hiromichi Kamata、Yuiko Sakuma、Akio Hayakawa、Masato Ishii、Takuya Narihira* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15780)] [[项目](https:\u002F\u002Fsony.github.io\u002FInstruct3Dto3D-doc\u002F)] [[GitHub](https:\u002F\u002Fsony.github.io\u002FInstruct3Dto3D-doc\u002F)] \\\n2023年3月28日\n\n**利用可微分渲染进行人体新视图合成** \\\n*Guillaume Rochette、Chris Russell、Richard Bowden* \\\nIEEE T-BIOM 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15880)] [[GitHub](https:\u002F\u002Fgithub.com\u002FGuillaumeRochette\u002FHumanViewSynthesis)] \\\n2023年3月28日\n\n\n**对2D扩散模型的评分和提示进行去偏处理，以实现稳健的文生3D生成** \\\n*Susung Hong、Donghoon Ahn、Seungryong Kim* \\\nCVPR研讨会2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15413)] \\\n2023年3月27日\n\n**Make-It-3D：基于扩散先验，从单张图像中创建高保真3D内容** \\\n*Junshu Tang、Tengfei Wang、Bo Zhang、Ting Zhang、Ran Yi、Lizhuang Ma、Dong Chen* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14184)] [[项目](https:\u002F\u002Fmake-it-3d.github.io\u002F)] [[GitHub](https:\u002F\u002Fmake-it-3d.github.io\u002F)] \\\n2023年3月24日\n\n**ISS++：以图像为跳板，实现文本指导的3D形状生成** \\\n*Zhengzhe Liu、Peng Dai、Ruihui Li、Xiaojuan Qi、Chi-Wing Fu* \\\nICLR 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15181)] \\\n2023年3月24日\n\n**CompoNeRF：文本引导的多物体组合式NeRF，具有可编辑的3D场景布局** \\\n*Yiqi Lin、Haotian Bai、Sijia Li、Haonan Lu、Xiaodong Lin、Hui Xiong、Lin Wang* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13843)] [[项目](https:\u002F\u002Ffantasia3d.github.io\u002F)] \\\n2023年3月24日\n\n**Fantasia3D：解耦几何与外观，用于高质量的文生3D内容创作** \\\n*Rui Chen、Yongwei Chen、Ningxin Jiao、Kui Jia* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13873)] [[项目](https:\u002F\u002Ffantasia3d.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FGorilla-Lab-SCUT\u002FFantasia3D)] \\\n2023年3月24日\n\n**DDT：基于扩散驱动的Transformer框架，用于从视频中恢复人体网格** \\\n*Ce Zheng、Guo-Jun Qi、Chen Chen* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13397)] \\\n2023年3月23日\n\n**Instruct-NeRF2NeRF：用指令编辑3D场景** \\\n*Ayaan Haque、Matthew Tancik、Alexei A. Efros、Aleksander Holynski、Angjoo Kanazawa* \\\narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12789)] [[项目](https:\u002F\u002Finstruct-nerf2nerf.github.io\u002F)] \\\n2023年3月22日\n\n**FeatureNeRF：通过蒸馏基础模型学习可泛化的 NeRF** \\\n*叶江龙、王乃延、王晓龙* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12786)] [[项目](https:\u002F\u002Fjianglongye.com\u002Ffeaturenerf\u002F)] \\\n2023年3月22日\n\n**Vox-E：文本引导的三维物体体素编辑** \\\n*埃泰·塞拉、加尔·菲贝尔曼、彼得·赫德曼、哈达尔·阿韦尔布赫-埃洛尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12048)] [[项目](https:\u002F\u002Ftau-vailab.github.io\u002FVox-E\u002F)] \\\n2023年3月21日\n\n**基于局部条件扩散的组合式三维场景生成** \\\n*瑞安·波、戈登·韦茨施泰因* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12218)] [[GitHub](https:\u002F\u002Fryanpo.com\u002Fcomp3d\u002F)] \\\n2023年3月21日\n\n**基于扩散的多假设聚合三维人体姿态估计** \\\n*单文康、刘振华、张新峰、王钊、韩凯、王善设、马思伟、高文* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11579)] [[GitHub](https:\u002F\u002Fgithub.com\u002FpaTRICK-swk\u002FD3DP)] \\\n2023年3月21日\n\n**3D-CLFusion：对比潜在扩散驱动的快速文本到三维渲染** \\\n*李宇哲、克里斯·基塔尼* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11938)] \\\n2023年3月21日\n\n**Affordance Diffusion：合成手与物体的交互** \\\n*叶宇飞、李雪婷、阿比纳夫·古普塔、沙利尼·德梅洛、斯坦·伯奇菲尔德、宋佳明、舒巴姆·图尔西亚尼、刘思飞* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12538)] [[项目](https:\u002F\u002Fjudyye.github.io\u002Faffordiffusion-www\u002F)] \\\n2023年3月21日\n\n\n\n**SALAD：用于三维形状生成与操控的部件级潜在扩散模型** \\\n*具俊一、柳承佑、阮明孝、成珉赫* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12236)] [[项目](https:\u002F\u002Fsalad3d.github.io\u002F)] \\\n2023年3月21日\n\n**从低成本数据中学习三维可变形人脸反射率模型** \\\n*韩宇轩、王志博、徐峰* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11686)] [[项目](https:\u002F\u002Fyxuhan.github.io\u002FReflectanceMM\u002Findex.html)] \\\n2023年3月21日\n\n**Text2Tex：基于扩散模型的文本驱动纹理合成** \\\n*陈振宇、亚瓦尔·西迪基、李欣颖、谢尔盖·图利亚科夫、马蒂亚斯·尼斯纳* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11396)] [[项目](https:\u002F\u002Fdaveredrum.github.io\u002FText2Tex\u002F)] \\\n2023年3月20日\n\n**Zero-1-to-3：零样本单张图像转三维物体** \\\n*刘若诗、吴润迪、巴斯勒·范霍里克、帕维尔·托克马科夫、谢尔盖·扎哈罗夫、卡尔·冯德里克* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11328)] [[项目](https:\u002F\u002Fzero123.cs.columbia.edu\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcvlab-columbia\u002Fzero123)] \\\n2023年3月20日\n\n**SKED：草图引导的文本驱动三维编辑** \\\n*阿里扬·米卡伊利、奥尔·佩雷尔、丹尼尔·科恩-奥尔、阿里·马赫达维-阿米里* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10735)] \\\n2023年3月19日\n\n**3DQD：通过部件离散化扩散过程构建通用深度三维形状先验** \\\n*李宇涵、窦义顺、陈玄洪、倪兵兵、孙怡琳、刘宇田、王福珍* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.10406)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcolorful-liyu\u002F3DQD)] \\\n2023年3月18日\n\n**驯服扩散模型用于音频驱动的共言语手势生成** \\\n*朱玲婷、刘贤、刘宣宇、钱睿、刘子威、于乐泉* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09119)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAdvocate99\u002FDiffGesture)] \\\n2023年3月16日\n\n**Diffusion-HPC：生成具有逼真人像的合成图像** \\\n*翁振振、劳拉·布拉沃-桑切斯、塞蕾娜·杨* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09541)] [[GitHub](https:\u002F\u002Fgithub.com\u002FZZWENG\u002FDiffusion_HPC)] \\\n2023年3月16日\n\n**DINAR：用于一次性生成人类化身的神经纹理扩散修复** \\\n*大卫·斯维托夫、德米特里·古德科夫、雷纳特·巴希罗夫、维克托·伦皮茨基* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.09375)] \\\n2023年3月16日\n\n**利用预训练的垂直二维扩散模型提升三维成像质量** \\\n*李秀贤、郑炯镇、朴敏英、朴宗赫、柳威淳、叶钟哲* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08440)] \\\n2023年3月15日\n\n**通过稀疏潜在点扩散模型实现可控网格生成** \\\n*吕兆阳、王金义、安宇伟、张雅、林大华、戴博* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07938)] [[项目](https:\u002F\u002Fslide-3d.github.io\u002F)] \\\n2023年3月14日\n\n**MeshDiffusion：基于分数函数的生成式三维网格建模** \\\n*刘震、冯瑶、迈克尔·J·布莱克、德里克·诺鲁泽扎赖、利亚姆·保尔、刘伟洋* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08133)] [[项目](https:\u002F\u002Fmeshdiffusion.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flzzcd001\u002FMeshDiffusion\u002F)] \\\n2023年3月14日\n\n**用于自动生成植入物的点云扩散模型** \\\n*保罗·弗里德里希、茱莉娅·沃尔莱布、弗洛伦丁·比德尔、弗洛里安·M·蒂林格、菲利普·C·卡廷* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08061)] \\\n2023年3月14日\n\n**让二维扩散模型了解三维一致性，以实现稳健的文本到三维生成** \\\n*徐俊英、张宇锡、郭敏燮、高在勋、金贤洙、金俊浩、金晋和、李智英、金承龙* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07937)] [[GitHub](https:\u002F\u002Fgithub.com\u002FKU-CVLAB\u002F3DFuse)] \\\n2023年3月14日\n\n**GECCO：几何条件约束下的点扩散模型** \\\n*米哈尔·J·蒂什基维奇、帕斯卡尔·富阿、爱德华·特鲁尔斯* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05916)] \\\n2023年3月10日\n\n\n\n**3DGen：用于带纹理网格生成的三平面潜在扩散模型** \\\n*安奇特·古普塔、熊文翰、聂毅欣、伊恩·琼斯、巴拉斯·奥古兹* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.05371)] \\\n2023年3月9日\n\n**人类运动扩散作为生成先验** \\\n*约纳坦·沙菲尔、盖伊·特韦特、罗伊·卡蓬、阿米特·H·贝尔马诺* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.01418)] \\\n2023年3月2日\n\n**我们能否将扩散概率模型用于三维运动预测？** \\\n*安慧敏、埃斯特韦·瓦尔斯·马斯卡罗、李东辉* \\\nICRA 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.14503)] [[项目](https:\u002F\u002Fsites.google.com\u002Fview\u002Fdiffusion-motion-prediction)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fcotton-ahn\u002Fdiffusion-motion-prediction)] \\\n2023年2月28日\n\n\n**DiffusioNeRF：用去噪扩散模型正则化神经辐射场** \\\n*杰米·温恩、达尼亚尔·图尔穆罕贝托夫* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.12231)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fnianticlabs\u002Fdiffusionerf)] [[GitHub](https:\u002F\u002Fgithub.com\u002Flukemelas\u002Fprojection-conditioned-point-cloud-diffusion)] \\\n2023年2月23日\n\n**PC2：投影条件约束的点云扩散用于单张图像三维重建** \\\n*卢克·梅拉斯-基里亚齐、克里斯蒂安·鲁普雷希特、安德烈亚·韦达尔迪* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10668)] [[项目](https:\u002F\u002Flukemelas.github.io\u002Fprojection-conditioned-point-cloud-diffusion\u002F)] \\\n2023年2月23日\n\n**NerfDiff：基于NeRF引导的3D感知扩散蒸馏的单图像视图合成** \\\n*贾涛·顾、亚历克斯·特雷维西克、林凯恩、乔什·萨斯金德、克里斯蒂安·托巴尔特、刘凌杰、拉维·拉马穆尔蒂* \\\nICML 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10109)] [[GitHub](https:\u002F\u002Fjiataogu.me\u002Fnerfdiff\u002F)] \\\n2023年2月20日\n\n**SinMDM：单运动扩散模型** \\\n*西加尔·拉布、因巴尔·莱博维奇、盖伊·特韦特、莫阿布·阿拉尔、阿米特·H·伯曼诺、丹尼尔·科恩-奥尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.05905)] [[项目](https:\u002F\u002Fsinmdm.github.io\u002FSinMDM-page\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FSinMDM\u002FSinMDM)] \\\n2023年2月12日\n\n**通过扩散从单张RGB图像重建3D彩色形状** \\\n*李博、魏晓林、陈峰伟、刘斌* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.05573)] \\\n2023年2月11日\n\n**HumanMAC：用于人体运动预测的掩码式运动补全** \\\n*陈凌浩、张佳伟、李业文、庞一仁、夏小波、刘通梁* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03665)] [[项目](https:\u002F\u002Flhchen.top\u002FHuman-MAC\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FLinghaoChan\u002FHumanMAC)] \\\n2023年2月7日\n\n**TEXTure：文本引导的3D形状纹理化** \\\n*埃拉德·理查森、加尔·梅策尔、尤瓦尔·阿拉卢夫、拉贾·吉里耶斯、丹尼尔·科恩-奥尔* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.01721)] [[项目](https:\u002F\u002Ftexturepaper.github.io\u002FTEXTurePaper\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FTEXTurePaper\u002FTEXTurePaper)] \\\n2023年2月3日\n\n\n**Zero3D：语义驱动的多类别3D形状生成** \\\n*韩博、刘逸桐、沈奕轩* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13591)] \\\n2023年1月31日\n\n**神经小波域扩散用于3D形状生成、反演与操控** \\\n*胡景宇、许嘉辉、刘正哲、李瑞辉、傅志威* \\\nSIGGRAPH ASIA 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.00190)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fedward1997104\u002FWavelet-Generation)] \\\n2023年2月1日\n\n**3DShape2VecSet：一种用于神经场和生成扩散模型的3D形状表示** \\\n*张彪、唐家鹏、马蒂亚斯·尼斯纳、彼得·翁卡* \\\nSIGGRAPH 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11445)] [[GitHub](https:\u002F\u002F1zb.github.io\u002F3DShape2VecSet\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002F1zb\u002F3DShape2VecSet)] \\\n2023年1月26日\n\n\n**DiffMotion：基于去噪扩散模型的语音驱动手势合成** \\\n*张帆、季娜叶、高福兴、李永平* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.10047)] \\\n2023年1月24日\n\n**用于人类交互生成的二分图扩散模型** \\\n*巴普蒂斯特·肖潘、唐浩、穆罕默德·达乌迪* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.10134)] \\\n2023年1月24日\n\n\n**基于扩散的3D场景生成、优化与规划** \\\n*黄思远、王赞、李普浩、贾宝雄、刘腾宇、朱怡欣、梁伟、朱松春* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.06015)] [[项目](https:\u002F\u002Fscenediffuser.github.io\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fscenediffuser\u002FScene-Diffuser)] \\\n2023年1月15日\n\n**Modiff：基于去噪扩散概率模型的动作条件3D运动生成** \\\n*赵梦依、刘梦媛、任斌、戴淑玲、尼库·塞贝* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.03949)] \\\n2023年1月10日\n\n\n**用于场景尺度3D分类数据的扩散概率模型** \\\n*李柱民、严武彬、李世彬、尹成义* \\\narXiv 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.00527)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fzoomin-lee\u002Fscene-scale-diffusion)] \\\n2023年1月2日\n\n**Dream3D：利用3D形状先验和文本到图像扩散模型实现零样本文本到3D合成** \\\n*徐佳乐、王新涛、程伟豪、曹燕佩、山英、齐晓虎、高盛华* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.14704)] [[项目](https:\u002F\u002Fbluestyle97.github.io\u002Fdream3d\u002F)] \\\n2022年12月28日\n\n**Point-E：一个可根据复杂提示生成3D点云的系统** \\\n*亚历克斯·尼科尔、俊熙佑、普拉富拉·达里瓦尔、帕梅拉·米什金、马克·陈* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08751)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fpoint-e)] \\\n2022年12月16日\n\n**利用学习迁移实时渲染任意曲面几何体** \\\n*西里孔达·达瓦尔、阿卡什·KT、P.J.纳拉亚南* \\\nICVGIP 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.09315)] \\\n2022年12月19日\n\n**统一人体运动合成与风格迁移的去噪扩散概率模型** \\\n*常子怡、埃德蒙·J.C. 芬德利、张浩正、许柏勋* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.08526)] \\\n2022年12月16日\n\n**Rodin：一个使用扩散生成3D数字化身的生成模型** \\\n*王腾飞、张博、张婷、顾书阳、鲍建敏、塔达斯·巴尔特鲁赛蒂斯、沈静静、陈东、温芳、陈启峰、郭百宁* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.06135)] [[项目](https:\u002F\u002F3d-avatar-diffusion.microsoft.com\u002F#\u002F)] \\\n2022年12月12日\n\n**通过RGBD扩散模型进行增量视图修复的生成式场景合成** \\\n*雷家宝、唐家鹏、贾奎* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05993)] [[项目](https:\u002F\u002Fjblei.site\u002Fproject-pages\u002Frgbd-diffusion.html)] [[GitHub](https:\u002F\u002Fgithub.com\u002FKarbo123\u002FRGBD-Diffusion)] \\\n2022年12月12日\n\n**通过自我头部姿态估计进行自我身体姿态估计** \\\n*李佳满、C. 卡伦·刘、吴家俊* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04636)] \\\n2022年12月9日\n\n\n**MoFusion：基于去噪扩散的运动合成框架** \\\n*里沙布·达布拉尔、穆罕默德·哈姆扎·穆加尔、弗拉季斯拉夫·戈利亚尼克、克里斯蒂安·托巴尔特* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04495)] [[项目](https:\u002F\u002Fvcai.mpi-inf.mpg.de\u002Fprojects\u002FMoFusion\u002F)] \\\n2022年12月8日\n\n\n**SDFusion：多模态3D形状补全、重建与生成** \\\n*郑彦驰、李欣颖、谢尔盖·图利亚科夫、亚历山大·施温格、桂良燕* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04493)] [[项目](https:\u002F\u002Fyccyenchicheng.github.io\u002FSDFusion\u002F)] \\\n2022年12月8日\n\n\n**在潜在空间中通过运动扩散执行你的命令** \\\n*陈鑫、蒋彪、刘文、黄子龙、付斌、陈涛、于静怡、于刚* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.04048)] [[项目](https:\u002F\u002Fchenxin.tech\u002Fmld\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FChenFengYe\u002Fmotion-latent-diffusion)] \\\n2022年12月8日\n\n**Magic：多艺术流派智能编舞数据集及3D舞蹈生成网络** \\\n*李荣辉、赵俊凡、张雅超、苏明阳、任泽平、张涵、李秀* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03741)] \\\n2022年12月7日\n\n\n**NeRDi：以语言引导的扩散作为通用图像先验的单视角NeRF合成** \\\n*邓聪悦、江致宇“Max”、查尔斯·R·齐、闫新晨、周音、莱昂尼达斯·圭巴斯、德拉戈米尔·安古洛夫* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03267)] \\\n2022年12月6日\n\n**Diffusion-SDF：基于体素化扩散的文本到形状生成** \\\n*李木恒、段岳奇、周杰、陆继文* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.03293)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fttlmh\u002FDiffusion-SDF)] \\\n2022年12月6日\n\n\n\n**用于统一人体运动合成的预训练扩散模型** \\\n*马建新、白帅、周畅* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02837)] [[项目](https:\u002F\u002Fofa-sys.github.io\u002FMoFusion\u002F)] \\\n2022年12月6日\n\n**DiffuPose：基于去噪扩散概率模型的单目三维人体姿态估计** \\\n*崔正俊、沈东锡、金H·珍* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02796)] \\\n2022年12月6日\n\n**PhysDiff：物理引导的人体运动扩散模型** \\\n*袁晔、宋嘉明、伊克巴尔·乌马尔、瓦赫达特·阿拉什、考茨·扬* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.02500)] [[项目](https:\u002F\u002Fnvlabs.github.io\u002FPhysDiff\u002F)] \\\n2022年12月5日\n\n**利用直线流快速生成点云** \\\n*吴乐萌、王迪林、龚成悦、刘兴超、熊云阳、兰詹·拉凯什、克里希纳穆尔蒂·拉古拉曼、钱德拉·维卡斯、刘强* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.01747)] \\\n2022年12月4日\n\n\n**DiffRF：基于渲染引导的三维辐射场扩散** \\\n*诺曼·穆勒、西迪基·亚瓦尔、波尔齐·洛伦佐、布洛·塞缪尔、孔施蒂德·彼得、尼瑟纳·马蒂亚斯* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.01206)] [[项目](https:\u002F\u002Fsirwyver.github.io\u002FDiffRF\u002F)] \\\n2022年12月2日\n\n**3D-LDM：基于潜在扩散模型的神经隐式三维形状生成** \\\n*南基民、哈利菲·玛丽姆、罗德里格斯·安德鲁、托诺·阿尔贝托、周林琪、格雷罗·保罗* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00842)] \\\n2022年12月1日\n\n\n**分数雅可比链：将预训练的二维扩散模型扩展至三维生成** \\\n*王浩辰、杜晓丹、李家豪、叶雷蒙德·A、沙赫纳罗维奇·格雷格* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00774)] [[项目](https:\u002F\u002Fpals.ttic.edu\u002Fp\u002Fscore-jacobian-chaining)] \\\n2022年12月1日\n\n\n**SparseFusion：为三维重建提炼视图条件扩散** \\\n*周志卓、图尔西亚尼·舒巴姆* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.00792)] [[项目](https:\u002F\u002Fsparsefusion.github.io\u002F)] [[GitHub](https:\u002F\u002Fsparsefusion.github.io\u002F)] \\\n2022年12月1日\n\n**使用三平面扩散生成三维神经场** \\\n*舒厄·J·瑞安、陈埃里克·瑞安、波·瑞安、安克纳·扎卡里、吴佳俊、韦茨施泰因·戈登* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16677)] [[项目](https:\u002F\u002Fjryanshue.com\u002Fnfd\u002F)] \\\n2022年11月30日\n\n\n**DiffPose：迈向更可靠的三维姿态估计** \\\n*龚佳、耿福林、范志鹏、柯秋红、拉赫马尼·侯赛因、刘军* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16940)] [[GitHub](https:\u002F\u002Fgithub.com\u002FGONGJIA0208\u002FDiffpose)] \\\n2022年11月30日\n\n**DiffPose：利用扩散模型进行多假设人体姿态估计** \\\n*霍尔姆奎斯特·卡尔、万特·巴斯蒂安* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16487)] [[GitHub](https:\u002F\u002Fgithub.com\u002FpaTRICK-swk\u002FD3DP)] \\\n2022年11月29日\n\n**DATID-3D：利用文本到图像扩散实现三维生成模型的多样性保持域适应** \\\n*金光贤、春世英* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16374)] [[GitHub](https:\u002F\u002Fdatid-3d.github.io\u002F)] \\\n2022年11月29日\n\n**NeuralLift-360：将野外拍摄的二维照片提升为具有360°视角的三维物体** \\\n*徐德佳、蒋一凡、王培浩、范志文、王毅、王张洋* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16431)] [[项目](https:\u002F\u002Fvita-group.github.io\u002FNeuralLift-360\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FNeuralLift-360)] \\\n2022年11月29日\n\n**Ada3Diff：通过自适应扩散防御三维对抗性点云攻击** \\\n*张奎、周航、张杰、黄启东、张伟明、余能海* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16247)] \\\n2022年11月29日\n\n**UDE：用于人体运动生成的统一驱动引擎** \\\n*周子翔、王宝元* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.16016)] [[项目](https:\u002F\u002Fzixiangzhou916.github.io\u002FUDE\u002F)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fzixiangzhou916\u002FUDE\u002F)] \\\n2022年11月29日\n\n\n**3DDesigner：借助文本引导的扩散模型，实现逼真的三维物体生成与编辑** \\\n*李刚、郑和亮、王超跃、李昌、郑昌文、陶大成* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.14108)] \\\n2022年11月25日\n\n**DiffusionSDF：有符号距离函数的条件生成建模** \\\n*周基因、巴哈特·尤瓦尔、海德·费利克斯* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13757)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fprinceton-computational-imaging\u002FDiffusion-SDF)] \\\n2022年11月24日\n\n**用于三维形状生成的四面体扩散模型** \\\n*卡利舍克·尼古拉伊、彼特斯·托本、韦格纳·扬·D、辛德勒·康拉德* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.13220)] \\\n2022年11月23日\n\n**IC3D：基于图像条件的三维扩散用于形状生成** \\\n*斯布罗利·克里斯蒂安、库德拉诺·保罗、弗罗西·马泰奥、马泰乌奇·马泰奥* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.10865)] \\\n2022年11月20日\n\n\n**听，去噪，行动！基于扩散模型的音频驱动运动合成** \\\n*亚历山德森·西蒙、纳吉·拉蒙德、贝斯科夫·乔纳斯、亨特·古斯塔夫·埃耶* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09707)] \\\n2022年11月17日\n\n\n**RenderDiffusion：用于三维重建、修复与生成的图像扩散** \\\n*安丘凯维丘斯·提塔斯、许泽翔、费舍尔·马修、亨德森·保罗、比伦·哈坎、米特拉·尼洛伊·J、格雷罗·保罗* \\\nCVPR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.09869)] [[GitHub](https:\u002F\u002Fgithub.com\u002FAnciukevicius\u002FRenderDiffusion)] \\\n2022年11月17日\n\n\n**用于形状引导的三维形状和纹理生成的潜在NeRF** \\\n*梅策尔·加尔、理查德森·埃拉德、帕塔什尼克·奥尔、吉雷斯·拉贾、科恩-奥尔·丹尼尔* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.07600)] [[GitHub](https:\u002F\u002Fgithub.com\u002Feladrich\u002Flatent-nerf)] \\\n2022年11月14日\n\n**ReFu：细化并融合未观测视图，实现细节保留的单张图像三维人体重建** \\\n*沈圭敏、李敏洙、秋在国* \\\nACM 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.04753)] \\\n2022年11月9日\n\n**StructDiffusion：以对象为中心的扩散技术，用于新型物体的语义重组** \\\n*刘伟宇、赫尔曼斯·塔克、切尔诺娃·索尼娅、派克斯顿·克里斯* \\\nRSS 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.04604)] \\\n2022年11月8日\n\n**扩散运动：利用扩散模型生成文本引导的三维人体运动** \\\n*任志远、潘志洪、周欣、康乐* \\\nICASSP 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12315)] \\\n2022年10月22日\n\n**LION：用于三维形状生成的潜在点扩散模型** \\\n*曾晓辉、瓦赫达特·阿拉什、威廉姆斯·弗朗西斯、戈伊契奇·赞、利塔尼·奥尔、菲德勒·桑雅、克莱斯·卡斯滕* \\\nNeurIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2210.06978.pdf)] [[项目](https:\u002F\u002Fnv-tlabs.github.io\u002FLION\u002F)] \\\n2022年10月12日\n\n**用于随机运动预测的人体关节运动学扩散-精炼方法** \\\n*董伟、孙怀江、李斌、陆建峰、李伟青、孙晓宁、胡胜祥* \\\nAAAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05976)] \\\n2022年10月12日\n\n\n**一种基于扩散的通用方法，用于野外场景下的三维人体姿态预测** \\\n*萨伊德·萨达特内贾德、阿里·拉塞赫、穆罕默德雷扎·莫法耶齐、亚萨敏·梅德加尔奇、萨拉·拉贾布扎德、泰勒·莫丹、亚历山大·阿拉希* \\\nICRA 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05669)] \\\n2022年10月11日\n\n\n**基于扩散模型的新视角合成** \\\n*丹尼尔·沃森、威廉·陈、里卡多·马丁-布鲁亚、乔纳森·霍、安德烈亚·塔利亚萨基、穆罕默德·诺鲁齐* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.04628)] \\\n2022年10月6日\n\n**神经体积网格生成器** \\\n*郑燕、吴乐萌、刘兴超、陈震、刘强、黄启星* \\\nNeurIPS 2022研讨会。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.03158)] \\\n2022年10月6日\n\n\n**用于风格化行走合成的去噪扩散概率模型** \\\n*埃德蒙·J·C·芬德利、张浩正、常子怡、沈旭辉* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14828)] \\\n2022年9月29日\n\n\n**人体运动扩散模型** \\\n*盖伊·特韦特、西格尔·拉阿布、布莱恩·戈登、约纳坦·沙菲尔、阿米特·H·伯曼诺、丹尼尔·科恩-奥尔* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14916)] [[项目](https:\u002F\u002Fguytevet.github.io\u002Fmdm-page\u002F)] \\\n2022年9月29日\n\n\n**ISS：以图像为跳板的文本引导三维形状生成** \\\n*刘正哲、戴鹏、李瑞辉、齐小娟、傅志文* \\\nICLR 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04145)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fliuzhengzhe\u002FISS-Image-as-Stepping-Stone-for-Text-Guided-3D-Shape-Generation)] \\\n2022年9月9日\n\n**SE(3)-DiffusionFields：通过扩散学习联合抓取与运动优化的成本函数** \\\n*朱伦·乌赖恩、尼克拉斯·冯克、乔治娅·查尔瓦察基、扬·彼得斯* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.03855)] [[GitHub](https:\u002F\u002Fgithub.com\u002FTheCamusean\u002Fgrasp_diffusion)] \\\n2022年9月8日\n\n**首次命中扩散模型用于生成流形、图及类别型数据** \\\n*叶茂、吴乐萌、刘强* \\\nNeruIPS 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.01170)] \\\n2022年9月2日\n\n**FLAME：自由形式的语言驱动运动合成与编辑** \\\n*金智勋、金志燮、崔成俊* \\\nAAAI 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.00349)] \\\n2022年9月1日\n\n**让我们架起桥梁：理解与扩展扩散生成模型** \\\n*刘兴超、吴乐萌、叶茂、刘强* \\\nNeurIPS 2022研讨会。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.14699)] \\\n2022年8月31日\n\n\n**MotionDiffuse：基于扩散模型的文本驱动人体运动生成** \\\n*张明远、蔡中刚、潘亮、洪方舟、郭欣颖、杨磊、刘子威* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.15001)] [[项目](https:\u002F\u002Fmingyuan-zhang.github.io\u002Fprojects\u002FMotionDiffuse.html)] \\\n2022年8月31日\n\n\n**一种扩散模型可从二维显微镜图像预测三维形状** \\\n*多米尼克·J·E·韦贝尔、恩斯特·罗埃尔、巴斯蒂安·里克、拉贾·吉里耶斯、卡斯滕·马尔* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.14125)] \\\n2022年8月30日\n\n\n**PointDP：基于扩散的净化技术，抵御针对三维点云识别的对抗攻击** \\\n*孙嘉晨、聂伟力、于志定、Z·莫利·毛、肖朝伟* \\\narXiv 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.09801)] \\\n2022年8月21日\n\n**用于三维点云补全的条件点扩散-精炼范式** \\\n*吕兆阳、孔志峰、徐旭东、潘亮、林大华* \\\nICLR 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.03530)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fzhaoyanglyu\u002Fpoint_diffusion_refinement)] \\\n2021年12月7日\n\n**基于分数的点云去噪** \\\n*罗世通、胡伟*\\\nICCV 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.10981)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fluost26\u002Fscore-denoise)] \\\n2021年7月23日\n\n\n\n**DiffuStereo：利用稀疏相机进行基于扩散的立体视觉实现高质量人体重建** \\\n*邵睿智、郑泽荣、张宏文、孙景翔、刘业彬* \\\nECCV 2022。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.08000)] [[项目](http:\u002F\u002Fliuyebin.com\u002Fdiffustereo\u002Fdiffustereo.html)] [[GitHub](https:\u002F\u002Fgithub.com\u002FDSaurus\u002FDiffuStereo)] \\\n2022年7月16日\n\n**通过点-体素扩散进行三维形状生成与补全** \\\n*周林琪、杜一伦、吴家俊* \\\nICCV 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.03670)] [[项目](https:\u002F\u002Falexzhou907.github.io\u002Fpvd)] \\\n2021年4月8日\n\n**用于三维点云生成的扩散概率模型** \\\n*罗世通、胡伟* \\\nCVPR 2021。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.01458)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fluost26\u002Fdiffusion-point-cloud)] \\\n2021年3月2日\n\n### 对抗攻击\n\n**生成分布就是针对生成模型的成员推理攻击所需的一切**  \n*Minxing Zhang、Ning Yu、Rui Wen、Michael Backes、Yang Zhang*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19410)]  \n2023年10月30日\n\n**对抗样本并非真实特征**  \n*Ang Li、Yifei Wang、Yiwen Guo、Yisen Wang*  \nNeurIPS 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18936)]  \n2023年10月29日\n\n**Purify++：通过先进扩散模型与随机性控制提升扩散净化效果**  \n*Boya Zhang、Weijian Luo、Zhihua Zhang*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18762)]  \n2023年10月28日\n\n**基于能量模型的异常检测：流形扩散恢复方法**  \n*Sangwoong Yoon、Young-Uk Jin、Yung-Kyun Noh、Frank C. Park*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18677)]  \n2023年10月28日\n\n\n**在缺乏标注验证数据的情况下异常检测器的模型选择**  \n*Clement Fung、Chen Qiu、Aodong Li、Maja Rudolph*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10461)]  \n2023年10月16日\n\n**利用条件扩散模型增强对深度神经网络的黑盒攻击**  \n*Renyang Liu、Wei Zhou、Tianwei Zhang、Kangjie Chen、Jun Zhao、Kwok-Yan Lam*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07492)]  \n2023年10月11日\n\n**利用概率流ODE探究密度估计的对抗鲁棒性**  \n*Marius Arvinte、Cory Cornelius、Jason Martin、Nageen Himayat*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.07084)]  \n2023年10月10日\n\n**理解并改进针对潜在扩散模型的对抗攻击**  \n*Boyang Zheng、Chumeng Liang、Xiaoyu Wu、Yan Liu*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04687)]  \n2023年10月7日\n\n**基于扩散模型的语义对抗攻击**  \n*Chenan Wang、Jinhao Duan、Chaowei Xiao、Edward Kim、Matthew Stamm、Kaidi Xu*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07398)]  \n2023年9月14日\n\n**“无处不在地抓住你”：通过概念水印保护文本反转技术**  \n*Weitao Feng、Jiyan He、Jie Zhang、Tianwei Zhang、Wenbo Zhou、Weiming Zhang、Nenghai Yu*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05940)]  \n2023年9月12日\n\n**Diff-Privacy：基于扩散模型的人脸隐私保护**  \n*Xiao He、Mingrui Zhu、Dongxin Chen、Nannan Wang、Xinbo Gao*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.05330)]  \n2023年9月11日\n\n**DiffDefense：利用扩散模型防御对抗攻击**  \n*Hondamunige Prasanna Silva、Lorenzo Seidenari、Alberto Del Bimbo*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03702)] [[GitHub](https:\u002F\u002Fgithub.com\u002FHondamunigePrasannaSilva\u002FDiffDefence)]  \n2023年9月7日\n\n**“我的艺术，我的选择”：抵御失控AI的对抗防护**  \n*Anthony Rhodes、Ram Bhagat、Umur Aybars Ciftci、Ilke Demir*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03198)]  \n2023年9月6日\n\n**通过对抗修复同时提升人脸识别对抗攻击的视觉质量和迁移性**  \n*Fengfan Zhou*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01582)]  \n2023年9月4日\n\n\n**扩散模型的有趣特性：用于评估文生图生成模型自然攻击能力的大规模数据集**  \n*Takami Sato、Justin Yue、Nanze Chen、Ningfei Wang、Qi Alfred Chen*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.15692)]  \n2023年8月30日\n\n**DiffSmooth：基于扩散模型与局部平滑的可认证鲁棒学习**  \n*Jiawei Zhang、Zhongzhu Chen、Huan Zhang、Chaowei Xiao、Bo Li*  \nUSENIX Security 2023。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14333)]  \n2023年8月28日\n\n**基于概率波动的扩散模型成员推理攻击**  \n*Wenjie Fu、Huandong Wang、Chen Gao、Guanghua Liu、Yong Li、Tao Jiang*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12143)]  \n2023年8月23日\n\n\n\n**针对扩散模型的白盒成员推理攻击**  \n*Yan Pang、Tianhao Wang、Xuhui Kang、Mengdi Huai、Yang Zhang*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06405)]  \n2023年8月11日\n\n**BAGM：一种操纵文生图生成模型的后门攻击**  \n*Jordan Vice、Naveed Akhtar、Richard Hartley、Ajmal Mian*  \narXiv 2023年。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16489)] [[GitHub](https:\u002F\u002Fgithub.com\u002FJJ-Vice\u002FBAGM)] [[数据集](https:\u002F\u002Fieee-datapo","# Awesome-Diffusion-Models 快速上手指南\n\n**Awesome-Diffusion-Models** 并非一个单一的可安装软件包，而是一个精选的扩散模型（Diffusion Models）资源集合库，涵盖了论文、教程、代码实现和应用案例。本指南将帮助你利用该仓库中的资源，快速搭建环境并运行基础的扩散模型示例。\n\n## 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐), macOS, 或 Windows (需配置 WSL2 以获得最佳 GPU 支持)。\n*   **硬件**: 推荐使用配备 NVIDIA GPU 的机器（显存建议 8GB 以上，运行 Stable Diffusion 等大模型建议 12GB+）。\n*   **Python**: 版本 3.8 或更高。\n*   **前置依赖**:\n    *   `git`: 用于克隆仓库。\n    *   `pip` 或 `conda`: 用于管理 Python 包。\n    *   `CUDA` 和 `cuDNN`: 如需使用 GPU 加速，请预先安装与 PyTorch 版本匹配的驱动。\n\n## 安装步骤\n\n由于本仓库是资源列表，你需要先克隆仓库以获取教程代码，然后选择一个具体的教程项目进行环境配置。以下以仓库中推荐的 **Hugging Face Diffusers** 和 **从零训练 (Train from Scratch)** 为例。\n\n### 1. 克隆资源仓库\n首先获取 Awesome-Diffusion-Models 仓库，以便查阅最新的论文和教程链接：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhee9joon\u002FAwesome-Diffusion-Models.git\ncd Awesome-Diffusion-Models\n```\n\n### 2. 创建虚拟环境\n建议使用 Conda 创建独立的虚拟环境：\n\n```bash\nconda create -n diffusion-env python=3.9\nconda activate diffusion-env\n```\n\n### 3. 安装核心依赖\n根据仓库中 \"Tutorial and Jupyter Notebook\" 部分的主流方案，安装 PyTorch 和 Diffusers 库。\n*(注：国内用户可使用清华源或阿里源加速下载)*\n\n```bash\n# 安装 PyTorch (以 CUDA 11.8 为例，其他版本请访问 pytorch.org 查询)\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n\n# 安装 Hugging Face Diffusers 及相关依赖\npip install diffusers transformers accelerate scipy safetensors\n```\n\n若你想尝试仓库中提到的 **\"DiffusionFastForward\"** (从零开始训练)，请克隆其对应仓库并安装依赖：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmikonvergence\u002FDiffusionFastForward.git\ncd DiffusionFastForward\npip install -r requirements.txt\n```\n\n## 基本使用\n\n以下提供两个最简单的入门示例，分别对应“调用预训练模型生成图像”和“运行基础教程代码”。\n\n### 示例一：使用 Hugging Face Diffusers 生成图像\n这是最快体验扩散模型的方式，基于仓库中推荐的 `Diffusers - Hugging Face` 笔记本内容。\n\n```python\nfrom diffusers import StableDiffusionPipeline\nimport torch\n\n# 加载预训练的 Stable Diffusion 模型\n# 国内网络若连接缓慢，可考虑配置 HF_ENDPOINT 环境变量使用镜像\npipe = StableDiffusionPipeline.from_pretrained(\n    \"runwayml\u002Fstable-diffusion-v1-5\", \n    torch_dtype=torch.float16\n)\n\n# 将模型移至 GPU\npipe = pipe.to(\"cuda\")\n\n# 定义提示词并生成图像\nprompt = \"a photo of an astronaut riding a horse on mars\"\nimage = pipe(prompt).images[0]  \n\n# 保存结果\nimage.save(\"astronaut_rides_horse.png\")\nprint(\"Image generated successfully!\")\n```\n\n### 示例二：运行从零训练教程 (基于 DiffusionFastForward)\n如果你想深入理解原理，可以运行仓库中推荐的 `DiffusionFastForward` 教程中的简化训练脚本。\n\n```bash\n# 进入教程目录\ncd ..\u002FDiffusionFastForward\n\n# 运行简单的 Colab\u002F本地训练脚本 (具体文件名请参考该仓库 notebook 章节)\n# 以下为一个典型的启动命令示例，具体参数需参考该项目的 README\npython train.py --config configs\u002Fdefault_config.yaml --epochs 10\n```\n\n*提示：更多具体的 Jupyter Notebook 示例（如 Disco Diffusion, Deforum 等）可直接在 Google Colab 中打开仓库 `Resources` 章节提供的链接一键运行，无需本地配置复杂环境。*","某医疗 AI 初创公司的算法团队正致力于利用扩散模型提升肺部 CT 影像的超分辨率重建效果，以辅助医生更早发现微小结节。\n\n### 没有 Awesome-Diffusion-Models 时\n- **文献检索如大海捞针**：团队成员需在 arXiv、Google Scholar 等多个平台反复搜索，难以区分哪些是针对医学影像的专用扩散模型，哪些仅是通用理论。\n- **入门门槛极高**：面对复杂的数学推导，新手缺乏系统性的教程和带注释的代码笔记，往往花费数周才能复现基础模型。\n- **技术选型盲目**：由于缺乏对“逆问题求解”或“分割”等细分领域的综述整理，团队容易选错基线模型，导致实验方向偏差。\n- **资源分散且过时**：优质的博客解读、视频讲座和 Jupyter Notebook 散落在各处，难以确认最新进展，沟通成本巨大。\n\n### 使用 Awesome-Diffusion-Models 后\n- **精准定位垂直资源**：团队直接通过\"Medical Imaging\"和\"Inverse Problems\"分类，快速锁定了多篇针对 CT 重建的核心论文与开源代码。\n- **加速理解与复现**：利用\"Introductory Posts\"和\"Tutorial\"栏目中带有详细数学推导和 Colab 实战笔记的资源，新人三天内即可跑通基准模型。\n- **科学决策技术路线**：参考\"Survey\"综述部分，团队清晰对比了不同架构在医学数据上的表现，迅速确定了最优改进方案。\n- **一站式获取全栈资料**：从理论视频到多模态应用案例，所有关键资源集中呈现，确保团队始终紧跟前沿，大幅缩短研发周期。\n\nAwesome-Diffusion-Models 将原本需要数周的碎片化调研工作压缩至几天，让研发团队能专注于核心算法创新而非信息搜集。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdiff-usion_Awesome-Diffusion-Models_dcc2ae19.png","diff-usion",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdiff-usion_341cdaf8.png","https:\u002F\u002Fgithub.com\u002Fdiff-usion",[77,81,85,89,93],{"name":78,"color":79,"percentage":80},"HTML","#e34c26",45.7,{"name":82,"color":83,"percentage":84},"Python","#3572A5",42.5,{"name":86,"color":87,"percentage":88},"CSS","#663399",10.2,{"name":90,"color":91,"percentage":92},"JavaScript","#f1e05a",1.2,{"name":94,"color":95,"percentage":96},"Shell","#89e051",0.3,12313,1015,"2026-04-19T13:33:37","MIT",1,"","未说明",{"notes":105,"python":103,"dependencies":106},"该仓库（Awesome-Diffusion-Models）是一个关于扩散模型的资源、论文和教程的精选列表，本身不是一个可独立运行的软件工具或代码库，因此 README 中未包含具体的操作系统、硬件配置、Python 版本或依赖库安装要求。用户需根据列表中链接的具体子项目（如 DiffusionFastForward, Stable Diffusion 等）的各自文档来确认运行环境需求。部分列出的教程提供了 Google Colab 笔记本，可在云端免费使用 GPU 运行。",[],[14,15],[109,110,111,112,113,114],"diffusion-models","generative-model","machine-learning","score-matching","artificial-intelligence","score-based","2026-03-27T02:49:30.150509","2026-04-20T10:22:48.117700",[],[]]