ICEdit
ICEdit 是一款基于大规模扩散 Transformer 的指令式图像编辑工具,旨在让用户通过简单的文字指令精准修改图片内容。它有效解决了传统图像编辑方法对海量训练数据依赖度高、计算资源消耗大,以及在多轮编辑中难以保持人物或物体身份一致性(ID Persistence)的痛点。
无论是希望快速实现创意构思的设计师、需要高效工作流的普通用户,还是致力于探索模型效率的研究人员与开发者,都能从 ICEdit 中受益。其最显著的技术亮点在于极高的效率:仅需以往最先进方法 1% 的参数量(采用单 LoRA 架构)和 0.5% 的训练数据,即可达成卓越的编辑效果。官方特别发布的 MoE(混合专家)版本更是将显存需求降低至 4GB,使得在消费级显卡上流畅运行成为可能。此外,ICEdit 在多轮连续编辑中表现出惊人的身份保持能力,甚至超越了部分闭源商业模型。目前,该项目已开源训练代码,并提供了 ComfyUI 节点、Gradio 演示及华为昇腾 NPU 适配版本,方便不同技术背景的用户轻松上手体验。
使用场景
一位电商设计师需要为同一款新品背包快速生成多张不同场景(如雪山、海滩、城市街头)的营销海报,且必须严格保持背包的外观细节、Logo 位置和材质质感完全一致。
没有 ICEdit 时
- 身份一致性难以维持:使用常规重绘或提示词修改时,背包的拉链形状、品牌 Logo 极易发生变形或丢失,导致商品特征不统一。
- 训练成本高昂:若要固定主体特征,通常需收集大量该背包的多角度照片训练专属 LoRA,耗时数小时且对数据量要求高。
- 硬件门槛限制:现有的高精度编辑模型往往显存占用巨大,普通工作站的显卡无法流畅运行,只能依赖昂贵的云端算力。
- 多轮编辑累积误差:在进行“先换背景、再调光影、最后加配饰”的多步操作时,图像质量会逐次下降,最终结果模糊失真。
使用 ICEdit 后
- 完美的 ID 持久性:凭借超越 GPT-4o 的身份保持能力,无论背景如何剧烈变化,背包的每一个像素级细节都精准锁定,无需反复微调。
- 极低的数据与参数需求:仅需极少量参考数据(0.1% 级别)和单个轻量级 LoRA 即可实现顶级编辑效果,省去了繁琐的大规模训练过程。
- 亲民的资源消耗:优化后的架构仅需 4GB 显存即可运行,设计师在本地笔记本上也能实时完成高质量的多轮指令编辑。
- 稳定的多轮交互:支持高精度的多回合修改指令,连续调整场景风格与光照时,画面依然清晰锐利,无累积噪点或结构崩坏。
ICEdit 通过极低的资源消耗和数据门槛,彻底解决了商业修图中“主体一致性”与“编辑灵活性”不可兼得的行业痛点。
运行环境要求
- Linux
- Windows
- 需要 NVIDIA GPU
- 编辑 512×768 图像默认需 35GB 显存
- 使用 --enable-model-cpu-offload 参数可在 24GB 显存(如 RTX 3090)上运行
- 配合 ComfyUI-nunchaku 方案最低仅需 4GB 显存
- 未明确提及具体 CUDA 版本
未说明

快速开始
上下文编辑:利用大规模扩散Transformer中的上下文生成实现指令式图像编辑
图像编辑只需一个LoRA就够了!我们提出了上下文编辑方法,这是一种新颖的基于指令的编辑技术,仅使用先前SOTA方法所需训练数据的0.5%和参数量的1%,却达到了最先进的水平。第一行展示了一系列高精度的多轮编辑结果,而第二、三行则展示了我们方法在单轮编辑中产生的多样化且视觉效果惊艳的结果。
:open_book: 更多可视化结果,请访问我们的项目页面
🎆 新闻
- [2025/9/19] 🔥 我们已开源了我们的MoE版本ICEdit及检查点。快来试试吧!🚀
- [2025/9/18] 🌟 ICEdit已被NeurIPS 2025接收!🎉 圣地亚哥见!
- [2025/8/21] 🌟 我们发布了基于Ascend(华为NPU)的ICEdit版本。现在你可以在Ascend NPU上运行ICEdit了!非常感谢Zhiyuan!
- [2025/5/16] 🌟 非常感谢gluttony-10 (十字鱼)将Gradio演示适配为GGUF量化,进一步将内存占用降低至10GB。
- [2025/5/14] 🔥 在官方Comfy-org的帮助下,我们已将我们的ComfyUI节点集成到Comfy Registry中!
- [2025/5/13] 🔥 我们发布了训练代码!现在就训练属于你的编辑LoRA吧!
- [2025/5/11] 🌟 非常感谢gluttony-10 (十字鱼)制作了Windows版Gradio演示,让你可以在Windows上使用我们的项目!
- [2025/5/8] 🔥 我们发布了我们的**官方ComfyUI工作流**!🚀 快去仓库看看并试一试吧!
点击展开/收起新闻
- [2025/5/8] 🔥 我们在Gradio演示中添加了LoRA缩放滑块。你可以尝试用不同的缩放比例来发现更多有趣的演示效果!
- [2025/5/7] 🌟 我们更新了一些使用ComfyUI工作流时的注意事项,以避免出现不理想的效果!
- [2025/5/6] 🔥 ICEdit目前在Hugging Face space的总体/每周趋势榜单上排名第2位。感谢大家的支持与喜爱!🤗
- [2025/5/5] 🌟 衷心感谢Datou在OpenArt平台上创建了一个精彩的ComfyUI工作流!🚀 赶快试试吧!
- [2025/5/2] 🌟 衷心感谢judian17打造了一个令人惊叹的ComfyUI双节棍演示!只需4GB显存的GPU就能运行ComfyUI双节棍!🚀 快来体验一下吧!
- [2025/4/30] 🔥 我们发布了Huggingface演示 🤗!快来试试吧!
- [2025/4/30] 🔥 我们在arXiv上发布了论文!
- [2025/4/29] 我们发布了项目页面和演示视频!代码将在下周公开~ 祝大家劳动节快乐!
🎈 Bilibili或Youtube教程
👑 欢迎在本图库分享你的成果!
- [2025/5/15] 🌟 我们发现啦啦啦的小黄瓜制作了一段详细的Bilibili教程介绍我们的模型!真是太棒的视频了!
- [2025/5/14] 🌟 我们发现Nenly同学制作了一段精彩的Bilibili教程讲解如何使用我们的仓库!非常感谢他!
- [2025/5/10] 🌟 非常感谢月下Hugo制作了一段中文教程介绍如何使用我们的官方工作流!
- [2025/5/7] 🌟 衷心感谢T8star制作了一段教程和一个ComfyUI工作流讲解如何将编辑成功率提升至100%!🚀 赶快试试吧!
- [2025/5/3] 🌟 衷心感谢softicelee2制作了一段Youtube视频讲解如何使用我们的模型!
📖 目录
📢 全体注意:ComfyUI 工作流使用错误提醒!
我们已发布用于正确使用的**官方 ComfyUI 工作流**!请查看我们的仓库并尝试一下!
- 在输入编辑指令之前,你需要添加固定的前置提示“一幅由两幅并排图像组成的双联画,场景完全相同。右侧的场景与左侧完全一致,但{instruction}”,否则可能会得到较差的结果!(这一点在论文中已有提及!Hugging Face Gradio 演示代码已经嵌入了这个提示。因此,你只需直接输入编辑指令即可,无需额外设置。)
- 输入图像的宽度必须调整为512(高度无限制)。
- 请使用 Normal LoRA(https://huggingface.co/RiverZ/normal-lora/tree/main),而不是 MoE-LoRA,因为 MoE-LoRA 无法通过 ComfyUI 的 LoRA 加载器正确加载。
- 🔥💐🎆 欢迎在 Issues 栏目中分享你的创意工作流(例如结合 Redux、ACE 等),并展示成果!我们会附上引用链接,让更多人看到你的创意。
💼 安装
Conda 环境搭建
conda create -n icedit python=3.10
conda activate icedit
pip install -r requirements.txt
pip install -U huggingface_hub
下载预训练权重
如果你可以连接到 Hugging Face,则无需下载权重。否则,你需要将权重下载到本地。
注:由于一些合作权限问题,我们暂时撤回了 moe-lora 的权重和代码。目前发布的只是普通的 LoRA,但它仍然具有强大的性能。如果你急需原文中的 moe lora 权重,请联系作者。
在 Bash 中进行推理(不使用 VLM 推理时缩放)
现在你可以尝试一下了!
我们的模型只能编辑宽度为 512 像素的图像(高度没有限制)。如果你输入的图像宽度不是 512 像素,模型会自动将其调整为 512 像素。
如果你发现模型未能生成预期结果,请尝试更改
--seed参数。使用 VLM 进行推理时缩放可以显著改善结果。
python scripts/inference.py --image assets/girl.png \
--instruction "让她把头发染成深绿色,衣服换成格子图案。" \
--seed 304897401 \
编辑一张 512×768 的图像需要 35 GB 的显存。如果你需要在只有 24 GB 显存的系统上运行(例如 NVIDIA RTX3090),可以添加 --enable-model-cpu-offload 参数。
python scripts/inference.py --image assets/girl.png \
--instruction "让她把头发染成深绿色,衣服换成格子图案。" \
--enable-model-cpu-offload
如果你已将预训练权重下载到本地,请在推理时传递参数,如下所示:
python scripts/inference.py --image assets/girl.png \
--instruction "让她把头发染成深绿色,衣服换成格子图案。" \
--flux-path /path/to/flux.1-fill-dev \
--lora-path /path/to/ICEdit-normal-LoRA
关于 MoE-LoRA 版本的使用方法
python scripts/inference_moe.py --image assets/girl.png \
--instruction "让她把头发染成深绿色,衣服换成格子图案。" \
--seed 42 \
python scripts/inference_moe.py --image assets/girl.png \
--instruction "让她把头发染成深绿色,衣服换成格子图案。" \
--enable-model-cpu-offload
python scripts/inference_moe.py --image assets/girl.png \
--instruction "让她把头发染成深绿色,衣服换成格子图案。" \
--flux-path /path/to/flux.1-fill-dev \
--lora-path /path/to/ICEdit-MoE-LoRA
在 Gradio Demo 中进行推理
我们提供了一个 Gradio 演示,方便你以更友好的方式编辑图像。你可以运行以下命令来启动演示。
python scripts/gradio_demo.py --port 7860
## 对于 MoE 版本
python scripts/gradio_demo_moe.py --port 7860
与推理脚本类似,如果你想在只有 24 GB 显存的系统上运行演示,可以添加 --enable-model-cpu-offload 参数。如果你已将预训练权重下载到本地,请在推理时传递参数,如下所示:
python scripts/gradio_demo.py --port 7860 \
--flux-path /path/to/flux.1-fill-dev(可选) \
--lora-path /path/to/ICEdit-normal-LoRA(可选) \
--enable-model-cpu-offload(可选) \
## 用于 MoE 版本
python scripts/gradio_demo_moe.py --port 7860 \
--flux-path /path/to/flux.1-fill-dev (可选) \
--lora-path /path/to/ICEdit-normal-LoRA (可选) \
--enable-model-cpu-offload (可选) \
或者,如果你想在只有 10 GB 显存的设备上运行演示,可以从 FLUX.1-Fill-dev-gguf 和 t5-v1_1-xxl-encoder-gguf 下载 gguf 模型,并在推理时传递这些参数,如下所示:
python scripts/gradio_demo.py --port 7861 \
--flux-path models/flux.1-fill-dev \
--lora-path models/ICEdit-normal-LoRA \
--transformer models/flux1-fill-dev-Q4_0.gguf \
--text_encoder_2 models/t5-v1_1-xxl-encoder-Q8_0.gguf \
--enable-model-cpu-offload \
然后你可以在浏览器中打开链接来编辑图片。
Gradio 演示:只需输入指令并等待结果!.
这里还有一段由 softicelee2 制作的 ICEdit 安装与使用中文教程 YouTube 视频,非常值得一看!
💼 Windows 一键安装包
非常感谢 gluttony-10,这位著名的 Bilibili UP 主! 他制作了关于如何在 Windows 上安装我们项目的教程(YouTube 和 Bilibili),以及一个 Windows 一键安装包!只需解压即可使用。该安装包经过量化处理,仅占用 14GB 磁盘空间,并支持 50 系列显卡。
下载链接:Google Drive 或 百度网盘(请参考视频评论区)

🔧 训练
更多细节请参见:训练代码
🎨ComfyUI 工作流
官方 ComfyUI 工作流
我们在本仓库中发布了我们的官方 ComfyUI 工作流,以便正确使用我们的模型!我们已将提示词“一幅由两幅并排图像组成的二联画,描绘同一场景……但”嵌入到我们的节点中,你只需输入编辑指令,例如“让女孩戴上粉色太阳镜”。此外,我们还添加了一个高分辨率细化模块,以获得更好的图像质量!整个工作流的显存消耗约为 14GB。使用这个工作流和ICEdit-normal-lora,尽情实现你的创作想法吧!
我们专门创建了一个工作流仓库,你可以直接在 ComfyUI 中通过 Git URL 安装。只需打开管理器选项卡,点击“通过 Git URL 安装”,复制以下 URL 即可使用。更多详情请参阅此议题
URL: https://github.com/hayd-zju/ICEdit-ComfyUI-official
非常感谢 月下Hugo 制作了关于如何使用我们官方工作流的中文教程!
提高编辑成功率的 ComfyUI 工作流
感谢 T8star! 他制作了教程(YouTube 和 Bilibili) 以及一个创意工作流(OpenArt 和 RunningHub),能够极大提高编辑的成功率(约 100%)!不妨试试看!
ComfyUI-nunchaku
我们衷心感谢 @judian17 打造的 ComfyUI 工作流,它使得我们的模型能够更顺畅地使用。探索这个优秀的工作流,就能轻松地在 ComfyUI 中运行我们的模型。只需4GB 显存的 GPU 就足以配合 ComfyUI-nunchaku 运行!
该工作流集成了高清细化功能,效果非常出色。此外,将此 LoRA 与 Redux 结合使用,还能在一定程度上实现服装更换。再次向 @judian17 致以诚挚的感谢,感谢他的创新贡献!

ComfyUI 工作流
感谢 Datou,ICEdit 在 ComfyUI 中的工作流也可以从这里下载链接。可以搭配普通 LoRA ckpt一起使用。
⚠️ 小贴士
如果您遇到此类失败情况,请尝试使用不同的随机种子重试!
我们的基模型 FLUX 本身并不支持广泛的风格,因此我们的数据集中很大一部分涉及风格迁移。结果是,该模型有时可能会莫名其妙地改变您的艺术风格。
我们的训练数据集主要针对写实图像。对于非写实图像,例如动漫风格或模糊图片,编辑的成功率会显著下降,并可能影响最终的图像质量。
虽然添加物体、修改颜色属性、应用风格迁移和更换背景的成功率较高,但由于我们使用的移除数据集质量较低,物体移除的成功率相对较低。
当前的模型是我们论文实验中使用的版本,仅使用4张A800显卡进行训练(总batch_size = 2 x 2 x 4 = 16)。未来,我们将扩充数据集并进行规模扩展,最终发布更强大的模型。
⚠️ 说明
我们注意到有许多与 ICEdit 相关的网页,包括 https://icedit.net/ 和 https://icedit.org/。向这些页面的开发者致以敬意!
然而,我们想强调两点:
- 禁止商业使用:我们的项目不能用于商业用途。详情请参阅 LICENSE。
- 官方页面:项目的官方页面是 https://river-zhang.github.io/ICEdit-gh-pages/。
💪 待办事项
- 推理代码
- 使用 VLM 进行推理时的缩放
- 预训练权重
- 更多推理演示
- Gradio 演示
- Comfy UI 演示(由 @judian17 提供,兼容 nunchaku,支持高分辨率细化和 FLUX Redux。只需4GB显存的GPU即可运行!)
- 带普通 LoRA 的 Comfy UI 演示(由 @Datou 在 openart 上提供)
- 官方 ComfyUI 工作流
- 训练代码
- 用于更高分辨率图像的 LoRA(768、1024)
💪 与商用模型的对比
与 Gemini 和 GPT-4o 等商用模型相比,我们在人物身份保持和指令遵循方面不相上下,甚至更胜一筹。我们的项目更加开源,成本更低、速度更快(处理一张图像约需9秒),且性能强大。
🌟 星标历史
Bibtex
如果本工作对您的研究有所帮助,请考虑引用以下 BibTeX 条目。
@article{zhang2025context,
title={In-context edit: Enabling instructional image editing with in-context generation in large scale diffusion transformer},
author={Zhang, Zechuan and Xie, Ji and Lu, Yu and Yang, Zongxin and Yang, Yi},
journal={arXiv preprint arXiv:2504.20690},
year={2025}
}
@inproceedings{zhang2025icedit,
title = {In-Context Edit: Enabling Instructional Image Editing with In-Context Generation in Large-Scale Diffusion Transformers},
author = {Zhang, Zechuan and Xie, Ji and Lu, Yu and Yang, Zongxin and Yang, Yi},
booktitle = {Advances in Neural Information Processing Systems (NeurIPS)},
year = {2025},
note = {arXiv:2504.20690}
}
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
