[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-gnobitab--InstaFlow":3,"tool-gnobitab--InstaFlow":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":79,"owner_email":80,"owner_twitter":81,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":102,"github_topics":81,"view_count":32,"oss_zip_url":81,"oss_zip_packed_at":81,"status":17,"created_at":103,"updated_at":104,"faqs":105,"releases":140},7536,"gnobitab\u002FInstaFlow","InstaFlow",":zap: InstaFlow! One-Step Stable Diffusion with Rectified Flow (ICLR 2024)","InstaFlow 是一款基于修正流（Rectified Flow）技术的超快图像生成模型，旨在实现“一步到位”的文生图体验。传统扩散模型（如 Stable Diffusion）在生成图片时通常需要进行数十次甚至上百次的迭代去噪，导致计算成本高、等待时间长。InstaFlow 通过训练具有直线轨迹的概率流，将这一复杂过程简化为单步推理，直接从噪声映射到最终图像。\n\n这一突破性的改进解决了生成式 AI 长期面临的效率瓶颈。在配备 A100 GPU 的环境下，InstaFlow 生成一张高质量图像仅需约 0.1 秒，相比原始 Stable Diffusion 节省了约 90% 的推理时间，同时保持了与之媲美的细节表现力和画质水平。此外，它还具备良好的生态兼容性，支持预训练的 LoRA 和 ControlNet 插件，并提供了 ONNX 格式以方便部署。\n\nInstaFlow 非常适合对生成速度有极高需求的开发者、研究人员以及希望快速迭代创意的设计师。对于需要在本地资源受限设备上运行模型的用户，或者希望大幅降低云端推理成本的企业而言，它也是一个极具价值的选择。无论是用于实时交互应用还是大规模","InstaFlow 是一款基于修正流（Rectified Flow）技术的超快图像生成模型，旨在实现“一步到位”的文生图体验。传统扩散模型（如 Stable Diffusion）在生成图片时通常需要进行数十次甚至上百次的迭代去噪，导致计算成本高、等待时间长。InstaFlow 通过训练具有直线轨迹的概率流，将这一复杂过程简化为单步推理，直接从噪声映射到最终图像。\n\n这一突破性的改进解决了生成式 AI 长期面临的效率瓶颈。在配备 A100 GPU 的环境下，InstaFlow 生成一张高质量图像仅需约 0.1 秒，相比原始 Stable Diffusion 节省了约 90% 的推理时间，同时保持了与之媲美的细节表现力和画质水平。此外，它还具备良好的生态兼容性，支持预训练的 LoRA 和 ControlNet 插件，并提供了 ONNX 格式以方便部署。\n\nInstaFlow 非常适合对生成速度有极高需求的开发者、研究人员以及希望快速迭代创意的设计师。对于需要在本地资源受限设备上运行模型的用户，或者希望大幅降低云端推理成本的企业而言，它也是一个极具价值的选择。无论是用于实时交互应用还是大规模图像生产，InstaFlow 都能在几乎不牺牲质量的前提下，带来前所未有的流畅体验。","\u003Cdiv align=\"center\">\n\n## [ICLR2024] ⚡InstaFlow! One-Step Stable Diffusion with Rectified Flow\n\n[[Paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06380) [[Demo in 🤗Hugging Face Space]](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FXCLiu\u002FInstaFlow) [[Code and Pre-trained Models](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain\u002Fcode)][[Colab Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1mXvIrkbWFwHcZl0sMNjrR3zGtYlrI6re?usp=sharing)]\n\nby *Xingchao Liu, Xiwen Zhang, Jianzhu Ma, Jian Peng, Qiang Liu*  \n\n\u003C\u002Fdiv>\n\n## News \n\n- (New) 2024\u002F06\u002F07 Our large-scale Rectified Flow is extended to text-to-3D and image inversion\u002Fediting! Check out the amazing work from Xiaofeng Yang et al. ([paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2406.03293) and [code](https:\u002F\u002Fgithub.com\u002Fyangxiaofeng\u002Frectified_flow_prior))!\n- 2024\u002F05\u002F17 Try our new few-step model PeRFlow at [here](https:\u002F\u002Fgithub.com\u002Fmagic-research\u002Fpiecewise-rectified-flow)!\n- 2023\u002F12\u002F04 We updated the [demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FXCLiu\u002FInstaFlow) in 🤗Hugging Face Space with InstaFlow+[dreamshaper-7](https:\u002F\u002Fhuggingface.co\u002FLykon\u002Fdreamshaper-7). Image quality significantly improves! We also provide the Gradio demo for you to run locally [here](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain\u002Fcode#local-gradio-interface).\n- 2023\u002F12\u002F04 One-step InstaFlow is compatible with pre-trained LoRAs! See [here](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain#lora). Code is available [here](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain\u002Fcode#adding-lora-to-2-rectified-flow-or-instaflow-09b). (We thank individual contributor [Dr. Hanshu Yan](https:\u002F\u002Fhanshuyan.github.io\u002F))  \n- 2023\u002F12\u002F04 ONNX support is available now! [[ONNX InstaFlow]](https:\u002F\u002Fhuggingface.co\u002FTheyCallMeHex\u002FInstaFlow-0.9B-ONNX\u002Ftree\u002Fmain)  [[ONNX 2-Rectified Flow]](https:\u002F\u002Fhuggingface.co\u002FTheyCallMeHex\u002F2-Rectified-Flow-ONNX)   [[ONNXStack UI]](https:\u002F\u002Fgithub.com\u002Fsaddam213\u002FOnnxStack\u002Freleases\u002Ftag\u002Fv0.10.0) (We thank [saddam213](https:\u002F\u002Fgithub.com\u002Fsaddam213))\n- 2023\u002F11\u002F23 Colab notebook is online now. Try it [here](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1mXvIrkbWFwHcZl0sMNjrR3zGtYlrI6re?usp=sharing). (We thank individual contributor [\nxaviviro](https:\u002F\u002Fgithub.com\u002Fxaviviro))\n- 2023\u002F11\u002F22 One-step InstaFlow is compatible with pre-trained ControlNets. See [here](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain#controlnet). (We thank individual contributor [Dr. Hanshu Yan](https:\u002F\u002Fhanshuyan.github.io\u002F))\n- 2023\u002F11\u002F22 We release the pre-trained models and inference codes [here](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain\u002Fcode).\n- 2023\u002F09\u002F26 We provide a demo of InstaFlow-0.9B in 🤗Hugging Face Space. Try it [here](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FXCLiu\u002FInstaFlow).\n\n## Introduction\n\nDiffusion models have demonstrated remarkable promises in text-to-image generation. However, their efficacy is still largely hindered by computational constraints stemming from the need of iterative numerical solvers at the inference time for solving the diffusion\u002Fflow processes. \n\n**InstaFlow** is an ```ultra-fast```, ```one-step``` image generator that achieves image quality close to Stable Diffusion, significantly reducing the demand of computational resources. This efficiency is made possible through a recent [Rectified Flow](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FRectifiedFlow) technique, which trains probability flows with straight trajectories, hence inherently requiring only a single step for fast inference.\n\n**InstaFlow** has several advantages: \n- ```Ultra-Fast Inference```: **InstaFlow** models are **one-step generators**, which directly map noises to images and avoid multi-step sampling of diffusion models. On our machine with A100 GPU, the inference time is around 0.1 second, saving ~90% of the inference time compared to the original Stable Diffusion.\n- ```High-Quality```: **InstaFlow** generates images with intricate details like Stable Diffusion, and have similar FID on MS COCO 2014 as state-of-the-art text-to-image GANs, like [StyleGAN-T](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fstylegan-t).\n- ```Simple and Efficient Training```: The training process of **InstaFlow** merely involves **supervised training**. Leveraging pre-trained Stable Diffusion, it only takes **199 A100 GPU days** to get **InstaFlow-0.9B**.  \n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_9134d43eb6b5.png)\n\n## Gallery\n\n### One-step generation with InstaFlow-0.9B (0.09s per image, $512 \\times 512$)\n\n\u003Cp align=\"middle\">\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_51521a2c08f6.png' width='192'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_43d790f38bd7.png' width='192'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_446706d1f621.png' width='192'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_4bce473acb05.png' width='192'>\n\u003C\u002Fp>\n\n### One-step generation with InstaFlow-1.7B (0.12s per image, $512 \\times 512$)\n\n\u003Cp align=\"middle\">\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_80e898d1302f.png' width='192'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_0f04d98396ae.png' width='192'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_c362b2fd608e.png' width='192'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_95dedf73b66d.png' width='192'>\n\u003C\u002Fp>\n\n### One-step generation with InstaFlow-0.9B (0.09s) + SDXL-Refiner ($1024 \\times 1024$)\n\n\u003Cp align=\"middle\">\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_10e13c74f72e.png' width='384'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_6d64fe4b02af.png' width='384'>\n\u003C\u002Fp>\n\n### Latent space interpolation of one-step InstaFlow-0.9B (0.09s per image, $512 \\times 512$)\n\n\u003Cdiv align=\"center\">\n\n\n\n\n\nhttps:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Fassets\u002F1157982\u002Fe8c41d7c-aa1d-4ac3-b96f-5cda847331fe\n\n\n\n\u003C\u002Fdiv>\n\n## LoRA\n\nOne-step InstaFlow is compatible with pre-trained LoRAs. We thank individual contributor [Dr. Hanshu Yan](https:\u002F\u002Fhanshuyan.github.io\u002F) for providing and testing the *Rectified Flow+LoRA* pipeline!\n\nInstaFlow seems to have higher diversity than SDXL-Turbo.\n\n\n\nhttps:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Fassets\u002F1157982\u002F8f12960e-116d-486a-a2e9-448d745394c2\n\n\n\n## ControlNet\n\nOne-step InstaFlow is fully compatible with pre-trained ControlNets. We thank individual contributor [Dr. Hanshu Yan](https:\u002F\u002Fhanshuyan.github.io\u002F) for providing and testing the *Rectified Flow+ControlNet* pipeline!\n\nBelow are **One-Step Generation** with InstaFlow-0.9B + ControlNet:\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_481412c24115.jpg) \n\n\n## Comparison with SD 1.5 on our A100 machine\n\nFor an intuitive understanding, we used the same A100 server and took screenshots from the Gridio interface of random generation with different models. InstaFlow-0.9B is one-step, while SD 1.5 adopts 25-step [DPMSolver](https:\u002F\u002Fgithub.com\u002FLuChengTHU\u002Fdpm-solver). It takes around 0.3 second to download the image from the server. The text prompt is *\"A photograph of a snowy mountain near a beautiful lake under sunshine.\"*\n\n\n| &emsp; &emsp; &emsp; &emsp; &emsp; &emsp;   InstaFlow-0.9B &emsp; &emsp; &emsp; &emsp; &emsp; &emsp; &emsp;|  &emsp; &emsp; &emsp; &emsp; &emsp; &emsp;  Stable Diffusion 1.5 &emsp; &emsp; &emsp; &emsp; &emsp;|\n|:-:|:-:|\n\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_8e28055f2275.gif)\n\n## Method: Straightening Generative Probability Flows with Text-Conditioned Reflow\n\n\u003Cdiv align=\"center\">\n\n\nhttps:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Fassets\u002F1157982\u002F897e2d1a-eff9-44bf-ab89-bc26bbc0d8a7\n\n \n\u003C\u002Fdiv>\n\n\u003Cp align=\"middle\">\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_7239b2ae46dc.jpg' width='550'>\n\u003C\u002Fp>\n\nOur pipeline consists of three steps:\n\n1. Generate (text, noise, image) triplets from pre-trained Stable Diffusion\n2. Apply ```text-conditioned reflow``` to yield 2-Rectified Flow, which is a straightened generative probability flow.\n3. Distill from 2-Rectified Flow to get **One-Step InstaFlow**. Note that distillation and reflow are ```orthogonal techniques```.\n\nAs captured in the video and the image, straight flows have the following advantages:\n\n* Straight flows require fewer steps to simulate.\n* Straight flows give better coupling between the noise distribution and the image distribution, thus allow successful distillation.\n\n\n\n## Related Materials\n\nWe provide several related links and readings here:\n\n* The official Rectified Flow github repo (https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FRectifiedFlow)\n\n* An introduction of Rectified Flow (https:\u002F\u002Fwww.cs.utexas.edu\u002F~lqiang\u002Frectflow\u002Fhtml\u002Fintro.html)\n\n* An introduction of Rectified Flow in Chinese--Zhihu (https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F603740431)\n\n* FlowGrad: Controlling the Output of Generative ODEs With Gradients (https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FFlowGrad)\n\n* Fast Point Cloud Generation with Straight Flows (https:\u002F\u002Fgithub.com\u002Fklightz\u002FPSF)\n\n* Piecewise Rectified Flow (https:\u002F\u002Fgithub.com\u002Fmagic-research\u002Fpiecewise-rectified-flow)\n\n* Text-to-Image Rectified Flow as Plug-and-Play Priors (https:\u002F\u002Fgithub.com\u002Fyangxiaofeng\u002Frectified_flow_prior)\n\n## Citation\n\n```\n@inproceedings{liu2023instaflow,\n  title={Instaflow: One step is enough for high-quality diffusion-based text-to-image generation},\n  author={Liu, Xingchao and Zhang, Xiwen and Ma, Jianzhu and Peng, Jian and Liu, Qiang},\n  booktitle={International Conference on Learning Representations},\n  year={2024}\n}\n```\n\n## Thanks\n\nOur training scripts are modified from [one of the fine-tuning examples in Diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers\u002Fblob\u002Fmain\u002Fexamples\u002Ftext_to_image\u002Ftrain_text_to_image.py).\nOther parts of our work also heavily relies on the [🤗 Diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers) library.\n\n","\u003Cdiv align=\"center\">\n\n## [ICLR2024] ⚡InstaFlow！基于修正流的一步式Stable Diffusion\n\n[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.06380) [[Hugging Face Space中的演示]](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FXCLiu\u002FInstaFlow) [[代码与预训练模型](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain\u002Fcode)][[Colab笔记本](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1mXvIrkbWFwHcZl0sMNjrR3zGtYlrI6re?usp=sharing)]\n\n由 *刘兴超、张熙文、马建竹、彭健、刘强* 撰写\n\n\u003C\u002Fdiv>\n\n## 新闻\n\n- (新) 2024年6月7日 我们的大型修正流技术已扩展至文本到3D以及图像反演\u002F编辑领域！请查看杨晓峰等人令人惊叹的工作（[论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2406.03293)和[代码](https:\u002F\u002Fgithub.com\u002Fyangxiaofeng\u002Frectified_flow_prior)）！\n- 2024年5月17日 请在[这里](https:\u002F\u002Fgithub.com\u002Fmagic-research\u002Fpiecewise-rectified-flow)体验我们全新的少步模型PeRFlow！\n- 2023年12月4日 我们更新了🤗Hugging Face Space中的[演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FXCLiu\u002FInstaFlow)，加入了InstaFlow+[dreamshaper-7](https:\u002F\u002Fhuggingface.co\u002FLykon\u002Fdreamshaper-7)。图像质量显著提升！我们还提供了可在本地运行的Gradio演示[这里](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain\u002Fcode#local-gradio-interface)。\n- 2023年12月4日 一步式InstaFlow现已兼容预训练的LoRA！详情请见[这里](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain#lora)。代码可在此获取[这里](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain\u002Fcode#adding-lora-to-2-rectified-flow-or-instaflow-09b)。（感谢个人贡献者颜汉书博士([Dr. Hanshu Yan](https:\u002F\u002Fhanshuyan.github.io\u002F))）\n- 2023年12月4日 现已支持ONNX！[[ONNX InstaFlow]](https:\u002F\u002Fhuggingface.co\u002FTheyCallMeHex\u002FInstaFlow-0.9B-ONNX\u002Ftree\u002Fmain) [[ONNX 2-Rectified Flow]](https:\u002F\u002Fhuggingface.co\u002FTheyCallMeHex\u002F2-Rectified-Flow-ONNX) [[ONNXStack UI]](https:\u002F\u002Fgithub.com\u002Fsaddam213\u002FOnnxStack\u002Freleases\u002Ftag\u002Fv0.10.0)（感谢[saddam213](https:\u002F\u002Fgithub.com\u002Fsaddam213)）\n- 2023年11月23日 Colab笔记本现已上线。请在此尝试[这里](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1mXvIrkbWFwHcZl0sMNjrR3zGtYlrI6re?usp=sharing)。（感谢个人贡献者[xaviviro](https:\u002F\u002Fgithub.com\u002Fxaviviro)）\n- 2023年11月22日 一步式InstaFlow现已兼容预训练的ControlNet。详情请见[这里](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain#controlnet)。（感谢个人贡献者颜汉书博士([Dr. Hanshu Yan](https:\u002F\u002Fhanshuyan.github.io\u002F))）\n- 2023年11月22日 我们发布了预训练模型和推理代码[这里](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain\u002Fcode)。\n- 2023年9月26日 我们在🤗Hugging Face Space中提供了InstaFlow-0.9B的演示。请在此尝试[这里](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FXCLiu\u002FInstaFlow)。\n\n## 引言\n\n扩散模型在文本到图像生成任务中展现了巨大的潜力。然而，其性能仍然受到计算资源限制的显著影响，因为推理阶段需要通过迭代数值求解器来完成扩散\u002F流过程的求解。\n\n**InstaFlow** 是一款```超快速```、```一步式```的图像生成器，能够在大幅降低计算资源需求的同时，达到接近Stable Diffusion的图像质量。这一效率得益于最近提出的[修正流](https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FRectifiedFlow)技术：该方法通过训练具有直线轨迹的概率流，从而在推理时仅需单步即可完成生成。\n\n**InstaFlow** 具有以下几大优势：\n- ```超快速推理```：**InstaFlow** 模型属于**一步式生成器**，能够直接将噪声映射为图像，避免了扩散模型所需的多步采样过程。在配备A100 GPU的机器上，每张图像的推理时间约为0.1秒，相比原版Stable Diffusion节省了约90%的推理时间。\n- ```高质量```：**InstaFlow** 生成的图像细节丰富，与Stable Diffusion相当，并且在MS COCO 2014数据集上的FID指标与最先进的文本到图像GAN模型（如[StyleGAN-T](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fstylegan-t)）相近。\n- ```简单高效的训练```：**InstaFlow** 的训练过程仅需**监督训练**。借助预训练的Stable Diffusion模型，仅需**199个A100 GPU天**即可获得**InstaFlow-0.9B**。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_9134d43eb6b5.png)\n\n## 作品集\n\n### 一步式生成，使用InstaFlow-0.9B（每张图片0.09秒，$512 \\times 512$）\n\n\u003Cp align=\"middle\">\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_51521a2c08f6.png' width='192'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_43d790f38bd7.png' width='192'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_446706d1f621.png' width='192'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_4bce473acb05.png' width='192'>\n\u003C\u002Fp>\n\n### 一步式生成，使用InstaFlow-1.7B（每张图片0.12秒，$512 \\times 512$）\n\n\u003Cp align=\"middle\">\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_80e898d1302f.png' width='192'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_0f04d98396ae.png' width='192'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_c362b2fd608e.png' width='192'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_95dedf73b66d.png' width='192'>\n\u003C\u002Fp>\n\n### 一步式生成，使用InstaFlow-0.9B（0.09秒）+ SDXL-Refiner（$1024 \\times 1024$）\n\n\u003Cp align=\"middle\">\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_10e13c74f72e.png' width='384'>\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_6d64fe4b02af.png' width='384'>\n\u003C\u002Fp>\n\n### 一步式InstaFlow-0.9B的潜在空间插值（每张图片0.09秒，$512 \\times 512$）\n\n\u003Cdiv align=\"center\">\n\n\n\n\n\nhttps:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Fassets\u002F1157982\u002Fe8c41d7c-aa1d-4ac3-b96f-5cda847331fe\n\n\n\n\u003C\u002Fdiv>\n\n## LoRA\n\n一步式InstaFlow兼容预训练的LoRA。我们感谢个人贡献者颜汉书博士([Dr. Hanshu Yan](https:\u002F\u002Fhanshuyan.github.io\u002F))提供的*修正流+LoRA*流程及其测试！\n\nInstaFlow似乎比SDXL-Turbo更具多样性。\n\n\n\nhttps:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Fassets\u002F1157982\u002F8f12960e-116d-486a-a2e9-448d745394c2\n\n\n\n## ControlNet\n\n一步式InstaFlow完全兼容预训练的ControlNet。我们感谢个人贡献者颜汉书博士([Dr. Hanshu Yan](https:\u002F\u002Fhanshuyan.github.io\u002F))提供的*修正流+ControlNet*流程及其测试！\n\n以下是使用InstaFlow-0.9B + ControlNet进行的**一步式生成**：\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_481412c24115.jpg) \n\n\n## 与SD 1.5在我们的A100机器上的对比\n\n为了更直观地理解，我们在同一台A100服务器上，通过Gridio界面分别对不同模型进行了随机生成并截图。InstaFlow-0.9B为一步式，而SD 1.5则采用25步的[DPMSolver](https:\u002F\u002Fgithub.com\u002FLuChengTHU\u002Fdpm-solver)。从服务器下载一张图片大约需要0.3秒。文本提示为：“阳光下，一座美丽的湖泊旁的雪山照片。”\n\n\n| &emsp; &emsp; &emsp; &emsp; &emsp; &emsp;   InstaFlow-0.9B &emsp; &emsp; &emsp; &emsp; &emsp; &emsp; &emsp;|  &emsp; &emsp; &emsp; &emsp; &emsp; &emsp;  Stable Diffusion 1.5 &emsp; &emsp; &emsp; &emsp; &emsp;|\n|:-:|:-:|\n\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_8e28055f2275.gif)\n\n## 方法：使用文本条件重流拉直生成概率流\n\n\u003Cdiv align=\"center\">\n\n\nhttps:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Fassets\u002F1157982\u002F897e2d1a-eff9-44bf-ab89-bc26bbc0d8a7\n\n \n\u003C\u002Fdiv>\n\n\u003Cp align=\"middle\">\n  \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_readme_7239b2ae46dc.jpg' width='550'>\n\u003C\u002Fp>\n\n我们的流程包含三个步骤：\n\n1. 从预训练的 Stable Diffusion 中生成 (文本, 噪声, 图像) 三元组。\n2. 应用 ```文本条件重流``` 以得到 2-修正流，这是一种被拉直的生成概率流。\n3. 从 2-修正流中蒸馏出 **单步 InstaFlow**。需要注意的是，蒸馏和重流是 ```正交技术```。\n\n如视频和图片所示，直线型流具有以下优势：\n\n* 直线型流在模拟时所需的步数更少。\n* 直线型流能够更好地耦合噪声分布与图像分布，从而实现成功的蒸馏。\n\n\n\n## 相关资料\n\n我们在此提供若干相关链接和阅读材料：\n\n* 官方修正流 GitHub 仓库 (https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FRectifiedFlow)\n\n* 修正流简介 (https:\u002F\u002Fwww.cs.utexas.edu\u002F~lqiang\u002Frectflow\u002Fhtml\u002Fintro.html)\n\n* 中文版修正流介绍——知乎 (https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F603740431)\n\n* FlowGrad：利用梯度控制生成型常微分方程的输出 (https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FFlowGrad)\n\n* 使用直线型流快速生成点云 (https:\u002F\u002Fgithub.com\u002Fklightz\u002FPSF)\n\n* 分段修正流 (https:\u002F\u002Fgithub.com\u002Fmagic-research\u002Fpiecewise-rectified-flow)\n\n* 作为即插即用先验的文本到图像修正流 (https:\u002F\u002Fgithub.com\u002Fyangxiaofeng\u002Frectified_flow_prior)\n\n## 引用\n\n```\n@inproceedings{liu2023instaflow,\n  title={Instaflow: One step is enough for high-quality diffusion-based text-to-image generation},\n  author={Liu, Xingchao and Zhang, Xiwen and Ma, Jianzhu and Peng, Jian and Liu, Qiang},\n  booktitle={International Conference on Learning Representations},\n  year={2024}\n}\n```\n\n## 致谢\n\n我们的训练脚本基于 [Diffusers 中的一个微调示例](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers\u002Fblob\u002Fmain\u002Fexamples\u002Ftext_to_image\u002Ftrain_text_to_image.py) 修改而来。\n我们工作的其他部分也高度依赖于 [🤗 Diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers) 库。","# InstaFlow 快速上手指南\n\nInstaFlow 是一个基于 Rectified Flow 技术的超快一步图像生成模型，能够在单步推理中生成高质量图像，推理速度比传统 Stable Diffusion 快约 90%（A100 GPU 上仅需约 0.1 秒）。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu 20.04+) 或 macOS\n- **GPU**: NVIDIA GPU (推荐 A100, V100, RTX 3090\u002F4090 等)，显存建议 16GB 以上\n- **Python**: 3.8 - 3.10\n- **CUDA**: 11.7 或更高版本\n\n### 前置依赖\n确保已安装以下基础库：\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install diffusers transformers accelerate gradio\n```\n\n> **国内加速建议**：使用清华源或阿里源加速 Python 包安装。\n> ```bash\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple torch torchvision torchaudio --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple diffusers transformers accelerate gradio\n> ```\n\n## 安装步骤\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow.git\n   cd InstaFlow\u002Fcode\n   ```\n\n2. **安装项目依赖**\n   ```bash\n   pip install -r requirements.txt\n   ```\n   > 若 `requirements.txt` 不存在，请手动安装核心依赖：\n   > ```bash\n   > pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple diffusers>=0.24.0 transformers accelerate gradio safetensors\n   > ```\n\n3. **下载预训练模型**\n   \n   模型托管在 Hugging Face，国内用户可使用镜像站或手动下载后放入本地目录。\n   \n   **方式一：使用脚本自动下载（需网络通畅）**\n   代码运行时会自动从 Hugging Face 拉取模型 `gnobitab\u002FInstaFlow-0.9B`。\n\n   **方式二：手动下载（推荐国内用户）**\n   访问 [Hugging Face 模型页](https:\u002F\u002Fhuggingface.co\u002Fgnobitab\u002FInstaFlow-0.9B) 下载文件，或使用镜像站（如 `hf-mirror.com`）：\n   ```bash\n   export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n   huggingface-cli download --resume-download gnobitab\u002FInstaFlow-0.9B --local-dir .\u002Fmodels\u002FInstaFlow-0.9B\n   ```\n\n## 基本使用\n\n### 1. 命令行快速推理\n\n运行以下命令即可通过文本提示生成图像（单步推理）：\n\n```bash\npython inference.py \\\n    --model_path \"gnobitab\u002FInstaFlow-0.9B\" \\\n    --prompt \"A photograph of a snowy mountain near a beautiful lake under sunshine\" \\\n    --output_dir \".\u002Foutputs\" \\\n    --num_images 4\n```\n\n*注：若使用手动下载的模型，将 `--model_path` 改为本地路径，例如 `.\u002Fmodels\u002FInstaFlow-0.9B`。*\n\n### 2. 启动本地 Gradio 界面\n\n为了方便交互式体验，项目提供了本地 Gradio Demo：\n\n```bash\npython app.py --model_path \"gnobitab\u002FInstaFlow-0.9B\"\n```\n\n启动后，终端会显示本地访问地址（通常为 `http:\u002F\u002F127.0.0.1:7860`），在浏览器打开即可输入提示词并实时生成图像。\n\n### 3. Python 代码调用示例\n\n在你的 Python 脚本中集成 InstaFlow：\n\n```python\nimport torch\nfrom diffusers import AutoPipelineForText2Image\n\n# 加载模型\npipeline = AutoPipelineForText2Image.from_pretrained(\n    \"gnobitab\u002FInstaFlow-0.9B\", \n    torch_dtype=torch.float16\n)\npipeline.to(\"cuda\")\n\n# 生成图像\nprompt = \"A cyberpunk city at night, neon lights, highly detailed\"\nimage = pipeline(prompt, num_inference_steps=1).images[0]\n\n# 保存结果\nimage.save(\"instaflow_result.png\")\n```\n\n> **提示**：`num_inference_steps` 必须设置为 **1** 以发挥 InstaFlow 的单步加速优势。支持配合 LoRA 和 ControlNet 使用，具体参数可参考官方仓库文档。","某电商平台的运营团队需要在“双 11\"大促期间，根据实时热点快速生成数千张个性化的商品推广海报。\n\n### 没有 InstaFlow 时\n- **生成速度严重滞后**：传统 Stable Diffusion 模型每张图需迭代 20-50 步，单张耗时数秒，面对海量需求时排队拥堵，无法跟上营销节奏。\n- **算力成本高昂**：为了维持并发生成，团队不得不租赁大量高性能 GPU 服务器，导致基础设施预算急剧膨胀。\n- **实时交互体验差**：运营人员在调整文案或微调画面时，必须等待漫长的渲染过程，难以进行即时创意验证和快速迭代。\n- **资源调度复杂**：由于推理时间长，系统难以在用户端实现“即输即得”的个性化定制功能，限制了业务创新。\n\n### 使用 InstaFlow 后\n- **毫秒级极速出图**：InstaFlow 凭借单步生成技术，将单张图片推理时间压缩至约 0.1 秒，整体效率提升约 90%，轻松应对万级并发。\n- **大幅降低运营成本**：极高的推理效率意味着同等算力下可处理的请求量翻倍，显著减少了所需的 GPU 资源投入。\n- **实现流畅实时互动**：运营人员修改提示词后几乎瞬间看到结果，支持高频次的创意试错，极大提升了内容生产灵活性。\n- **赋能端侧实时定制**：得益于超低延迟，平台可直接向 C 端用户开放“千人千面”的海报定制功能，用户输入需求即刻生成专属图片。\n\nInstaFlow 通过革命性的单步生成能力，将 AI 绘图从“离线批量生产”转变为“实时交互式创作”，彻底打破了速度与成本的双重瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgnobitab_InstaFlow_481412c2.jpg","gnobitab","XCL","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgnobitab_579a2f1c.png","Researcher at DeepSeek AI |\r\nPhD from UT Austin","UT Austin","Austin, TX","xcliu@utexas.edu",null,"https:\u002F\u002Fgithub.com\u002Fgnobitab",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,1395,47,"2026-04-11T03:27:25","MIT","未说明","需要 NVIDIA GPU（文中提及在 A100 GPU 上测试），显存需求未明确说明（参考 Stable Diffusion 通常建议 8GB+），CUDA 版本未说明",{"notes":95,"python":92,"dependencies":96},"该工具基于 Hugging Face Diffusers 库构建。支持一步生成图像，推理速度极快（A100 上约 0.1 秒）。兼容预训练的 LoRA 和 ControlNet 模型。提供 ONNX 版本支持。训练过程需要大量算力（文中提及 199 A100 GPU 天），但推理资源需求显著降低。可通过 Colab Notebook 或 Hugging Face Space 直接体验，也可在本地部署 Gradio 界面。",[97,98,99,100,101],"diffusers","torch","gradio","transformers","accelerate",[15],"2026-03-27T02:49:30.150509","2026-04-15T06:56:43.839936",[106,111,116,121,126,131,136],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},33792,"InstaFlow 的源代码和预训练模型在哪里下载？","代码和模型已发布。具体资源如下：\n1. 源代码：https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Ftree\u002Fmain\u002Fcode\n2. 少步数模型 (Few-step model)：https:\u002F\u002Fhuggingface.co\u002FXCLiu\u002F2_rectified_flow_from_sd_1_5\u002F\n3. 单步模型 (1 step model)：https:\u002F\u002Fhuggingface.co\u002FXCLiu\u002Finstaflow_0_9B_from_sd_1_5","https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Fissues\u002F8",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},33793,"如何在 Windows 上使用带有图形界面 (UI) 的 InstaFlow？","社区已将模型转换为 ONNX 格式并提供了 Windows UI 支持：\n1. 下载 ONNX 模型：\n   - InstaFlow-0.9B: https:\u002F\u002Fhuggingface.co\u002FTheyCallMeHex\u002FInstaFlow-0.9B-ONNX\u002Ftree\u002Fmain\n   - 2-Rectified-Flow: https:\u002F\u002Fhuggingface.co\u002FTheyCallMeHex\u002F2-Rectified-Flow-ONNX\n2. 下载 OnnxStack UI (仅支持 Windows)：https:\u002F\u002Fgithub.com\u002Fsaddam213\u002FOnnxStack\u002Freleases\u002Ftag\u002Fv0.9.1-pre (后续版本 v0.10.0 也支持 Rectified low step 模型)。","https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Fissues\u002F20",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},33794,"如何训练或微调 (Fine-tune) InstaFlow 模型？","目前训练脚本正在清理中，尚未完全公开。关于微调，维护者指出：\"微调 InstaFlow 需要新的范式 (new paradigm)，我们正在进行相关研究。\"建议关注仓库更新以获取最新的训练脚本。","https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Fissues\u002F17",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},33795,"InstaFlow 的网络是直接预测速度 (v) 还是通过变换得到？","网络是直接预测速度 v (predict v directly) 的，这一点可以在推理代码中找到证实。","https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Fissues\u002F12",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},33796,"InstaFlow 的代码和模型使用什么许可证？是否可以商用？","源代码已以 MIT 许可证发布，允许自由使用和修改。但请注意，预训练模型可能受多种许可证约束 (subject to multiple licenses)，商用前请务必检查具体模型文件附带的许可条款。","https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Fissues\u002F16",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},33797,"是否有基于 Hugging Face Diffusers 的实现或复现方案？","社区成员正在推进将 InstaFlow 集成到 Hugging Face Diffusers 库中。你可以关注相关的 Pull Request (https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers\u002Fpull\u002F5397) 获取进展。此外，有用户提供了用于复现的 Google Colab 笔记本供测试和使用。","https:\u002F\u002Fgithub.com\u002Fgnobitab\u002FInstaFlow\u002Fissues\u002F13",{"id":137,"question_zh":138,"answer_zh":139,"source_url":110},33798,"InstaFlow 在实时应用中的性能表现如何？","根据用户反馈，结合 InstaFlow 和其他优化技术（如 DMD、MultiControlNet），在应用程序管道中已实现约 21 FPS 的实时 Stable Diffusion 生成速度。该方案还支持与 LayerDiffusion 集成，适用于实时复合图像生成场景。",[]]