[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-logtd--ComfyUI-Fluxtapoz":3,"tool-logtd--ComfyUI-Fluxtapoz":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":80,"owner_website":79,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":10,"env_os":91,"env_gpu":91,"env_ram":91,"env_deps":92,"category_tags":94,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":95,"updated_at":96,"faqs":97,"releases":125},292,"logtd\u002FComfyUI-Fluxtapoz","ComfyUI-Fluxtapoz","Nodes for image juxtaposition for Flux in ComfyUI","ComfyUI-Fluxtapoz 是一个为 ComfyUI 平台开发的图像编辑扩展工具，专门针对 Flux 模型设计。它提供了一系列节点，让用户能够对图像进行精细的编辑和风格迁移。\n\n这个工具解决了什么问题？简单来说，它让图像编辑变得更加灵活可控。无论你是想对照片进行风格转换、局部修改，还是添加细节增强，都能找到合适的处理方案。传统图像编辑往往需要复杂的反转过程，而 ComfyUI-Fluxtapoz 提供了多种可选方案，比如 RF-Inversion、RF-Edit、Fireflow 和 Flow Edit 等，用户可以根据具体需求选择最合适的方法。\n\n它适合谁使用？对于 AI 艺术研究者来说，这些节点提供了实验不同图像处理算法的便捷途径；设计师可以利用区域提示功能实现更精细的创意控制；开发者则能通过 API 风格的节点快速构建自动化工作流。即使是普通用户，只要对 AI 图像生成感兴趣，也能通过示例工作流快速上手。\n\n技术方面，ComfyUI-Fluxtapoz 的亮点包括：支持无需反转的图像编辑（Flow Edit）、提供区域提示实现局部控制、以及 Perturbed Atten","ComfyUI-Fluxtapoz 是一个为 ComfyUI 平台开发的图像编辑扩展工具，专门针对 Flux 模型设计。它提供了一系列节点，让用户能够对图像进行精细的编辑和风格迁移。\n\n这个工具解决了什么问题？简单来说，它让图像编辑变得更加灵活可控。无论你是想对照片进行风格转换、局部修改，还是添加细节增强，都能找到合适的处理方案。传统图像编辑往往需要复杂的反转过程，而 ComfyUI-Fluxtapoz 提供了多种可选方案，比如 RF-Inversion、RF-Edit、Fireflow 和 Flow Edit 等，用户可以根据具体需求选择最合适的方法。\n\n它适合谁使用？对于 AI 艺术研究者来说，这些节点提供了实验不同图像处理算法的便捷途径；设计师可以利用区域提示功能实现更精细的创意控制；开发者则能通过 API 风格的节点快速构建自动化工作流。即使是普通用户，只要对 AI 图像生成感兴趣，也能通过示例工作流快速上手。\n\n技术方面，ComfyUI-Fluxtapoz 的亮点包括：支持无需反转的图像编辑（Flow Edit）、提供区域提示实现局部控制、以及 Perturbed Attention Guidance（PAG）和 Smoothed Energy Guidance（SEG）等图像增强功能。工具包中附带多个示例工作流，帮你快速了解各种功能的使用方法。","# ComfyUI-Fluxtapoz\n\nA set of nodes for editing images using Flux in ComfyUI\n\n## Examples\n\nSee `example_workflows` directory for examples.\n\nNo ControlNets are used in any of the following examples.\n\n## Rectified Flow Inversion (Unsampling from [RF Inversion](https:\u002F\u002Frf-inversion.github.io\u002F))\n\nAdmittedly this has some small differences between the example images in the paper, but it's very close. Will be updating as I find the issue.\nIt's currently my recommended way to unsample an image for editing or style transfer.\n\nUse [this workflow](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_inversion_updated.json) for RF-Inversion.\n\n![rf_inversion](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_496f536e2491.png)\n\n### RF-Inversion Stylization\n\nRF-Inversion can also be used to stylize images.\n\nUse [this workflow](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_inversion_stylization.json) to style images.\n\n![rf_inversion_style](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_6b61f542b46a.png)\n\n\n## RF-Edit (Unsampling from [RF-Solver-Edit](https:\u002F\u002Fgithub.com\u002Fwangjiangshan0725\u002FRF-Solver-Edit))\nRF-Edit is an alternative way to edit images. It may suit some use cases better than RF-Inversion and I recommend trying both.\n\nUse [this workflow](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_edit_workflow_alternative.json) for RF-Edit.\n\n![rf_edit_wolf](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_3c3dc5c21768.png)\n\n## Fireflow (Unsampling from [Fireflow inversion](https:\u002F\u002Fgithub.com\u002FHolmesShuan\u002FFireFlow-Fast-Inversion-of-Rectified-Flow-for-Image-Semantic-Editing))\nFor a faster inversion method there is also Fireflow for image editing. \n\nUse [this workflow](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_fireflow.json) for Fireflow.\n\n![fireflow_pirate_example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_356dccb4f49e.png)\n\n## Flow Edit\nThis is an implementation of image editing from [FlowEdit](https:\u002F\u002Fgithub.com\u002Ffallenshock\u002FFlowEdit).\n\nIt is an inversion free way to edit images.\n\nUse [this workflow](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_flow_edit.json) to get started.\n\n![flux_flowedit](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_80691c68c4f4.png)\n\n\n\n## Regional Prompting\nRegional prompting allows you to prompt specific areas of the latent to give more control. You can combine it with Redux, but Redux is so powerful it dominates the generation.\nThis implementation is based on [InstantX Regional Prompting](https:\u002F\u002Fgithub.com\u002FinstantX-research\u002FRegional-Prompting-FLUX).\n\nUse [this workflow](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_flux_regional.json) for regional prompting.\n\n![ComfyUI_temp_kzsib_00029_](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_5035526e6c75.png)\n\n\n## Enhancement\nThere are two nodes for Perturbed Attention Guidance (PAG) and Smoothed Energy Guidance (SEG) that can add detail to images.\n\nThe following from left to right: Vanilla Flux, PAG, SEG\n![ComfyUI_00069_](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_f8edda599f86.png)\n\n\n\n## Acknowledgements\nThank you to all researchers involved in the tools implemented in this repo.\n\n\u003Cdetails>\n\u003Csummary>Click to see all acknowledgements\u003C\u002Fsummary>\n  \n[RF-Inversion](https:\u002F\u002Frf-inversion.github.io\u002F)\n\n```\n@article{rout2024rfinversion,\n  title={Semantic Image Inversion and Editing using Rectified Stochastic Differential Equations},\n  author={Litu Rout and Yujia Chen and Nataniel Ruiz and Constantine Caramanis and Sanjay Shakkottai and Wen-Sheng Chu},\n  journal={arXiv preprint arXiv:2410.10792},\n  year={2024}\n}\n```\n\n[RF-Solver-Edit](https:\u002F\u002Fgithub.com\u002Fwangjiangshan0725\u002FRF-Solver-Edit)\n```\n@article{wang2024taming,\n  title={Taming Rectified Flow for Inversion and Editing},\n  author={Wang, Jiangshan and Pu, Junfu and Qi, Zhongang and Guo, Jiayi and Ma, Yue and Huang, Nisha and Chen, Yuxin and Li, Xiu and Shan, Ying},\n  journal={arXiv preprint arXiv:2411.04746},\n  year={2024}\n}\n```\n\n[Fireflow](https:\u002F\u002Fgithub.com\u002FHolmesShuan\u002FFireFlow-Fast-Inversion-of-Rectified-Flow-for-Image-Semantic-Editing)\n```\n@misc{deng2024fireflowfastinversionrectified,\n      title={FireFlow: Fast Inversion of Rectified Flow for Image Semantic Editing}, \n      author={Yingying Deng and Xiangyu He and Changwang Mei and Peisong Wang and Fan Tang},\n      year={2024},\n      eprint={2412.07517},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.07517}, \n}\n```\n\n[FlowEdit](https:\u002F\u002Fgithub.com\u002Ffallenshock\u002FFlowEdit)\n```\n@article{kulikov2024flowedit,\n\ttitle = {FlowEdit: Inversion-Free Text-Based Editing Using Pre-Trained Flow Models},\n\tauthor = {Kulikov, Vladimir and Kleiner, Matan and Huberman-Spiegelglas, Inbar and Michaeli, Tomer},\n\tjournal = {arXiv preprint arXiv:2412.08629},\n\tyear = {2024}\n\t}\n```\n\n[InstantX Regional Prompting](https:\u002F\u002Fgithub.com\u002FinstantX-research\u002FRegional-Prompting-FLUX)\n```\n@article{chen2024training,\n  title={Training-free Regional Prompting for Diffusion Transformers},\n  author={Chen, Anthony and Xu, Jianjin and Zheng, Wenzhao and Dai, Gaole and Wang, Yida and Zhang, Renrui and Wang, Haofan and Zhang, Shanghang},\n  journal={arXiv preprint arXiv:2411.02395},\n  year={2024}\n}\n```\n\u003C\u002Fdetails>\n","# ComfyUI-Fluxtapoz\n\n一组用于在 ComfyUI 中使用 Flux 编辑图像的节点\n\n## 示例\n\n请参阅 `example_workflows` 目录中的示例。\n\n以下示例均未使用 ControlNet。\n\n## Rectified Flow Inversion（来自 RF Inversion 的反向过程）\n\n诚然，这与论文中的示例图像有一些小差异，但非常接近。随着我找到问题所在会持续更新。\n这是我目前推荐的用于编辑或风格迁移的图像反向处理方法。\n\n使用[此工作流](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_inversion_updated.json)进行 RF-Inversion。\n\n![rf_inversion](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_496f536e2491.png)\n\n### RF-Inversion 风格化\n\nRF-Inversion 还可以用于图像风格化。\n\n使用[此工作流](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_inversion_stylization.json)对图像进行风格化处理。\n\n![rf_inversion_style](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_6b61f542b46a.png)\n\n## RF-Edit（来自 RF-Solver-Edit 的反向过程）\n\nRF-Edit 是另一种图像编辑方式。它在某些使用场景中可能比 RF-Inversion 更适合，我建议两者都尝试一下。\n\n使用[此工作流](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_edit_workflow_alternative.json)进行 RF-Edit。\n\n![rf_edit_wolf](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_3c3dc5c21768.png)\n\n## Fireflow（来自 Fireflow inversion 的反向过程）\n\n对于更快的反向处理方法，还有 Fireflow 可用于图像编辑。\n\n使用[此工作流](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_fireflow.json)进行 Fireflow。\n\n![fireflow_pirate_example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_356dccb4f49e.png)\n\n## Flow Edit\n\n这是来自 [FlowEdit](https:\u002F\u002Fgithub.com\u002Ffallenshock\u002FFlowEdit) 的图像编辑实现。\n\n这是一种无需反向处理的图像编辑方式。\n\n使用[此工作流](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_flow_edit.json)开始使用。\n\n![flux_flowedit](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_80691c68c4f4.png)\n\n## 区域提示\n\n区域提示允许你对潜在空间的特定区域进行提示，以获得更多控制。你可以将其与 Redux 结合使用，但 Redux 非常强大，会主导生成过程。\n此实现基于 [InstantX 区域提示](https:\u002F\u002Fgithub.com\u002FinstantX-research\u002FRegional-Prompting-FLUX)。\n\n使用[此工作流](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_flux_regional.json)进行区域提示。\n\n![ComfyUI_temp_kzsib_00029_](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_5035526e6c75.png)\n\n## 增强\n\n有两个节点可用于为图像添加细节：受扰动注意力引导（PAG，Perturbed Attention Guidance）和平滑能量引导（SEG，Smoothed Energy Guidance）。\n\n从左到右依次为：原生 Flux、PAG、SEG\n![ComfyUI_00069_](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_readme_f8edda599f86.png)\n\n## 致谢\n\n感谢所有参与本仓库实现工具的研究人员。\n\n\u003Cdetails>\n\u003Csummary>点击查看所有致谢\u003C\u002Fsummary>\n\n[RF-Inversion](https:\u002F\u002Frf-inversion.github.io\u002F)\n\n```\n@article{rout2024rfinversion,\n  title={Semantic Image Inversion and Editing using Rectified Stochastic Differential Equations},\n  author={Litu Rout and Yujia Chen and Nataniel Ruiz and Constantine Caramanis and Sanjay Shakkottai and Wen-Sheng Chu},\n  journal={arXiv preprint arXiv:2410.10792},\n  year={2024}\n}\n```\n\n[RF-Solver-Edit](https:\u002F\u002Fgithub.com\u002Fwangjiangshan0725\u002FRF-Solver-Edit)\n```\n@article{wang2024taming,\n  title={Taming Rectified Flow for Inversion and Editing},\n  author={Wang, Jiangshan and Pu, Junfu and Qi, Zhongang and Guo, Jiayi and Ma, Yue and Huang, Nisha and Chen, Yuxin and Li, Xiu and Shan, Ying},\n  journal={arXiv preprint arXiv:2411.04746},\n  year={2024}\n}\n```\n\n[Fireflow](https:\u002F\u002Fgithub.com\u002FHolmesShuan\u002FFireFlow-Fast-Inversion-of-Rectified-Flow-for-Image-Semantic-Editing)\n```\n@misc{deng2024fireflowfastinversionrectified,\n      title={FireFlow: Fast Inversion of Rectified Flow for Image Semantic Editing},\n      author={Yingying Deng and Xiangyu He and Changwang Mei and Peisong Wang and Fan Tang},\n      year={2024},\n      eprint={2412.07517},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.07517},\n}\n```\n\n[FlowEdit](https:\u002F\u002Fgithub.com\u002Ffallenshock\u002FFlowEdit)\n```\n@article{kulikov2024flowedit,\n\ttitle = {FlowEdit: Inversion-Free Text-Based Editing Using Pre-Trained Flow Models},\n\tauthor = {Kulikov, Vladimir and Kleiner, Matan and Huberman-Spiegelglas, Inbar and Michaeli, Tomer},\n\tjournal = {arXiv preprint arXiv:2412.08629},\n\tyear = {2024}\n\t}\n```\n\n[InstantX Regional Prompting](https:\u002F\u002Fgithub.com\u002FinstantX-research\u002FRegional-Prompting-FLUX)\n```\n@article{chen2024training,\n  title={Training-free Regional Prompting for Diffusion Transformers},\n  author={Chen, Anthony and Xu, Jianjin and Zheng, Wenzhao and Dai, Gaole and Wang, Yida and Zhang, Renrui and Wang, Haofan and Zhang, Shanghang},\n  journal={arXiv preprint arXiv:2411.02395},\n  year={2024}\n}\n```\n\u003C\u002Fdetails>","# ComfyUI-Fluxtapoz 快速上手指南\n\nComfyUI-Fluxtapoz 是一个在 ComfyUI 中使用 Flux 模型进行图像编辑的节点集合，支持多种反演和编辑方法。\n\n## 环境准备\n\n### 系统要求\n\n- Python 3.10+（推荐 3.11）\n- 已安装 ComfyUI\n\n### 前置依赖\n\n确保 ComfyUI 已正常运行，并已下载 Flux 模型文件。推荐使用 [ComfyUI-Flux同行者](https:\u002F\u002Fgithub.com\u002FAltinok75\u002FComfyUI-Flux-God) 或其他 Flux 整合包。\n\n## 安装步骤\n\n### 方法一：通过 ComfyUI-Manager 安装\n\n1. 打开 ComfyUI-Manager\n2. 搜索 `ComfyUI-Fluxtapoz`\n3. 点击安装\n\n### 方法二：手动安装\n\n```bash\n# 进入 ComfyUI 自定义节点目录\ncd ComfyUI\u002Fcustom_nodes\n\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz.git\n\n# 重启 ComfyUI\n```\n\n## 基本使用\n\n### 快速开始\n\n安装完成后，在 ComfyUI 节点列表中找到 `Fluxtapoz` 分类，即可使用以下功能：\n\n| 功能 | 说明 |\n|------|------|\n| RF-Inversion | 推荐的图像反演方法，适合编辑或风格迁移 |\n| RF-Edit | 另一种图像编辑方式 |\n| Fireflow | 快速反演方法 |\n| FlowEdit | 无需反演的图像编辑 |\n| Regional Prompting | 区域提示，控制特定区域的生成 |\n| Enhancement | PAG\u002FSEG 增强，为图像添加细节 |\n\n### 示例工作流\n\n各功能均提供示例工作流，位于仓库的 `example_workflows` 目录：\n\n- **RF-Inversion**: [example_rf_inversion_updated.json](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_inversion_updated.json)\n- **RF-Inversion 风格化**: [example_rf_inversion_stylization.json](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_inversion_stylization.json)\n- **RF-Edit**: [example_rf_edit_workflow_alternative.json](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_edit_workflow_alternative.json)\n- **Fireflow**: [example_rf_fireflow.json](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_fireflow.json)\n- **FlowEdit**: [example_flow_edit.json](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_flow_edit.json)\n- **区域提示**: [example_flux_regional.json](https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_flux_regional.json)\n\n### 导入工作流\n\n1. 在 ComfyUI 中点击 `Load` → `Load Workflow`\n2. 选择对应的 JSON 文件\n3. 根据提示配置模型路径等参数\n\n## 注意事项\n\n- 所有示例均未使用 ControlNet\n- RF-Inversion 是目前推荐的默认反演方式\n- 如遇问题，可尝试更换不同的反演方法（RF-Inversion \u002F RF-Edit \u002F Fireflow \u002F FlowEdit）","# 电商设计师的产品图风格迁移实战\n\n一位电商设计师正在为新品上市准备营销素材，需要将一批产品摄影图转换为特定的艺术风格，用于社交媒体推广和店铺 Banner。\n\n### 没有 ComfyUI-Fluxtapoz 时\n\n- 手动用 Photoshop 逐张调整，每张图需要 30 分钟以上，效率极低\n- 传统文生图 AI 无法保持产品细节，经常出现产品变形或特征丢失\n- 使用 LoRA 训练需要准备数据集、训练时间成本高，小项目不划算\n- ControlNet 控制构图但对风格迁移支持有限，难以精准还原产品轮廓\n- 多次生成尝试才能达到满意效果，消耗大量 GPU 算力和时间\n\n### 使用 ComfyUI-Fluxtapoz 后\n\n- RF-Inversion 技术可以在几分钟内完成图像反演，精准保留产品主体特征\n- 支持风格迁移时保持产品轮廓不变，避免关键细节丢失\n- 内置多种反演方式（RF-Inversion、Fireflow、Flow Edit），可根据效果选择最优方案\n- Regional Prompting 可以对画面不同区域分别控制，实现\"产品保持原样+背景艺术化\"\n- PAG\u002FSEG 增强节点可以进一步提升画面细节和质感，让风格化后的图像更精致\n\n设计师可以快速批量生成多种风格变体，选择最符合品牌调性的版本用于营销素材，效率提升数倍的同时保证了产品特征的准确性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogtd_ComfyUI-Fluxtapoz_496f536e.png","logtd","log(td)","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flogtd_a299da9d.jpg",null,"logtdx","https:\u002F\u002Fgithub.com\u002Flogtd",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,1401,57,"2026-03-31T23:28:22","GPL-3.0","未说明",{"notes":93,"python":91,"dependencies":91},"该工具为 ComfyUI 的扩展节点，用于在 ComfyUI 环境中使用 Flux 模型进行图像编辑。README 主要描述了多种图像编辑方法（RF-Inversion、RF-Edit、Fireflow、FlowEdit、Regional Prompting、PAG、SEG）的功能特性，未明确说明运行环境需求。实际运行需具备 ComfyUI 运行环境及支持相应图像生成任务的 GPU 算力。",[14,36],"2026-03-27T02:49:30.150509","2026-04-06T05:36:38.946763",[98,103,108,113,117,121],{"id":99,"question_zh":100,"answer_zh":101,"source_url":102},966,"RF-Edit 没有 seed，如何在每次生成时改变输出？","RF-Edit 不涉及随机性，因此没有 seed 参数。如果想改变输出结果，可以尝试修改 prompt（提示词）或其他输入参数。维护者提供了一个替代的 RF-Edit 工作流文件，可以从 https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_edit_workflow_alternative.json 获取。","https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fissues\u002F40",{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},967,"启动时出现 \"No module named 'ComfyUI-Fluxtapoz.utils.const'\" 错误怎么办？","这是模块导入错误，通常是因为代码更新后缺少某些文件或导入路径不正确导致的。建议检查是否已更新到最新版本，并确保所有依赖文件都已正确安装。如果问题持续，可以尝试重新克隆或下载最新版本的插件。","https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fissues\u002F59",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},968,"使用 SamplerCustomAdvanced 时出现 \"Bias is not supported when out_dtype is set to Float32\" 错误如何解决？","这个错误是因为 Ref Sampling（参考采样）功能尚未完成。解决方法是将 UNETLoader 的 weight_dtype（权重数据类型）从 Float32 改为默认选项（default）。如果需要图像编辑功能，可以使用 RF-Inversion 工作流，示例文件位于：https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fblob\u002Fmain\u002Fexample_workflows\u002Fexample_rf_inversion_updated.json","https:\u002F\u002Fgithub.com\u002Flogtd\u002FComfyUI-Fluxtapoz\u002Fissues\u002F15",{"id":114,"question_zh":115,"answer_zh":116,"source_url":112},969,"使用 Ref Sampling 时出现显存不足 (OutOfMemory) 错误怎么办？","这是因为显卡显存（VRAM）不足导致的。建议尝试减小图像尺寸（resolution），或者关闭一些占用显存的其他功能。",{"id":118,"question_zh":119,"answer_zh":120,"source_url":102},970,"如何将 RF-Solver-Edit 集成到这些节点中使用？","目前插件支持 RF-Inversion 方式进行图像编辑。RF-Edit 与 RF-Inversion 不同，它不涉及随机性（没有 seed），因此无法通过改变 seed 来生成不同结果。如果需要使用 RF-Edit，可以尝试修改 prompt 或使用维护者提供的替代工作流。",{"id":122,"question_zh":123,"answer_zh":124,"source_url":107},971,"导入时出现 \"cannot import name 'RFSingleBlocksOverrideNode'\" 错误如何解决？","这是代码更新过程中出现的导入错误，可能是某个类或函数在重构后被移除或重命名。建议等待维护者发布修复版本，或者尝试重新安装最新版本的插件。",[]]