[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-wildminder--ComfyUI-DyPE":3,"tool-wildminder--ComfyUI-DyPE":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",149489,2,"2026-04-10T11:32:46",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":78,"owner_website":76,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":91,"env_ram":90,"env_deps":92,"category_tags":97,"github_topics":98,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":145},6306,"wildminder\u002FComfyUI-DyPE","ComfyUI-DyPE","ComfyUI DyPE, enabling artifact-free 4K+ image generation for Qwen, Flux + Nunchacku","ComfyUI-DyPE 是一款专为 ComfyUI 设计的自定义节点，旨在帮助 FLUX、Qwen Image 及 Nunchaku 等扩散模型（DiT）生成无伪影的 4K+ 超高分辨率图像。它主要解决了传统模型在超出训练分辨率时容易出现的画面重复纹理、结构崩坏及细节模糊等痛点，让用户无需重新训练模型即可突破原生分辨率限制。\n\n该工具适合希望提升出图质量的设计师、数字艺术家以及 AI 绘画爱好者使用。其核心技术亮点在于采用了“动态位置外推”（DyPE）算法，这是一种无需额外训练的免费方法。DyPE 巧妙利用扩散过程中的频谱演进特性，在生成的不同阶段动态调整模型的位置编码：早期专注于低频结构构建，后期则聚焦于高频细节还原。这种机制有效避免了高分辨率生成中常见的瑕疵。\n\nComfyUI-DyPE 的使用极为便捷，仅需在工作流中模型加载器后插入一个节点即可完成配置，完全兼容现有的采样器和调度器。更重要的是，它在显著提升画质的同时，几乎不增加任何推理时间开销，实现了性能与效果的完美平衡。无论是创作大幅面海报还是精细插画，它都能助您轻松获得连贯且细节丰富的卓越成果。","\u003Cdiv id=\"readme-top\" align=\"center\">\n  \u003Ch1 align=\"center\">ComfyUI-DyPE\u003C\u002Fh1>\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_readme_c64b9a8582db.png\" alt=\"ComfyUI-DyPE Banner\" width=\"70%\">\n\n  \n  \u003Cp align=\"center\">\n    A ComfyUI custom node that implements \u003Cstrong>DyPE (Dynamic Position Extrapolation)\u003C\u002Fstrong>, enabling Diffusion Transformers (like \u003Cstrong>FLUX\u003C\u002Fstrong>, \u003Cstrong>Qwen Image\u003C\u002Fstrong>, and \u003Cstrong>Z-Image\u003C\u002Fstrong>) to generate ultra-high-resolution images (4K and beyond) with exceptional coherence and detail.\n    \u003Cbr \u002F>\n    \u003Cbr \u002F>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\u002Fnew?labels=bug&template=bug-report---.md\">Report Bug\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\u002Fnew?labels=enhancement&template=feature-request---.md\">Request Feature\u003C\u002Fa>\n  \u003C\u002Fp>\n\u003C\u002Fdiv>\n\n\u003C!-- PROJECT SHIELDS -->\n\u003Cdiv align=\"center\">\n\n[![Stargazers][stars-shield]][stars-url]\n[![Issues][issues-shield]][issues-url]\n[![Forks][forks-shield]][forks-url]\n\n\u003C\u002Fdiv>\n\n\u003Cbr>\n\n## About The Project\n\nDyPE is a training-free method that allows pre-trained DiT models to generate images at resolutions far beyond their training data, with no additional sampling cost.\n\nIt works by taking advantage of the spectral progression inherent to the diffusion process. By dynamically adjusting the model's positional encodings at each step, DyPE matches their frequency spectrum with the current stage of the generative process—focusing on low-frequency structures early on and resolving high-frequency details in later steps. This prevents the repeating artifacts and structural degradation typically seen when pushing models beyond their native resolution.\n\n\u003Cdiv align=\"center\">\n\n  \u003Cimg alt=\"ComfyUI-DyPE example workflow\" width=\"70%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_readme_ee863161a9ed.png\" \u002F>\n      \u003Cp>\u003Csub>\u003Ci>A simple, single-node integration to patch your model for high-resolution generation.\u003C\u002Fi>\u003C\u002Fsub>\u003C\u002Fp>\n  \u003C\u002Fdiv>\n\n\n  \nThis node provides a seamless, \"plug-and-play\" integration of DyPE into your workflow.\n\n**✨ Key Features:**\n*   **Multi-Architecture Support:** Supports **FLUX** (Standard), **Nunchaku** (Quantized Flux), **Qwen Image**, and **Z-Image** (Lumina 2).\n*   **High-Resolution Generation:** Push models to 4096x4096 and beyond.\n*   **Single-Node Integration:** Simply place the `DyPE for FLUX` node after your model loader to patch the model. No complex workflow changes required.\n*   **Full Compatibility:** Works seamlessly with your existing ComfyUI workflows, samplers, schedulers, and other optimization nodes.\n*   **Fine-Grained Control:** Exposes key DyPE hyperparameters, allowing you to tune the algorithm's strength and behavior for optimal results at different target resolutions.\n*   **Zero Inference Overhead:** DyPE's adjustments happen on-the-fly with negligible performance impact.\n\n\u003Cdiv align=\"center\">\n\u003Cimg alt=\"Node\" width=\"70%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_readme_ebb48c69061e.png\" \u002F>\n\u003C\u002Fdiv>\n\n## Example output\n\n\u003Cdiv align=\"center\">\n\u003Cimg alt=\"Example dype\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_readme_ab922ce0801a.png\" \u002F>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"right\">(\u003Ca href=\"#readme-top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## Getting Started\n\nThe easiest way to install is via **ComfyUI Manager**. Search for `ComfyUI-DyPE` and click \"Install\".\n\nAlternatively, to install manually:\n\n1.  **Clone the Repository:**\n\n    Navigate to your `ComfyUI\u002Fcustom_nodes\u002F` directory and clone this repository:\n    ```sh\n    git clone https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE.git\n    ```\n2. **Start\u002FRestart ComfyUI:**\n   Launch ComfyUI. No further dependency installation is required.\n\n\u003Cp align=\"right\">(\u003Ca href=\"#readme-top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## 🛠️ Usage\n\nUsing the node is straightforward and designed for minimal workflow disruption.\n\n1.  **Load Your Model:** Use your preferred loader (e.g., `Load Checkpoint` for Flux, `Nunchaku Flux DiT Loader`, or `ZImage` loader).\n2.  **Add the DyPE Node:** Add the `DyPE for FLUX` node to your graph (found under `model_patches\u002Funet`).\n3.  **Connect the Model:** Connect the `MODEL` output from your loader to the `model` input of the DyPE node.\n4.  **Set Resolution:** Set the `width` and `height` on the DyPE node to match the resolution of your `Empty Latent Image`.\n5.  **Connect to KSampler:** Use the `MODEL` output from the DyPE node as the input for your `KSampler`.\n6.  **Generate!** That's it. Your workflow is now DyPE-enabled.\n\n> [!NOTE]\n> This node specifically patches the **diffusion model (UNet)** positional embeddings. It does not modify the CLIP or VAE models.\n\n### Node Inputs\n\n#### 1. Model Configuration\n*   **`model_type`**:\n    *   **`auto`**: Attempts to automatically detect the model architecture. Recommended.\n    *   **`flux`**: Forces Standard Flux logic.\n    *   **`nunchaku`**: Forces Nunchaku (Quantized Flux) logic.\n    *   **`qwen`**: Forces Qwen Image logic.\n    *   **`zimage`**: Forces Z-Image (Lumina 2) logic.\n*   **`base_resolution`**: The native resolution the model was trained on.\n    *   Flux \u002F Z-Image: `1024`\n    *   Qwen: `1328` (Recommended setting for Qwen models)\n\n#### 2. Method Selection\n*   **`method`**:\n    *   **`vision_yarn`:** A novel variant designed specifically for aspect-ratio robustness. It decouples structure from texture: low frequencies (shapes) are scaled to fit your canvas aspect ratio, while high frequencies (details) are scaled uniformly. It uses a dynamic attention schedule to ensure sharpness.\n    *   **`yarn`:** The standard YaRN method. Good general performance but can struggle with extreme aspect ratios.\n    *   **`ntk`:** Neural Tangent Kernel scaling. Very stable but tends to be softer\u002Fblurrier at high resolutions.\n    *   **`base`:** No positional interpolation (standard behavior).\n\n##### Scaling Options\n*   **`yarn_alt_scaling`** (Only affects `yarn` method):\n    *   **Anisotropic (High-Res):** Scales Height and Width independently. Can cause geometric stretching if the aspect ratio differs significantly from the training data.\n    *   **Isotropic (Stable Default):** Scales both dimensions based on the largest axis. .\n    *   *Note: `vision_yarn` automatically handles this balance internally, so this switch is ignored when `vision_yarn` is selected.*\n\n> [!TIP]\n> **Z-Image (Lumina 2) Specifics:** \n> *   Z-Image models use a very low RoPE base frequency (`theta=256`).\n> *   **Geometric Stretching:** To prevent vertical stretching, the node automatically enforces **Isotropic Scaling** for Z-Image, regardless of user settings.\n> *   **Method Choice:** recommend **`vision_yarn`** or **`ntk`**. Standard `yarn` may produce artifacts.\n\n#### 3. Dynamic Control\n*   **`enable_dype`**: Enables or disables the **dynamic, time-aware** component of DyPE.\n    *   **Enabled (True):** Both the noise schedule and RoPE will be dynamically adjusted throughout sampling. This is the full DyPE algorithm.\n    *   **Disabled (False):** The node will only apply the dynamic noise schedule shift. The RoPE will use static extrapolation.\n*   **`dype_scale`**: (λs) Controls the \"magnitude\" of the DyPE modulation. Default is `2.0`.\n*   **`dype_exponent`**: (λt) Controls the \"strength\" of the dynamic effect over time.\n    *   `2.0`: Recommended for **4K+** resolutions. Aggressive schedule that transitions quickly to clean up artifacts.\n    *   `1.0`: Good starting point for **~2K-3K** resolutions.\n    *   `0.5`: Gentler schedule for resolutions just above native.\n\n#### 4. Advanced Noise Scheduling\n*   **`base_shift` \u002F `max_shift`**: These parameters control the Noise Schedule Shift (`mu`). In this implementation, `max_shift` (Default 1.15) acts as the target shift for any resolution larger than the base.\n\n\u003Cp align=\"right\">(\u003Ca href=\"#readme-top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## Changelog\n\n#### v2.3.0\n*   **Z-Image Overhaul:** Fixed geometric stretching artifacts\n*   **Method Fixes**\n\n#### v2.2.0\n*   **Z-Image Support:** Added experimental support for **Z-Image (Lumina 2)** architecture.\n\n#### v2.1.0\n*   **New Architecture Support:** Added support for **Qwen Image** and **Nunchaku** (Quantized Flux) models.\n*   **Modular Architecture:** Refactored codebase into a modular adapter pattern (`src\u002Fmodels\u002F`) to ensure stability and easier updates for future models.\n*   **UI Updates:** Added `model_type` selector for explicit model definition.\n\n#### v2.0.0\n*   **Vision-YaRN:** Introduced the `vision_yarn` method for decoupled aspect-ratio handling.\n*   **Dynamic Attention:** Implemented quadratic decay schedule for `mscale` to balance sharpness and artifacts.\n*   **Start Sigma:** Added `dype_start_sigma` control.\n\n#### v1.0.0\n*   **Initial Release:** Core DyPE implementation for Standard Flux models.\n*   **Basic Modes:** Support for `yarn` (Isotropic\u002FAnisotropic) and `ntk`.\n\n\u003Cp align=\"right\">(\u003Ca href=\"#readme-top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## ❗ Important Notes & Best Practices\n\n> [!IMPORTANT]\n> **Limitations at Extreme Resolutions (4K)**\n> While DyPE significantly extends the capabilities of DiT models, generating perfectly clean 4096x4096 images is still a limitation of the base model itself. Even with DyPE, you are pushing a model trained on ~1 megapixel to generate 16 megapixels. You may still encounter minor artifacts at these extreme scales.\n\n> [!TIP]\n> **Dealing with Speckle Noise**\n> At extreme resolutions (4K+), you may notice high-frequency \"speckle\" noise in focused areas (e.g., hair, eyes). This is a side effect of scaling the model's attention mechanism beyond its training limits.\n> \n> **How to fix:**\n> 1.  **Increase `dype_exponent`:** Try raising this to `3.0` or `4.0` or any other higher values.\n> 2.  **Use LoRAs:** Smoothing or \"Detailer\" LoRAs can help suppress high-frequency artifacts.\n\n> [!TIP]\n> **Experimentation is Required**\n> There is no single \"magic setting\" that works for every prompt and every resolution. To achieve the best results:\n> *   **Test different Methods:** Start with `vision_yarn`, but try `yarn` if you encounter issues.\n> *   **Adjust `dype_exponent`:** This is your main knob for balancing sharpness vs. artifacts.\n\n\u003Cp align=\"center\">══════════════════════════════════\u003C\u002Fp>\n\nBeyond the code, I believe in the power of community and continuous learning. I invite you to join the 'TokenDiff AI News' and 'TokenDiff Community Hub'\n\n\u003Ctable border=\"0\" align=\"center\" cellspacing=\"10\" cellpadding=\"0\">\n  \u003Ctr>\n    \u003Ctd align=\"center\" valign=\"top\">\n      \u003Ch4>TokenDiff AI News\u003C\u002Fh4>\n      \u003Ca href=\"https:\u002F\u002Ft.me\u002FTokenDiff\">\n        \u003Cimg width=\"40%\" alt=\"tokendiff-tg-qw\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_readme_2bf10c57ea80.png\" \u002F>\n      \u003C\u002Fa>\n      \u003Cp>\u003Csub>AI for every home, creativity for every mind!\u003C\u002Fsub>\u003C\u002Fp>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\" valign=\"top\">\n      \u003Ch4>TokenDiff Community Hub\u003C\u002Fh4>\n      \u003Ca href=\"https:\u002F\u002Ft.me\u002FTokenDiff_hub\">\n        \u003Cimg width=\"40%\" alt=\"token_hub-tg-qr\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_readme_c5900566591e.png\" \u002F>\n      \u003C\u002Fa>\n      \u003Cp>\u003Csub>questions, help, and thoughtful discussion.\u003C\u002Fsub> \u003C\u002Fp>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Cp align=\"center\">══════════════════════════════════\u003C\u002Fp>\n\n\u003Cp align=\"right\">(\u003Ca href=\"#readme-top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n\u003C!-- ACKNOWLEDGMENTS -->\n## Acknowledgments\n\n*   **Noam Issachar, Guy Yariv, and the co-authors** for their groundbreaking research and for open-sourcing the [DyPE](https:\u002F\u002Fgithub.com\u002Fguyyariv\u002FDyPE) project.\n*   **The ComfyUI team** for creating such a powerful and extensible platform for diffusion model research and creativity.\n\n\u003Cp align=\"right\">(\u003Ca href=\"#readme-top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n\n\u003C!-- MARKDOWN LINKS & IMAGES -->\n[stars-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fwildminder\u002FComfyUI-DyPE.svg?style=for-the-badge\n[stars-url]: https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fstargazers\n[issues-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fwildminder\u002FComfyUI-DyPE.svg?style=for-the-badge\n[issues-url]: https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\n[forks-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fwildminder\u002FComfyUI-DyPE.svg?style=for-the-badge\n[forks-url]: https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fnetwork\u002Fmembers\n","\u003Cdiv id=\"readme-top\" align=\"center\">\n  \u003Ch1 align=\"center\">ComfyUI-DyPE\u003C\u002Fh1>\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_readme_c64b9a8582db.png\" alt=\"ComfyUI-DyPE 横幅\" width=\"70%\">\n\n  \n  \u003Cp align=\"center\">\n    一个实现\u003Cstrong>DyPE（动态位置外推）\u003C\u002Fstrong>的 ComfyUI 自定义节点，使扩散 Transformer 模型（如\u003Cstrong>FLUX\u003C\u002Fstrong>、\u003Cstrong>Qwen Image\u003C\u002Fstrong> 和 \u003Cstrong>Z-Image\u003C\u002Fstrong>)能够生成超高分辨率图像（4K 及以上），同时保持卓越的一致性和细节。\n    \u003Cbr \u002F>\n    \u003Cbr \u002F>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\u002Fnew?labels=bug&template=bug-report---.md\">报告错误\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\u002Fnew?labels=enhancement&template=feature-request---.md\">请求功能\u003C\u002Fa>\n  \u003C\u002Fp>\n\u003C\u002Fdiv>\n\n\u003C!-- 项目状态栏 -->\n\u003Cdiv align=\"center\">\n\n[![星标][stars-shield]][stars-url]\n[![问题][issues-shield]][issues-url]\n[![分支][forks-shield]][forks-url]\n\n\u003C\u002Fdiv>\n\n\u003Cbr>\n\n## 关于本项目\n\nDyPE 是一种无需训练的方法，它可以让预训练的 DiT 模型以远超其训练数据分辨率的尺寸生成图像，且不会增加额外的采样成本。\n\n其原理是利用扩散过程固有的频谱渐进特性。通过在每一步动态调整模型的位置编码，DyPE 使其频率谱与当前生成过程阶段相匹配——早期专注于低频结构，后期再逐步细化高频细节。这样可以避免在将模型推向超出其原生分辨率时常见的重复性伪影和结构退化现象。\n\n\u003Cdiv align=\"center\">\n\n  \u003Cimg alt=\"ComfyUI-DyPE 示例工作流\" width=\"70%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_readme_ee863161a9ed.png\" \u002F>\n      \u003Cp>\u003Csub>\u003Ci>一个简单的单节点集成，用于为您的模型添加高分辨率生成能力。\u003C\u002Fi>\u003C\u002Fsub>\u003C\u002Fp>\n  \u003C\u002Fdiv>\n\n\n  \n该节点提供了一种无缝的“即插即用”式集成方式，可轻松将 DyPE 纳入您的工作流。\n\n**✨ 主要特性：**\n*   **多架构支持:** 支持 **FLUX**（标准版）、**Nunchaku**（量化 Flux）、**Qwen Image** 和 **Z-Image**（Lumina 2）。\n*   **高分辨率生成:** 可将模型输出扩展至 4096x4096 及以上。\n*   **单节点集成:** 只需在模型加载节点后放置 `DyPE for FLUX` 节点即可完成模型补丁，无需复杂的流程改动。\n*   **完全兼容:** 可与您现有的 ComfyUI 工作流、采样器、调度器以及其他优化节点无缝配合。\n*   **精细控制:** 公开了关键的 DyPE 超参数，允许您根据不同的目标分辨率调整算法强度和行为，以获得最佳效果。\n*   **零推理开销:** DyPE 的调整是在运行时即时进行的，对性能几乎没有影响。\n\n\u003Cdiv align=\"center\">\n\u003Cimg alt=\"节点\" width=\"70%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_readme_ebb48c69061e.png\" \u002F>\n\u003C\u002Fdiv>\n\n## 示例输出\n\n\u003Cdiv align=\"center\">\n\u003Cimg alt=\"DyPE 示例\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_readme_ab922ce0801a.png\" \u002F>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"right\">(\u003Ca href=\"#readme-top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n## 开始使用\n\n最简便的安装方式是通过 **ComfyUI Manager**。搜索 `ComfyUI-DyPE` 并点击“安装”。\n\n或者，您也可以手动安装：\n\n1.  **克隆仓库：**\n\n    导航到您的 `ComfyUI\u002Fcustom_nodes\u002F` 目录，并克隆此仓库：\n    ```sh\n    git clone https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE.git\n    ```\n2. **启动\u002F重启 ComfyUI：**\n   启动 ComfyUI 即可。无需再安装其他依赖项。\n\n\u003Cp align=\"right\">(\u003Ca href=\"#readme-top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n## 🛠️ 使用方法\n\n该节点的使用非常简单，旨在尽量减少对现有工作流的干扰。\n\n1.  **加载您的模型：** 使用您偏好的加载节点（例如，Flux 的 `Load Checkpoint`、`Nunchaku Flux DiT Loader` 或 `ZImage` 加载节点）。\n2.  **添加 DyPE 节点：** 将 `DyPE for FLUX` 节点添加到您的图中（位于 `model_patches\u002Funet` 下）。\n3.  **连接模型：** 将加载节点的 `MODEL` 输出连接到 DyPE 节点的 `model` 输入。\n4.  **设置分辨率：** 在 DyPE 节点上设置 `width` 和 `height`，使其与您的 `Empty Latent Image` 分辨率一致。\n5.  **连接到 KSampler：** 将 DyPE 节点的 `MODEL` 输出作为您 `KSampler` 的输入。\n6.  **开始生成！** 就这样。您的工作流现已启用 DyPE 功能。\n\n> [!注意]\n> 该节点专门用于修补 **扩散模型（UNet）** 的位置嵌入，不会修改 CLIP 或 VAE 模型。\n\n### 节点输入\n\n#### 1. 模型配置\n*   **`model_type`**:\n    *   **`auto`**: 尝试自动检测模型架构。推荐使用。\n    *   **`flux`**: 强制使用 Standard Flux 逻辑。\n    *   **`nunchaku`**: 强制使用 Nunchaku（量化 Flux）逻辑。\n    *   **`qwen`**: 强制使用 Qwen Image 逻辑。\n    *   **`zimage`**: 强制使用 Z-Image（Lumina 2）逻辑。\n*   **`base_resolution`**: 模型训练时的原生分辨率。\n    *   Flux \u002F Z-Image: `1024`\n    *   Qwen: `1328`（Qwen 模型的推荐设置）\n\n#### 2. 方法选择\n*   **`method`**:\n    *   **`vision_yarn`:** 一种专为宽高比鲁棒性设计的新变体。它将结构与纹理分离：低频（形状）会根据您的画布宽高比进行缩放，而高频（细节）则均匀缩放。它使用动态注意力调度来确保清晰度。\n    *   **`yarn`:** 标准的 YaRN 方法。整体表现良好，但在极端宽高比下可能会出现问题。\n    *   **`ntk`:** 神经切线核缩放。非常稳定，但在高分辨率下往往显得柔和\u002F模糊。\n    *   **`base`:** 不进行位置插值（标准行为）。\n\n##### 缩放选项\n*   **`yarn_alt_scaling`**（仅影响 `yarn` 方法）：\n    *   **各向异性（高分辨率）：** 高度和宽度独立缩放。如果宽高比与训练数据差异较大，可能导致几何拉伸。\n    *   **各向同性（稳定默认）：** 基于最大轴同时缩放两个维度。 \n    *   *注意：`vision_yarn` 会在内部自动处理这一平衡，因此当选择 `vision_yarn` 时，此开关将被忽略。*\n\n> [!提示]\n> **Z-Image（Lumina 2）特有说明：** \n> *   Z-Image 模型使用非常低的 RoPE 基础频率（`theta=256`）。\n> *   **几何拉伸：** 为防止垂直方向的拉伸，节点会自动对 Z-Image 强制执行 **各向同性缩放**，无论用户设置如何。\n> *   **方法选择：** 推荐使用 **`vision_yarn`** 或 **`ntk`**。标准的 `yarn` 可能会产生伪影。\n\n#### 3. 动态控制\n*   **`enable_dype`**: 启用或禁用 DyPE 的 **动态、时间感知** 组件。\n    *   **启用（True）：** 在采样过程中，噪声调度和 RoPE 都会动态调整。这是完整的 DyPE 算法。\n    *   **禁用（False）：** 节点只会应用动态噪声调度偏移。RoPE 将使用静态外推。\n*   **`dype_scale`**: (λs) 控制 DyPE 调制的“幅度”。默认值为 `2.0`。\n*   **`dype_exponent`**: (λt) 控制动态效果随时间的“强度”。\n    *   `2.0`: 推荐用于 **4K+** 分辨率。激进的调度方案会快速过渡以清除伪影。\n    *   `1.0`: 是 **~2K-3K** 分辨率的良好起点。\n    *   `0.5`: 对略高于原生分辨率的图像采用更温和的调度方案。\n\n#### 4. 高级噪声调度\n*   **`base_shift` \u002F `max_shift`**: 这些参数控制噪声调度偏移（`mu`）。在本实现中，`max_shift`（默认 1.15）作为任何大于基础分辨率的分辨率的目标偏移量。\n\n\u003Cp align=\"right\">(\u003Ca href=\"#readme-top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n## 更改日志\n\n#### v2.3.0\n*   **Z-Image 大修：** 修复了几何拉伸伪影\n*   **方法修复**\n\n#### v2.2.0\n*   **Z-Image 支持：** 添加了对 **Z-Image（Lumina 2）** 架构的实验性支持。\n\n#### v2.1.0\n*   **新架构支持：** 新增对 **Qwen Image** 和 **Nunchaku**（量化 Flux）模型的支持。\n*   **模块化架构：** 将代码库重构为模块化适配器模式（`src\u002Fmodels\u002F`），以确保稳定性并便于未来模型的更新。\n*   **UI 更新：** 添加了用于明确指定模型类型的 `model_type` 选择器。\n\n#### v2.0.0\n*   **Vision-YaRN：** 引入了 `vision_yarn` 方法，用于解耦宽高比处理。\n*   **动态注意力：** 实现了二次衰减调度，用于平衡 sharpness 和伪影。\n*   **起始 Sigma：** 添加了 `dype_start_sigma` 控制。\n\n#### v1.0.0\n*   **初始发布：** 为 Standard Flux 模型实现了核心 DyPE。\n*   **基本模式：** 支持 `yarn`（各向同性\u002F各向异性）和 `ntk`。\n\n\u003Cp align=\"right\">(\u003Ca href=\"#readme-top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n## ❗ 重要提示与最佳实践\n\n> [!重要]\n> **极端分辨率（4K）下的局限性**\n> 尽管 DyPE 显著扩展了 DiT 模型的能力，但生成完全干净的 4096x4096 图像仍然是基础模型本身的局限性。即使使用 DyPE，您仍然在推动一个基于约 100 万像素训练的模型去生成 1600 万像素的内容。在这些极端尺度下，您仍可能遇到轻微的伪影。\n\n> [!提示]\n> **处理斑点噪声**\n> 在极端分辨率（4K+）下，您可能会注意到在聚焦区域（如头发、眼睛）出现高频“斑点”噪声。这是由于将模型的注意力机制缩放到其训练极限之外所导致的副作用。\n> \n> **解决方法：**\n> 1.  **增加 `dype_exponent`：** 尝试将其提高到 `3.0` 或 `4.0`，或其他更高的值。\n> 2.  **使用 LoRA：** 平滑或“细节增强”LoRA 可以帮助抑制高频伪影。\n\n> [!提示]\n> **需要不断试验**\n> 并不存在适用于所有提示和所有分辨率的“神奇设置”。要获得最佳效果：\n> *   **尝试不同的方法：** 从 `vision_yarn` 开始，但如果遇到问题，可以尝试 `yarn`。\n> *   **调整 `dype_exponent`：** 这是您用来平衡清晰度与伪影的主要调节旋钮。\n\n\u003Cp align=\"center\">══════════════════════════════════\u003C\u002Fp>\n\n除了代码之外，我也相信社区和持续学习的力量。诚邀您加入‘TokenDiff AI News’和‘TokenDiff Community Hub’\n\n\u003Ctable border=\"0\" align=\"center\" cellspacing=\"10\" cellpadding=\"0\">\n  \u003Ctr>\n    \u003Ctd align=\"center\" valign=\"top\">\n      \u003Ch4>TokenDiff AI News\u003C\u002Fh4>\n      \u003Ca href=\"https:\u002F\u002Ft.me\u002FTokenDiff\">\n        \u003Cimg width=\"40%\" alt=\"tokendiff-tg-qw\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_readme_2bf10c57ea80.png\" \u002F>\n      \u003C\u002Fa>\n      \u003Cp>\u003Csub>AI 为每个家庭服务，创意为每个人带来灵感！\u003C\u002Fsub>\u003C\u002Fp>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\" valign=\"top\">\n      \u003Ch4>TokenDiff Community Hub\u003C\u002Fh4>\n      \u003Ca href=\"https:\u002F\u002Ft.me\u002FTokenDiff_hub\">\n        \u003Cimg width=\"40%\" alt=\"token_hub-tg-qr\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_readme_c5900566591e.png\" \u002F>\n      \u003C\u002Fa>\n      \u003Cp>\u003Csub>问题解答、帮助以及深入讨论。\u003C\u002Fsub>\u003C\u002Fp>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Cp align=\"center\">══════════════════════════════════\u003C\u002Fp>\n\n\u003Cp align=\"right\">(\u003Ca href=\"#readme-top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n\u003C!-- 致谢 -->\n\n## 致谢\n\n*   **诺姆·伊萨哈尔、盖伊·亚里夫及合著者**，感谢他们开创性的研究以及将 [DyPE](https:\u002F\u002Fgithub.com\u002Fguyyariv\u002FDyPE) 项目开源。\n*   **ComfyUI 团队**，感谢他们打造了如此强大且可扩展的平台，用于扩散模型的研究与创作。\n\n\u003Cp align=\"right\">(\u003Ca href=\"#readme-top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n\n\u003C!-- Markdown 链接与图片 -->\n[stars-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fwildminder\u002FComfyUI-DyPE.svg?style=for-the-badge\n[stars-url]: https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fstargazers\n[issues-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fwildminder\u002FComfyUI-DyPE.svg?style=for-the-badge\n[issues-url]: https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\n[forks-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fwildminder\u002FComfyUI-DyPE.svg?style=for-the-badge\n[forks-url]: https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fnetwork\u002Fmembers","# ComfyUI-DyPE 快速上手指南\n\nComfyUI-DyPE 是一个无需训练的自定义节点，通过动态位置外推（DyPE）技术，让 FLUX、Qwen Image、Z-Image 等 Diffusion Transformer (DiT) 模型能够生成 4K 及以上超高分辨率图像，同时保持卓越的结构连贯性和细节，且几乎不增加推理成本。\n\n## 环境准备\n\n*   **系统要求**：支持运行 ComfyUI 的 Windows、Linux 或 macOS 系统。\n*   **前置依赖**：\n    *   已安装并配置好 **ComfyUI**。\n    *   已下载支持的模型权重（如 FLUX.1, Qwen Image, Z-Image\u002FLumina 2 等）。\n    *   **注意**：本插件无需额外安装 Python 依赖库，启动 ComfyUI 即可自动加载。\n\n## 安装步骤\n\n### 方法一：使用 ComfyUI Manager（推荐）\n\n1.  启动 ComfyUI，点击右侧菜单中的 **Manager** 按钮。\n2.  选择 **Install Custom Nodes**。\n3.  在搜索框输入 `ComfyUI-DyPE`。\n4.  找到对应插件，点击 **Install**。\n5.  安装完成后，**重启 ComfyUI** 使插件生效。\n\n### 方法二：手动安装\n\n1.  打开终端或命令行工具，进入 ComfyUI 的自定义节点目录：\n    ```sh\n    cd ComfyUI\u002Fcustom_nodes\u002F\n    ```\n2.  克隆仓库代码：\n    ```sh\n    git clone https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE.git\n    ```\n3.  启动或重启 ComfyUI。\n\n## 基本使用\n\n本插件采用“即插即用”设计，只需在现有工作流中插入一个节点即可。\n\n### 1. 构建工作流连接\n\n按照以下顺序连接节点：\n\n1.  **加载模型**：使用你常用的模型加载器（例如 `Load Checkpoint` (Flux), `Nunchaku Flux DiT Loader`, 或 `ZImage Loader`）。\n2.  **添加 DyPE 节点**：\n    *   双击空白处搜索 `DyPE for FLUX`。\n    *   该节点位于 `model_patches\u002Funet` 分类下。\n3.  **连接模型**：将模型加载器的 `MODEL` 输出端连接到 DyPE 节点的 `model` 输入端。\n4.  **设置分辨率**：\n    *   在 DyPE 节点上设置 `width` 和 `height`，确保其与下游 `Empty Latent Image` 节点的分辨率一致（例如 4096x4096）。\n    *   *提示：`base_resolution` 通常保持默认（Flux\u002FZ-Image 为 1024，Qwen 为 1328）。*\n5.  **连接采样器**：将 DyPE 节点的 `MODEL` 输出端连接到 `KSampler` 的 `model` 输入端。\n6.  **生成图像**：点击 Queue Prompt 开始生成。\n\n### 2. 核心参数简析\n\n为了获得最佳效果，可根据需求微调以下参数：\n\n*   **`model_type`**: 建议设为 `auto` 自动识别架构。若识别错误，可手动指定 `flux`, `nunchaku`, `qwen`, 或 `zimage`。\n*   **`method`** (插值算法):\n    *   `vision_yarn`: **推荐**。专为高纵横比鲁棒性设计，能解耦结构与纹理，适合大多数超高分辨率场景。\n    *   `yarn`: 标准方法，通用性好。\n    *   `ntk`: 稳定性高，但画面可能偏柔和。\n*   **`dype_exponent`** (动态强度):\n    *   `2.0`: 推荐用于 **4K+** 分辨率，能快速清除伪影。\n    *   `1.0`: 适合 **2K-3K** 分辨率。\n    *   `0.5`: 适合略高于原生分辨率的场景。\n\n> **最佳实践提示**：\n> *   对于 **Z-Image (Lumina 2)** 模型，插件会自动强制使用各向同性缩放以防止几何拉伸，推荐搭配 `vision_yarn` 或 `ntk` 方法。\n> *   若在 4K 生成中发现高频噪点（如头发处的斑点），尝试将 `dype_exponent` 提高至 `3.0` 或 `4.0`，或配合使用细节修复类 LoRA。","一位数字艺术家正在为高端印刷项目创作一幅细节丰富的 4K 奇幻风景图，需要利用 Flux 模型生成极具连贯性的超高分辨率画面。\n\n### 没有 ComfyUI-DyPE 时\n- **画面出现重复伪影**：直接强行提升分辨率至 4K，导致建筑物纹理或自然景物出现规律的“平铺”重复现象，破坏真实感。\n- **结构严重崩坏**：超出模型原生训练范围后，图像整体构图失衡，物体比例失调，甚至出现无法辨认的扭曲形态。\n- **依赖繁琐的分块绘制**：为了规避瑕疵，不得不采用复杂的“分块放大（Tile）”工作流，多次推理拼接，极大增加了操作难度和时间成本。\n- **细节模糊不清**：高频细节在放大过程中丢失，画面显得朦胧，缺乏印刷级所需的锐利度和精细度。\n\n### 使用 ComfyUI-DyPE 后\n- **彻底消除重复伪影**：通过动态位置外推技术，自动匹配扩散过程的频谱，生成的 4K 图像纹理自然连续，无任何人工痕迹。\n- **保持完美结构连贯**：即使在 4096x4096 分辨率下，画面主体结构与透视关系依然稳固，完美还原设计初衷。\n- **单节点直通生成**：只需在模型加载后接入一个 DyPE 节点，即可直接输出大图，无需修改现有工作流或进行耗时的分块处理。\n- **高频细节丰富锐利**：算法在生成后期自动聚焦高频信息，使树叶、砖石等微小细节清晰可辨，直接达到出版级画质。\n\nComfyUI-DyPE 让艺术家能够以零额外计算开销，轻松突破模型分辨率限制，将创意无损地转化为超高清成品。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwildminder_ComfyUI-DyPE_c64b9a85.jpg","wildminder","WildAi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fwildminder_2201cde2.jpg","Physicist, Programmer, Designer",null,"Berlin","wildmindai","https:\u002F\u002Fgithub.com\u002Fwildminder",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,537,42,"2026-04-08T18:28:00","Apache-2.0",1,"未说明","需要支持 ComfyUI 及 FLUX\u002FQwen\u002FZ-Image 等 DiT 模型的 GPU（通常为 NVIDIA），具体显存需求取决于生成分辨率（4K+ 需要较大显存），CUDA 版本未说明",{"notes":93,"python":90,"dependencies":94},"该工具是 ComfyUI 的自定义节点，无需安装额外的 Python 依赖库，直接通过 ComfyUI Manager 或手动克隆到 custom_nodes 目录即可使用。支持 FLUX、Nunchaku、Qwen Image 和 Z-Image 架构。生成 4K 及以上超高分辨率图像时，对基础模型能力和显存有较高要求，可能会出现少量伪影，建议调整 dype_exponent 参数或使用 LoRA 优化细节。",[38,95,96],"torch (隐含依赖)","无额外独立依赖库",[15,35],[99,100,101,102,103,104,105,106],"comfyui","comfyui-nodes","flux","high-resolution","t2i","text2image","nunchaku","qwen","2026-03-27T02:49:30.150509","2026-04-11T00:49:39.893016",[110,115,120,125,130,135,140],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},28532,"为什么在使用 Z-image 或高分辨率生成时图像会卡在左上角或出现拉伸问题？","这是一个已知的缩放问题。当输出分辨率设置大于 1024 时，嵌入（embeddings）虽然能正确拉伸到输出尺寸，但后续缩放步骤会失效。维护者已确认正在修复此问题并计划推送更新。临时解决方案可以参考社区提供的补丁分支：https:\u002F\u002Fgithub.com\u002Fifilipis\u002FComfyUI-DyPE\u002Ftree\u002Fcodex\u002Fintroduce-z-image-patch-override-kuae3g","https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\u002F20",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},28533,"遇到错误提示\"The provided model is not a compatible FLUX\u002FQwen model structure\"怎么办？","该错误通常是因为节点当前仅支持在 Nunchaku + Flux 组合下运行，尚不支持 Qwen 模型结构。请确保你加载的是兼容的 Flux 模型而非 Qwen 模型。如果需要使用 Qwen Image LoRA，目前官方 Nunchaku 尚未支持，需等待后续更新或尝试其他加载方式。","https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\u002F21",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},28534,"使用 Z-image Turbo 生成的图像质量很差或效果不佳如何解决？","这通常是因为参数配置不当。目前的版本中，只有将方法（method）设置为 'ntk' 时才能正常工作，'vision-yarn' 暂时不可用。请将工作流中的设置从 'vision-yarn' 更改为 'ntk' 以获得正常效果。","https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\u002F22",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},28535,"在 ZImage 中使用 DYPE 进行放大时出现噪点伪影（Noise artifacts）怎么办？","可以通过调整特定设置来解决此问题。用户反馈表明，调整相关的去噪或缩放参数设置可以有效消除放大过程中产生的噪点伪影（具体可参考原帖中的截图配置）。","https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\u002F25",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},28536,"尝试生成多张图片（Batch size > 1）时报错\"Tensor cannot be converted to Scalar\"如何解决？","这是批量生成时的已知 Bug。维护者已确认该问题，并表示将在即将到来的更新中修复。在修复发布前，建议暂时将批次大小（batch size）设置为 1 以避免报错。","https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\u002F18",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},28537,"生成分辨率超过 2048x2048 时出现肢体比例失调或多余肢体等异常现象怎么办？","高分辨率下的异常通常与参数配置有关。建议先更新节点到最新版本，然后尝试调整不同的生成参数（如 dype_exponent, base shift, max shift 等），以找到适合高分辨率生成的稳定配置。","https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\u002F14",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},28538,"运行工作流时出现\"swizzle_execute() takes 10 positional arguments but 11 were given\"错误是什么原因？","该错误通常意味着当前的 ComfyUI 环境或插件版本存在冲突，或者工作流预设是针对特定模型（如 Flux）设计的，而你正在尝试在其他模型（如 Qwen）上运行。请检查是否使用了正确的模型分支，并确保 ComfyUI 主程序及所有相关自定义节点均为最新兼容版本。","https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE\u002Fissues\u002F10",[146,151,156,161,166],{"id":147,"version":148,"summary_zh":149,"released_at":150},191302,"2.3.0","本次发布重点在于修复 Z-Image（Lumina-Image-2.0）架构的集成问题，解决几何畸变，并确保所有缩放方法的行为各不相同。此外，还包含了一些稳定性修复。\n\n### 主要变更\n\n#### Z-Image \u002F Lumina-Image-2.0 支持\n*   **修复长宽比畸变：** 实施强制各向同性坐标缩放，以防止在非正方形分辨率（如竖屏或横屏）中出现的“垂直拉伸”现象。\n*   **恢复方法区分：** 解决了 `vision_yarn`、`yarn` 和 `ntk` 产生相同输出的问题。\n*   **坐标混合：** 引入动态调度机制，在扩散过程中从位置插值（压缩坐标）平滑过渡到外推（整数坐标），以提升结构稳定性。\n*   **伪影缓解：** 调整了 Dynamic MScale 参数，以减少 Z-Image 低 theta 架构特有的高频斑点噪声。\n\n#### 通用与 Flux\n*   **架构隔离：** 强制将模型特定逻辑（Z-Image 与 Flux\u002FQwen）严格分离，以便进行架构特有优化，同时避免对其他模型造成回退。\n\n### ⚙️ 使用\n无需更改工作流。","2025-12-09T13:40:24",{"id":152,"version":153,"summary_zh":154,"released_at":155},191303,"2.2.0","支持 Z-Image（Lumina-Image-2.0）架构，并对代码库进行重构，以提升多模型的可扩展性。\n\n### 功能特性\n*   **Z-Image 支持：** 为 `NextDiT` 架构新增了 `PosEmbedZImage` 实现。\n*   **低 Theta 启发式算法：** 实现了对 RoPE theta 值较低的模型（例如 Z-Image 的 `256.0`）的自动检测。在 `vision_yarn` 模式下，这会强制采用各向同性缩放，以缓解几何失真。\n\n### 已知问题与使用说明\n*   **Z-Image 稳定性**\n*   **缩放伪影：** 由于 Z-Image 的基础频率极低，标准的各向异性 YaRN 缩放会导致明显的垂直拉伸。\n*   **建议：** 使用 Z-Image 进行生成时，请启用 `ntk` 参数。","2025-12-03T14:00:11",{"id":157,"version":158,"summary_zh":159,"released_at":160},191304,"2.1.0","支持通义千问图像模型和Nunchaku模型，并对代码库进行了重大重构，采用模块化适配器模式。\n\n### 新特性\n\n*   **通义千问图像模型支持：**\n*   **Nunchaku模型支持：** 增加了对Nunchaku推理的支持。\n*   **模型选择：** 在节点中新增了一个 `model_type` 输入参数。默认值为 “auto”，用于自动检测模型架构；同时支持手动指定 `flux`、`nunchaku` 和 `qwen` 模型。\n\n### 架构改进\n\n代码库已从单体补丁文件重构为 **模块化适配器模式**，以将数学逻辑与张量格式化解耦：\n\n*   **`src\u002Fbase.py`:** 包含核心的DyPE\u002FVision-YaRN数学内核（缩放因子、时间步衰减等）。这一层现已与具体模型无关。\n*   **`src\u002Fmodels\u002F`:** 包含具体的适配器实现（`flux.py`、`nunchaku.py`、`qwen.py`），它们继承自基类，并负责处理特定于架构的输出格式化和广播操作。\n*   **`src\u002Fpatch_utils.py`:** 负责模型检测、噪声调度偏移以及补丁注入。\n\n### 安装\u002F更新\n\n可通过ComfyUI管理器更新，或在扩展目录下执行 `git pull`。依赖项未发生变化。","2025-11-29T07:21:47",{"id":162,"version":163,"summary_zh":164,"released_at":165},191305,"2.0.0","**本版本推出了“Vision-YaRN”，这是一种位置编码策略，解决了超高清图像生成中长期存在的几何精度与图像清晰度之间的权衡问题。**\n\n### 核心特性\n\n*   **结构与纹理解耦缩放：**\n*   **物理对齐的注意力调度：** Vision-YaRN 不采用静态的注意力增强，而是使用与扩散噪声方差 ($\\sigma^2$) 相匹配的 **二次衰减** 调度（$t^2$）。\n    *   **高噪声阶段（$\\sigma \\approx 1$）：** 应用激进的缩放，以严格定义全局结构和清晰度。\n    *   **低噪声阶段（$\\sigma \\rightarrow 0$）：** 缩放逐渐衰减至中性，使模型能够在最后几步自然地“去噪”，消除伪影和杂点。\n\n### 技术深度解析\n\n1.  **各向同性纹理锁定：** NTK（高频）插值现统一采用全局最大尺度（$\\max(H, W)$）作为两个轴的缩放因子。这一做法将像素密度视为均匀分布，从而避免在非正方形长宽比的图像上出现“模糊或变形”的视觉效果。\n2.  **各向异性结构拉伸：** 线性（低频）插值则采用局部轴向缩放。这确保了位置网格能够完整覆盖整个图像画布，且不会发生坐标漂移。\n3.  **瞬态锐化：** 在生成的结构构建阶段，仅应用激进的对数型注意力缩放（$0.1 \\ln(s) + 1$）。","2025-11-26T17:53:30",{"id":167,"version":168,"summary_zh":169,"released_at":170},191306,"1.0.0","**DyPE（动态位置外推）** 适用于 ComfyUI，使预训练的 FLUX 模型能够在远超其训练规模的超高分辨率下生成连贯的图像。\n\n### 🆕 功能特性\n\n*   **FLUX 节点版 DyPE：** 一个全新的自定义节点 (`DyPE_FLUX`)，用于对 FLUX 扩散模型进行补丁处理，以应用动态位置外推技术。\n*   **动态噪声调度偏移：** 根据目标分辨率自动计算并应用最优的调度偏移量 (`mu`)，从而避免在高分辨率下常见的去噪不足伪影。\n*   **自适应 RoPE 缩放：** 实现核心 DyPE 算法，在整个去噪过程中动态调整旋转位置嵌入，早期优先保证结构连贯性，后期再关注精细细节。\n*   **可调 DyPE 强度：** 提供 `dype_exponent` 参数，用于微调算法的激进程度，从而在不同目标分辨率（如 2K 对比 4K）下获得最佳效果。\n*   **无缝集成：** 设计为“即插即用”的模型补丁工具，可无缝融入现有的 FLUX 工作流，无需更改采样器、调度器或其他组件。\n\n### ⚙️ 技术细节\n\n*   实现了原论文中描述的 **DY-YaRN**、**DY-NTK** 和 **DY-PI** 变体。\n*   采用非破坏性的猴子补丁方式，修改模型内部的采样器和位置嵌入层，确保与量化或注意力补丁等其他优化方法兼容。\n*   正确处理 ComfyUI 基于 sigma 的时间步表示，使动态缩放独立于所使用的具体调度器。\n\n### 📋 安装方法\n\n可通过 ComfyUI 管理器搜索 `ComfyUI-DyPE` 进行安装，或将仓库克隆到您的 `custom_nodes` 目录中：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fwildminder\u002FComfyUI-DyPE.git\n```","2025-11-26T15:40:55"]