[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-lihaoyun6--ComfyUI-FlashVSR_Ultra_Fast":3,"tool-lihaoyun6--ComfyUI-FlashVSR_Ultra_Fast":64},[4,23,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,3,"2026-04-05T11:12:22",[19,17,20,16],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":10,"last_commit_at":38,"category_tags":39,"status":22},3074,"gpt4free","xtekky\u002Fgpt4free","gpt4free 是一个由社区驱动的开源项目，旨在聚合多种可访问的大型语言模型（LLM）和媒体生成接口，让用户能更灵活、便捷地使用前沿 AI 能力。它解决了直接调用各类模型时面临的接口分散、门槛高或成本昂贵等痛点，通过统一的标准将不同提供商的资源整合在一起。\n\n无论是希望快速集成 AI 功能的开发者、需要多模型对比测试的研究人员，还是想免费体验最新技术的普通用户，都能从中受益。gpt4free 提供了丰富的使用方式：既包含易于上手的 Python 和 JavaScript 客户端库，也支持部署本地图形界面（GUI），更提供了兼容 OpenAI 标准的 REST API，方便无缝替换现有应用后端。\n\n其技术亮点在于强大的多提供商支持架构，能够动态调度包括 Opus、Gemini、DeepSeek 等多种主流模型资源，并支持 Docker 一键部署及本地推理。项目秉持社区优先原则，在降低使用门槛的同时，也为贡献者提供了扩展新接口的便利框架，是探索和利用多样化 AI 资源的实用工具。",65970,"2026-04-04T01:02:03",[16,19,17],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":22},51,"gstack","garrytan\u002Fgstack","gstack 是 Y Combinator CEO Garry Tan 亲自开源的一套 AI 工程化配置，旨在将 Claude Code 升级为你的虚拟工程团队。面对单人开发难以兼顾产品战略、架构设计、代码审查及质量测试的挑战，gstack 提供了一套标准化解决方案，帮助开发者实现堪比二十人团队的高效产出。\n\n这套配置特别适合希望提升交付效率的创始人、技术负责人，以及初次尝试 Claude Code 的开发者。gstack 的核心亮点在于内置了 15 个具有明确职责的 AI 角色工具，涵盖 CEO、设计师、工程经理、QA 等职能。用户只需通过简单的斜杠命令（如 `\u002Freview` 进行代码审查、`\u002Fqa` 执行测试、`\u002Fplan-ceo-review` 规划功能），即可自动化处理从需求分析到部署上线的全链路任务。\n\n所有操作基于 Markdown 和斜杠命令，无需复杂配置，完全免费且遵循 MIT 协议。gstack 不仅是一套工具集，更是一种现代化的软件工厂实践，让单人开发者也能拥有严谨的工程流程。",64604,"2026-04-05T23:10:16",[17,16],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":22},193,"meilisearch","meilisearch\u002Fmeilisearch","Meilisearch 是一个开源的极速搜索服务，专为现代应用和网站打造，开箱即用。它能帮助开发者快速集成高质量的搜索功能，无需复杂的配置或额外的数据预处理。传统搜索方案往往需要大量调优才能实现准确结果，而 Meilisearch 内置了拼写容错、同义词识别、即时响应等实用特性，并支持 AI 驱动的混合搜索（结合关键词与语义理解），显著提升用户查找信息的体验。\n\nMeilisearch 特别适合 Web 开发者、产品团队或初创公司使用，尤其适用于需要快速上线搜索功能的场景，如电商网站、内容平台或 SaaS 应用。它提供简洁的 RESTful API 和多种语言 SDK，部署简单，资源占用低，本地开发或生产环境均可轻松运行。对于希望在不依赖大型云服务的前提下，为用户提供流畅、智能搜索体验的团队来说，Meilisearch 是一个高效且友好的选择。",56972,"2026-04-05T22:34:33",[13,17,14,20,16,18],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":29,"last_commit_at":62,"category_tags":63,"status":22},3833,"MoneyPrinterTurbo","harry0703\u002FMoneyPrinterTurbo","MoneyPrinterTurbo 是一款利用 AI 大模型技术，帮助用户一键生成高清短视频的开源工具。只需输入一个视频主题或关键词，它就能全自动完成从文案创作、素材匹配、字幕合成到背景音乐搭配的全过程，最终输出完整的竖屏或横屏短视频。\n\n这款工具主要解决了传统视频制作流程繁琐、门槛高以及素材版权复杂等痛点。无论是需要快速产出内容的自媒体创作者，还是希望尝试视频生成的普通用户，无需具备专业的剪辑技能或昂贵的硬件配置（普通电脑即可运行），都能轻松上手。同时，其清晰的 MVC 架构和对多种主流大模型（如 DeepSeek、Moonshot、通义千问等）的广泛支持，也使其成为开发者进行二次开发或技术研究的理想底座。\n\nMoneyPrinterTurbo 的独特亮点在于其高度的灵活性与本地化友好性。它不仅支持中英文双语及多种语音合成，允许用户精细调整字幕样式和画面比例，还特别优化了国内网络环境下的模型接入方案，让用户无需依赖 VPN 即可使用高性能国产大模型。此外，工具提供批量生成模式，可一次性产出多个版本供用户择优，极大地提升了内容创作的效率与质量。",54991,"2026-04-05T12:23:02",[20,19,17,15,13],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":88,"env_os":89,"env_gpu":90,"env_ram":91,"env_deps":92,"category_tags":96,"github_topics":76,"view_count":97,"oss_zip_url":76,"oss_zip_packed_at":76,"status":22,"created_at":98,"updated_at":99,"faqs":100,"releases":131},286,"lihaoyun6\u002FComfyUI-FlashVSR_Ultra_Fast","ComfyUI-FlashVSR_Ultra_Fast","Real-Time Diffusion-Based Streaming Video Super-Resolution \u002F 基于Diffusion架构的实时视频流超分模型","ComfyUI-FlashVSR_Ultra_Fast 是一个基于 Diffusion 架构的视频超分辨率（Video Super-Resolution）工具，能够将低分辨率视频实时提升至 4K 甚至更高画质。\n\n这个工具主要解决了传统视频超分模型对显存要求极高、普通用户难以在消费级显卡上运行的痛点。通过 `tile_dit`、`tiled_vae` 等显存优化技术，即使使用 8GB 显存的显卡也能流畅处理长视频。它提供两种模式：`tiny` 模式速度更快，适合实时处理；`full` 模式画质更高，适合对质量有严格要求的场景。此外还支持颜色校正和分块处理策略，用户可以根据自身硬件条件灵活调整。\n\n该工具适合视频创作者、UP 主、影视后期人员以及研究视频增强技术的开发者使用。如果你有大量老旧视频或低分辨率素材需要修复提升，这款工具能在保证画质的同时大幅降低硬件门槛。安装方式简单，只需将其作为 ComfyUI 的自定义节点部署即可。","# ComfyUI-FlashVSR_Ultra_Fast\nRunning FlashVSR on lower VRAM without any artifacts.   \n**[[📃中文版本](.\u002FREADME_zh.md)]**\n\n## Changelog\n#### 2025-10-24\n- Added long video pipeline that significantly reduces VRAM usage when upscaling long videos.\n\n#### 2025-10-21\n- Initial this project, introducing features such as `tile_dit` to significantly reducing VRAM usage.  \n\n#### 2025-10-22\n- Replaced `Block-Sparse-Attention` with `Sparse_Sage`, removing the need to compile any custom kernels.  \n- Added support for running on RTX 50 series GPUs.\n\n## Preview\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flihaoyun6_ComfyUI-FlashVSR_Ultra_Fast_readme_a1e797f5a48f.jpg)\n\n## Usage\n- **mode:**  \n`tiny` -> faster (default); `full` -> higher quality  \n- **scale:**  \n`4` is always better, unless you are low on VRAM then use `2`    \n- **color_fix:**  \nUse wavelet transform to correct the color of output video.  \n- **tiled_vae:**  \nSet to True for lower VRAM consumption during decoding at the cost of speed.  \n- **tiled_dit:**  \nSignificantly reduces VRAM usage at the cost of speed.\n- **tile\\_size, tile\\_overlap**:  \nHow to split the input video.  \n- **unload_dit:**  \nUnload DiT before decoding to reduce VRAM peak at the cost of speed.  \n\n## Installation\n\n#### nodes: \n\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002Flihaoyun6\u002FComfyUI-FlashVSR_Ultra_Fast.git\npython -m pip install -r ComfyUI-FlashVSR_Ultra_Fast\u002Frequirements.txt\n```\n📢: For Turing or older GPU, please install `triton\u003C3.3.0`:  \n\n```bash\n# Windows\npython -m pip install -U triton-windows\u003C3.3.0\n# Linux\npython -m pip install -U triton\u003C3.3.0\n```\n\n#### models:\n\n- Download the entire `FlashVSR` folder with all the files inside it from [here](https:\u002F\u002Fhuggingface.co\u002FJunhaoZhuang\u002FFlashVSR) and put it in the `ComfyUI\u002Fmodels`\n\n```\n├── ComfyUI\u002Fmodels\u002FFlashVSR\n|     ├── LQ_proj_in.ckpt\n|     ├── TCDecoder.ckpt\n|     ├── diffusion_pytorch_model_streaming_dmd.safetensors\n|     ├── Wan2.1_VAE.pth\n```\n\n## Acknowledgments\n- [FlashVSR](https:\u002F\u002Fgithub.com\u002FOpenImagingLab\u002FFlashVSR) @OpenImagingLab  \n- [Sparse_SageAttention](https:\u002F\u002Fgithub.com\u002Fjt-zhang\u002FSparse_SageAttention_API) @jt-zhang\n- [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI) @comfyanonymous\n","# ComfyUI-FlashVSR_Ultra_Fast\n在低显存下运行 FlashVSR，无任何伪影。\n**[[📃中文版本](.\u002FREADME_zh.md)]**\n\n## 更新日志\n#### 2025-10-24\n- 新增长视频处理流程，在提升长视频分辨率时显著降低显存占用。\n\n#### 2025-10-21\n- 项目初始化，引入 `tile_dit`（分块 DiT）等功能，显著降低显存占用。\n\n#### 2025-10-22\n- 用 `Sparse_Sage` 替换 `Block-Sparse-Attention`（块稀疏注意力），无需编译任何自定义内核（custom kernels）。\n- 新增对 RTX 50 系列 GPU 的支持。\n\n## 预览\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flihaoyun6_ComfyUI-FlashVSR_Ultra_Fast_readme_a1e797f5a48f.jpg)\n\n## 使用说明\n- **mode（模式）：**\n`tiny` -> 速度更快（默认）；`full` -> 质量更高\n- **scale（缩放比例）：**\n`4` 效果始终更好，除非显存不足则使用 `2`\n- **color_fix（色彩校正）：**\n使用小波变换（wavelet transform）校正输出视频的色彩。\n- **tiled_vae（瓦片 VAE）：**\n设为 True 可在解码时降低显存占用，但会牺牲速度。\n- **tiled_dit（瓦片 DiT）：**\n显著降低显存占用，但会牺牲速度。\n- **tile_size, tile_overlap（块大小、块重叠）：**\n如何分割输入视频。\n- **unload_dit（卸载 DiT）：**\n在解码前卸载 DiT 以降低显存峰值，但会牺牲速度。\n\n## 安装\n\n#### 节点：\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002Flihaoyun6\u002FComfyUI-FlashVSR_Ultra_Fast.git\npython -m pip install -r ComfyUI-FlashVSR_Ultra_Fast\u002Frequirements.txt\n```\n📢: 对于 Turing 或更早的 GPU，请安装 `triton\u003C3.3.0`：\n\n```bash\n# Windows\npython -m pip install -U triton-windows\u003C3.3.0\n# Linux\npython -m pip install -U triton\u003C3.3.0\n```\n\n#### 模型：\n\n- 从[这里](https:\u002F\u002Fhuggingface.co\u002FJunhaoZhuang\u002FFlashVSR)下载完整的 `FlashVSR` 文件夹及其所有文件，并放入 `ComfyUI\u002Fmodels`\n\n```\n├── ComfyUI\u002Fmodels\u002FFlashVSR\n|     ├── LQ_proj_in.ckpt\n|     ├── TCDecoder.ckpt\n|     ├── diffusion_pytorch_model_streaming_dmd.safetensors\n|     ├── Wan2.1_VAE.pth\n```\n\n## 致谢\n- [FlashVSR](https:\u002F\u002Fgithub.com\u002FOpenImagingLab\u002FFlashVSR) @OpenImagingLab\n- [Sparse_SageAttention](https:\u002F\u002Fgithub.com\u002Fjt-zhang\u002FSparse_SageAttention_API) @jt-zhang\n- [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI) @comfyanonymous","# ComfyUI-FlashVSR-Ultra-Fast 快速上手指南\n\n## 环境准备\n\n- **操作系统**：Windows 或 Linux\n- **硬件要求**：NVIDIA GPU（支持 RTX 50 系列）\n- **前置软件**：\n  - ComfyUI 已安装\n  - Python 3.x\n  - Git\n\n> 📢 针对 Turing 或更早的 GPU，需安装 `triton\u003C3.3.0`\n\n## 安装步骤\n\n### 1. 克隆节点仓库\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002Flihaoyun6\u002FComfyUI-FlashVSR_Ultra_Fast.git\n```\n\n### 2. 安装依赖\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\u002FComfyUI-FlashVSR_Ultra_Fast\npython -m pip install -r requirements.txt\n```\n\n**旧显卡额外安装**（Turing 或更早 GPU）：\n\n```bash\n# Windows\npython -m pip install -U triton-windows\u003C3.3.0\n\n# Linux\npython -m pip install -U triton\u003C3.3.0\n```\n\n### 3. 下载模型\n\n从 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002FJunhaoZhuang\u002FFlashVSR) 下载 `FlashVSR` 文件夹完整内容，放入 `ComfyUI\u002Fmodels` 目录：\n\n```\nComfyUI\u002Fmodels\u002FFlashVSR\u002F\n├── LQ_proj_in.ckpt\n├── TCDecoder.ckpt\n├── diffusion_pytorch_model_streaming_dmd.safetensors\n└── Wan2.1_VAE.pth\n```\n\n## 基本使用\n\n### 参数说明\n\n| 参数 | 说明 |\n|------|------|\n| `mode` | `tiny` 速度快（默认），`full` 质量高 |\n| `scale` | 建议使用 `4`，VRAM 不足时用 `2` |\n| `color_fix` | 使用小波变换修正视频色彩 |\n| `tiled_vae` | 设为 True 可降低解码时的 VRAM 占用 |\n| `tiled_dit` | 显著降低 VRAM 占用，但速度变慢 |\n| `tile_size` | 分块大小 |\n| `tile_overlap` | 分块重叠区域 |\n| `unload_dit` | 解码前卸载 DiT，降低 VRAM 峰值 |\n\n### 最简使用示例\n\n在 ComfyUI 中加载 `FlashVSR Ultra Fast` 节点，输入视频并连接输出即可。使用默认参数即可获得不错的效果。\n\n如遇 VRAM 不足，依次尝试：\n\n1. 将 `scale` 改为 `2`\n2. 开启 `tiled_dit`\n3. 开启 `tiled_vae`\n4. 开启 `unload_dit`","小李是一位专注于历史纪录片修复的独立视频创作者，平时需要将大量低分辨率的历史影像资料（如上世纪的家庭录像、新闻片段、纪录片素材）增强到4K画质后发布到视频平台。\n\n### 没有 ComfyUI-FlashVSR_Ultra_Fast 时\n\n- 早期尝试用传统超分工具（如ESRGAN）处理视频，输出画面存在明显的人工痕迹和闪烁问题，观看体验差\n- 使用基于Diffusion的闭源云服务（如Runway）增强视频，单分钟素材费用高达数美元，成本难以承受\n- 本地部署其他Diffusion超分模型时，8GB显存完全无法承载，频繁出现OOM崩溃\n- 处理10分钟以上的长视频时，系统内存和显存同时告急，只能分段处理后手动拼接，流程繁琐\n- 每次修改参数（如放大倍数、色彩校正）都需要重新渲染整个视频，调试效率极低\n\n### 使用 ComfyUI-FlashVSR_Ultra_Fast 后\n\n- 开启 `tiled_dit` 和 `tiled_vae` 分块处理后，8GB显存的RTX 4060显卡即可流畅运行，VRAM峰值控制在6GB以内\n- 支持 `tiny` 模式实现实时处理，预览阶段快速迭代；定稿时切换 `full` 模式获得更高画质\n- 内置 `color_fix` 色彩校正功能，自动修复历史素材常见的偏色问题，减少后期调色工作量\n- 新增的长视频管道（long video pipeline）可直接处理完整影片，无需手动分段，输出流畅一致\n- 整个工作流在本地ComfyUI中完成，单次渲染成本为零，可反复调整参数直到满意为止\n\nComfyUI-FlashVSR_Ultra_Fast 让资源有限的个人创作者也能在本地消费级显卡上实现高质量的实时视频超分，大幅降低了历史影像修复的门槛和成本。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flihaoyun6_ComfyUI-FlashVSR_Ultra_Fast_a1e797f5.jpg","lihaoyun6",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flihaoyun6_4d850aaf.png","https:\u002F\u002Fgithub.com\u002Flihaoyun6",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,712,31,"2026-04-02T03:56:48","GPL-3.0",4,"Linux, Windows","NVIDIA GPU，显存建议 8GB 以上，支持 RTX 50 系列及 Turing 或更早的 GPU","未说明",{"notes":93,"python":91,"dependencies":94},"需要从 HuggingFace 下载 FlashVSR 模型文件夹（约数GB），包含 LQ_proj_in.ckpt、TCDecoder.ckpt、diffusion_pytorch_model_streaming_dmd.safetensors、Wan2.1_VAE.pth 等文件，放入 ComfyUI\u002Fmodels\u002FFlashVSR 目录。对于 Turing 或更早的 GPU，需安装 triton\u003C3.3.0（Windows 用 triton-windows\u003C3.3.0，Linux 用 triton\u003C3.3.0）。该工具通过 tile_dit、tiled_dit、unload_dit 等参数显著降低 VRAM 占用，支持长视频处理。",[95],"triton（RTX 50系列用最新版本，Turing或更早GPU需triton\u003C3.3.0）",[15,16],6,"2026-03-27T02:49:30.150509","2026-04-06T07:13:53.986362",[101,106,111,116,121,126],{"id":102,"question_zh":103,"answer_zh":104,"source_url":105},950,"2080TI 显卡无法运行 BF16 模型，如何解决？","这个问题可能是由于 Triton 版本过高导致的。对于算力级别 SM_75 或更低的计算设备（如 2080TI），需要安装 Triton 3.1 或 3.2 版本。请使用以下命令覆盖安装低版本的 Triton：`python -m pip install -U triton-windows\u003C3.3.0`。此外，在最新版中已添加数据精度选项，设为 fp16 即可。","https:\u002F\u002Fgithub.com\u002Flihaoyun6\u002FComfyUI-FlashVSR_Ultra_Fast\u002Fissues\u002F10",{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},951,"为什么视频处理后帧数会减少？如何保持帧数一致？","这是因为目标帧数处理为 8n-3（即输入帧数必须是 8 的倍数减 3）。如果在处理单张图片时修改了代码，建议确保输入帧数是 8+5 的倍数（如 27、77、125、197 等），这样可以得到相同数量的输出帧。该问题已在最新版本中修复。","https:\u002F\u002Fgithub.com\u002Flihaoyun6\u002FComfyUI-FlashVSR_Ultra_Fast\u002Fissues\u002F22",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},952,"为什么视频输出总是丢失最后几帧？","该问题已在最新版本中修复。如果遇到丢失帧的问题，可以下载修复后的 nodes.py 文件替换原先的 node.py，即可输出完整帧的视频。","https:\u002F\u002Fgithub.com\u002Flihaoyun6\u002FComfyUI-FlashVSR_Ultra_Fast\u002Fissues\u002F29",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},953,"运行时报错 'torch.mps' 没有 'is_available' 属性如何解决？","这是因为 PyTorch 版本过低导致的兼容性问题。该问题已在最新版本中修复，请更新 PyTorch 到最新版本（建议使用 torch 2.4.0 或更高版本）。","https:\u002F\u002Fgithub.com\u002Flihaoyun6\u002FComfyUI-FlashVSR_Ultra_Fast\u002Fissues\u002F25",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},954,"项目是否依赖 Sageattention？如何安装？","本项目不依赖 sage-attention。sparse-sage-attention 已经内置在代码中，不需要单独安装特定的预编译轮子。","https:\u002F\u002Fgithub.com\u002Flihaoyun6\u002FComfyUI-FlashVSR_Ultra_Fast\u002Fissues\u002F40",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},955,"如何更新到 FlashVSR 1.1 版本？","作者已添加对 FlashVSR-v1.1 的支持。更新模型后，请记得刷新或重新创建 `Init Pipeline` 节点以使新版本生效。","https:\u002F\u002Fgithub.com\u002Flihaoyun6\u002FComfyUI-FlashVSR_Ultra_Fast\u002Fissues\u002F42",[]]