[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-tarun005--FLAVR":3,"tool-tarun005--FLAVR":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":106,"github_topics":107,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":114,"updated_at":115,"faqs":116,"releases":157},1371,"tarun005\u002FFLAVR","FLAVR","Code for FLAVR: A fast and efficient frame interpolation technique.","FLAVR 是一款专为视频帧插值设计的高效开源工具，旨在通过算法生成中间帧，将低帧率视频流畅地转换为高帧率视频。它主要解决了传统方法在处理复杂运动轨迹时容易出现的画面伪影问题，同时克服了依赖光流估计导致的计算速度慢、资源消耗大的瓶颈。\n\n与以往技术不同，FLAVR 采用了独特的“无光流”架构，利用时空卷积和通道门控机制，能够单次推理直接预测多帧画面。这种设计不仅大幅提升了运行速度，还在速度与画质之间取得了优异的平衡，特别适合需要实时处理或批量制作高帧率内容的场景。\n\n这款工具非常适合计算机视觉研究人员、视频算法开发者以及追求极致画质的影视后期设计师使用。对于希望将普通 30FPS 视频升级为 60FPS 甚至 240FPS 慢动作效果的技术人员，FLAVR 提供了预训练模型和简洁的命令行接口，只需简单配置即可在自定义视频上应用“慢动作滤镜”。作为 WACV 2023 的最佳论文入围项目，FLAVR 以其创新的架构和出色的性能，为高质量视频生成提供了新的可靠选择。","# FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation\n## WACV 2023 (Best Paper Finalist)\n\n![Eg1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftarun005_FLAVR_readme_405d73bf8379.gif)\n![Eg2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftarun005_FLAVR_readme_7a8f2354e869.gif)\n\n[[project page](https:\u002F\u002Ftarun005.github.io\u002FFLAVR\u002F)] [[paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2012.08512.pdf)] [[Project Video](youtu.be\u002FHFOY7CGpJRM)]\n\nFLAVR is a fast, flow-free frame interpolation method capable of single shot multi-frame prediction. It uses a customized encoder decoder architecture with spatio-temporal convolutions and channel gating to capture and interpolate complex motion trajectories between frames to generate realistic high frame rate videos. This repository contains original source code.\n\n## Inference Times\n\nFLAVR delivers a better trade-off between speed and accuracy compared to prior frame interpolation methods.\n\nMethod        | FPS on 512x512 Image (sec)\n| ------------- |:-------------:|\n| FLAVR       | 3.10  |\n| SuperSloMo | 3.33 |\n| QVI      |   1.02  |\n| DAIN |   0.77  |\n\n## Dependencies\n\nWe used the following to train and test the model.\n\n- Ubuntu 18.04\n- Python==3.7.4\n- numpy==1.19.2\n- [PyTorch](http:\u002F\u002Fpytorch.org\u002F)==1.5.0, torchvision==0.6.0, cudatoolkit==10.1\n\n## Model\n\n\u003Ccenter>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftarun005_FLAVR_readme_f484bbe977b1.png\" width=\"90%\">\u003C\u002Fcenter>\n\n## Training model on Vimeo-90K septuplets\n\nFor training your own model on the Vimeo-90K dataset, use the following command. You can download the dataset from [this link](http:\u002F\u002Ftoflow.csail.mit.edu\u002F). The results reported in the paper are trained using 8GPUs.\n``` bash\npython main.py --batch_size 32 --test_batch_size 32 --dataset vimeo90K_septuplet --loss 1*L1 --max_epoch 200 --lr 0.0002 --data_root \u003Cdataset_path> --n_outputs 1\n```\n\nTraining on GoPro dataset is similar, change `n_outputs` to 7 for 8x interpolation.\n\n## Testing using trained model.\n\n### Trained Models.\nYou can download the pretrained FLAVR models from the following links.\n Method        | Trained Model  |\n| ------------- |:-----|\n| **2x** | [Link](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1IZe-39ZuXy3OheGJC-fT3shZocGYuNdH\u002Fview?usp=sharing) |\n| **4x** |   [Link](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1GARJK0Ti1gLH_O0spxAEqzbMwUKqE37S\u002Fview?usp=sharing)   |\n| **8x** |   [Link](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1xoZqWJdIOjSaE2DtH4ifXKlRwFySm5Gq\u002Fview?usp=sharing)  |\n\n### 2x Interpolation\nFor testing a pretrained model on Vimeo-90K septuplet validation set, you can run the following command:\n```bash\npython test.py --dataset vimeo90K_septuplet --data_root \u003Cdata_path> --load_from \u003Csaved_model> --n_outputs 1\n```\n\n### 8x Interpolation\nFor testing a multiframe interpolation model, use the same command as above with multiframe FLAVR model, with `n_outputs` changed accordingly.\n\n### Time Benchmarking\nThe testing script, in addition to computing PSNR and SSIM values, will also output the inference time and speed for interpolation. \n\n### Evaluation on Middleburry\n\nTo evaluate on the public benchmark of Middleburry, run the following.\n```bash\npython Middleburry_Test.py --data_root \u003Cdata_path> --load_from \u003Cmodel_path> \n```\n\nThe interpolated images will be saved to the folder `Middleburry` in a format that can be readily uploaded to the [leaderboard](https:\u002F\u002Fvision.middlebury.edu\u002Fflow\u002Feval\u002Fresults\u002Fresults-i2.php). \n\n## SloMo-Filter on custom video\n\nYou can use our trained models and apply the slomo filter on your own video (requires OpenCV 4.2.0). Use the following command. If you want to convert a 30FPS video to 240FPS video, simply use the command\n```bash\npython interpolate.py --input_video \u003Cinput_video> --factor 8 --load_model \u003Cmodel_path>\n```\n\nby using our [pretrained model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1xoZqWJdIOjSaE2DtH4ifXKlRwFySm5Gq\u002Fview?usp=sharing) for 8x interpolation. For converting a 30FPS video to 60FPS video, use a 2x model with `factor` 2.\n\n## Baseline Models\n\nWe also train models for many other previous works on our setting, and provide models for all these methods. Complete benchmarking scripts will also be released soon.\n\n**New [April 2024]**: Due to a shocking reduction of google drive allowance by Google to UCSD, I lost access to pre-trained models from other methods listed below. I hope to re-train them and publish new links in the future but don't count on it. Sorry!\n\n Method        | PSNR on Vimeo           | Trained Model  |\n| ------------- |:-------------:| -----:|\n| FLAVR       | 36.3    | [Model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1IZe-39ZuXy3OheGJC-fT3shZocGYuNdH\u002Fview?usp=sharing)\n| AdaCoF      | 35.3 | [Model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F19Y2TDZkSbRgNu-OItvqk3qn5cBWGg1RT\u002Fview?usp=sharing) |\n| QVI*      |   35.15    | [Model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1v2u5diGcvdTLhck8Xwu0baI4zm0JBJhI\u002Fview?usp=sharing)   |\n| DAIN |   34.19   | [Model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1RfrwrHoSX_3RIdsoQgPg9IfGAJRhOoEp\u002Fview?usp=sharing)  |\n| SuperSloMo* | 32.90 | [Model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1dR2at5DQO7w5s2tA5stC95Nmu_ezsPth\u002Fview?usp=sharing)\n\n* SuperSloMo is implemented using code repository from [here](https:\u002F\u002Fgithub.com\u002Favinashpaliwal\u002FSuper-SloMo). Other baselines are implemented using the official codebases. \n* The numbers presented here for the baselines are slightly better than those reported in the paper.\n\n## Google Colab\n\nA Colab notebook to try 2x slow-motion filtering on custom videos is available in the *notebooks* directory of this repo.\n\n## Model for Motion-Magnification\n\nUnfortunately, we cannot provide the trained models for motion-magnification at this time. We are working towards making a model available soon.\n\n## Acknowledgement\n\nThe code is heavily borrowed from Facebook's official [PyTorch video repository](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FVMZ) and [CAIN](https:\u002F\u002Fgithub.com\u002Fmyungsub\u002FCAIN).\n\n## Cite\n\nIf this code helps in your work, please consider citing us. \n``` text\n@article{kalluri2023flavr,\n  title={FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation},\n  author={Kalluri, Tarun and Pathak, Deepak and Chandraker, Manmohan and Tran, Du},\n  booktitle={WACV},\n  year={2023}\n}\n```\n","# FLAVR：用于快速帧插值的流无关视频表示\n## WACV 2023（最佳论文入围）\n\n![Eg1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftarun005_FLAVR_readme_405d73bf8379.gif)\n![Eg2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftarun005_FLAVR_readme_7a8f2354e869.gif)\n\n[[项目页面](https:\u002F\u002Ftarun005.github.io\u002FFLAVR\u002F)] [[论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2012.08512.pdf)] [[项目视频](youtu.be\u002FHFOY7CGpJRM)]\n\nFLAVR 是一种快速、无流处理的帧插值方法，能够实现单次拍摄下的多帧预测。它采用定制化的编码器-解码器架构，结合时空卷积与通道门控技术，用于捕捉并插值帧间复杂的运动轨迹，从而生成逼真且高帧率的视频。本仓库包含原始源代码。\n\n## 推理时间\n\n与以往的帧插值方法相比，FLAVR 在速度与精度之间实现了更好的平衡。\n\n方法        | 512x512 图像上的 FPS（秒）\n| ------------- |:-------------:|\n| FLAVR       | 3.10  |\n| SuperSloMo | 3.33 |\n| QVI      |   1.02  |\n| DAIN |   0.77  |\n\n## 依赖项\n\n我们使用了以下工具来训练和测试该模型。\n\n- Ubuntu 18.04\n- Python==3.7.4\n- numpy==1.19.2\n- [PyTorch](http:\u002F\u002Fpytorch.org\u002F)==1.5.0，torchvision==0.6.0，cudatoolkit==10.1\n\n## 模型\n\n\u003Ccenter>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftarun005_FLAVR_readme_f484bbe977b1.png\" width=\"90%\">\u003C\u002Fcenter>\n\n## 在 Vimeo-90K 七重奏数据集上训练模型\n\n若要基于 Vimeo-90K 数据集训练自己的模型，请使用以下命令。您可从[此链接](http:\u002F\u002Ftoflow.csail.mit.edu\u002F)下载该数据集。论文中报告的结果均使用 8 个 GPU 进行训练。\n``` bash\npython main.py --batch_size 32 --test_batch_size 32 --dataset vimeo90K_septuplet --loss 1*L1 --max_epoch 200 --lr 0.0002 --data_root \u003Cdataset_path> --n_outputs 1\n```\n\n在 GoPro 数据集上进行训练的方法类似，只需将 `n_outputs` 修改为 7，以实现 8 倍插值。\n\n## 使用已训练模型进行测试。\n\n### 已训练模型\n您可以从以下链接下载预训练的 FLAVR 模型。\n方法        | 已训练模型  |\n| ------------- |:-----|\n| **2x** | [链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1IZe-39ZuXy3OheGJC-fT3shZocGYuNdH\u002Fview?usp=sharing) |\n| **4x** |   [链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1GARJK0Ti1gLH_O0spxAEqzbMwUKqE37S\u002Fview?usp=sharing)   |\n| **8x** |   [链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1xoZqWJdIOjSaE2DtH4ifXKlRwFySm5Gq\u002Fview?usp=sharing)  |\n\n### 2x 插值\n若要将预训练模型应用于 Vimeo-90K 七重奏验证集进行测试，您可以运行以下命令：\n```bash\npython test.py --dataset vimeo90K_septuplet --data_root \u003Cdata_path> --load_from \u003Csaved_model> --n_outputs 1\n```\n\n### 8x 插值\n若要测试多帧插值模型，请使用与上述相同的命令，并相应地调整 `n_outputs` 的值，以适应多帧 FLAVR 模型。\n\n### 时间基准测试\n除了计算 PSNR 和 SSIM 值外，测试脚本还会输出插值的推理时间和速度。\n\n### 中堡基准评测\n\n要对中堡公开基准进行评测，请运行以下命令。\n```bash\npython Middleburry_Test.py --data_root \u003Cdata_path> --load_from \u003Cmodel_path>\n```\n\n插值后的图像将保存至 `Middleburry` 文件夹中，其格式便于直接上传至[排行榜](https:\u002F\u002Fvision.middlebury.edu\u002Fflow\u002Feval\u002Fresults\u002Fresults-i2.php)。\n\n## 自定义视频上的 SloMo 滤镜\n\n您可以使用我们训练好的模型，在自己的视频上应用慢动作滤镜（需配备 OpenCV 4.2.0）。请使用以下命令。若想将 30 FPS 的视频转换为 240 FPS 的视频，只需使用如下命令：\n```bash\npython interpolate.py --input_video \u003Cinput_video> --factor 8 --load_model \u003Cmodel_path>\n```\n\n其中，我们使用了[预训练模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1xoZqWJdIOjSaE2DtH4ifXKlRwFySm5Gq\u002Fview?usp=sharing)进行 8 倍插值。若要将 30 FPS 的视频转换为 60 FPS 的视频，则可使用 2 倍模型，将 `factor` 设置为 2。\n\n## 基线模型\n\n我们还针对许多其他先前的研究成果，在我们的实验环境中进行了模型训练，并提供了所有这些方法的模型。完整的基准评测脚本也将很快发布。\n\n**新版本（2024年4月）**：由于谷歌将其 Google Drive 免费存储空间额度大幅削减，我已无法再访问下方列出的其他方法的预训练模型。我希望未来能够重新训练这些模型并发布新的链接，但目前暂不抱太大期望。非常抱歉！\n\n方法        | Vimeo 上的 PSNR | 已训练模型  |\n| ------------- |:-------------:| -----:|\n| FLAVR       | 36.3    | [模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1IZe-39ZuXy3OheGJC-fT3shZocGYuNdH\u002Fview?usp=sharing)\n| AdaCoF      | 35.3 | [模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F19Y2TDZkSbRgNu-OItvqk3qn5cBWGg1RT\u002Fview?usp=sharing) |\n| QVI*      |   35.15    | [模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1v2u5diGcvdTLhck8Xwu0baI4zm0JBJhI\u002Fview?usp=sharing)   |\n| DAIN |   34.19   | [模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1RfrwrHoSX_3RIdsoQgPg9IfGAJRhOoEp\u002Fview?usp=sharing)  |\n| SuperSloMo* | 32.90 | [模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1dR2at5DQO7w5s2tA5stC95Nmu_ezsPth\u002Fview?usp=sharing)\n\n* SuperSloMo 是基于[此处](https:\u002F\u002Fgithub.com\u002Favinashpaliwal\u002FSuper-SloMo)的代码库实现的。其他基线模型则采用官方代码库进行实现。\n* 本文中展示的基线模型数值略优于论文中报告的数值。\n\n## Google Colab\n\n本仓库的 *notebooks* 目录中提供了一个 Colab 笔记本，您可以在其中尝试对自定义视频进行 2 倍慢动作滤镜处理。\n\n## 动态放大模型\n\n遗憾的是，我们目前无法提供动态放大模型的预训练模型。我们正努力尽快推出相关模型。\n\n## 感谢\n\n本代码大量借鉴了 Facebook 官方的 [PyTorch 视频仓库](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FVMZ) 以及 [CAIN](https:\u002F\u002Fgithub.com\u002Fmyungsub\u002FCAIN)。\n\n## 引用\n\n如果这段代码对您的工作有所帮助，请考虑向我们致谢。\n``` text\n@article{kalluri2023flavr,\n  title={FLAVR：用于快速帧插值的流无关视频表示},\n  author={Kalluri, Tarun and Pathak, Deepak and Chandraker, Manmohan and Tran, Du},\n  booktitle={WACV},\n  year={2023}\n}\n```","# FLAVR 快速上手指南\n\nFLAVR 是一种快速、无需光流的视频帧插值方法，支持单次推理预测多帧。它利用时空卷积和通道门控机制，能够捕捉复杂的运动轨迹，生成高帧率的逼真视频。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Ubuntu 18.04 (推荐)\n*   **Python**: 3.7.4\n*   **深度学习框架**: PyTorch 1.5.0, torchvision 0.6.0\n*   **CUDA**: cudatoolkit 10.1\n*   **其他依赖**:\n    *   numpy==1.19.2\n    *   OpenCV 4.2.0 (用于自定义视频处理)\n\n> **注意**：由于该工具基于较旧版本的 PyTorch (1.5.0) 开发，建议创建独立的虚拟环境以避免版本冲突。国内用户可使用清华或阿里镜像源加速 `pip` 安装。\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Ftarun005\u002FFLAVR.git\n    cd FLAVR\n    ```\n\n2.  **安装依赖**\n    建议使用 `pip` 并指定国内镜像源安装所需包：\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n    *如果仓库中未提供 `requirements.txt`，请手动安装核心依赖：*\n    ```bash\n    pip install torch==1.5.0 torchvision==0.6.0 numpy==1.19.2 opencv-python==4.2.0 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n    *(注：PyTorch 旧版本可能需要从官方历史版本页面下载 wheel 文件安装，或使用 conda 指定版本)*\n\n3.  **下载预训练模型**\n    根据需求下载对应的倍率模型（2x, 4x, 或 8x）：\n    *   **2x 插值**: [下载链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1IZe-39ZuXy3OheGJC-fT3shZocGYuNdH\u002Fview?usp=sharing)\n    *   **4x 插值**: [下载链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1GARJK0Ti1gLH_O0spxAEqzbMwUKqE37S\u002Fview?usp=sharing)\n    *   **8x 插值**: [下载链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1xoZqWJdIOjSaE2DtH4ifXlRwFySm5Gq\u002Fview?usp=sharing)\n\n    下载后将模型文件放置在项目目录下，或记住其绝对路径。\n\n## 基本使用\n\n### 场景一：自定义视频慢动作处理 (推荐)\n这是最简单的使用方式，可直接将普通视频转换为高帧率慢动作视频。\n\n**示例**：将 30FPS 的视频转换为 240FPS (8 倍插值)：\n```bash\npython interpolate.py --input_video \u003Cinput_video> --factor 8 --load_model \u003Cmodel_path>\n```\n*   `\u003Cinput_video>`: 替换为您的输入视频路径。\n*   `\u003Cmodel_path>`: 替换为下载的 **8x** 预训练模型路径。\n*   `--factor`: 插值倍数。若需转为 60FPS (2 倍)，请将 `factor` 设为 `2` 并使用 **2x** 模型。\n\n### 场景二：数据集测试与评估\n如果您需要在 Vimeo-90K 或 Middleburry 数据集上测试模型性能：\n\n**2x 插值测试 (Vimeo-90K)**:\n```bash\npython test.py --dataset vimeo90K_septuplet --data_root \u003Cdata_path> --load_from \u003Csaved_model> --n_outputs 1\n```\n\n**Middleburry 基准测试**:\n```bash\npython Middleburry_Test.py --data_root \u003Cdata_path> --load_from \u003Cmodel_path>\n```\n*   脚本会自动计算 PSNR、SSIM 以及推理耗时，并将结果保存至相应文件夹。\n\n### 场景三：从头训练模型\n若需在 Vimeo-90K septuplets 数据集上训练新模型（需 8 张 GPU 以达到论文效果）：\n\n```bash\npython main.py --batch_size 32 --test_batch_size 32 --dataset vimeo90K_septuplet --loss 1*L1 --max_epoch 200 --lr 0.0002 --data_root \u003Cdataset_path> --n_outputs 1\n```\n*   `\u003Cdataset_path>`: 替换为 Vimeo-90K 数据集的本地路径。\n*   对于 GoPro 数据集的 8 倍插值训练，请将 `--n_outputs` 改为 `7`。","一家独立游戏工作室正在制作宣传短片，需要将原本以 30FPS 录制的实机演示素材转换为流畅的 240FPS 慢动作视频，以突出角色战斗时的打击感和细节特效。\n\n### 没有 FLAVR 时\n- **画面撕裂严重**：传统插帧算法依赖光流估计，在处理角色快速位移或复杂粒子特效时，常因运动估算错误导致画面出现明显的伪影和扭曲。\n- **渲染效率低下**：现有高精度模型推理速度慢，处理一段 10 秒的 4K 素材可能需要数小时，严重拖慢了剪辑迭代节奏。\n- **多帧预测困难**：大多数工具仅支持生成中间单帧，要实现 8 倍升格需多次串联运行，不仅操作繁琐，还会累积误差导致画质下降。\n- **硬件门槛高**：为了获得可接受的速度，往往需要部署多张高端显卡并行计算，增加了小型团队的硬件成本。\n\n### 使用 FLAVR 后\n- **动态细节自然**：FLAVR 采用无光流的时空卷积架构，能精准捕捉复杂运动轨迹，即使在高速战斗场景中也能生成无伪影的逼真帧。\n- **实时级处理速度**：凭借高效的编码器 - 解码器设计，其在 512x512 分辨率下的推理速度达到 3.10 FPS，显著缩短了从素材到成片的等待时间。\n- **单次多帧生成**：支持“单次拍摄”多帧预测模式，可直接通过 8x 模型一步到位将 30FPS 视频转为 240FPS，避免了多次处理带来的画质损耗。\n- **资源利用优化**：在保持高画质的同时实现了速度与精度的最佳平衡，使得在单块消费级显卡上高效完成高质量慢动作制作成为可能。\n\nFLAVR 通过突破性的无光流架构，让游戏开发者能以极低的计算成本，将普通录屏瞬间转化为电影级的超流畅慢动作视觉盛宴。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftarun005_FLAVR_f6c67800.png","tarun005","Tarun K","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftarun005_b9b70880.png","Deep Learning. Mostly Python, PyTorch and Tensorflow.",null,"tarun005.github.io","https:\u002F\u002Fgithub.com\u002Ftarun005",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",90.9,{"name":88,"color":89,"percentage":90},"Jupyter Notebook","#DA5B0B",9.1,514,76,"2026-04-04T09:24:44","Apache-2.0","Linux","需要 NVIDIA GPU，训练需 8 张 GPU，CUDA 10.1","未说明",{"notes":99,"python":100,"dependencies":101},"官方明确在 Ubuntu 18.04 下测试。自定义视频慢动作处理功能需要 OpenCV 4.2.0。训练 Vimeo-90K 数据集建议使用 8 张 GPU。部分预训练模型链接可能因 Google Drive 策略调整而失效。","3.7.4",[102,103,104,105],"torch==1.5.0","torchvision==0.6.0","numpy==1.19.2","opencv-python==4.2.0",[52,13],[108,109,110,111,112,113],"slomo-filter","video","8x-interpolation","artificial-intelligence","deep-learning","machine-learning","2026-03-27T02:49:30.150509","2026-04-06T08:15:55.654197",[117,122,127,132,137,142,147,152],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},6289,"无法下载或访问预训练模型链接怎么办？","如果官方提供的下载链接失效，维护者通常会更新仓库中的新链接。若仍无法访问，可以查看 Issue 评论区，有时其他用户会提供临时的文件托管链接（如 file.io）。此外，建议检查是否需要通过 Google Drive 挂载或使用 gdown 工具进行下载，并确保网络环境允许访问这些资源。","https:\u002F\u002Fgithub.com\u002Ftarun005\u002FFLAVR\u002Fissues\u002F57",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},6290,"训练时损失不收敛、PSNR 低于预期（如小于 20）是什么原因？","这通常与 PyTorch 版本兼容性有关。多位用户反馈在 PyTorch >= 1.6 时出现训练不收敛问题，建议将 PyTorch 版本降级至 1.5 或更低版本（\u003C= 1.5.0）。此外，维护者建议在训练代码中加入梯度裁剪（Gradient Clipping）策略，可参考 CAIN 项目的实现代码：https:\u002F\u002Fgithub.com\u002Fmyungsub\u002FCAIN\u002Fblob\u002Ffff8fc321c5a76904ed2a12c9500e055d4c77256\u002Fmain.py#L117。","https:\u002F\u002Fgithub.com\u002Ftarun005\u002FFLAVR\u002Fissues\u002F15",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},6291,"如何在 UCF101 或 Middlebury 数据集上复现测试结果？","对于 Middlebury 数据集，使用 `other-color-allframes.zip` 中包含至少 4 帧（frame09.png~frame12.png）的 10 个样本作为输入，并使用 `other-gt-interp.zip` 作为真值（Ground Truth）。对于 UCF101，关键在于图像裁剪尺寸，需使用 224x224 的裁剪策略。若使用全分辨率（如 225x225）或仅调整到 8 的倍数，可能导致性能下降约 2dB。","https:\u002F\u002Fgithub.com\u002Ftarun005\u002FFLAVR\u002Fissues\u002F18",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},6292,"微调（Finetune）模型后生成的视频帧变暗或出现闪烁怎么办？","该问题可能与数据预处理中的随机种子设置或依赖库版本不一致有关。请确保在应用数据变换（Transformation）之前固定了随机种子。同时，检查并统一 PyTorch、torchvision 和 PIL 的版本，使其与原作者训练环境保持一致。如果问题依旧，尝试从头开始训练而非微调，或检查学习率设置是否过小（如 1e-05 可能需要调整）。","https:\u002F\u002Fgithub.com\u002Ftarun005\u002FFLAVR\u002Fissues\u002F20",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},6293,"QVI 模型在测试时的时间步长（t）是如何设置的？","时间步长 t 的设置取决于插倍率。对于 2 倍插帧（2x interpolation），训练和测试时 t 固定为 0.5。对于 8 倍插帧（8x interpolation），训练和测试时 t 取值为 [1\u002F8, 2\u002F8, 3\u002F8, 4\u002F8, 5\u002F8, 6\u002F8, 7\u002F8]。注意，专门为 2x 训练的模型在多帧插值任务上迁移效果不佳，因此 GoPro 和 Vimeo 数据集上的 QVI 模型是分别训练的。","https:\u002F\u002Fgithub.com\u002Ftarun005\u002FFLAVR\u002Fissues\u002F21",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},6294,"在 Windows 系统上运行代码会遇到什么问题？","目前代码主要针对 Linux\u002FUbuntu 环境开发，维护者明确表示未曾在 Windows 上测试或工作过，因此无法保证在 Windows 上的兼容性。用户在 Windows 上运行 `interpolate.py` 时可能会遇到内存泄漏问题（RAM 持续增加）。建议用户使用 Ubuntu 环境、Docker 容器或尝试社区提供的 Colab 笔记本进行推理和测试。","https:\u002F\u002Fgithub.com\u002Ftarun005\u002FFLAVR\u002Fissues\u002F5",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},6295,"FLAVR 与 RIFE 模型相比性能如何？","根据社区用户反馈，RIFE 在推理速度上通常比 FLAVR 快得多。在视觉效果方面，部分用户在 NVIDIA T4 上测试发现，FLAVR 生成的插入帧可能存在重影（ghost images）和模糊现象，且清晰度呈现波动（清晰->模糊->清晰），整体效果有时不如 RIFE。不过，也有观点认为 FLAVR 作为一个较新的模型，随着成熟度提高可能会有所改善。","https:\u002F\u002Fgithub.com\u002Ftarun005\u002FFLAVR\u002Fissues\u002F10",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},6296,"是否有可用的 Colab 笔记本以便快速体验？","是的，社区用户已经创建了用于执行 2 倍慢动作滤波的 Colab 笔记本。您可以访问以下地址直接使用，无需本地配置环境：https:\u002F\u002Fgithub.com\u002Fvirtualramblas\u002Fpython-notebooks-repo\u002Ftree\u002Fmain\u002FColab\u002FFLAVR。这对于没有 GPU 资源或希望快速验证效果的用户非常有用。","https:\u002F\u002Fgithub.com\u002Ftarun005\u002FFLAVR\u002Fissues\u002F42",[]]