[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-hzwer--ECCV2022-RIFE":3,"similar-hzwer--ECCV2022-RIFE":105},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":14,"owner_avatar_url":15,"owner_bio":16,"owner_company":17,"owner_location":16,"owner_email":16,"owner_twitter":14,"owner_website":18,"owner_url":19,"languages":20,"stars":37,"forks":38,"last_commit_at":39,"license":40,"difficulty_score":41,"env_os":42,"env_gpu":43,"env_ram":44,"env_deps":45,"category_tags":54,"github_topics":58,"view_count":64,"oss_zip_url":16,"oss_zip_packed_at":16,"status":65,"created_at":66,"updated_at":67,"faqs":68,"releases":99},9458,"hzwer\u002FECCV2022-RIFE","ECCV2022-RIFE","ECCV2022 - Real-Time Intermediate Flow Estimation for Video Frame Interpolation","ECCV2022-RIFE 是一款专为视频帧插值设计的高效开源模型，核心功能是在两帧画面之间智能生成中间帧，从而将普通视频转化为流畅的高帧率慢动作视频。它有效解决了传统插值算法在处理快速运动或复杂场景时容易出现的画面模糊、伪影及卡顿问题，显著提升了视频播放的顺滑度与视觉质感。\n\n该工具技术亮点在于其“实时中间流估计”架构，即使在消费级显卡（如 RTX 2080Ti）上，也能对 720p 分辨率视频实现每秒 30 帧以上的 2 倍插值速度，并支持任意时间步长的灵活插值。此外，项目持续迭代，不仅针对动漫场景进行了专门优化，还探索了其在扩散模型生成视频的后处理应用，展现了极强的适应性。\n\nECCV2022-RIFE 适合多类用户群体：研究人员可基于其开源代码深入探索视频生成前沿技术；开发者能利用提供的 CLI 接口或集成方案（如 VapourSynth、ncnn-vulkan）构建自定义应用；而普通创作者及视频爱好者则可通过 SVFI、FlowFrames 等第三方图形界面软件，零门槛地体验电影级补帧效果，让老旧低帧率素材焕发新生。","# Real-Time Intermediate Flow Estimation for Video Frame Interpolation\n## [YouTube](https:\u002F\u002Fwww.youtube.com\u002Fresults?search_query=rife+interpolation&sp=CAM%253D) | [BiliBili](https:\u002F\u002Fsearch.bilibili.com\u002Fall?keyword=SVFI&order=stow&duration=0&tids_1=0) | [Colab](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fhzwer\u002FECCV2022-RIFE\u002Fblob\u002Fmain\u002FColab_demo.ipynb) | [Tutorial](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=gf_on-dbwyU&feature=emb_title) | [DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fhzwer\u002FECCV2022-RIFE)\n\n## Introduction\nThis project is the implement of [Real-Time Intermediate Flow Estimation for Video Frame Interpolation](https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.06294). Currently, our model can run 30+FPS for 2X 720p interpolation on a 2080Ti GPU. It supports arbitrary-timestep interpolation between a pair of images.\n\n**2024.08 - We find that [4.22.lite](https:\u002F\u002Fgithub.com\u002Fhzwer\u002FPractical-RIFE\u002Ftree\u002Fmain?tab=readme-ov-file#model-list) is quite suitable for post-processing of [some diffusion model generated videos](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1hSzUn10Era3JCaVz0Z5Eg4wT9R6eJ9U9?usp=sharing).**\n\n2023.11 - We recently release new [v4.7-4.10](https:\u002F\u002Fgithub.com\u002Fhzwer\u002FPractical-RIFE\u002Ftree\u002Fmain#model-list) optimized for anime scenes! We draw from [SAFA](https:\u002F\u002Fgithub.com\u002Fmegvii-research\u002FWACV2024-SAFA\u002Ftree\u002Fmain)’s research.\n\n2022.7.4 - Our paper is accepted by ECCV2022. Thanks to all relevant authors, contributors and users!\n\nFrom 2020 to 2022, we submitted RIFE for five submissions（rejected by CVPR21 ICCV21 AAAI22 CVPR22). Thanks to all anonymous reviewers, your suggestions have helped to significantly improve the paper!\n\n[ECCV Poster](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1xCXuLUCSwhN61kvIF8jxDvQiUGtLK0kN\u002Fview?usp=sharing) | [ECCV 5-min presentation](https:\u002F\u002Fyoutu.be\u002Fqdp-NYqWQpA) | [论文中文介绍](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F568553080) | [rebuttal (2WA1WR->3WA)](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16IVjwRpwbTuJbYyTn4PizKX8I257QxY-\u002Fview?usp=sharing) \n\n**Pinned Software: [RIFE-App](https:\u002F\u002Fgrisk.itch.io\u002Frife-app) | [FlowFrames](https:\u002F\u002Fnmkd.itch.io\u002Fflowframes) | [SVFI (中文)](https:\u002F\u002Fgithub.com\u002FYiWeiHuang-stack\u002FSquirrel-Video-Frame-Interpolation)**\n\n16X interpolation results from two input images: \n\n![Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhzwer_ECCV2022-RIFE_readme_e9f562b69623.gif)\n![Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhzwer_ECCV2022-RIFE_readme_5fea1d4b914d.gif)\n\n## Software\n[Flowframes](https:\u002F\u002Fnmkd.itch.io\u002Fflowframes) | [SVFI(中文)](https:\u002F\u002Fgithub.com\u002FYiWeiHuang-stack\u002FSquirrel-Video-Frame-Interpolation) | [Waifu2x-Extension-GUI](https:\u002F\u002Fgithub.com\u002FAaronFeng753\u002FWaifu2x-Extension-GUI) | [Autodesk Flame](https:\u002F\u002Fvimeo.com\u002F505942142) | [SVP](https:\u002F\u002Fwww.svp-team.com\u002Fwiki\u002FRIFE_AI_interpolation) | [mpv_PlayKit](https:\u002F\u002Fgithub.com\u002Fhooke007\u002Fmpv_PlayKit) | [enhancr](https:\u002F\u002Fgithub.com\u002Fmafiosnik777\u002Fenhancr)\n\n[RIFE-App(Paid)](https:\u002F\u002Fgrisk.itch.io\u002Frife-app) | [Steam-VFI(Paid)](https:\u002F\u002Fstore.steampowered.com\u002Fapp\u002F1692080\u002FSVFI\u002F) \n\nWe are not responsible for and participating in the development of above software. According to the open source license, we respect the commercial behavior of other developers.\n\n[VapourSynth-RIFE](https:\u002F\u002Fgithub.com\u002FHolyWu\u002Fvs-rife) | [RIFE-ncnn-vulkan](https:\u002F\u002Fgithub.com\u002Fnihui\u002Frife-ncnn-vulkan) | [VapourSynth-RIFE-ncnn-Vulkan](https:\u002F\u002Fgithub.com\u002Fstyler00dollar\u002FVapourSynth-RIFE-ncnn-Vulkan) | [vs-mlrt](https:\u002F\u002Fgithub.com\u002FAmusementClub\u002Fvs-mlrt)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhzwer_ECCV2022-RIFE_readme_e62fb13064d8.png\" height=\"320\" width=\"480\" \u002F>\n\nIf you are a developer, welcome to follow [Practical-RIFE](https:\u002F\u002Fgithub.com\u002Fhzwer\u002FPractical-RIFE), which aims to make RIFE more practical for users by adding various features and design new models with faster speed.\n\nYou may check [this pull request](https:\u002F\u002Fgithub.com\u002Fmegvii-research\u002FECCV2022-RIFE\u002Fpull\u002F300) for supporting macOS.\n## CLI Usage\n\n### Installation\n\n```\ngit clone git@github.com:megvii-research\u002FECCV2022-RIFE.git\ncd ECCV2022-RIFE\npip3 install -r requirements.txt\n```\n\n* Download the pretrained **HD** models from [here](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1APIzVeI-4ZZCEuIRE1m6WYfSCaOsi_7_\u002Fview?usp=sharing). (百度网盘链接:https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=u6Q7-i4Hu4Vx9_5BJibPPA 密码:hfk3，把压缩包解开后放在 train_log\u002F\\*)\n\n* Unzip and move the pretrained parameters to train_log\u002F\\*\n\n* This model is not reported by our paper, for our paper model please refer to [evaluation](https:\u002F\u002Fgithub.com\u002Fhzwer\u002FECCV2022-RIFE#evaluation).\n\n### Run\n\n**Video Frame Interpolation**\n\nYou can use our [demo video](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1i3xlKb7ax7Y70khcTcuePi6E7crO_dFc\u002Fview?usp=sharing) or your own video. \n```\npython3 inference_video.py --exp=1 --video=video.mp4 \n```\n(generate video_2X_xxfps.mp4)\n```\npython3 inference_video.py --exp=2 --video=video.mp4\n```\n(for 4X interpolation)\n```\npython3 inference_video.py --exp=1 --video=video.mp4 --scale=0.5\n```\n(If your video has very high resolution such as 4K, we recommend set --scale=0.5 (default 1.0). If you generate disordered pattern on your videos, try set --scale=2.0. This parameter control the process resolution for optical flow model.)\n```\npython3 inference_video.py --exp=2 --img=input\u002F\n```\n(to read video from pngs, like input\u002F0.png ... input\u002F612.png, ensure that the png names are numbers)\n```\npython3 inference_video.py --exp=2 --video=video.mp4 --fps=60\n```\n(add slomo effect, the audio will be removed)\n```\npython3 inference_video.py --video=video.mp4 --montage --png\n```\n(if you want to montage the origin video and save the png format output)\n\n**Extended Application**\n\nYou may refer to [#278](https:\u002F\u002Fgithub.com\u002Fmegvii-research\u002FECCV2022-RIFE\u002Fissues\u002F278#event-7199085190) for **Optical Flow Estimation** and refer to [#291](https:\u002F\u002Fgithub.com\u002Fhzwer\u002FECCV2022-RIFE\u002Fissues\u002F291#issuecomment-1328685348) for **Video Stitching**.\n\n**Image Interpolation**\n\n```\npython3 inference_img.py --img img0.png img1.png --exp=4\n```\n(2^4=16X interpolation results)\nAfter that, you can use pngs to generate mp4:\n```\nffmpeg -r 10 -f image2 -i output\u002Fimg%d.png -s 448x256 -c:v libx264 -pix_fmt yuv420p output\u002Fslomo.mp4 -q:v 0 -q:a 0\n```\nYou can also use pngs to generate gif:\n```\nffmpeg -r 10 -f image2 -i output\u002Fimg%d.png -s 448x256 -vf \"split[s0][s1];[s0]palettegen=stats_mode=single[p];[s1][p]paletteuse=new=1\" output\u002Fslomo.gif\n```\n\n### Run in docker\nPlace the pre-trained models in `train_log\u002F\\*.pkl` (as above)\n\nBuilding the container:\n```\ndocker build -t rife -f docker\u002FDockerfile .\n```\n\nRunning the container:\n```\ndocker run --rm -it -v $PWD:\u002Fhost rife:latest inference_video --exp=1 --video=untitled.mp4 --output=untitled_rife.mp4\n```\n```\ndocker run --rm -it -v $PWD:\u002Fhost rife:latest inference_img --img img0.png img1.png --exp=4\n```\n\nUsing gpu acceleration (requires proper gpu drivers for docker):\n```\ndocker run --rm -it --gpus all -v \u002Fdev\u002Fdri:\u002Fdev\u002Fdri -v $PWD:\u002Fhost rife:latest inference_video --exp=1 --video=untitled.mp4 --output=untitled_rife.mp4\n```\n\n## Evaluation\nDownload [RIFE model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1h42aGYPNJn2q8j_GVkS_yDu__G_UZ2GX\u002Fview?usp=sharing) or [RIFE_m model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F147XVsDXBfJPlyct2jfo9kpbL944mNeZr\u002Fview?usp=sharing) reported by our paper.\n\n**UCF101**: Download [UCF101 dataset](https:\u002F\u002Fliuziwei7.github.io\u002Fprojects\u002FVoxelFlow) at .\u002FUCF101\u002Fucf101_interp_ours\u002F\n\n**Vimeo90K**: Download [Vimeo90K dataset](http:\u002F\u002Ftoflow.csail.mit.edu\u002F) at .\u002Fvimeo_interp_test\n\n**MiddleBury**: Download [MiddleBury OTHER dataset](https:\u002F\u002Fvision.middlebury.edu\u002Fflow\u002Fdata\u002F) at .\u002Fother-data and .\u002Fother-gt-interp\n\n**HD**: Download [HD dataset](https:\u002F\u002Fgithub.com\u002Fbaowenbo\u002FMEMC-Net) at .\u002FHD_dataset. We also provide a [google drive download link](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1iHaLoR2g1-FLgr9MEv51NH_KQYMYz-FA\u002Fview?usp=sharing).\n```\n# RIFE\npython3 benchmark\u002FUCF101.py\n# \"PSNR: 35.282 SSIM: 0.9688\"\npython3 benchmark\u002FVimeo90K.py\n# \"PSNR: 35.615 SSIM: 0.9779\"\npython3 benchmark\u002FMiddleBury_Other.py\n# \"IE: 1.956\"\npython3 benchmark\u002FHD.py\n# \"PSNR: 32.14\"\n\n# RIFE_m\npython3 benchmark\u002FHD_multi_4X.py\n# \"PSNR: 22.96(544*1280), 31.87(720p), 34.25(1080p)\"\n```\n\n## Training and Reproduction\nDownload [Vimeo90K dataset](http:\u002F\u002Ftoflow.csail.mit.edu\u002F).\n\nWe use 16 CPUs, 4 GPUs and 20G memory for training: \n```\npython3 -m torch.distributed.launch --nproc_per_node=4 train.py --world_size=4\n```\n\n## Revision History\n\n2021.3.18 [arXiv](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2011.06294v5.pdf): Modify the main experimental data, especially the runtime related issues.\n\n2021.8.12 [arXiv](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2011.06294v6.pdf): Remove pre-trained model dependency and propose privileged distillation scheme for frame interpolation. Remove [census loss](https:\u002F\u002Fgithub.com\u002Fhzwer\u002FarXiv2021-RIFE\u002Fblob\u002F0e241367847a0895748e64c6e1604c94db54d395\u002Fmodel\u002Floss.py#L20) supervision.\n\n2021.11.17 [arXiv](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2011.06294v11.pdf): Support arbitrary-time frame interpolation, aka RIFEm and add more experiments.\n\n## Recommend\nWe sincerely recommend some related papers:\n\nCVPR22 - [Optimizing Video Prediction via Video Frame Interpolation](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2022\u002Fhtml\u002FWu_Optimizing_Video_Prediction_via_Video_Frame_Interpolation_CVPR_2022_paper.html)\n\nCVPR22 - [Video Frame Interpolation with Transformer](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2022\u002Fhtml\u002FLu_Video_Frame_Interpolation_With_Transformer_CVPR_2022_paper.html)\n\nCVPR22 - [IFRNet: Intermediate Feature Refine Network for Efficient Frame Interpolation](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2022\u002Fhtml\u002FKong_IFRNet_Intermediate_Feature_Refine_Network_for_Efficient_Frame_Interpolation_CVPR_2022_paper.html)\n\nCVPR23 - [A Dynamic Multi-Scale Voxel Flow Network for Video Prediction](https:\u002F\u002Fhuxiaotaostasy.github.io\u002FDMVFN\u002F)\n\nCVPR23 - [Extracting Motion and Appearance via Inter-Frame Attention for Efficient Video Frame Interpolation](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.00440)\n\n## Citation\nIf you think this project is helpful, please feel free to leave a star or cite our paper:\n\n```\n@inproceedings{huang2022rife,\n  title={Real-Time Intermediate Flow Estimation for Video Frame Interpolation},\n  author={Huang, Zhewei and Zhang, Tianyuan and Heng, Wen and Shi, Boxin and Zhou, Shuchang},\n  booktitle={Proceedings of the European Conference on Computer Vision (ECCV)},\n  year={2022}\n}\n```\n\n## Reference\n\nOptical Flow:\n[ARFlow](https:\u002F\u002Fgithub.com\u002Flliuz\u002FARFlow)  [pytorch-liteflownet](https:\u002F\u002Fgithub.com\u002Fsniklaus\u002Fpytorch-liteflownet)  [RAFT](https:\u002F\u002Fgithub.com\u002Fprinceton-vl\u002FRAFT)  [pytorch-PWCNet](https:\u002F\u002Fgithub.com\u002Fsniklaus\u002Fpytorch-pwc)\n\nVideo Interpolation: \n[DVF](https:\u002F\u002Fgithub.com\u002Flxx1991\u002Fpytorch-voxel-flow)  [TOflow](https:\u002F\u002Fgithub.com\u002FColdog2333\u002Fpytoflow)  [SepConv](https:\u002F\u002Fgithub.com\u002Fsniklaus\u002Fsepconv-slomo)  [DAIN](https:\u002F\u002Fgithub.com\u002Fbaowenbo\u002FDAIN)  [CAIN](https:\u002F\u002Fgithub.com\u002Fmyungsub\u002FCAIN)  [MEMC-Net](https:\u002F\u002Fgithub.com\u002Fbaowenbo\u002FMEMC-Net)   [SoftSplat](https:\u002F\u002Fgithub.com\u002Fsniklaus\u002Fsoftmax-splatting)  [BMBC](https:\u002F\u002Fgithub.com\u002FJunHeum\u002FBMBC)  [EDSC](https:\u002F\u002Fgithub.com\u002FXianhang\u002FEDSC-pytorch)  [EQVI](https:\u002F\u002Fgithub.com\u002Flyh-18\u002FEQVI)\n","# 视频帧插值的实时中间光流估计\n## [YouTube](https:\u002F\u002Fwww.youtube.com\u002Fresults?search_query=rife+interpolation&sp=CAM%253D) | [BiliBili](https:\u002F\u002Fsearch.bilibili.com\u002Fall?keyword=SVFI&order=stow&duration=0&tids_1=0) | [Colab](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fhzwer\u002FECCV2022-RIFE\u002Fblob\u002Fmain\u002FColab_demo.ipynb) | [教程](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=gf_on-dbwyU&feature=emb_title) | [DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fhzwer\u002FECCV2022-RIFE)\n\n## 简介\n本项目实现了[视频帧插值的实时中间光流估计](https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.06294)。目前，我们的模型在2080Ti GPU上可以以30+FPS的速度进行2倍于720p分辨率的插帧处理。它支持在任意两帧图像之间进行任意时间步长的插帧。\n\n**2024年8月 - 我们发现[4.22.lite](https:\u002F\u002Fgithub.com\u002Fhzwer\u002FPractical-RIFE\u002Ftree\u002Fmain?tab=readme-ov-file#model-list)非常适合用于对[某些扩散模型生成的视频](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1hSzUn10Era3JCaVz0Z5Eg4wT9R6eJ9U9?usp=sharing)进行后处理。**\n\n2023年11月 - 我们最近发布了针对动漫场景优化的新版本[v4.7-4.10](https:\u002F\u002Fgithub.com\u002Fhzwer\u002FPractical-RIFE\u002Ftree\u002Fmain#model-list)! 我们借鉴了[SAFA](https:\u002F\u002Fgithub.com\u002Fmegvii-research\u002FWACV2024-SAFA\u002Ftree\u002Fmain)的研究成果。\n\n2022年7月4日 - 我们的论文已被ECCV2022接收。感谢所有相关作者、贡献者和用户！\n\n从2020年到2022年，我们曾五次提交RIFE（分别被CVPR21、ICCV21、AAAI22和CVPR22拒绝）。感谢所有匿名审稿人，你们的建议极大地帮助我们改进了论文！\n\n[ECCV海报](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1xCXuLUCSwhN61kvIF8jxDvQiUGtLK0kN\u002Fview?usp=sharing) | [ECCV 5分钟演讲](https:\u002F\u002Fyoutu.be\u002Fqdp-NYqWQpA) | [论文中文介绍](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F568553080) | [反驳意见（2WA1WR->3WA）](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16IVjwRpwbTuJbYyTn4PizKX8I257QxY-\u002Fview?usp=sharing) \n\n**置顶软件：[RIFE-App](https:\u002F\u002Fgrisk.itch.io\u002Frife-app) | [FlowFrames](https:\u002F\u002Fnmkd.itch.io\u002Fflowframes) | [SVFI（中文）](https:\u002F\u002Fgithub.com\u002FYiWeiHuang-stack\u002FSquirrel-Video-Frame-Interpolation)**\n\n两张输入图像的16倍插帧结果：\n\n![演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhzwer_ECCV2022-RIFE_readme_e9f562b69623.gif)\n![演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhzwer_ECCV2022-RIFE_readme_5fea1d4b914d.gif)\n\n## 软件\n[Flowframes](https:\u002F\u002Fnmkd.itch.io\u002Fflowframes) | [SVFI（中文）](https:\u002F\u002Fgithub.com\u002FYiWeiHuang-stack\u002FSquirrel-Video-Frame-Interpolation) | [Waifu2x-Extension-GUI](https:\u002F\u002Fgithub.com\u002FAaronFeng753\u002FWaifu2x-Extension-GUI) | [Autodesk Flame](https:\u002F\u002Fvimeo.com\u002F505942142) | [SVP](https:\u002F\u002Fwww.svp-team.com\u002Fwiki\u002FRIFE_AI_interpolation) | [mpv_PlayKit](https:\u002F\u002Fgithub.com\u002Fhooke007\u002Fmpv_PlayKit) | [enhancr](https:\u002F\u002Fgithub.com\u002Fmafiosnik777\u002Fenhancr)\n\n[RIFE-App（付费）](https:\u002F\u002Fgrisk.itch.io\u002Frife-app) | [Steam-VFI（付费）](https:\u002F\u002Fstore.steampowered.com\u002Fapp\u002F1692080\u002FSVFI\u002F) \n\n我们不对上述软件的开发负责，也不参与其中。根据开源许可协议，我们尊重其他开发者们的商业行为。\n\n[VapourSynth-RIFE](https:\u002F\u002Fgithub.com\u002FHolyWu\u002Fvs-rife) | [RIFE-ncnn-vulkan](https:\u002F\u002Fgithub.com\u002Fnihui\u002Frife-ncnn-vulkan) | [VapourSynth-RIFE-ncnn-Vulkan](https:\u002F\u002Fgithub.com\u002Fstyler00dollar\u002FVapourSynth-RIFE-ncnn-Vulkan) | [vs-mlrt](https:\u002F\u002Fgithub.com\u002FAmusementClub\u002Fvs-mlrt)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhzwer_ECCV2022-RIFE_readme_e62fb13064d8.png\" height=\"320\" width=\"480\" \u002F>\n\n如果你是一名开发者，欢迎关注[Practical-RIFE](https:\u002F\u002Fgithub.com\u002Fhzwer\u002FPractical-RIFE)，该项目旨在通过添加各种功能和设计更快速度的新模型，使RIFE对用户更加实用。\n\n你可以查看[这个pull request](https:\u002F\u002Fgithub.com\u002Fmegvii-research\u002FECCV2022-RIFE\u002Fpull\u002F300)以获得对macOS的支持。\n## CLI使用\n\n### 安装\n\n```\ngit clone git@github.com:megvii-research\u002FECCV2022-RIFE.git\ncd ECCV2022-RIFE\npip3 install -r requirements.txt\n```\n\n* 从[这里](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1APIzVeI-4ZZCEuIRE1m6WYfSCaOsi_7_\u002Fview?usp=sharing)下载预训练的**HD**模型。（百度网盘链接:https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=u6Q7-i4Hu4Vx9_5BJibPPA 密码:hfk3，将压缩包解压后放入train_log\u002F\\*)\n\n* 解压并将预训练参数移动到train_log\u002F\\*\n\n* 该模型并未在我们的论文中报告，关于论文中的模型请参考[评估部分](https:\u002F\u002Fgithub.com\u002Fhzwer\u002FECCV2022-RIFE#evaluation)。\n\n### 运行\n\n**视频帧插值**\n\n你可以使用我们的[示例视频](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1i3xlKb7ax7Y70khcTcuePi6E7crO_dFc\u002Fview?usp=sharing)或你自己的视频。\n```\npython3 inference_video.py --exp=1 --video=video.mp4 \n```\n（生成video_2X_xxfps.mp4）\n```\npython3 inference_video.py --exp=2 --video=video.mp4\n```\n（进行4倍插帧）\n```\npython3 inference_video.py --exp=1 --video=video.mp4 --scale=0.5\n```\n（如果你的视频分辨率非常高，比如4K，我们建议设置--scale=0.5（默认为1.0）。如果生成的视频出现杂乱的图案，可以尝试将--scale设为2.0。该参数控制光流模型的处理分辨率。）\n```\npython3 inference_video.py --exp=2 --img=input\u002F\n```\n（从png文件读取视频，例如input\u002F0.png ... input\u002F612.png，确保png文件名是数字顺序排列的）\n```\npython3 inference_video.py --exp=2 --video=video.mp4 --fps=60\n```\n（添加慢动作效果，音频会被移除）\n```\npython3 inference_video.py --video=video.mp4 --montage --png\n```\n（如果你想将原视频拼接起来并保存为png格式的输出）\n\n**扩展应用**\n\n你可以参考[#278](https:\u002F\u002Fgithub.com\u002Fmegvii-research\u002FECCV2022-RIFE\u002Fissues\u002F278#event-7199085190)了解**光流估计**，以及参考[#291](https:\u002F\u002Fgithub.com\u002Fhzwer\u002FECCV2022-RIFE\u002Fissues\u002F291#issuecomment-1328685348)了解**视频拼接**。\n\n**图像插值**\n\n```\npython3 inference_img.py --img img0.png img1.png --exp=4\n```\n（2^4=16倍插帧结果）\n之后，你可以使用png文件生成mp4：\n```\nffmpeg -r 10 -f image2 -i output\u002Fimg%d.png -s 448x256 -c:v libx264 -pix_fmt yuv420p output\u002Fslomo.mp4 -q:v 0 -q:a 0\n```\n你也可以用png文件生成gif：\n```\nffmpeg -r 10 -f image2 -i output\u002Fimg%d.png -s 448x256 -vf \"split[s0][s1];[s0]palettegen=stats_mode=single[p];[s1][p]paletteuse=new=1\" output\u002Fslomo.gif\n```\n\n### 在docker中运行\n将预训练模型放置在`train_log\u002F\\*.pkl`中（如上所述）。\n\n构建容器：\n```\ndocker build -t rife -f docker\u002FDockerfile .\n```\n\n运行容器：\n```\ndocker run --rm -it -v $PWD:\u002Fhost rife:latest inference_video --exp=1 --video=untitled.mp4 --output=untitled_rife.mp4\n```\n```\ndocker run --rm -it -v $PWD:\u002Fhost rife:latest inference_img --img img0.png img1.png --exp=4\n```\n\n使用GPU加速（需要为docker配置合适的GPU驱动程序）：\n```\ndocker run --rm -it --gpus all -v \u002Fdev\u002Fdri:\u002Fdev\u002Fdri -v $PWD:\u002Fhost rife:latest inference_video --exp=1 --video=untitled.mp4 --output=untitled_rife.mp4\n```\n\n## 评估\n下载我们论文中提到的 [RIFE 模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1h42aGYPNJn2q8j_GVkS_yDu__G_UZ2GX\u002Fview?usp=sharing) 或 [RIFE_m 模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F147XVsDXBfJPlyct2jfo9kpbL944mNeZr\u002Fview?usp=sharing)。\n\n**UCF101**: 在 .\u002FUCF101\u002Fucf101_interp_ours\u002F 下载 [UCF101 数据集](https:\u002F\u002Fliuziwei7.github.io\u002Fprojects\u002FVoxelFlow)。\n\n**Vimeo90K**: 在 .\u002Fvimeo_interp_test 下载 [Vimeo90K 数据集](http:\u002F\u002Ftoflow.csail.mit.edu\u002F)。\n\n**MiddleBury**: 在 .\u002Fother-data 和 .\u002Fother-gt-interp 下载 [MiddleBury OTHER 数据集](https:\u002F\u002Fvision.middlebury.edu\u002Fflow\u002Fdata\u002F)。\n\n**HD**: 在 .\u002FHD_dataset 下载 [HD 数据集](https:\u002F\u002Fgithub.com\u002Fbaowenbo\u002FMEMC-Net)。我们还提供一个 [google drive 下载链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1iHaLoR2g1-FLgr9MEv51NH_KQYMYz-FA\u002Fview?usp=sharing)。\n```\n# RIFE\npython3 benchmark\u002FUCF101.py\n# \"PSNR: 35.282 SSIM: 0.9688\"\npython3 benchmark\u002FVimeo90K.py\n# \"PSNR: 35.615 SSIM: 0.9779\"\npython3 benchmark\u002FMiddleBury_Other.py\n# \"IE: 1.956\"\npython3 benchmark\u002FHD.py\n# \"PSNR: 32.14\"\n\n# RIFE_m\npython3 benchmark\u002FHD_multi_4X.py\n# \"PSNR: 22.96(544*1280), 31.87(720p), 34.25(1080p)\"\n```\n\n## 训练与复现\n下载 [Vimeo90K 数据集](http:\u002F\u002Ftoflow.csail.mit.edu\u002F)。\n\n我们使用 16 核 CPU、4 张 GPU 和 20GB 内存进行训练：\n```\npython3 -m torch.distributed.launch --nproc_per_node=4 train.py --world_size=4\n```\n\n## 版本历史\n\n2021年3月18日 [arXiv](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2011.06294v5.pdf): 修改主要实验数据，尤其是与运行时间相关的问题。\n\n2021年8月12日 [arXiv](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2011.06294v6.pdf): 移除预训练模型依赖，并提出用于帧插值的特权蒸馏方案。移除 [census loss](https:\u002F\u002Fgithub.com\u002Fhzwer\u002FarXiv2021-RIFE\u002Fblob\u002F0e241367847a0895748e64c6e1604c94db54d395\u002Fmodel\u002Floss.py#L20) 监督。\n\n2021年11月17日 [arXiv](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2011.06294v11.pdf): 支持任意时间点的帧插值，即 RIFEm，并增加了更多实验。\n\n## 推荐\n我们诚挚推荐以下相关论文：\n\nCVPR22 - [通过视频帧插值优化视频预测](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2022\u002Fhtml\u002FWu_Optimizing_Video_Prediction_via_Video_Frame_Interpolation_CVPR_2022_paper.html)\n\nCVPR22 - [基于 Transformer 的视频帧插值](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2022\u002Fhtml\u002FLu_Video_Frame_Interpolation_With_Transformer_CVPR_2022_paper.html)\n\nCVPR22 - [IFRNet：用于高效帧插值的中间特征精炼网络](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2022\u002Fhtml\u002FKong_IFRNet_Intermediate_Feature_Refine_Network_for_Efficient_Frame_Interpolation_CVPR_2022_paper.html)\n\nCVPR23 - [用于视频预测的动态多尺度体素流网络](https:\u002F\u002Fhuxiaotaostasy.github.io\u002FDMVFN\u002F)\n\nCVPR23 - [通过帧间注意力提取运动和外观信息以实现高效视频帧插值](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.00440)\n\n## 引用\n如果您认为本项目有所帮助，请随时点赞或引用我们的论文：\n\n```\n@inproceedings{huang2022rife,\n  title={实时视频帧插值中的中间光流估计},\n  author={Huang, Zhewei and Zhang, Tianyuan and Heng, Wen and Shi, Boxin and Zhou, Shuchang},\n  booktitle={欧洲计算机视觉会议（ECCV）论文集},\n  year={2022}\n}\n```\n\n## 参考文献\n\n光流：\n[ARFlow](https:\u002F\u002Fgithub.com\u002Flliuz\u002FARFlow)  [pytorch-liteflownet](https:\u002F\u002Fgithub.com\u002Fsniklaus\u002Fpytorch-liteflownet)  [RAFT](https:\u002F\u002Fgithub.com\u002Fprinceton-vl\u002FRAFT)  [pytorch-PWCNet](https:\u002F\u002Fgithub.com\u002Fsniklaus\u002Fpytorch-pwc)\n\n视频插值：\n[DVF](https:\u002F\u002Fgithub.com\u002Flxx1991\u002Fpytorch-voxel-flow)  [TOflow](https:\u002F\u002Fgithub.com\u002FColdog2333\u002Fpytoflow)  [SepConv](https:\u002F\u002Fgithub.com\u002Fsniklaus\u002Fsepconv-slomo)  [DAIN](https:\u002F\u002Fgithub.com\u002Fbaowenbo\u002FDAIN)  [CAIN](https:\u002F\u002Fgithub.com\u002Fmyungsub\u002FCAIN)  [MEMC-Net](https:\u002F\u002Fgithub.com\u002Fbaowenbo\u002FMEMC-Net)   [SoftSplat](https:\u002F\u002Fgithub.com\u002Fsniklaus\u002Fsoftmax-splatting)  [BMBC](https:\u002F\u002Fgithub.com\u002FJunHeum\u002FBMBC)  [EDSC](https:\u002F\u002Fgithub.com\u002FXianhang\u002FEDSC-pytorch)  [EQVI](https:\u002F\u002Fgithub.com\u002Flyh-18\u002FEQVI)","# ECCV2022-RIFE 快速上手指南\n\nRIFE (Real-Time Intermediate Flow Estimation) 是一个用于视频帧插值的开源项目，能够实现实时的视频慢动作生成和任意时间步的图像插值。在 2080Ti GPU 上，对 720p 视频进行 2 倍插值可达到 30+ FPS。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐), macOS (需参考特定 PR), Windows (建议通过 WSL2 或 Docker 运行)\n*   **硬件要求**: NVIDIA GPU (支持 CUDA)，显存建议 4GB 以上（高分辨率视频需更大显存）\n*   **软件依赖**:\n    *   Python 3.6+\n    *   PyTorch (支持 CUDA 版本)\n    *   FFmpeg (用于视频读写)\n    *   Git\n\n## 安装步骤\n\n### 1. 克隆项目代码\n```bash\ngit clone git@github.com:megvii-research\u002FECCV2022-RIFE.git\ncd ECCV2022-RIFE\n```\n\n### 2. 安装 Python 依赖\n建议使用国内镜像源加速安装：\n```bash\npip3 install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 3. 下载预训练模型\n本项目推荐使用 **HD** 模型以获得更好的通用效果。\n*   **下载地址**: [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1APIzVeI-4ZZCEuIRE1m6WYfSCaOsi_7_\u002Fview?usp=sharing) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=u6Q7-i4Hu4Vx9_5BJibPPA) (提取码: `hfk3`)\n*   **部署方法**: 下载压缩包后解压，将得到的参数文件移动到 `train_log\u002F` 目录下。\n\n## 基本使用\n\n### 视频帧插值 (Video Frame Interpolation)\n将视频帧率翻倍（2X 插值）。请确保当前目录下有名为 `video.mp4` 的视频文件，或修改命令中的路径。\n\n```bash\npython3 inference_video.py --exp=1 --video=video.mp4\n```\n*   输出文件为 `video_2X_xxfps.mp4`。\n*   **4 倍插值**: 将 `--exp` 设为 2 (`--exp=2`)。\n*   **高分辨率优化**: 如果处理 4K 等高分辨率视频出现显存不足或图案错乱，可添加 `--scale=0.5` 参数降低光流模型的处理分辨率。\n\n### 图像帧插值 (Image Interpolation)\n在两张静态图片之间生成过渡帧（例如生成 16 倍插值结果）。\n\n```bash\npython3 inference_img.py --img img0.png img1.png --exp=4\n```\n*   该命令会在 `output\u002F` 目录生成一系列 PNG 图片。\n*   `--exp=4` 表示 $2^4=16$ 倍插值。\n\n**后续操作（可选）**: 使用 FFmpeg 将生成的图片序列合并为视频或 GIF：\n```bash\n# 生成 MP4\nffmpeg -r 10 -f image2 -i output\u002Fimg%d.png -s 448x256 -c:v libx264 -pix_fmt yuv420p output\u002Fslomo.mp4 -q:v 0 -q:a 0\n\n# 生成 GIF\nffmpeg -r 10 -f image2 -i output\u002Fimg%d.png -s 448x256 -vf \"split[s0][s1];[s0]palettegen=stats_mode=single[p];[s1][p]paletteuse=new=1\" output\u002Fslomo.gif\n```\n\n### Docker 运行 (可选)\n如果本地环境配置困难，可使用 Docker 运行（需提前将模型放入 `train_log\u002F`）：\n\n```bash\n# 构建镜像\ndocker build -t rife -f docker\u002FDockerfile .\n\n# 运行视频插值 (CPU)\ndocker run --rm -it -v $PWD:\u002Fhost rife:latest inference_video --exp=1 --video=untitled.mp4 --output=untitled_rife.mp4\n\n# 运行视频插值 (GPU 加速)\ndocker run --rm -it --gpus all -v \u002Fdev\u002Fdri:\u002Fdev\u002Fdri -v $PWD:\u002Fhost rife:latest inference_video --exp=1 --video=untitled.mp4 --output=untitled_rife.mp4\n```","一位独立动画创作者需要将一段由 AI 生成的 24 帧\u002F秒短视频转化为流畅的 60 帧\u002F秒高帧率作品，以适配现代显示设备并提升视觉质感。\n\n### 没有 ECCV2022-RIFE 时\n- **画面卡顿生硬**：传统插值算法（如光学流线性估算）在处理大动态场景时，无法准确预测中间帧，导致动作转折处出现明显的顿挫感。\n- **伪影与撕裂严重**：在角色快速移动或背景复杂变化时，生成的中间帧容易出现物体边缘撕裂、重影或奇怪的形变，破坏画面完整性。\n- **渲染效率低下**：现有高精度方案往往计算量巨大，在普通消费级显卡（如 RTX 2080Ti）上处理 720p 视频难以达到实时速度，大幅延长制作周期。\n- **时间步长受限**：大多数工具仅支持固定的倍率插值，无法灵活指定任意时间点生成帧，限制了后期调速的自由度。\n\n### 使用 ECCV2022-RIFE 后\n- **丝滑流畅体验**：利用其实时中间流估计技术，能精准推算任意两帧间的运动轨迹，将 24 帧视频无损升级为 60 帧甚至更高，动作如丝绸般顺滑。\n- **细节完美保留**：针对动漫及扩散模型生成视频优化的模型版本，有效消除了快速运动下的伪影和撕裂，确保角色轮廓清晰、背景稳定。\n- **实时高效处理**：在主流 GPU 上可实现 30+ FPS 的 2 倍 720p 插值速度，大幅缩短等待时间，让创作者能快速迭代不同参数效果。\n- **灵活任意插值**：支持在两帧之间生成任意时间步长的中间帧，不仅可用于升帧，还能轻松实现精细的慢动作特效控制。\n\nECCV2022-RIFE 通过高精度的实时流估计，以极低的算力成本解决了视频插值中的卡顿与伪影难题，让高质量高帧率视频制作变得触手可及。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhzwer_ECCV2022-RIFE_833a19d4.png","hzwer","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhzwer_afcaad10.jpg",null,"@stepfun-ai","https:\u002F\u002Fscholar.google.com.hk\u002Fcitations?user=zJEkaG8AAAAJ&hl=zh-CN&oi=ao","https:\u002F\u002Fgithub.com\u002Fhzwer",[21,25,29,33],{"name":22,"color":23,"percentage":24},"Python","#3572A5",96.6,{"name":26,"color":27,"percentage":28},"Jupyter Notebook","#DA5B0B",2.9,{"name":30,"color":31,"percentage":32},"Dockerfile","#384d54",0.4,{"name":34,"color":35,"percentage":36},"Shell","#89e051",0.1,5383,534,"2026-04-18T15:39:33","MIT",3,"Linux, macOS, Windows","需要 NVIDIA GPU（官方测试基于 2080Ti），支持 CUDA 加速；Docker 运行需配置 GPU 驱动。显存需求未明确说明，但高分辨率视频建议降低缩放比例 (--scale)。","训练环境推荐 20GB+；推理环境未明确说明最低需求",{"notes":46,"python":47,"dependencies":48},"1. 首次运行前需手动下载预训练模型文件（HD 模型等）并解压至 train_log\u002F 目录。\n2. 项目提供 Docker 支持，可通过 Dockerfile 构建容器运行。\n3. macOS 用户可参考特定的 Pull Request (#300) 获取支持。\n4. 处理 4K 等高分辨率视频时，建议添加 --scale=0.5 参数以避免显存不足或生成混乱图案。\n5. 训练复现需要 16 核 CPU、4 张 GPU 和 20GB 内存的环境。","3.x (通过 pip3 和 python3 命令推断)",[49,50,51,52,53],"torch","numpy","opencv-python","Pillow","tqdm",[55,56,57],"开发框架","视频","图像",[59,60,61,62,63],"video-interpolation","computer-vision","slomo-filter","deep-learning","aigc",2,"ready","2026-03-27T02:49:30.150509","2026-04-19T15:38:05.672841",[69,74,79,84,89,94],{"id":70,"question_zh":71,"answer_zh":72,"source_url":73},42425,"RIFE 是否支持非整数倍率的帧插值（例如将 24fps 视频转换为 60fps）？","原生 RIFE 主要支持 2x, 4x, 8x 等整数倍率。若要实现 24fps 到 60fps 的转换，可以使用支持非整数插值的分支版本。参考 Practical-RIFE 的相关文档：https:\u002F\u002Fgithub.com\u002FGACLove\u002FPractical-RIFE\u002Fblob\u002Fsupport-non-integer-interp\u002FREADME_NonInteger_Interpolation.md。此外，像 Flowframes 这样的第三方工具也集成了该功能（通常标记为 rife-v4），可以直接使用。","https:\u002F\u002Fgithub.com\u002Fhzwer\u002FECCV2022-RIFE\u002Fissues\u002F196",{"id":75,"question_zh":76,"answer_zh":77,"source_url":78},42426,"训练代码已发布吗？在哪里可以找到？","是的，维护者已经发布了训练代码和相关 README 文档。用户可以直接在仓库中查找。如果有其他具体的训练问题，可以新建 Issue 提问。注意：虽然存在实时生成光流的方法（如 pyflow\u002FSTAR），但作者测试发现这会使训练时间增加一倍，因此当前实现可能未采用此策略以平衡效率。","https:\u002F\u002Fgithub.com\u002Fhzwer\u002FECCV2022-RIFE\u002Fissues\u002F7",{"id":80,"question_zh":81,"answer_zh":82,"source_url":83},42427,"如何使用 RIFE 处理带有透明通道（Alpha Channel）的 PNG 图片或 GIF？","RIFE 已支持透明通道。在使用 inference_video.py 进行推理时，需要添加 --png 参数。如果输出仍然是白色背景而非透明，可能是因为缺少 IMREAD_UNCHANGED 标志。确保在代码或调用中启用了该标志以保留 Alpha 通道。对于 GIF 插值，同样适用此逻辑，输出将为一系列透明 PNG。","https:\u002F\u002Fgithub.com\u002Fhzwer\u002FECCV2022-RIFE\u002Fissues\u002F91",{"id":85,"question_zh":86,"answer_zh":87,"source_url":88},42428,"运行训练脚本时遇到 'CUDA error: invalid device ordinal' 或 PyTorch 版本兼容性问题怎么办？","这通常是因为指定的 GPU 数量与实际设备不符，或者 PyTorch 版本过新导致与旧的启动器不兼容。解决方法：1. 检查命令中的 --nproc_per_node 和 --world_size 参数，确保它们等于你实际拥有的 GPU 数量（例如只有 1 张卡就设为 1）。2. 尝试将 PyTorch 版本降级到 1.3 到 1.8 之间，或者更新到较新的稳定版（如 1.9+）以修复兼容性错误。命令示例：python3 -m torch.distributed.launch --nproc_per_node=1 train.py ...","https:\u002F\u002Fgithub.com\u002Fhzwer\u002FECCV2022-RIFE\u002Fissues\u002F202",{"id":90,"question_zh":91,"answer_zh":92,"source_url":93},42429,"如何训练任意时间点（time != 0.5）的模型？","如果需要训练任意时间点的模型，需要注意数据增广部分的逻辑。有用户反馈在交换 img0 和 img1 进行增广时，如果没有正确处理 '1 - timestep'，会导致训练错误。特别是在 t=0 时无法还原出原始图像 i0。需要检查并修改训练代码中关于时间步长处理的逻辑，确保在增广时正确计算对应的时间权重。","https:\u002F\u002Fgithub.com\u002Fhzwer\u002FECCV2022-RIFE\u002Fissues\u002F238",{"id":95,"question_zh":96,"answer_zh":97,"source_url":98},42430,"v3.8 模型在 Google Colab 或其他环境中崩溃或不兼容怎么办？","如果遇到 v3.8 模型崩溃的问题，很可能是因为 PyTorch 版本过低。有用户反馈将 PyTorch 从 1.8 升级到 1.9 后解决了该问题。请在你的环境（如 Colab）中执行升级操作。模型下载地址和详细信息请查阅官方模型列表：https:\u002F\u002Fgithub.com\u002Fhzwer\u002FPractical-RIFE#model-list。","https:\u002F\u002Fgithub.com\u002Fhzwer\u002FECCV2022-RIFE\u002Fissues\u002F176",[100],{"id":101,"version":102,"summary_zh":103,"released_at":104},334489,"arxiv_v5_code","https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.06294v5","2021-08-13T03:31:01",[106,116,124,133,141,150],{"id":107,"name":108,"github_repo":109,"description_zh":110,"stars":111,"difficulty_score":41,"last_commit_at":112,"category_tags":113,"status":65},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,"2026-04-06T06:32:30",[114,55,57,115],"Agent","数据工具",{"id":117,"name":118,"github_repo":119,"description_zh":120,"stars":121,"difficulty_score":41,"last_commit_at":122,"category_tags":123,"status":65},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[55,57,114],{"id":125,"name":126,"github_repo":127,"description_zh":128,"stars":129,"difficulty_score":64,"last_commit_at":130,"category_tags":131,"status":65},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160411,"2026-04-18T23:33:24",[55,114,132],"语言模型",{"id":134,"name":135,"github_repo":136,"description_zh":137,"stars":138,"difficulty_score":64,"last_commit_at":139,"category_tags":140,"status":65},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[55,57,114],{"id":142,"name":143,"github_repo":144,"description_zh":145,"stars":146,"difficulty_score":64,"last_commit_at":147,"category_tags":148,"status":65},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[149,114,57,55],"插件",{"id":151,"name":152,"github_repo":153,"description_zh":154,"stars":155,"difficulty_score":64,"last_commit_at":156,"category_tags":157,"status":65},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[149,55]]