[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-murari023--awesome-background-subtraction":3,"tool-murari023--awesome-background-subtraction":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":81,"stars":84,"forks":85,"last_commit_at":86,"license":81,"difficulty_score":87,"env_os":88,"env_gpu":89,"env_ram":89,"env_deps":90,"category_tags":93,"github_topics":94,"view_count":23,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":100,"updated_at":101,"faqs":102,"releases":103},4009,"murari023\u002Fawesome-background-subtraction","awesome-background-subtraction","A curated list of background subtraction related papers and resources","awesome-background-subtraction 是一个专注于“背景减除”技术的精选资源库，旨在帮助开发者和研究人员高效地从视频序列中分离移动物体与静态背景。在智能监控、交通分析及无人机巡检等场景中，准确识别动态目标至关重要，但光照变化、动态背景（如摇曳的树叶）及摄像头抖动往往让传统算法难以应对。该资源库系统性地整理了从经典非深度学习方法到前沿深度学习、生成对抗网络（GAN）相关的学术论文、开源代码、数据集及行业项目，并按年份和技术路线清晰分类。\n\n无论是希望快速复现最新算法的工程师，还是致力于探索变化检测新范式的研究学者，都能在这里找到极具价值的参考。其独特亮点在于不仅收录了 CVPR、IEEE TPAMI 等顶会顶刊的高质量论文，还特别关注了“场景独立性”这一难点，提供了大量无需针对特定场景重新训练即可通用的模型资源。通过汇聚全球顶尖学者的成果与实用工具，awesome-background-subtraction 极大地降低了进入该领域的门槛，是计算机视觉从业者不可或缺的知识导航站。","# awesome-background-subtraction\nA curated list of background subtraction papers and related applications resources\n\n## Upcoming Deadlines for Computer Vision Conferences\n\n- **CVPR** - 16 November\n  \n## Contents\n - [Deep Learning based Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#deep-learning-based-papers)\n - [GAN Based Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction\u002Fblob\u002Fmaster\u002FREADME.md#gan-based-papers)\n - [Non-Deep Learning based Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#non-deep-learning-based-papers)\n - [Review\u002Fsurvey papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#reviewsurvey-papers)\n - [Datasets](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#datasets)\n - [Awesome Researchers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#awesome-researchers)\n - [Awesome Resources](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#awesome-resources)\n - [Projects](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction\u002Fblob\u002Fmaster\u002FREADME.md#projects)\n\n## Deep Learning based Papers\n[2021 Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2021-papers), [2020 Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2020-papers), [2019 Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2019-papers), [2018 Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2018-papers), [2017 Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2017-papers), [2016 Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2016-papers)\n\n## 2021 Papers\n- [2021 - An Empirical Review of Deep Learning Frameworks for Change Detection: Model Design, Experimental Frameworks, Challenges and Research Needs](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.01342) (**IEEE Transactions on Intelligent Transportation System**)\n- [2021 - BSUV-Net 2.0: Spatio-Temporal Data Augmentations for Video-Agnostic Supervised Background Subtraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.09585) (**IEEE Access**)\n- [2021 - Multi-Frame Recurrent Adversarial Network for Moving Object Segmentation](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FWACV2021\u002Fpapers\u002FPatil_Multi-Frame_Recurrent_Adversarial_Network_for_Moving_Object_Segmentation_WACV_2021_paper.pdf) (**CVPR-2021**)\n- [2021 - Deep Adversarial Network for Scene Independent Moving Object Segmentation](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9353975) (**IEEE Signal Processing Letters**)\n- [2021 - End-to-End Recurrent Generative Adversarial Network for Traffic and Surveillance Applications](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9288640) (**IEEE Transactions on Vehicular Technology**)\n\n\n## 2020 Papers\n - [2020 - Graph Moving Object Segmentation](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9288631) (**2020 - IEEE Transactions on Pattern Analysis and Machine Intelligence**) [**Source Code**](https:\u002F\u002Fgithub.com\u002Fjhonygiraldo\u002FGraphMOS)\n - [2020 - Scene Independency Matters: An Empirical Study of Scene Dependent and Scene Independent Evaluation for CNN-Based Change Detection](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9238403) (**2020 - IEEE Transactions on Intelligent Transportation Systems**)\n - [2020 - 3DCD: A Scene Independent End-to-End Spatiotemporal Feature Learning Framework for Change Detection in Unseen Videos](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9263106)(**2020 - IEEE Transactions on Image Processing**)\n - [2020 - MOR-UAV: A Benchmark Dataset and Baselines for Moving Object Recognition in UAV Videos](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3394171.3413934) (**ACM-MM 2020**)\n - [2020 - An End-to-End Edge Aggregation Network for Moving Object Segmentation](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FPatil_An_End-to-End_Edge_Aggregation_Network_for_Moving_Object_Segmentation_CVPR_2020_paper.pdf) (**CVPR-2020**)\n - [2020 - MotionRec: Unified Deep Framework for Moving Object Recognition](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_WACV_2020\u002Fhtml\u002FMandal_MotionRec_A_Unified_Deep_Framework_for_Moving_Object_Recognition_WACV_2020_paper.html) (**WACV 2020**) [**Source Code**](https:\u002F\u002Fgithub.com\u002Flav-kush\u002FMotionRec) \n  - [2020 - BSUV-Net: A Fully-Convolutional Neural Network for Background Subtraction of Unseen Videos](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_WACV_2020\u002Fpapers\u002FTezcan_BSUV-Net_A_Fully-Convolutional_Neural_Network_for_Background_Subtraction_of_Unseen_WACV_2020_paper.pdf)(**WACV 2020**)[**Source Code**](https:\u002F\u002Fgithub.com\u002Fozantezcan\u002FBSUV-Net-inference)\n  - [2020 - Semi-supervised Background Subtraction of Unseen Videos: Minimization of the Total Variation of Graph Signals](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9190887) (**ICIP 2020**)\n\n## 2019 Papers\n### Journals\n - [2019 - 3DFR: A Swift 3D Feature Reductionist Framework for Scene Independent Change Detection](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8894435) (**2019 - IEEE Signal Processing Letters**) \n - [2019 - vsEnDec: An improved image to image CNN for foreground localization](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8854330) (**2019 - IEEE Transactions on Intelligent Transportation Systems**) \n - [2019 - Deep neural network concepts for background subtraction: A systematic review and comparative evaluation](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0893608019301303) (**2019 - Neural Networks, Elsevier**) \n - [2019 - Panoramic Background Image Generation for PTZ Cameras](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8625516) (**2019 - IEEE Transactions on Image Processing**) \n - [2019 - Moving Object Detection Through Image Bit-Planes Representation Without Thresholding](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8694958) (**2019 - IEEE Transactions on Intelligent Transportation Systems**) \n - [2019 - Rapid and Robust Background Modeling Technique for Low-Cost Road Traffic Surveillance Systems](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8725944) (**2019 -  IEEE Transactions on Intelligent Transportation Systems**) \n - [2019 - Video Foreground Extraction Using Multi-View Receptive Field and Encoder–Decoder DCNN for Traffic and Surveillance Applications](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8809739) (**2019 - IEEE Transactions on Vehicular Technology**) \n - [2019 - Foreground Segmentation Using Adaptive 3 Phase Background Model](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8782599) (**2019 - IEEE Transactions on Intelligent Transportation Systems**) \n - [2019 - A 3D CNN-LSTM-Based Image-to-Image Foreground Segmentation](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8671459\u002F) (**2019 - IEEE Transactions on Intelligent Transportation Systems**) \n - [2019 - Salient Features for Moving Object Detection in Adverse Weather Conditions during Night Time](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8752366) (**2019 - IEEE Transactions on Circuits and Systems for Video Technology**) \n - [2019 - Illumination-Aware Multi-Task GANs for Foreground Segmentation](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8606933\u002F) (**2019 - IEEE Access**) \n - [2019 - Moving object detection in complex scene using spatiotemporal structured-sparse RPCA](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F83\u002F4358840\u002F08485415) (**2019 - IEEE Transactions on Image Processing**) \n - [2019 - Refining background subtraction using consistent motion detection in adverse weather](https:\u002F\u002Fwww.spiedigitallibrary.org\u002Fjournals\u002FJournal-of-Electronic-Imaging\u002Fvolume-28\u002Fissue-2\u002F020501\u002FRefining-background-subtraction-using-consistent-motion-detection-in-adverse-weather\u002F10.1117\u002F1.JEI.28.2.020501.short?SSO=1) (**2019 - Journal of Electronic Imaging**) \n - [2019 - DeepPBM: Deep Probabilistic Background Model Estimation from Video Sequences](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1902.00820) (**2019 - Arxiv**) \n  - [2019 - Combining Background Subtraction Algorithms with Convolutional Neural Network](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.02080) (**2019 - Journal of Electronic Imaging**) \n\n### Conferences\n - [2019 - An end-to-end deep learning approach for simultaneous background modeling and subtraction](https:\u002F\u002Fbmvc2019.org\u002Fwp-content\u002Fuploads\u002Fpapers\u002F0984-paper.pdf) (**BMVC 2019**)\n - [2019 - Simple background subtraction constraint for weakly supervised background subtraction network](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8909896) (**AVSS 2019**)\n - [2019 - Unsupervised moving object detection via contextual information separation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1901.03360) (**CVPR 2019**) \n - [2019 - Learning to See Moving Objects in the Dark](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FJiang_Learning_to_See_Moving_Objects_in_the_Dark_ICCV_2019_paper.pdf) (**ICCV - 2019**) \n - [2019 - Motion Saliency Based Generative Adversarial Network for Underwater Moving Object Segmentation](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8803091) (**ICIP 2019**) \n - [2019 - FgGAN: A Cascaded Unpaired Learning for Background Estimation and Foreground Segmentation](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8659177) (**WACV 2019**) \n - [2019 - Robust Change Captioning](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FPark_Robust_Change_Captioning_ICCV_2019_paper.pdf) (**CVPR-2019**) \n - [2019 - Panoramic Video Separation with Online Grassmannian Robust Subspace Estimation](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCVW_2019\u002Fpapers\u002FRSL-CV\u002FGilman_Panoramic_Video_Separation_with_Online_Grassmannian_Robust_Subspace_Estimation_ICCVW_2019_paper.pdf) (**ICCV 2019**) \n - [2019 - Rapid Technique to Eliminate Moving Shadows for Accurate Vehicle Detection](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8659208\u002F) (**WACV 2019**) \n - [2019 - Online and batch supervised background estimation via L1 regression](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8659272\u002F) (**WACV 2019**) \n - [2019 - TU-VDN: Tripura University Video Dataset at Night Time in Degraded Atmospheric Outdoor Conditions for Moving Object Detection](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8804411\u002F) (**ICIP 2019**) \n - [2019 - Detection of Dynamic Objects in Videos Using LBSP and Fuzzy Gray Level Difference Histograms](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8858967\u002F) (**FUZZ-2019**) \n - [2019 - Moving Object Detection Under Discontinuous Change in Illumination Using Tensor Low-Rank and Invariant Sparse Decomposition](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FShakeri_Moving_Object_Detection_Under_Discontinuous_Change_in_Illumination_Using_Tensor_CVPR_2019_paper.pdf) (**CVPR - 2019**) \n \n## 2018 Papers\n### Journals\n- [2018 - MSFgNet: A Novel Compact End-to-End Deep Network for Moving Object Detection](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8546771) (**2019 -  IEEE Transactions on Intelligent Transportation Systems**)\n- [2018 - A Foreground Inference Network for Video Surveillance Using Multi-View Receptive Field](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.06593) (**Arxiv-2018**)\n- [2018 - Change Detection by Training a Triplet Network for Motion Feature Extraction](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8263554\u002F) (**2018 - IEEE Transactions on Circuits and Systems for Video Technology**)\n- [2018 - Multiscale Fully Convolutional Network for Foreground Object Detection in Infrared Videos](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8288813\u002F) (**2018 - IEEE Geoscience and Remote Sensing Letters**)\n- [2018 - Foreground Segmentation Using a Triplet Convolutional Neural Network for Multiscale Feature Encoding](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.02225), [**Source Code**](https:\u002F\u002Fgithub.com\u002Flim-anggun\u002FFgSegNet) (**2018-Arxiv**)\n- [2018 - Deep Background Modeling Using Fully Convolutional Network](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8100709\u002F) (**2018- IEEE Transactions on Intelligent Transportation Systems**)\n- [2018 - A deep convolutional neural network for video sequence background subtraction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.01731) (**2018-Pattern Recognition, Elsevier**)\n- [2018 - Foreground segmentation using convolutional neural networks for multiscale feature encoding](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0167865518303702) (**2018-Pattern Recognition Letters, Elsevier**)\n- [2018 - A 3D Atrous Convolutional Long Short-Term Memory Network for Background Subtraction](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8423055\u002Fsimilar) (**2018-IEEE Access**)\n- [2018 - A novel framework for background subtraction and foreground detection](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0031320318302371) (**2018-Pattern Recognition, Elsevier**)\n- [2018 - Learning Multi-scale Features for Foreground Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1808.01477) (**2018-Arxiv**)\n- [2018 - MPNET: An End-to-End Deep Neural Network for Object Detection in Surveillance Video](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8365094\u002F) (**2018-IEEE Access**)\n### Conference\n - [2018 - CANDID: Robust Change Dynamics and Deterministic Update Policy for Dynamic Background Subtraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.07008) (**ICPR-2018**)\n - [2018 - Learning Background Subtraction by Video Synthesis and Multi-scale Recurrent Networks](https:\u002F\u002Flink.springer.com\u002Fchapter\u002F10.1007\u002F978-3-030-20876-9_23) (**ACCV-2018**)\n - [2018 - Multi-scale Recurrent Encoder-Decoder Network for Dense Temporal Classification](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8545597) (**ICPR-2018**)\n - [2018 - MsEDNet: Multi-Scale Deep Saliency Learning for Moving Object Detection](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F8615119\u002F8615655\u002F08616285.pdf) (**SMC-2018**)\n - [2018 - BSCGAN: Deep Background Subtraction with Conditional Generative Adversarial Networks](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8451603\u002F) (**ICIP-2018**)\n - [2018 - Foreground Detection in Surveillance Video with Fully Convolutional Semantic Network](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8451816\u002F) (**ICIP-2018**)\n - [2018 - Local Compact Binary Patterns for Background Subtraction in Complex Scenes](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8545062) (**ICPR-2018**)\n - [2018 - A Co-occurrence Background Model with Hypothesis on Degradation Modification for Object Detection in Strong Background Changes](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8546132) (**ICPR-2018**)\n  - [2018 - Background Subtraction via 3D Convolutional Neural Networks](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8545320) (**ICPR-2018**)\n  - [2018 - ReMotENet Efficient Relevant Motion Event Detection for Large-scale Home Surveillance Videos](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.02031https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.02031) (**WACV-2018**)\n  \n## 2017 Papers\n- [2017 - End-to-end video background subtraction with 3D convolutional neural networks](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007%2Fs11042-017-5460-9)\n- [2017 - Foreground Segmentation for Anomaly Detection in Surveillance Videos Using Deep Residual Networks](http:\u002F\u002Fwww.sbrt.org.br\u002Fsbrt2017\u002Fanais\u002F1570360742.pdf), [**Source Code**](https:\u002F\u002Fgithub.com\u002Flpcinelli\u002Fforeground-segmentation)\n- [2017 - Learning deep structured network for weakly supervised change detection](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.02009)\n- [2017 - A Deep Convolutional Neural Network for Background Subtraction](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.01731)\n- [2017 - Analytics of deep neural network in change detection](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8078550\u002F)\n- [2017 - Background modelling based on generative unet](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8078483\u002F)\n- [2017 - Background subtraction using encoder-decoder structured convolutional neural network](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8078547\u002F)\n- [2017 - FusionSeg Learning to combine motion and appearance for fully automatic segmention of generic objects in videos](https:\u002F\u002Farxiv.org\u002Fabs\u002F1701.05384), [**Source Code**](https:\u002F\u002Fgithub.com\u002Fsuyogduttjain\u002Ffusionseg)\n- [2017 - Interactive deep learning method for segmenting moving objects](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0167865516302471), [**Source Code**](https:\u002F\u002Fgithub.com\u002Fzhimingluo\u002FMovingObjectSegmentation)\n- [2017 - Joint Background Reconstruction and Foreground Segmentation via a Two-Stage Convolutional Neural Network](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.07584)\n- [2017 - Pixel-wise Deep Sequence Learning for Moving Object Detection](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8097419\u002F)\n- [2017 - WiSARDrp for Change Detection in Video Sequences](https:\u002F\u002Fwww.elen.ucl.ac.be\u002FProceedings\u002Fesann\u002Fesannpdf\u002Fes2017-133.pdf) (**ESANN-2017**)\n## 2016 Papers\n- [2016 - Deep Background Subtraction with Scene-Specific Convolutional Neural Networks](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F7502717\u002F)\n\n## GAN Based Papers\n## 2018 Papers\n - [2019 - Illumination-Aware Multi-Task GANs for Foreground Segmentation](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8606933\u002F)\n- [2019 - FgGAN A Cascaded Unpaired Learning for Background Estimation and Foreground Segmentation](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8659177)\n- [2018 - BSCGAN: Deep Background Subtraction with Conditional Generative Adversarial Networks](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8451603\u002F)\n\n## Non-Deep Learning based Papers\n[Landmark Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#landmark-papers-in-background-subtraction), [2018 Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2018-papers-1), [2017 Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2017-papers-1), [2016 Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2016-papers-1), [2015 Papers](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2015-papers)\n### Landmark Papers in Background Subtraction\n - [2020 - Scene Independency Matters: An Empirical Study of Scene Dependent and Scene Independent Evaluation for CNN-Based Change Detection](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9238403) (**2020 - IEEE Transactions on Intelligent Transportation Systems**)\n- [2015 - SuBSENSE - A Universal Change Detection Method With Local Adaptive Sensitivity](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F6975239\u002F)\n- [2012 - PBAS - Background Segmentation with Feedback: The Pixel-Based Adaptive Segmenter](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F6238925\u002F)\n- [2011 - ViBe: A Universal Background Subtraction Algorithm for Video Sequences](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F5672785\u002F)\n- [2006 - A Texture-Based Method for Modeling the Background and Detecting Moving Objects](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F1597122\u002F)\n- [1999 - Adaptive background mixture models for real-time tracking](http:\u002F\u002Fwww.ai.mit.edu\u002Fprojects\u002Fvsam\u002FPublications\u002Fstauffer_cvpr98_track.pdf)\n- \n### 2018 Papers\n- [2018 - A Background Modeling and Foreground Detection Algorithm Using Scaling Coefficients Defined With a Color Model Called Lightness-Red-Green-Blue](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8118166\u002F)\n- [2018 - M4CD A Robust Change Detection Method for Intelligent Visual Surveillance](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.04979)\n- [2018 - CANDID:Robust Change Dynamics and Deterministic Update Policy for Dynamic Background Subtraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.07008)\n- [2018 - ANTIC: ANTithetic Isomeric Cluster Patterns for Medical Image Retrieval and Change Detection](https:\u002F\u002Fwww.researchgate.net\u002Fpublication\u002F327503209_ANTIC_ANTithetic_Isomeric_Cluster_Patterns_for_Medical_Image_Retrieval_and_Change_Detection)\n- [2018 - Multi-scale Recurrent Encoder-Decoder Network for Dense Temporal Classification](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F8527858\u002F8545020\u002F08545597.pdf)\n- [2018 - A New Foreground Segmentation Method for Video Analysis in Different Color Spaces](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F8527858\u002F8545020\u002F08545500.pdf) \n- [2018 - Background subtraction via 3D convolutional neural networks](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F8527858\u002F8545020\u002F08545320.pdf)\n- [2018 - Local Compact Binary Patterns for Background Subtraction in Complex Scenes](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F8527858\u002F8545020\u002F08545062.pdf)\n- [2018 - Unsupervised deep context prediction for background estimation and foreground segmentation](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FMaryam_Sultana\u002Fpublication\u002F328570879_Unsupervised_Deep_Context_Prediction_for_Background_Estimation_and_Foreground_Segmentation\u002Flinks\u002F5bfd469392851c78dfae933d\u002FUnsupervised-Deep-Context-Prediction-for-Background-Estimation-and-Foreground-Segmentation.pdf)\n### 2017 Papers\n\n## Review\u002Fsurvey Papers\n- [2021 - An Empirical Review of Deep Learning Frameworks for Change Detection: Model Design, Experimental Frameworks, Challenges and Research Needs](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.01342) (**IEEE Transactions on Intelligent Transportation System**)\n- [2019 - Background Subtraction in Real Applications: Challenges, Current Models and Future Directions](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.03577)\n- [2018 - New trend in video foreground detection using deep learning](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F8610060\u002F8623819\u002F08623825.pdf)\n- [2014 - Traditional and recent approaches in background modeling for foreground detection: An overview](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS1574013714000033)\n## Datasets\n- [Change Detection Net (CDNet)](http:\u002F\u002Fchangedetection.net\u002F)\n- [Scene Back Modelling (SBMNet)](http:\u002F\u002Fscenebackgroundmodeling.net\u002F)\n- [SBI](http:\u002F\u002Fsbmi2015.na.icar.cnr.it\u002FSBIdataset.html)\n- [SBM-RGBD](http:\u002F\u002Frgbd2017.na.icar.cnr.it\u002FSBM-RGBDdataset.html)\n- [Wallflower](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fpeople\u002Fjckrumm\u002F?from=http%3A%2F%2Fresearch.microsoft.com%2Fen-us%2Fum%2Fpeople%2Fjckrumm%2Fwallflower%2Ftestimages.htm)\n- [fish4knowledge](http:\u002F\u002Fgroups.inf.ed.ac.uk\u002Ff4k\u002F)\n- [MARDCT](http:\u002F\u002Flabrococo.dis.uniroma1.it\u002FMAR\u002F)\n- [MuHavi](http:\u002F\u002Fvelastin.dynu.com\u002FMuHAVi-MAS\u002F)\n- [LASIESTA](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS1077314216301138)\n\n\n## Awesome Researchers\n- [Thierry Bouwnmans](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fthierrybouwmans\u002F)\n- [Murari Mandal](https:\u002F\u002Fmurarimandal.github.io\u002Fpublications.html)\n- [Prashant W. Patil](https:\u002F\u002Fiitrpr.cvpr.in\u002F8\u002Fmy_blog\u002F)\n- [Sajid Javed](https:\u002F\u002Fsites.google.com\u002Fview\u002Fsajidjaved\u002Fhome)\n- \n## Awesome Resources\n- [bgslibrary](https:\u002F\u002Fgithub.com\u002Fandrewssobral\u002Fbgslibrary)\n- [MotionRec](https:\u002F\u002Fgithub.com\u002Flav-kush\u002FMotionRec)\n- [lrslibrary]( https:\u002F\u002Fgithub.com\u002Fandrewssobral\u002Flrslibrary)\n- [Background Subtraction Website by Thierry BOUWMANS](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fbackgroundsubtraction\u002Foverview)\n\n## Projects\n- [Background subtraction using deep learning method by [**Yiqi Yan**](https:\u002F\u002Fsaoyan.github.io\u002Fprojects\u002F)](https:\u002F\u002Fgithub.com\u002FSaoYan\u002FbgsCNN)\n\n## Contributions are always welcomed!\nIf you have any suggestions (missing papers, projects, source code, new papers, key researchers, dataset, etc.), please feel free to edit and pull a request. (or just let me know the title of paper)\n","# 令人惊叹的背景减除\n一份精心整理的背景减除论文及相关应用资源列表\n\n## 计算机视觉会议即将到来的截止日期\n\n- **CVPR** - 11月16日\n  \n## 目录\n - [基于深度学习的论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#deep-learning-based-papers)\n - [基于GAN的论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction\u002Fblob\u002Fmaster\u002FREADME.md#gan-based-papers)\n - [非深度学习方法的论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#non-deep-learning-based-papers)\n - [综述\u002F调查论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#reviewsurvey-papers)\n - [数据集](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#datasets)\n - [杰出的研究人员](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#awesome-researchers)\n - [优秀资源](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#awesome-resources)\n - [项目](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction\u002Fblob\u002Fmaster\u002FREADME.md#projects)\n\n## 基于深度学习的论文\n[2021年论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2021-papers), [2020年论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2020-papers), [2019年论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2019-papers), [2018年论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2018-papers), [2017年论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2017-papers), [2016年论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2016-papers)\n\n## 2021年论文\n- [2021年 - 深度学习框架在变化检测中的实证研究：模型设计、实验框架、挑战与研究需求](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.01342) (**IEEE智能交通系统汇刊**)\n- [2021年 - BSUV-Net 2.0：适用于视频无关监督背景减除的时空数据增强](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.09585) (**IEEE Access**)\n- [2021年 - 用于运动目标分割的多帧递归对抗网络](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FWACV2021\u002Fpapers\u002FPatil_Multi-Frame_Recurrent_Adversarial_Network_for_Moving_Object_Segmentation_WACV_2021_paper.pdf) (**CVPR-2021**)\n- [2021年 - 用于场景无关运动目标分割的深度对抗网络](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9353975) (**IEEE信号处理快报**)\n- [2021年 - 用于交通和监控应用的端到端递归生成对抗网络](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9288640) (**IEEE车辆技术汇刊**)\n\n\n## 2020年论文\n - [2020年 - 图形运动目标分割](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9288631) (**2020年 - IEEE模式分析与机器智能汇刊**) [**源代码**](https:\u002F\u002Fgithub.com\u002Fjhonygiraldo\u002FGraphMOS)\n - [2020年 - 场景独立性的重要性：基于CNN的变化检测中场景依赖与场景独立评估的实证研究](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9238403) (**2020年 - IEEE智能交通系统汇刊**)\n - [2020年 - 3DCD：一种场景无关的端到端时空特征学习框架，用于未见视频中的变化检测](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9263106)(**2020年 - IEEE图像处理汇刊**)\n - [2020年 - MOR-UAV：无人机视频中运动目标识别的基准数据集及基线](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3394171.3413934) (**ACM-MM 2020**)\n - [2020年 - 用于运动目标分割的端到端边缘聚合网络](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FPatil_An_End-to-End_Edge_Aggregation_Network_for_Moving_Object_Segmentation_CVPR_2020_paper.pdf) (**CVPR-2020**)\n - [2020年 - MotionRec：统一的深度框架，用于运动目标识别](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_WACV_2020\u002Fhtml\u002FMandal_MotionRec_A_Unified_Deep_Framework_for_Moving_Object_Recognition_WACV_2020_paper.html) (**WACV 2020**) [**源代码**](https:\u002F\u002Fgithub.com\u002Flav-kush\u002FMotionRec) \n  - [2020年 - BSUV-Net：一种全卷积神经网络，用于未见视频的背景减除](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_WACV_2020\u002Fpapers\u002FTezcan_BSUV-Net_A_Fully-Convolutional_Neural_Network_for_Background_Subtraction_of_Unseen_WACV_2020_paper.pdf)(**WACV 2020**)[**源代码**](https:\u002F\u002Fgithub.com\u002Fozantezcan\u002FBSUV-Net-inference)\n  - [2020年 - 未见视频的半监督背景减除：图信号总变差的最小化](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9190887) (**ICIP 2020**)\n\n## 2019年论文\n\n### 期刊论文\n - [2019年 - 3DFR：一种用于场景无关变化检测的快速3D特征约简框架](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8894435)（**2019年 - IEEE信号处理快报**） \n - [2019年 - vsEnDec：一种用于前景定位的改进型图像到图像CNN](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8854330)（**2019年 - IEEE智能交通系统汇刊**） \n - [2019年 - 用于背景减除的深度神经网络方法：系统综述与对比评估](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0893608019301303)（**2019年 - 神经网络，爱思唯尔**） \n - [2019年 - 用于PTZ摄像机的全景背景图像生成](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8625516)（**2019年 - IEEE图像处理汇刊**） \n - [2019年 - 基于图像位平面表示的无阈值运动目标检测](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8694958)（**2019年 - IEEE智能交通系统汇刊**） \n - [2019年 - 适用于低成本道路交通监控系统的快速且鲁棒的背景建模技术](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8725944)（**2019年 - IEEE智能交通系统汇刊**） \n - [2019年 - 基于多视角感受野和编码器-解码器DCNN的视频前景提取：面向交通与监控应用](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8809739)（**2019年 - IEEE车载技术汇刊**） \n - [2019年 - 基于自适应三相背景模型的前景分割](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8782599)（**2019年 - IEEE智能交通系统汇刊**） \n - [2019年 - 基于3D CNN-LSTM的图像到图像前景分割](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8671459\u002F)（**2019年 - IEEE智能交通系统汇刊**） \n - [2019年 - 夜间恶劣天气条件下运动目标检测的显著特征](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8752366)（**2019年 - IEEE视频技术电路与系统汇刊**） \n - [2019年 - 考虑光照的多任务GAN用于前景分割](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8606933\u002F)（**2019年 - IEEE Access**） \n - [2019年 - 利用时空结构稀疏RPCA在复杂场景中检测运动目标](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F83\u002F4358840\u002F08485415)（**2019年 - IEEE图像处理汇刊**） \n - [2019年 - 利用一致的运动检测在恶劣天气下优化背景减除](https:\u002F\u002Fwww.spiedigitallibrary.org\u002Fjournals\u002FJournal-of-Electronic-Imaging\u002Fvolume-28\u002Fissue-2\u002F020501\u002FRefining-background-subtraction-using-consistent-motion-detection-in-adverse-weather\u002F10.1117\u002F1.JEI.28.2.020501.short?SSO=1)（**2019年 - 电子成像杂志**） \n - [2019年 - DeepPBM：基于视频序列的深度概率背景模型估计](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1902.00820)（**2019年 - Arxiv**） \n - [2019年 - 将背景减除算法与卷积神经网络结合](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.02080)（**2019年 - 电子成像杂志**） \n\n### 会议论文\n - [2019年 - 一种用于同时进行背景建模和减除的端到端深度学习方法](https:\u002F\u002Fbmvc2019.org\u002Fwp-content\u002Fuploads\u002Fpapers\u002F0984-paper.pdf)（**BMVC 2019**）\n - [2019年 - 用于弱监督背景减除网络的简单背景减除约束](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8909896)（**AVSS 2019**）\n - [2019年 - 基于上下文信息分离的无监督运动目标检测](https:\u002F\u002Farxiv.org\u002Fabs\u002F1901.03360)（**CVPR 2019**） \n - [2019年 - 学会如何在黑暗中看到运动物体](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FJiang_Learning_to_See_Moving_Objects_in_the_Dark_ICCV_2019_paper.pdf)（**ICCV - 2019**） \n - [2019年 - 基于运动显著性的生成对抗网络用于水下运动目标分割](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8803091)（**ICIP 2019**） \n - [2019年 - FgGAN：一种级联式非配对学习用于背景估计和前景分割](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8659177)（**WACV 2019**） \n - [2019年 - 鲁棒的变化描述](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FPark_Robust_Change_Captioning_ICCV_2019_paper.pdf)（**CVPR-2019**） \n - [2019年 - 基于在线格拉斯曼鲁棒子空间估计的全景视频分离](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCVW_2019\u002Fpapers\u002FRSL-CV\u002FGilman_Panoramic_Video_Separation_with_Online_Grassmannian_Robust_Subspace_Estimation_ICCVW_2019_paper.pdf)（**ICCV 2019**） \n - [2019年 - 用于准确车辆检测的快速消除运动阴影技术](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8659208\u002F)（**WACV 2019**） \n - [2019年 - 基于L1回归的在线和批量监督背景估计](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8659272\u002F)（**WACV 2019**） \n - [2019年 - TU-VDN：特里普拉大学夜间在恶劣室外大气条件下用于运动目标检测的视频数据集](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8804411\u002F)（**ICIP 2019**） \n - [2019年 - 使用LBSP和模糊灰度差直方图检测视频中的动态物体](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8858967\u002F)（**FUZZ-2019**） \n - [2019年 - 利用张量低秩与不变稀疏分解在光照不连续变化下检测运动目标](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FShakeri_Moving_Object_Detection_Under_Discontinuous_Change_in_Illumination_Using_Tensor_CVPR_2019_paper.pdf)（**CVPR - 2019**） \n \n## 2018年论文\n\n### 期刊论文\n- [2018年 - MSFgNet：一种用于运动目标检测的新型紧凑型端到端深度网络](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8546771) (**2019年 - IEEE智能交通系统汇刊**)\n- [2018年 - 基于多视角感受野的视频监控前景推理网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.06593) (**Arxiv-2018**)\n- [2018年 - 通过训练三元组网络进行运动特征提取的改变检测](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8263554\u002F) (**2018年 - IEEE视频技术电路与系统汇刊**)\n- [2018年 - 用于红外视频中前景目标检测的多尺度全卷积网络](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8288813\u002F) (**2018年 - IEEE地球科学与遥感快报**)\n- [2018年 - 使用三元组卷积神经网络进行多尺度特征编码的前景分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.02225)，[**源代码**](https:\u002F\u002Fgithub.com\u002Flim-anggun\u002FFgSegNet) (**2018-Arxiv**)\n- [2018年 - 基于全卷积网络的深度背景建模](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8100709\u002F) (**2018年 - IEEE智能交通系统汇刊**)\n- [2018年 - 用于视频序列背景减除的深度卷积神经网络](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.01731) (**2018年 - Elsevier模式识别杂志**)\n- [2018年 - 使用卷积神经网络进行多尺度特征编码的前景分割](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0167865518303702) (**2018年 - Elsevier模式识别快报**)\n- [2018年 - 用于背景减除的三维空洞卷积长短时记忆网络](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8423055\u002Fsimilar) (**2018年 - IEEE Access**)\n- [2018年 - 一种用于背景减除和前景检测的新框架](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0031320318302371) (**2018年 - Elsevier模式识别杂志**)\n- [2018年 - 学习用于前景分割的多尺度特征](https:\u002F\u002Farxiv.org\u002Fabs\u002F1808.01477) (**2018-Arxiv**)\n- [2018年 - MPNET：一种用于监控视频中目标检测的端到端深度神经网络](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8365094\u002F) (**2018年 - IEEE Access**)\n### 会议论文\n- [2018年 - CANDID：鲁棒的动态变化检测与确定性更新策略用于动态背景减除](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.07008) (**ICPR-2018**)\n- [2018年 - 通过视频合成与多尺度循环网络学习背景减除](https:\u002F\u002Flink.springer.com\u002Fchapter\u002F10.1007\u002F978-3-030-20876-9_23) (**ACCV-2018**)\n- [2018年 - 用于密集时间分类的多尺度循环编码解码网络](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8545597) (**ICPR-2018**)\n- [2018年 - MsEDNet：用于运动目标检测的多尺度深度显著性学习](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F8615119\u002F8615655\u002F08616285.pdf) (**SMC-2018**)\n- [2018年 - BSCGAN：基于条件生成对抗网络的深度背景减除](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8451603\u002F) (**ICIP-2018**)\n- [2018年 - 使用全卷积语义网络在监控视频中检测前景](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8451816\u002F) (**ICIP-2018**)\n- [2018年 - 复杂场景下基于局部紧凑二值模式的背景减除](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8545062) (**ICPR-2018**)\n- [2018年 - 具有退化修正假设的共现背景模型，用于强背景变化下的目标检测](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8546132) (**ICPR-2018**)\n- [2018年 - 通过3D卷积神经网络进行背景减除](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8545320) (**ICPR-2018**)\n- [2018年 - ReMotENet：用于大规模家庭监控视频的有效相关运动事件检测](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.02031https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.02031) (**WACV-2018**)\n  \n## 2017年论文\n- [2017年 - 使用3D卷积神经网络进行端到端视频背景减除](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007%2Fs11042-017-5460-9)\n- [2017年 - 利用深度残差网络在监控视频中进行异常检测的前景分割](http:\u002F\u002Fwww.sbrt.org.br\u002Fsbrt2017\u002Fanais\u002F1570360742.pdf)，[**源代码**](https:\u002F\u002Fgithub.com\u002Flpcinelli\u002Fforeground-segmentation)\n- [2017年 - 学习用于弱监督改变检测的深度结构化网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.02009)\n- [2017年 - 用于背景减除的深度卷积神经网络](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.01731)\n- [2017年 - 改变检测中深度神经网络的分析](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8078550\u002F)\n- [2017年 - 基于生成式UNet的背景建模](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8078483\u002F)\n- [2017年 - 使用编码解码结构卷积神经网络进行背景减除](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8078547\u002F)\n- [2017年 - FusionSeg：学习结合运动与外观特征以实现视频中通用对象的全自动分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1701.05384)，[**源代码**](https:\u002F\u002Fgithub.com\u002Fsuyogduttjain\u002Ffusionseg)\n- [2017年 - 用于分割运动物体的交互式深度学习方法](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0167865516302471)，[**源代码**](https:\u002F\u002Fgithub.com\u002Fzhimingluo\u002FMovingObjectSegmentation)\n- [2017年 - 通过两阶段卷积神经网络实现背景重建与前景分割的联合处理](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.07584)\n- [2017年 - 用于运动目标检测的像素级深度序列学习](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8097419\u002F)\n- [2017年 - WiSARDrp用于视频序列中的改变检测](https:\u002F\u002Fwww.elen.ucl.ac.be\u002FProceedings\u002Fesann\u002Fesannpdf\u002Fes2017-133.pdf) (**ESANN-2017**)\n## 2016年论文\n- [2016年 - 基于场景特定卷积神经网络的深度背景减除](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F7502717\u002F)\n\n## 基于GAN的论文\n## 2018年论文\n- [2019年 - 考虑光照的多任务GAN用于前景分割](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8606933\u002F)\n- [2019年 - FgGAN：用于背景估计与前景分割的级联无配对学习](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8659177)\n- [2018年 - BSCGAN：基于条件生成对抗网络的深度背景减除](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8451603\u002F)\n\n## 非深度学习相关的论文\n[里程碑论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#landmark-papers-in-background-subtraction)，[2018年论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2018-papers-1)，[2017年论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2017-papers-1)，[2016年论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2016-papers-1)，[2015年论文](https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction#2015-papers)\n\n### 背景减除领域的里程碑论文\n - [2020年 - 场景独立性的重要性：基于CNN的变化检测中场景相关与场景无关评估的实证研究](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9238403) (**2020年 - IEEE智能交通系统汇刊**)\n- [2015年 - SuBSENSE：一种具有局部自适应灵敏度的通用变化检测方法](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F6975239\u002F)\n- [2012年 - PBAS：带反馈的背景分割——基于像素的自适应分割器](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F6238925\u002F)\n- [2011年 - ViBe：适用于视频序列的通用背景减除算法](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F5672785\u002F)\n- [2006年 - 基于纹理的方法用于背景建模和运动目标检测](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F1597122\u002F)\n- [1999年 - 用于实时跟踪的自适应背景混合模型](http:\u002F\u002Fwww.ai.mit.edu\u002Fprojects\u002Fvsam\u002FPublications\u002Fstauffer_cvpr98_track.pdf)\n- \n### 2018年的论文\n- [2018年 - 一种利用以明度-红-绿-蓝颜色模型定义的缩放系数进行背景建模和前景检测的算法](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8118166\u002F)\n- [2018年 - M4CD：一种用于智能视觉监控的鲁棒变化检测方法](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.04979)\n- [2018年 - CANDID：用于动态背景减除的鲁棒变化动态与确定性更新策略](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.07008)\n- [2018年 - ANTIC：用于医学图像检索和变化检测的反同构簇模式](https:\u002F\u002Fwww.researchgate.net\u002Fpublication\u002F327503209_ANTIC_ANTithetic_Isomeric_Cluster_Patterns_for_Medical_Image_Retrieval_and_Change_Detection)\n- [2018年 - 用于密集时间分类的多尺度循环编码器-解码器网络](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F8527858\u002F8545020\u002F08545597.pdf)\n- [2018年 - 一种用于不同颜色空间下视频分析的新颖前景分割方法](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F8527858\u002F8545020\u002F08545500.pdf) \n- [2018年 - 基于3D卷积神经网络的背景减除](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F8527858\u002F8545020\u002F08545320.pdf)\n- [2018年 - 复杂场景下背景减除的局部紧凑二值模式](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F8527858\u002F8545020\u002F08545062.pdf)\n- [2018年 - 无监督深度上下文预测用于背景估计和前景分割](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FMaryam_Sultana\u002Fpublication\u002F328570879_Unsupervised_Deep_Context_Prediction_for_Background_Estimation_and_Foreground_Segmentation\u002Flinks\u002F5bfd469392851c78dfae933d\u002FUnsupervised-Deep-Context-Prediction-for-Background-Estimation-and-Foreground-Segmentation.pdf)\n### 2017年的论文\n\n## 综述\u002F调查类论文\n- [2021年 - 变化检测中深度学习框架的实证综述：模型设计、实验框架、挑战与研究需求](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.01342) (**IEEE智能交通系统汇刊**)\n- [2019年 - 实际应用中的背景减除：挑战、现有模型及未来方向](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.03577)\n- [2018年 - 利用深度学习进行视频前景检测的新趋势](https:\u002F\u002Fieeexplore.ieee.org\u002Fiel7\u002F8610060\u002F8623819\u002F08623825.pdf)\n- [2014年 - 用于前景检测的背景建模的传统与最新方法：概述](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS1574013714000033)\n## 数据集\n- [Change Detection Net (CDNet)](http:\u002F\u002Fchangedetection.net\u002F)\n- [Scene Back Modelling (SBMNet)](http:\u002F\u002Fscenebackgroundmodeling.net\u002F)\n- [SBI](http:\u002F\u002Fsbmi2015.na.icar.cnr.it\u002FSBIdataset.html)\n- [SBM-RGBD](http:\u002F\u002Frgbd2017.na.icar.cnr.it\u002FSBM-RGBDdataset.html)\n- [Wallflower](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fpeople\u002Fjckrumm\u002F?from=http%3A%2F%2Fresearch.microsoft.com%2Fen-us%2Fum%2Fpeople%2Fjckrumm%2Fwallflower%2Ftestimages.htm)\n- [fish4knowledge](http:\u002F\u002Fgroups.inf.ed.ac.uk\u002Ff4k\u002F)\n- [MARDCT](http:\u002F\u002Flabrococo.dis.uniroma1.it\u002FMAR\u002F)\n- [MuHavi](http:\u002F\u002Fvelastin.dynu.com\u002FMuHAVi-MAS\u002F)\n- [LASIESTA](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS1077314216301138)\n\n\n## 杰出的研究人员\n- [Thierry Bouwnmans](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fthierrybouwmans\u002F)\n- [Murari Mandal](https:\u002F\u002Fmurarimandal.github.io\u002Fpublications.html)\n- [Prashant W. Patil](https:\u002F\u002Fiitrpr.cvpr.in\u002F8\u002Fmy_blog\u002F)\n- [Sajid Javed](https:\u002F\u002Fsites.google.com\u002Fview\u002Fsajidjaved\u002Fhome)\n- \n## 优秀的资源\n- [bgslibrary](https:\u002F\u002Fgithub.com\u002Fandrewssobral\u002Fbgslibrary)\n- [MotionRec](https:\u002F\u002Fgithub.com\u002Flav-kush\u002FMotionRec)\n- [lrslibrary]( https:\u002F\u002Fgithub.com\u002Fandrewssobral\u002Flrslibrary)\n- [Thierry BOUWMANS的背景减除网站](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fbackgroundsubtraction\u002Foverview)\n\n## 项目\n- [由[**Yiqi Yan**]使用深度学习方法实现的背景减除](https:\u002F\u002Fsaoyan.github.io\u002Fprojects\u002F)（https:\u002F\u002Fgithub.com\u002FSaoYan\u002FbgsCNN）\n\n## 欢迎大家贡献！\n如果您有任何建议（遗漏的论文、项目、源代码、新论文、关键研究人员、数据集等），请随时编辑并提交请求。（或者直接告诉我论文的标题）","# awesome-background-subtraction 快速上手指南\n\n`awesome-background-subtraction` 并非一个单一的可安装软件包，而是一个**精选的资源列表**，汇集了背景减除（Background Subtraction）领域的学术论文、数据集、开源代码项目及相关研究资源。本指南将指导你如何利用该列表找到适合的工具并运行示例代码。\n\n## 环境准备\n\n由于该仓库包含多种基于深度学习（Deep Learning）和传统算法的项目，具体环境取决于你选择运行的特定论文代码。以下是通用的推荐配置：\n\n*   **操作系统**: Linux (Ubuntu 18.04\u002F20.04 推荐) 或 macOS\n*   **Python 版本**: Python 3.6 - 3.9 (大多数计算机视觉项目在此范围兼容)\n*   **核心依赖**:\n    *   `PyTorch` 或 `TensorFlow` (根据具体论文框架选择，目前 PyTorch 居多)\n    *   `OpenCV` (`opencv-python`)\n    *   `NumPy`, `SciPy`\n    *   `CUDA` (如需加速深度学习模型，建议 CUDA 11.0+)\n\n**前置建议**:\n建议使用 `conda` 创建独立虚拟环境，以避免依赖冲突。\n\n```bash\nconda create -n bg_sub python=3.8\nconda activate bg_sub\n```\n\n## 安装步骤\n\n由于这是一个资源索引库，你不需要“安装”此列表本身，而是需要克隆仓库并从中选择具体的项目进行安装。\n\n### 1. 克隆资源列表仓库\n首先获取该列表以便查阅最新论文和对应的代码链接。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmurari023\u002Fawesome-background-subtraction.git\ncd awesome-background-subtraction\n```\n\n### 2. 选择并安装具体项目\n浏览仓库中的 `README.md`，在 **Deep Learning based Papers** 或 **Projects** 部分找到带有 `[Source Code]` 标记的项目。\n\n以列表中热门的 **BSUV-Net** (2020 WACV) 为例，安装步骤如下：\n\n```bash\n# 克隆具体项目代码\ngit clone https:\u002F\u002Fgithub.com\u002Fozantezcan\u002FBSUV-Net-inference.git\ncd BSUV-Net-inference\n\n# 安装该项目特定的依赖 (国内用户推荐使用清华源加速)\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 如果项目需要预训练模型，通常需手动下载或通过脚本获取\n# 请参照该项目目录下的 README 说明下载权重文件\n```\n\n> **提示**: 对于其他项目（如 `GraphMOS`, `MotionRec`），请进入其对应的 GitHub 页面，遵循其独立的 `Installation` 说明。\n\n## 基本使用\n\n以下以 **BSUV-Net** 为例，展示如何加载预训练模型并对视频进行背景减除。不同项目的调用方式略有差异，但流程相似。\n\n### 1. 准备数据\n确保你有一个测试视频文件（例如 `test_video.mp4`）和对应的预训练权重文件（例如 `bsuv_net.pth`）。\n\n### 2. 运行推理脚本\n大多数项目都提供了 `test.py` 或 `inference.py` 脚本。\n\n```bash\npython test.py --weights_path .\u002Fpretrained_models\u002Fbsuv_net.pth --video_path .\u002Fdata\u002Ftest_video.mp4 --output_dir .\u002Fresults\n```\n\n### 3. 查看结果\n运行完成后，检查输出目录（如 `.\u002Fresults`），通常会生成前景掩码（Foreground Mask）或背景减除后的视频序列。\n\n---\n\n**进阶探索**:\n*   **查找最新论文**: 直接查看仓库中的 `2021 Papers` 或 `2020 Papers` 章节，点击标题链接阅读 ArXiv 原文。\n*   **获取数据集**: 参考仓库中的 `Datasets` 章节，下载 CDNet 2014 等标准数据集用于评估你的模型。\n*   **非深度学习方法**: 如果需要轻量级方案，可查阅 `Non-Deep Learning based Papers` 部分寻找传统算法实现。","某智慧交通团队正在研发一套能适配不同路口摄像头的车辆与行人检测系统，需解决复杂光影下的动态目标分割难题。\n\n### 没有 awesome-background-subtraction 时\n- **文献检索如大海捞针**：工程师需手动在 Google Scholar 和 arXiv 上筛选关键词，耗时数周仍难以穷尽最新的深度学习或 GAN 相关论文。\n- **技术选型缺乏依据**：面对传统算法与前沿模型的抉择，因缺少系统的综述（Review papers）和对比数据，难以判断哪种方案更适合当前场景。\n- **复现成本极高**：找到论文后往往找不到开源代码或配套数据集，导致算法验证周期被无限拉长，甚至被迫放弃先进方案。\n- **忽视场景独立性挑战**：容易忽略“场景无关性”这一关键指标，导致模型在训练集表现良好，一旦部署到新路口就彻底失效。\n\n### 使用 awesome-background-subtraction 后\n- **资源获取一站式完成**：直接查阅按年份和技术路线（如 Deep Learning、GAN）分类的清单，几分钟内即可锁定如 BSUV-Net 2.0 等 2021 年最新 SOTA 模型。\n- **决策路径清晰明确**：通过内置的综述论文和基准测试（如 MOR-UAV），快速评估各算法在未见视频中的泛化能力，科学选定技术路线。\n- **落地效率显著提升**：利用列表中提供的 Source Code 链接和专用数据集，团队在一周内就完成了核心算法的复现与微调。\n- **规避常见研发陷阱**：参考关于“场景依赖性”的实证研究，提前引入时空数据增强策略，确保模型在多变的真实路况下稳定运行。\n\nawesome-background-subtraction 将原本数月的调研与试错过程压缩至数天，让研发团队能专注于核心业务逻辑而非基础资源搜集。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurari023_awesome-background-subtraction_a0f98202.png","murari023","Murari Mandal","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmurari023_1f1ba1fb.jpg","Assistant Professor, School of Computer Engineering, KIIT Bhubaneswar India","KIIT Bhubaneswar","India",null,"https:\u002F\u002Fmurarimandal.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fmurari023",530,86,"2026-04-02T09:06:59",5,"","未说明",{"notes":91,"python":89,"dependencies":92},"该仓库（awesome-background-subtraction）是一个 curated list（精选列表），主要收集了背景减法相关的论文、数据集和资源链接，本身不是一个可直接运行的软件工具或代码库，因此 README 中未包含具体的操作系统、GPU、内存、Python 版本或依赖库等运行环境需求。如需运行列表中提到的具体项目（如 BSUV-Net, MotionRec 等），请访问各项目的独立源代码仓库查看其特定要求。",[],[52,13],[95,96,97,98,99],"background-subtraction","foreground-detection","motion-detection","deep-learning","cnn","2026-03-27T02:49:30.150509","2026-04-06T07:13:21.945049",[],[]]