[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-MinZHANG-WHU--Change-Detection-Review":3,"tool-MinZHANG-WHU--Change-Detection-Review":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",152630,2,"2026-04-12T23:33:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":78,"stars":80,"forks":81,"last_commit_at":82,"license":78,"difficulty_score":10,"env_os":83,"env_gpu":84,"env_ram":84,"env_deps":85,"category_tags":94,"github_topics":95,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":116},7005,"MinZHANG-WHU\u002FChange-Detection-Review","Change-Detection-Review","A review of change detection methods, including codes and open data sets for deep learning.  From paper: change detection based on artificial intelligence: state-of-the-art and challenges.","Change-Detection-Review 是一个专注于人工智能变化检测领域的开源综述资源库。它旨在解决研究人员在利用深度学习进行地表变化监测时，面临的算法选择困难、代码复现复杂以及高质量数据集匮乏等痛点。\n\n该资源库系统梳理了基于遥感数据（如光学影像、合成孔径雷达 SAR、街景图像及异构数据）的变化检测方法，不仅详细解析了从数据处理到模型部署的完整实施流程，还汇总了多种主流 AI 框架（如 PyTorch、TensorFlow）下的经典算法代码与对应开放数据集。其独特亮点在于提供了包含注意力机制、超分辨率增强等前沿技术的模型实现列表，并深入探讨了无监督学习方案及异构大数据处理等行业挑战。\n\nChange-Detection-Review 特别适合从事遥感分析、城市规划、环境监测及灾害评估的科研人员与开发者使用。对于希望快速复现论文成果、对比不同网络架构性能，或寻找特定场景训练数据的用户而言，这是一个极具价值的入门指南与技术参考平台，能有效降低研究门槛，推动相关领域的技术创新。","# Change Detection Based on Artificial Intelligence: State-of-the-Art and Challenges\n\n## 1. Introduction\n Change detection based on remote sensing (RS) data is an important method of detecting changes on the Earth’s surface and has a wide range of applications in urban planning, environmental monitoring, agriculture investigation, disaster assessment, and map revision. In recent years, integrated artificial intelligence (AI) technology has become a research focus in developing new change detection methods. Although some researchers claim that AI-based change detection approaches outperform traditional change detection approaches, it is not immediately obvious how and to what extent AI can improve the performance of change detection. This review focuses on the state-of-the-art methods, applications, and challenges of AI for change detection. Specifically, the implementation process of AI-based change detection is first introduced. Then, the data from different sensors used for change detection, including optical RS data, synthetic aperture radar (SAR) data, street view images, and combined heterogeneous data, are presented, and the available open datasets are also listed. The general frameworks of AI-based change detection methods are reviewed and analyzed systematically, and the unsupervised schemes used in AI-based change detection are further analyzed. Subsequently, the commonly used networks in AI for change detection are described. From a practical point of view, the application domains of AI-based change detection methods are classified based on their applicability. Finally, the major challenges and prospects of AI for change detection are discussed and delineated, including (a) heterogeneous big data processing, (b) unsupervised AI, and (c) the reliability of AI. This review will be beneficial for researchers in understanding this field.\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMinZHANG-WHU_Change-Detection-Review_readme_b504048816de.png)\n\u003Ccenter>Figure 1. General schematic diagram of change detection.\u003C\u002Fcenter>\n\n## 2. Implementation process\n\nFigure 2 provide a general implementation process of AI-based change detection, but the structure of the AI model is diverse and needs to be well designed according to different application situations and the training data. It is worth mentioning that existing mature frameworks such as \u003Ca href=\"https:\u002F\u002Fwww.tensorflow.org\u002F\" target=\"_blank\">TensorFlow\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fkeras.io\u002F\" target=\"_blank\">Keras\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fpytorch.org\u002F\" target=\"_blank\">Pytorch\u003C\u002Fa>, and \u003Ca href=\"https:\u002F\u002Fcaffe.berkeleyvision.org\u002F\" target=\"_blank\">Caffe\u003C\u002Fa>, help researchers more easily realize the design, training, and deployment of AI models, and their development documents provide detailed introductions.\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMinZHANG-WHU_Change-Detection-Review_readme_528a4e9c8112.png)\n\u003Ccenter>Figure 2. Implementation process of AI-based change detection (black arrows indicate workflow and red arrow indicates an example).\u003C\u002Fcenter>\n\n### 2.1 Available codes for AI-based methods\n\n\u003Ctable>\n\u003Ccaption>Table 1. A list of available codes for AI-based change detection methods.\u003C\u002Fcaption>\n\t\u003Ctr>\n\t    \u003Cth>Methods\u003C\u002Fth>\n\t    \u003Cth>Keywords\u003C\u002Fth>\n\t    \u003Cth>Publication\u003C\u002Fth>  \n        \u003Cth>(Re-)Implementation\u003C\u002Fth>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SRCDNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN; Siamese; Attention; Super-resolution; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Super-resolution-based change detection network with stacked attention module for images with different resolutions, TGRS, 2021.  [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTGRS.2021.3091758\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fliumency\u002FSRCDNet\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch 1.2\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>ESCNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN; Siamese; Superpixel; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>An End-to-End superpixel-enhanced change detection network for Very-High-Resolution remote sensing images. TNNLS, 2021. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTNNLS.2021.3089332\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBobholamovic\u002FESCNet\" target=\"_blank\">code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch 1.3\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>KPCAMNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN; Siamese; KPCA; Unsupervised; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Unsupervised change detection in multitemporal VHR images based on deep kernel PCA convolutional mapping network,TCYB, 2021. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTCYB.2021.3086884\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FI-Hope-Peace\u002FKPCAMNet\" target=\"_blank\">code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Python\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SeCo\u003C\u002Ftd>\n\t    \u003Ctd>CNN (ResNet); Transfer Learning; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Seasonal contrast: unsupervised pre-training from uncurated remote sensing data, arXiv, 2021.  [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.16607\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FElementAI\u002Fseasonal-contrast\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch 1.7\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>CapsNet\u003C\u002Ftd>\n\t    \u003Ctd>Capsule Network(SegCaps); CVA; Siamese; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Pseudo-siamese capsule network for aerial remote sensing images change detection, GRSL, 2020.  [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FLGRS.2020.3022512\" target=\"_blank\">paper 1\u003C\u002Fa>], Change Capsule Network for Optical Remote Sensing ImageChange Detection, RS, 2021. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FLGRS.2020.3022512\" target=\"_blank\">paper 2\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fxuquanfu\u002Fcapsule_change_detection\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>BIT_CD\u003C\u002Ftd>\n\t    \u003Ctd>CNN (ResNet18); Siamese; Attention; Transformer; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Remote sensing image change detection with transformers, TGRS, 2021.  [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTGRS.2021.3095166\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjustchenhao\u002FBIT_CD\" target=\"_blank\">code, dataset, pre-trained model\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch 1.6\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>IAug_CDNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN (GauGAN+UNet); Siamese; GAN; Supervised; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Adversarial instance augmentation for building change detection in remote sensing images, TGRS, 2021.  [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTGRS.2021.3066802\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjustchenhao\u002FIAug_CDNet\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>DDNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN; DI+FCM; Unsupervised; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Change detection in synthetic aperture radar images using a dual-domain network, GRSL, 2021.  [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FLGRS.2021.3073900\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_CD_DDNet\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SNUNet-CD\u003C\u002Ftd>\n\t    \u003Ctd>CNN (NestedUNet); Siamese; Attention; Supervised; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>SNUNet-CD: A densely connected siamese network for change detection of VHR images,  GRSL, 2021.  [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FLGRS.2021.3056416\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flikyoo\u002FSiam-NestedUNet\" target=\"_blank\">code, dataset, pre-trained model\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch 1.4\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>DSMSCN\u003C\u002Ftd>\n\t    \u003Ctd>CNN; Siamese; Multi-scale; Unsupervised\u002FSupervised; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd> A deeply supervised image fusion network for change detection in high resolution bi-temporal remote sening images, arXiv, 2020.  [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.11479\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FI-Hope-Peace\u002FDSMSCN\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Tensorflow 1.9\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SiamCRNN\u003C\u002Ftd>\n\t    \u003Ctd>CNN+RNN; Siamese; Multi-source; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd> Change Detection in Multisource VHR Images via Deep Siamese Convolutional Multiple-Layers Recurrent Neural Network, TGRS, 2020.  [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTGRS.2019.2956756\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FI-Hope-Peace\u002FSiamCRNN\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Tensorflow 1.9\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>DSIFN\u003C\u002Ftd>\n\t    \u003Ctd>CNN; Attention Mechanism; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd> A deeply supervised image fusion network for change detection in high resolution bi-temporal remote sening images, ISPRS, 2020.  [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.isprsjprs.2020.06.003\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FGeoZcx\u002FA-deeply-supervised-image-fusion-network-for-change-detection-in-remote-sensing-images\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch & Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>CEECNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN; Attention Mechanism; Similarity Measure; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd> Looking for change? Roll the Dice and demand Attention, arXiv, 2020.  [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.02062\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ffeevos\u002Fceecnet\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>MXNet + Python\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>LamboiseNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN (Light UNet++); Optical RS\u003C\u002Ftd>\n\t    \u003Ctd> Change detection in satellite imagery using deep learning, Master Thesis.  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhbaudhuin\u002FLamboiseNet\" target=\"_blank\">code, dataset, pre-trained model\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>DTCDSCN\u003C\u002Ftd>\n\t    \u003Ctd>CNN; Siamese\u003C\u002Ftd>\n\t    \u003Ctd> Building change detection for remote sensing images using a dual task constrained deep siamese convolutional network model, undergoing review.  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ffitzpchao\u002FDTCDSCN\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>Land-Cover-Analysis\u003C\u002Ftd>\n\t    \u003Ctd>CNN (UNet); Post-Classification;  Optical RS\u003C\u002Ftd>\n\t    \u003Ctd> Land Use\u002FLand cover change detection in cyclone affected areas using convolutional neural networks.  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FKalit31\u002FLand-Cover-Analysis\u002Fblob\u002Fmaster\u002FReport.pdf\" target=\"_blank\">report\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FKalit31\u002FLand-Cover-Analysis\" target=\"_blank\">code, dataset, pre-trained model\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow+Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>CorrFusionNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN; Scene-level; Siamese;  Optical RS\u003C\u002Ftd>\n\t    \u003Ctd> Correlation based fusion network towards multi-temporal scene classification and change detection, undergoing review.  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frulixiang\u002FCorrFusionNet\" target=\"_blank\">code, pre-trained model\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frulixiang\u002FMtS-WH-Dataset\" target=\"_blank\">dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow 1.8\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SSCDNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN (ResNet18); Siamese; Transfer Learning; Semantic; Streetview\u003C\u002Ftd>\n\t    \u003Ctd>Weakly supervised silhouette-based semantic scene change detection, ICRA, 2020.  [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1811.11985\" target=\"_blank\">paper\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fxdspacelab\u002Fsscdnet\" target=\"_blank\">code, dataset, pre-trained model\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch+Python3.6\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>Heterogeneous_CD\u003C\u002Ftd>\n\t    \u003Ctd>AE (Code-Aligned AE); Unsupervised; Transformation; Heterogeneous; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Code-aligned autoencoders for unsupervised change detection in multimodal remote sensing images, arXiv, 2020. [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.07011\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002FCode-Aligned_Autoencoders\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow 2.0\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>FDCNN\u003C\u002Ftd>\n\t    \u003Ctd>CNN (VGG16); Transfer Learning; Pure-Siamese; Multi-scale; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>A feature difference convolutional neural network-based change detection method, TGRS, 2020. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002Ftgrs.2020.2981051\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMinZHANG-WHU\u002FFDCNN\" target=\"_blank\">code, dataset, pre-trained model\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Caffe+Python2.7\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>STANet\u003C\u002Ftd>\n\t    \u003Ctd>CNN (ResNet-18); Attention Mechanism; Pure-Siamese; Spatial–Temporal Dependency; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>A spatial-temporal attention-based method and a new dataset for remote sensing image change detection, RS, 2020. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs12101662\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjustchenhao\u002FSTANet\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch+Python3.6\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctr>\n\t    \u003Ctd>X-Net\u003C\u002Ftd>\n\t    \u003Ctd>CNN; Unsupervised; Transformation; Heterogeneous; Optical RS; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Deep image translation with an affinity-based change prior for unsupervised multimodal change detection, 2020. [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2001.04271\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002Flegacy\u002FDeep_Image_Translation\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Tensorflow 1.4\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctr>\n\t    \u003Ctd>ACE-Net\u003C\u002Ftd>\n\t    \u003Ctd>AE (Adversarial Cyclic Encoders); Unsupervised; Transformation; Heterogeneous; Optical RS; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Deep image translation with an affinity-based change prior for unsupervised multimodal change detection, 2020. [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2001.04271\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002Flegacy\u002FDeep_Image_Translation\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Tensorflow 1.4\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>VGG_LR\u003C\u002Ftd>\n\t    \u003Ctd>CNN (VGG16); Transfer Learning; Pure-Siamese; SLIC; Low Ranks; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Change detection based on deep features and low rank, GRSL, 2017. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2017.2766840\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMinZHANG-WHU\u002FFDCNN\u002Ftree\u002Fmaster\u002Fvgg_lr\" target=\"_blank\">re-implementation code, dataset, pre-trained model\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Caffe+Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>CDNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN; Siamese; Multimodal Data; Point Cloud Data\u003C\u002Ftd>\n\t    \u003Ctd> Detecting building changes between airborne laser scanning and photogrammetric data, RS, 2019. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs11202417\" target=\"_blank\">paper\u003C\u002Fa>], [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZhenchaolibrary\u002FPointCloud2PointCloud-Change-Detection\" target=\"_blank\">code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>SCCN\u003C\u002Ftd>\n\t    \u003Ctd>AE (DAE); Unsupervised; Heterogeneous; Optical RS; SAR\u003C\u002Ftd>\n\t    \u003Ctd>A deep convolutional coupling network for change detection based on heterogeneous optical and radar images, TNNLS, 2018. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTNNLS.2016.2636227\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002FCode-Aligned_Autoencoders\" target=\"_blank\">re-implementation code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow 2.0\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>cGAN\u003C\u002Ftd>\n\t    \u003Ctd>GAN (conditional GAN); Heterogeneous; Optical RS; SAR\u003C\u002Ftd>\n\t    \u003Ctd> A conditional adversarial network for change detection in heterogeneous images, GRSL, 2019. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2018.2868704\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002FCode-Aligned_Autoencoders\" target=\"_blank\">re-implementation code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow 2.0\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>DASNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN (VGG16); Siamese; Attention Mechanism  ; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>DASNet: Dual attentive fully convolutional siamese networks for change detection of high resolution satellite images, arXiv, 2020. [\u003Ca href=\"\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flehaifeng\u002FDASNet\" target=\"_blank\">code, dataset, pre-trained model\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch+Python3.6\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>UNetLSTM\u003C\u002Ftd>\n\t    \u003Ctd>CNN (UNet); RNN (LSTM); Integrated Model; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Detecting Urban Changes With Recurrent Neural Networks From Multitemporal Sentinel-2 Data, IGARSS, 2019. [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.07778\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fgranularai\u002Fchip_segmentation_fabric\" target=\"_blank\">code, dataset, pre-trained model\u003C\u002Fa>] and  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSebastianHafner\u002Furban_change_detection\" target=\"_blank\">code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch+Python3.6\u003C\u002Ftd>\n\t\u003C\u002Ftr>\u003Ctr>\n\t    \u003Ctd>CDMI-Net\u003C\u002Ftd>\n\t    \u003Ctd>CNN (Unet); Pure-Siamese; Multiple Instance Learning; Landslide Mapping; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Deep multiple instance learning for landslide mapping, GRSL, 2020. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2020.3007183\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMinZHANG-WHU\u002FCDMI-Net\" target=\"_blank\">code, pre-trained model\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch+Python3.6\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>DSFANet\u003C\u002Ftd>\n\t    \u003Ctd>DNN; Unsupervised; Pre-classification; Slow Feature Analysis; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Unsupervised deep slow feature analysis for change detection in multi-temporal remote sensing images, TGRS, 2019. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2019.2930682\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frulixiang\u002FDSFANet\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow 1.7\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>CD-UNet++\u003C\u002Ftd>\n\t    \u003Ctd>CNN (improved UNet++); Direct Classification; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>End-to-end change detection for high resolution satellite images using improved UNet++, RS, 2019. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs11111382\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdaifeng2016\u002FEnd-to-end-CD-for-VHR-satellite-image\" target=\"_blank\">code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow+Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>SiameseNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN (VGG16); Pure-Siamese; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Siamese network with multi-level features for patch-based change detection in satellite imagery, GlobalSIP, 2018. [\u003Ca href=\"https:\u002F\u002Fsigport.org\u002Fdocuments\u002Fsiamese-network-multi-level-features-patch-based-change-detection-satellite-imagery\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvbhavank\u002FSiamese-neural-network-for-change-detection\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow+Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>Re3FCN\u003C\u002Ftd>\n\t    \u003Ctd>CNN (ConvLSTM); PCA; 3D convolution; Multi-class changes; Optical RS; Hyperspectral\u003C\u002Ftd>\n\t    \u003Ctd>Change detection in hyperspectral images using recurrent 3D fully convolutional networks, RS, 2018. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs10111827\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmkbensalah\u002FChange-Detection-in-Hyperspectral-Images target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow+Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>FC-EF, FC-Siam-conc, FC-Siam-diff\u003C\u002Ftd>\n\t    \u003Ctd>CNN (UNet); Pure-Siamese; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Fully convolutional siamese networks for change detection, ICIP, 2018. [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.08462\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frcdaudt\u002Ffully_convolutional_change_detection\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>CosimNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN (Deeplab v2); Pure-Siamese; Streetview\u003C\u002Ftd>\n\t    \u003Ctd>Learning to measure changes: fully convolutional siamese metric networks for scene change detection, arXiv, 2018. [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.09111\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fgmayday1997\u002FSceneChangeDet\" target=\"_blank\">code, dataset, pre-trained model\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch+Python2.7\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Mask R-CNN\u003C\u002Ftd>\n\t    \u003Ctd>Mask R-CNN (ResNet-101); Transfer Learning; Post-Classification; Optical RS \u003C\u002Ftd>\n\t    \u003Ctd>Slum segmentation and change detection: a deep learning approach, NIPS, 2018. [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1811.07896\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcbsudux\u002FMumbai-slum-segmentation\" target=\"_blank\">code, dataset, pre-trained model\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow+Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>CaffeNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN (CaffeNet); Unsupervised; Transfer Learning; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Convolutional neural network features based change detection in satellite images, IWPR, 2016. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1117\u002F12.2243798\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvbhavank\u002FUnstructured-change-detection-using-CNN\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow+Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>CWNN\u003C\u002Ftd>\n\t    \u003Ctd>CNN (CWNN); Unsupervised; Pre-Classification; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Sea ice change detection in SAR images based on convolutional-wavelet neural networks, GRSL, 2019. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2019.2895656\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_Change_Detection_CWNN\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>MLFN\u003C\u002Ftd>\n\t    \u003Ctd>CNN (DenseNet); Transfer learning; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Transferred deep learning for sea ice change detection from synthetic aperture radar images, GRSL, 2019. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2019.2906279\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR-Change-Detection-MLFN\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Caffe+Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>GarborPCANet\u003C\u002Ftd>\n\t    \u003Ctd>CNN (PCANet); Unsupervised; Pre-Classification; Gabor Wavelets; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Automatic change detection in synthetic aperture radar images based on PCANet, GRSL, 2016. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2016.2611001\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_Change_Detection_GarborPCANet\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Ms-CapsNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN (Ms-CapsNet); Capsule; Attention Mechanism; Adaptive Fusion Convolution; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Change detection in SAR images based on multiscale capsule network, GRSL, 2020. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2020.2977838\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_CD_MS_CapsNet\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab+Keras2.16\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>DCNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN; Unsupervised; Pre-Classification; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Change detection from synthetic aperture radar images based on channel weighting-based deep cascade network, JSTARS, 2019. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FJSTARS.2019.2953128\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_CD_DCNet\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Caffe\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>ChangeNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN; Siamese; StreetView\u003C\u002Ftd>\n\t    \u003Ctd>ChangeNet: a deep learning architecture for visual change detection, ECCV, 2018. [\u003Ca href=\"http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_eccv_2018_workshops\u002Fw7\u002Fhtml\u002FVarghese_ChangeNet_A_Deep_Learning_Architecture_for_Visual_Change_Detection_ECCVW_2018_paper.html\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fleonardoaraujosantos\u002FChangeNet\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd colspan=\"4\">Others will be added soon!\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n### 2.2 Available codes for traditional methods\n\n\u003Ctable>\n\u003Ccaption>Table 2. A list of available codes for traditional change detection methods.\u003C\u002Fcaption>\n\t\u003Ctr>\n\t    \u003Cth>Methods\u003C\u002Fth>\n\t    \u003Cth>Keywords\u003C\u002Fth>\n\t    \u003Cth>Publication\u003C\u002Fth>  \n        \u003Cth>Implementation\u003C\u002Fth>  \n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>Several Classical Methods\u003C\u002Ftd>\n\t    \u003Ctd>CVA; DPCA; Image Differencing; Image Ratioing; Image Regression; IR-MAD; MAD; PCAkMeans; PCDA; KMeans; OTSU; Fixed Threshold\u003C\u002Ftd>\n\t    \u003Ctd>A toolbox for remote sensing change detection. [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBobholamovic\u002FChangeDetectionToolbox\" target=\"_blank\">code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>Matlab Toolbox Change Detection\u003C\u002Ftd>\n\t    \u003Ctd>IR-MAD; IT-PCA; ERM; ICM\u003C\u002Ftd>\n\t    \u003Ctd>A toolbox for unsupervised change detection analysis, IJRS, 2016.[\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1080\u002F01431161.2016.1154226\" target=\"_blank\">paper\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FNicolaFalco\u002FMatlab-toolbox-change-detection\" target=\"_blank\">code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>RFR,SVR,GPR\u003C\u002Ftd>\n\t    \u003Ctd>Unsupervised; Image Regression; Heterogeneous; Optical RS; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Unsupervised image regression for heterogeneous change detection, TGRS, 2019. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2019.2930348\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002Flegacy\u002FImage_Regression\" target=\"_blank\">code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>HPT\u003C\u002Ftd>\n\t    \u003Ctd>Unsupervised; Transformation; Heterogeneous; Optical RS; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Change detection in heterogenous remote sensing images via homogeneous pixel transformation, TIP, 2018. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTIP.2017.2784560\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002Flegacy\u002FImage_Regression\" target=\"_blank\">re-implementation code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>kCCA\u003C\u002Ftd>\n\t    \u003Ctd>Canonical Correlation Analysis; Cross-Sensor; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Spectral alignment of multi-temporal cross-sensor images with automated kernel correlation analysis, IJPRS, 2015. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.isprsjprs.2015.02.005\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fsite\u002Fmichelevolpiresearch\u002Fcodes\u002Fcross-sensor\" target=\"_blank\">code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Ker. Diff. RBF\u003C\u002Ftd>\n\t    \u003Ctd>Unsupervised; K-means; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Unsupervised change detection with kernels, GRSL, 2012. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.jag.2011.10.013\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B9xP9Y5JKJz0Q1ctbDJERWpTd2s\u002Fedit?usp=sharing\" target=\"_blank\">code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>FDA-RM\u003C\u002Ftd>\n\t    \u003Ctd>DI-based; Frequency-Domain Analysis; Random Multigraphs; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Synthetic aperture radar image change detection based on frequency domain analysis and random multigraphs, JARS, 2018. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1117\u002F1.JRS.12.016010\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_Change_Detection_FDA_RMG\" target=\"_blank\">code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab \u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>CD-NR-ELM\u003C\u002Ftd>\n\t    \u003Ctd>DI-based; Pre-Classification; Extreme Learning Machine; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Change detection from synthetic aperture radar images based on neighborhood-based ratio and extreme learning machine, JARS, 2016. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1117\u002F1.JRS.10.046019\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_Change_Detection_NR_ELM\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>None\u003C\u002Ftd>\n\t    \u003Ctd>Likelihood Ratio; Test Statistic; SAR\u003C\u002Ftd>\n\t    \u003Ctd>Change detection in polarimetric SAR\nimages, 2015. [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ffouronnes\u002FSAR-change-detection\u002Fblob\u002Fmaster\u002FSAR_Change_Detection_Victor_Poughon.pdf\" target=\"_blank\">report\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ffouronnes\u002FSAR-change-detection\" target=\"_blank\">code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Python\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>PCA K-Means\u003C\u002Ftd>\n\t    \u003Ctd>Unsupervised; DI-based; PCA; K Means; Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Unsupervised Change Detection in Satellite Images Using Principal Component Analysis and k-Means Clustering, GRSL, 2009. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2009.2025059\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frulixiang\u002FChangeDetectionPCAKmeans\" target=\"_blank\">re-implementation code, dataset\u003C\u002Fa>] or [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fleduckhai\u002FChange-Detection-PCA-KMeans\" target=\"_blank\">re-implementation code\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>PTCD\u003C\u002Ftd>\n\t    \u003Ctd>Tensor; Hyperspectral Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>Three-Order Tucker Decomposition and Reconstruction Detector for Unsupervised Hyperspectral Change Detection. JSTARS, 2021. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FJSTARS.2021.3088438\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzephyrhours\u002FHyperspectral-Change-Detection-PTCD\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\t\u003Ctr>\n\t    \u003Ctd>GBF-CD\u003C\u002Ftd>\n\t    \u003Ctd>Data Fusion; Graph; EM; KI;\u003C\u002Ftd>\n\t    \u003Ctd>Graph-Based Data Fusion Applied to: Change Detection and Biomass Estimation in Rice Crops. Remote Sensing, 2020 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs12172683\" target=\"_blank\">paper\u003C\u002Fa>]  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDavidJimenezS\u002FGBF-CD\" target=\"_blank\">code, dataset\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd colspan=\"4\">Others will be added soon!\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n## 3. Open datasets\n\nCurrently, there are some freely available data sets for change detection, which can be used as benchmark datasets for AI training and accuracy evaluation in future research. Detailed information is presented in Table 3.\n\u003Ctable>\n\u003Ccaption>Table 3. A list of open datasets for change detection.\u003C\u002Fcaption>\n\t\u003Ctr>\n\t    \u003Cth>Type\u003C\u002Fth>\n\t    \u003Cth width=\"180px\">Data set\u003C\u002Fth>\n\t    \u003Cth>Description\u003C\u002Fth>  \n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd rowspan=\"21\">Optical RS\u003C\u002Ftd>\n\t    \u003Ctd>DSIFN Dataset [\u003Ca href=\"#Ref-25\">25\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>6 bi-temporal high resolution images from Google Earth. There are 3600 image pairs with size of 512 × 512 for training, 340 for validation, and 48 for test. [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FGeoZcx\u002FA-deeply-supervised-image-fusion-network-for-change-detection-in-remote-sensing-images\u002Ftree\u002Fmaster\u002Fdataset\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>S2MTCP [\u003Ca href=\"#Ref-26\">26\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>1520 Sentinel-2 level 1C image pairs focused on urban areas around the world,  with 10m spatial resolution and the size of 600x600 pixels. Geometric or radiometric corrections are not performed. [\u003Ca href=\"https:\u002F\u002Fzenodo.org\u002Frecord\u002F4280482#.YQPtXI5LhjV\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SYSU-CD [\u003Ca href=\"#Ref-27\">27\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>20000 pairs of 0.5-m aerial images of size 256×256 taken between the years 2007 and 2014 in Hong Kong, including 6 change types: (a) newly built urban buildings; (b) suburban dilation; (c) groundwork before construction; (d) change of vegetation; (e) road expansion; (f) sea construction. [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fliumency\u002FSYSU-CD\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>S2Looking [\u003Ca href=\"#Ref-28\">28\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>Building change detection dataset consists of 5000 registered bitemporal image pairs (size of 1024*1024, 0.5 ~ 0.8 m\u002Fpixel) of rural areas throughout the world and more than 65,920 annotated change instances, separately indicating the newly built and demolished building [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAnonymousForACMMM\u002FDataset\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>Synthetic and real images Dataset [\u003Ca href=\"#Ref-29\">29\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>The database contains 12,000 triples of synthetic images without object shift, 12,000 triples of model images  with object shift and 16,000 triples of fragments of real remote  sensing  images.  Performed  tests  have  shown  that  the proposed  CNN  is  promising  and  efficient  enough  in  change detection on synthetic and real images [\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1GX656JqqOyBi_Ef0w65kDGVto-nHrNs9\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SEmantic Change detectiON Dataset (SECOND) [\u003Ca href=\"#Ref-24\">24\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>a pixel-level annotated semantic change detection dataset, including 4662 pairs of aerial images with 512 x 512 pixels from several platforms and sensors, covering Hangzhou, Chengdu, and Shanghai.  It focus on 6 main land-cover classes, i.e. , non-vegetated ground surface, tree, low vegetation, water, buildings and playgrounds , that are frequently involved in natural and man-made geographical changes. [\u003Ca href=\"http:\u002F\u002Fwww.captain-whu.com\u002FPROJECT\u002FSCD\u002F\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>Hyperspectral change detection dataset [\u003Ca href=\"#Ref-1\">1\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>3 different hyperspectral scenes acquired by AVIRIS or HYPERION sensor, with 224 or 242 spectral bands, labeled 5 types of changes related with crop transitions at pixel level. [\u003Ca href=\"https:\u002F\u002Fcitius.usc.es\u002Finvestigacion\u002Fdatasets\u002Fhyperspectral-change-detection-dataset\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>River HSIs dataset  [\u003Ca href=\"#Ref-2\">2\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>2 HSIs in Jiangsu province, China, with 198 bands, labeled as changed and unchanged at pixel level. [\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1cWy6KqE0rymSk5-ytqr7wM1yLMKLukfP\u002Fview\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>HRSCD  [\u003Ca href=\"#Ref-3\">3\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>291 co-registered pairs of RGB aerial images, with pixel-level change and land cover annotations, providing hierarchical level change labels, for example, level 1 labels include five classes: no information, artificial surfaces, agricultural areas, forests, wetlands, and water. [\u003Ca href=\"https:\u002F\u002Fieee-dataport.org\u002Fopen-access\u002Fhrscd-high-resolution-semantic-change-detection-dataset\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>WHU building dataset  [\u003Ca href=\"#Ref-4\">4\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>2-period aerial images containing 12,796 buildings, provided along with building vector and raster maps. [\u003Ca href=\"http:\u002F\u002Fstudy.rsgis.whu.edu.cn\u002Fpages\u002Fdownload\u002F\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\u003Ctd>SZTAKI Air change benchmark  [\u003Ca href=\"#Ref-5\">5\u003C\u002Fa>, \u003Ca href=\"#Ref-6\">6\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>13 aerial image pairs with 1.5 m spatial resolution, labeled as changed and unchanged at pixel level. [\u003Ca href=\"http:\u002F\u002Fweb.eee.sztaki.hu\u002Fremotesensing\u002Fairchange_benchmark.html\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>OSCD  [\u003Ca href=\"#Ref-7\">7\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>24 pairs of multispectral images acquired by Sentinel-2, labeled as changed and unchanged at pixel level. [\u003Ca href=\"https:\u002F\u002Frcdaudt.github.io\u002Foscd\u002F\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>Change detection dataset  [\u003Ca href=\"#Ref-8\">8\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>4 pairs of multispectral images with different spatial resolutions, labeled as changed and unchanged at pixel level. [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMinZHANG-WHU\u002FFDCNN\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>MtS-WH [\u003Ca href=\"#Ref-9\">9\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>2 large-size VHR images acquired by IKONOS sensors, with 4 bands and 1 m spatial resolution, labeled 5 types of changes (i.e., parking, sparse houses, residential region, and vegetation region) at scene level. [\u003Ca href=\"http:\u002F\u002Fsigma.whu.edu.cn\u002Fnewspage.php?q=2019_03_26\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>ABCD  [\u003Ca href=\"#Ref-10\">10\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>16,950 pairs of RGB aerial images for detecting washed buildings by tsunami, labeled damaged buildings at scene level. [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fgistairc\u002FABCDdataset\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>xBD  [\u003Ca href=\"#Ref-11\">11\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>Pre- and post-disaster satellite imageries for building damage assessment, with over 850,000 building polygons from 6 disaster types, labeled at pixel level with 4 damage scales. [\u003Ca href=\"https:\u002F\u002Fxview2.org\u002Fdataset\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>AICD  [\u003Ca href=\"#Ref-12\">12\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>1000 pairs of synthetic aerial images with artificial changes generated with a rendering engine, labeled as changed and unchanged at pixel level. [\u003Ca href=\"https:\u002F\u002Fcomputervisiononline.com\u002Fdataset\u002F1105138664\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Database of synthetic and real images  [\u003Ca href=\"#Ref-13\">13\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>24,000 synthetic images and 16,000 fragments of real season-varying RS images obtained by Google Earth, labeled as changed and unchanged at pixel level. [\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1GX656JqqOyBi_Ef0w65kDGVto-nHrNs9\u002Fedit\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>LEVIR-CD  [\u003Ca href=\"#Ref-14\">14\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>637 very high-resolution (VHR, 0.5m\u002Fpixel) Google Earth (GE) image patch pairs with a size of 1024 × 1024 pixels and contains a total of 31,333 individual change building instances, labeled as changed and unchanged at pixel level. [\u003Ca href=\"https:\u002F\u002Fjustchenhao.github.io\u002FLEVIR\u002F\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Bastrop fire dataset [\u003Ca href=\"#Ref-21\">21\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>4 images acquired by different sensors over the Bastrop County, Texas (USA). It is composed by a Landsat 5 TM as the pre-event image and a Landsat 5 TM, a EO-1 ALI and a Landsat 8 as post-event images, labeled as changed and unchanged at pixel level, mainly caused by wildfire. [\u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fsite\u002Fmichelevolpiresearch\u002Fcodes\u002Fcross-sensor\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t \u003Ctr>\n\t    \u003Ctd>Google data set [\u003Ca href=\"#Ref-23\">23\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>19 season-varying VHR images pairswith 3 bands of red, green, and blue, a spatial resolution of 0.55 m, and the size ranging from 1006×1168 pixels to 4936×5224 pixels. The image changes include waters, roads, farmland, bare land, forests, buildings, ships, etc. Buildings make up the main changes. acquired during the periods between 2006 and 2019, covering the suburb areas of Guangzhou City, China. [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdaifeng2016\u002FChange-Detection-Dataset-for-High-Resolution-Satellite-Imagery\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd rowspan=\"2\" >Optical RS & SAR\u003C\u002Ftd>\n\t    \u003Ctd>California dataset [\u003Ca href=\"#Ref-22\">22\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd> 3 images, including a RS image captured by Landsat 8 with 9 channels on 2017, a SAR image captured by Sentinel-1A (recorded in polarisations VV and VH) after the occurrence of a flood, and a ground truth map. [\u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fview\u002Fluppino\u002Fdata\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t \u003Ctr>\n\t    \u003Ctd>Homogeneous CD Dataset [\u003Ca href=\"#Ref-30\">30\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>6 scenarios:  Scenario  1  with  two  single-polarizationSAR  data  sets;  Scenario  2  with  two  PolSAR  data  sets;  Scenario  3  with  two  optical  image  data  sets.  HeterogeneousCD:  Scenario  4  with  two  SAR\u002Foptical  (multispectral)  datasets;  Scenario  5  with  two  multispectral data  sets  of  differentbands  acquired  from  different  sensors;  Scenario  6  with  twoPolSAR\u002Foptical  (multispectral)  data  sets.  [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyulisun\u002FINLPG\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd rowspan=\"3\" >Street view\u003C\u002Ftd>\n\t    \u003Ctd>VL-CMU-CD  [\u003Ca href=\"#Ref-15\">15\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>1362 co-registered pairs of RGB and depth images, labeled ground truth change (e.g., bin, sign, vehicle, refuse, construction, traffic cone, person\u002Fcycle, barrier) and sky masks at pixel level. [\u003Ca href=\"http:\u002F\u002Fghsi.github.io\u002Fproj\u002FRSS2016.html\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>PCD 2015 [\u003Ca href=\"#Ref-16\">16\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>200 panoramic image pairs in \"TSUNAMI\" and \"GSV\" subset, with the size of 224 × 1024 pixels, label as changed and unchanged at pixel level. [\u003Ca href=\"http:\u002F\u002Fwww.vision.is.tohoku.ac.jp\u002Fus\u002Fdownload\u002F\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>Change detection dataset  [\u003Ca href=\"#Ref-17\">17\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>Image sequences of city streets captured by a vehicle-mounted camera at two different time points, with the size of 5000 × 2500 pixels, labeled 3D scene structure changes at pixel level. [\u003Ca href=\"http:\u002F\u002Fwww.vision.is.tohoku.ac.jp\u002Fus\u002Fresearch\u002F4d_city_modeling\u002Fchg_dataset\u002F\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \t\u003Ctr>\n       \u003Ctd rowspan=\"4\" >CV\u003C\u002Ftd>\n\t    \u003Ctd>CDNet 2012 [\u003Ca href=\"#Ref-18\">18\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd> 6 video categories with 4 to 6 videos sequences in each category, and the groundtruth images contain 5 labels namely: static, hard shadow, outside region of interest, unknown motion (usually around moving objects, due to semi-transparency and motion blur), and motion. [\u003Ca href=\"http:\u002F\u002Fjacarini.dinf.usherbrooke.ca\u002Fdataset2012\u002F\" target=\"_blank\">Download\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \t\u003Ctr>\n\t    \u003Ctd>CDNet 2014  [\u003Ca href=\"#Ref-19\">19\u003C\u002Fa>,\u003Ca href=\"#Ref-20\">20\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd> 22 additional videos (∼70; 000 pixel-wise annotated frames) spanning 5 new categories that incorporate challenges encountered in many surveillance settings, and provides realistic, camera captured (without CGI), diverse set of indoor and outdoor videos like the CDnet 2012. [\u003Ca href=\"http:\u002F\u002Fwww.changedetection.net\u002F\" target=\"_blank\">Download\u003C\u002Fa>]\n        \u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>ChangeSim  [\u003Ca href=\"#Ref-31\">31\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>a challenging dataset aimed at online scene change detection and more, collecting in photo-realistic simulation environments with the presence of environmental non-targeted variations, such as air turbidity and light condition changes, as well as targeted object changes in industrial indoor environments. [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSAMMiCA\u002FChangeSim\" target=\"_blank\">Download\u003C\u002Fa>]\n        \u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd colspan=\"2\"> \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMinZHANG-WHU\u002FChange-Detection-Review\u002Fblob\u002Fmaster\u002FVideo%20datasets.png\" target=\"_blank\"> More video datasets\u003C\u002Fa> \u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\nIt can be seen that the amount of open datasets that can be used for change detection tasks is small, and some of them have small data sizes. At present, there is still a lack of large SAR datasets that can be used for AI training. Most AI-based change detection methods are based on several SAR data sets that contain limited types of changes, e.g., the Bern dataset, the Ottawa dataset, the Yellow River dataset, and the Mexico dataset, which cannot meet the needs of change detection in areas with complex land cover and various change types. Moreover, their labels are not freely available. Street-view datasets are generally used for research of AI-based change detection methods in computer vision (CV). In CV, change detection based on pictures or video is also a hot research field, and the basic idea is consistent with that based on RS data. Therefore, in addition to street view image datasets, several video datasets in CV can also be used for research on AI-based change detection methods, such as CDNet 2012 and CDNet 2014. \n\n## 4. Applications\nThe development of AI-based change detection techniques has greatly facilitated many applications and has improved their automation and intelligence. Most AI-based change detection generates binary maps, and these studies only focus on the algorithm itself, without a specific application field. Therefore, it can be considered that they are generally suitable for LULC change detection. In this section, we focus on the techniques that are associated with specific applications, and they can be broadly divided into four categories:\n* **Urban contexts**: urban expansion, public space management, and building change detection;\n* **Resources and environment**: human-driven environmental changes, hydro-environmental changes, sea ice, surface water, and forest monitoring;\n* **Natural disasters**: landslide mapping and damage assessment;\n* **Astronomy**: planetary surfaces.\n\nWe provide an overview of the various change detection techniques in the literature for the different application categories. The works and data types associated with these applications are listed in Table 4.\n\n\n\u003Ctable>\n\u003Ccaption>Table 4. Summary of main applications of AI-based change detection techniques.\u003C\u002Fcaption>\n\t\u003Ctr>\n\t    \u003Cth colspan=\"2\">Applications\u003C\u002Fth>\n\t    \u003Cth>Data Types\u003C\u002Fth>\n\t    \u003Cth>Papers\u003C\u002Fth>  \n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd rowspan=\"10\">Urban contexts\u003C\u002Ftd>\n\t    \u003Ctd rowspan=\"2\">Urban expansion\u003C\u002Ftd>\n\t    \u003Ctd>Satellite images  \u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs10030471\" target=\"_blank\">Lyu et.al (2018)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1080\u002F01431160903475290\" target=\"_blank\">Tong et.al (2007)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>SAR images  \u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Generating+high-accuracy+urban+distribution+map+for+short-term+change+monitoring+based+on+convolutional+neural+network+by+utilizing+SAR+imagery&author=Iino,+S.&author=Ito,+R.&author=Doi,+K.&author=Imaizumi,+T.&author=Hikosaka,+S.&publication_year=2017\" target=\"_blank\">Iino et.al (2017)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>Public space management\u003C\u002Ftd>\n\t    \u003Ctd>Street view images\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=ChangeNet:+A+deep+learning+architecture+for+visual+change+detection&conference=Proceedings+of+the+European+Conference+on+Computer+Vision+(ECCV)&author=Varghese,+A.&author=Gubbi,+J.&author=Ramaswamy,+A.&author=Balamuralidhar,+P.&publication_year=2018&pages=129%E2%80%93145\" target=\"_blank\">Varghese et.al (2018)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Road surface\u003C\u002Ftd>\n\t    \u003Ctd>UAV images\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Fsu12062482\" target=\"_blank\">Truong et.al (2020)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd rowspan=\"6\">Building change detection\u003C\u002Ftd>\n\t    \u003Ctd>Aerial images\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11111343\" target=\"_blank\">Ji et.al (2019)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=A+deep+learning+approach+to+detecting+changes+in+buildings+from+aerial+images&conference=Proceedings+of+the+International+Symposium+on+Neural+Networks&author=Sun,+B.&author=Li,+G.-Z.&author=Han,+M.&author=Lin,+Q.-H.&publication_year=2019&pages=414%E2%80%93421\" target=\"_blank\">Sun et.al (2019)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1117\u002F12.2277912\" target=\"_blank\">Nemoto et.al (2017)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Satellite images\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.jvcir.2019.102585\" target=\"_blank\">Huang et.al (2019)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Change+Detection+Based+on+the+Combination+of+Improved+SegNet+Neural+Network+and+Morphology&conference=Proceedings+of+the+2018+IEEE+3rd+International+Conference+on+Image,+Vision+and+Computing+(ICIVC)&author=Zhu,+B.&author=Gao,+H.&author=Wang,+X.&author=Xu,+M.&author=Zhu,+X.&publication_year=2018&pages=55%E2%80%9359\" target=\"_blank\">Zhu et.al (2018)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Satellite\u002FAerial images\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs12030484\" target=\"_blank\">Jiang  et.al (2020)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2018.2858817\" target=\"_blank\">Ji et.al (2018)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2020.3000296\" target=\"_blank\">Saha et.al (2020)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Airborne laser scanning data and aerial images \u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11202417\" target=\"_blank\">Zhang et.al (2019)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>SAR images \u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11121444\" target=\"_blank\">Jaturapitpornchai et.al (2019)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Satellite images and GIS map\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11202427\" target=\"_blank\">Ghaffarian et.al (2019)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd rowspan=\"5\">Resources & environment \u003C\u002Ftd>\n\t    \u003Ctd>Human-driven environmental changes\u003C\u002Ftd>\n\t    \u003Ctd>Satellite images  \u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1117\u002F1.JRS.10.016021\" target=\"_blank\">Chen et.al (2016)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Hydro-environmental changes\u003C\u002Ftd>\n\t    \u003Ctd>Satellite images\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.jhydrol.2018.05.018\" target=\"_blank\">Nourani et.al (2018)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>Sea ice\u003C\u002Ftd>\n\t    \u003Ctd>SAR images\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2019.2906279\" target=\"_blank\">Gao et.al (2019)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2019.2895656\" target=\"_blank\">Gao et.al (2019)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Surface water\u003C\u002Ftd>\n\t    \u003Ctd>Satellite images\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.2112\u002FSI91-086.1\" target=\"_blank\">Song et.al (2019)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.jag.2014.08.014\" target=\"_blank\">Rokni et.al (2015)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Forest monitoring\u003C\u002Ftd>\n\t    \u003Ctd>Satellite images\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2017.2707528\" target=\"_blank\">Khan et.al (2017)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs8080678\" target=\"_blank\">Lindquist et.al (2016)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Comparison+of+pixel+-based+and+artificial+neural+networks+classification+methods+for+detecting+forest+cover+changes+in+Malaysia&conference=Proceedings+of+the+8th+International+Symposium+of+the+Digital+Earth,+Univ+Teknologi+Malaysia,+Inst+Geospatial+Sci+&+Technol&author=Deilmai,+B.R.&author=Kanniah,+K.D.&author=Rasib,+A.W.&author=Ariffin,+A.&publication_year=2014\" target=\"_blank\">Deilmai et.al (2014)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002FS0034-4257(01)00259-0\" target=\"_blank\">Woodcock et.al (2001)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002F36.485117\" target=\"_blank\">Gopal et.al (1996)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd rowspan=\"7\">Natural disasters\u003C\u002Ftd>\n\t    \u003Ctd rowspan=\"2\">Landslide mapping\u003C\u002Ftd>\n\t    \u003Ctd>Aerial images\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2020.2979693\" target=\"_blank\">Fang et.al (2020)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2018.2889307\" target=\"_blank\">Lei et.al (2019)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Satellite images\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Fs18030821\" target=\"_blank\">Chen et.al (2018)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Automatic+Recognition+of+Landslide+Based+on+CNN+and+Texture+Change+Detection&conference=Proceedings+of+the+2016+31st+Youth+Academic+Annual+Conference+of+Chinese-Association-of-Automation+(YAC)&author=Ding,+A.&author=Zhang,+Q.&author=Zhou,+X.&author=Dai,+B.&publication_year=2016&pages=444%E2%80%93448\" target=\"_blank\">Ding et.al (2016)\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1007\u002Fs11069-006-9041-x\" target=\"_blank\">Tarantino et.al (2006)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd rowspan=\"5\">Damage assessment \u003C\u002Ftd>\n\t    \u003Ctd>Satellite images\u003C\u002Ftd>\n        \u003Ctd>caused by tsunami [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11091123\" target=\"_blank\">Sublime et.al (2019)\u003C\u002Fa>,\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1007\u002Fs11069-015-1595-z\" target=\"_blank\">Singh et.al (2015)\u003C\u002Fa>], particular incident [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Change+detection+from+unlabeled+remote+sensing+images+using+siamese+ANN&conference=Proceedings+of+the+IGARSS+2019%E2%80%942019+IEEE+International+Geoscience+and+Remote+Sensing+Symposium&author=Hedjam,+R.&author=Abdesselam,+A.&author=Melgani,+F.&publication_year=2019&pages=1530%E2%80%931533\" target=\"_blank\">Hedjam et.al (2019)\u003C\u002Fa>], flood [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11212492\" target=\"_blank\">Peng et.al (2019)\u003C\u002Fa>], or earthquake [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11101202\" target=\"_blank\">Ji et.al (2019)\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Aerial images\u003C\u002Ftd>\n        \u003Ctd>caused by tsunami [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Damage+detection+from+aerial+images+via+convolutional+neural+networks&conference=Proceedings+of+the+2017+Fifteenth+IAPR+International+Conference+on+Machine+Vision+Applications+(MVA),+Nagoya+Univ&author=Fujita,+A.&author=Sakurada,+K.&author=Imaizumi,+T.&author=Ito,+R.&author=Hikosaka,+S.&author=Nakamura,+R.&publication_year=2017&pages=5%E2%80%938\" target=\"_blank\">Fujita et.al (2017)\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>SAR images\u003C\u002Ftd>\n        \u003Ctd>caused by fires  [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2017.2786344\" target=\"_blank\">Planinšič et.al (2018)\u003C\u002Fa>], or earthquake [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Destroyed-buildings+detection+from+VHR+SAR+images+using+deep+features&author=Saha,+S.&author=Bovolo,+F.&author=Bruzzone,+L.&publication_year=2018\" target=\"_blank\">Saha et.al (2018)\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Street view images \u003C\u002Ftd>\n        \u003Ctd>caused by tsunami [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Change+detection+from+a+street+image+pair+using+CNN+features+and+superpixel+segmentation&conference=Proceedings+of+the+British+Machine+Vision+Conference+(BMVC)&author=Sakurada,+K.&author=Okatani,+T.&publication_year=2015&pages=61.1%E2%80%9361.12\" target=\"_blank\">Sakurada et.al (2015)\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Street view images and GIS map \u003C\u002Ftd>\n        \u003Ctd>caused by tsunami [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.cviu.2017.01.012\" target=\"_blank\">Sakurada et.al (2017)\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Astronomy\u003C\u002Ftd>\n\t    \u003Ctd>Planetary surfaces\u003C\u002Ftd>\n\t    \u003Ctd>Satellite images\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FJSTARS.2019.2936771\" target=\"_blank\">Kerner et.al (2019)\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 5. Software programs\nThere are currently a large number of software with change detection tools, and we have a brief summary of them, see table 5.\n\u003Ctable>\n\u003Ccaption>Table 5. A list of software for change detection.\u003C\u002Fcaption>\n\t\u003Ctr>\n\t    \u003Cth>Type\u003C\u002Fth>\n\t    \u003Cth>Name\u003C\u002Fth>\n        \u003Cth>Description\u003C\u002Fth>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n    \u003Ctd rowspan=\"6\">Commercial\u003C\u002Ftd>\n    \u003Ctd>ERDAS IMAGINE\u003C\u002Ftd>\n    \u003Ctd>provides true value, consolidating remote sensing, photogrammetry, LiDAR analysis, basic vector analysis, and radar processing into a single product, including a variety of \u003Ca href=\"https:\u002F\u002Fwww.hexagongeospatial.com\u002Fproducts\u002Fpower-portfolio\u002Ferdas-imagine\u002Ferdas-imagine-remote-sensing-software-package\" target=\"_blank\">change detection tools\u003C\u002Fa>.\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n    \u003Ctd>ArcGIS\u003C\u002Ftd>\n    \u003Ctd> change detection can be calculate between two raster datasets by using the \u003Ca href=\"https:\u002F\u002Fsupport.esri.com\u002Fen\u002Ftechnical-article\u002F000001209\" target=\"_blank\">raster calculator tool\u003C\u002Fa> or \u003Ca href=\"https:\u002F\u002Fpro.arcgis.com\u002Fen\u002Fpro-app\u002Fhelp\u002Fanalysis\u002Fimage-analyst\u002Fdeep-learning-in-arcgis-pro.htm\" target=\"_blank\">deep learning workflow\u003C\u002Fa>. \u003C\u002Ftd>\n    \u003C\u002Ftr>\n     \u003Ctr>\n    \u003Ctd>ENVI\u003C\u002Ftd>\n    \u003Ctd>provides \u003Ca href=\"https:\u002F\u002Fwww.harrisgeospatial.com\u002Fdocs\u002FChangeDetectionAnalysis.html\" target=\"_blank\">change detection analysis tools\u003C\u002Fa> and the \u003Ca href=\"https:\u002F\u002Fwww.harrisgeospatial.com\u002FSoftware-Technology\u002FENVI-Deep-Learning\" target=\"_blank\"> ENVI deep learning module\u003C\u002Fa>.\u003C\u002Ftd>\n    \u003C\u002Ftr>\n     \u003Ctr>\n    \u003Ctd>eCognition\u003C\u002Ftd>\n    \u003Ctd>can be used for \u003Ca href=\"https:\u002F\u002Fgeospatial.trimble.com\u002Fproducts-and-solutions\u002Fecog-essentials-support-cases\" target=\"_blank\">a variety of change mapping\u003C\u002Fa>, and by leveraging deep learning technology from the Google TensorFlow™ library, eCognition empowers customers with highly sophisticated pattern recognition and correlation tools that automate the classification of objects of interest for faster and more accurate results,\u003Ca href=\"https:\u002F\u002Fgeospatial.trimble.com\u002Fecognition-whats-new\" target=\"_blank\"> more\u003C\u002Fa>.\u003C\u002Ftd>\n    \u003C\u002Ftr>\n     \u003Ctr>\n    \u003Ctd>PCI Geomatica\u003C\u002Ftd>\n    \u003Ctd> provides \u003Ca href=\"https:\u002F\u002Fsupport.pcigeomatics.com\u002Fhc\u002Fen-us\u002Farticles\u002F203483499-Change-Detection-Optical\" target=\"_blank\">change detection tools\u003C\u002Fa>, and can be useful in numerous circumstances in which you may want to analyze change, such as: storm damage, forest-fire damage, flooding, urban sprawl, and \u003Ca href=\"https:\u002F\u002Fsupport.pcigeomatics.com\u002Fhc\u002Fen-us\u002Farticles\u002F203483499-Change-Detection-Optical\" target=\"_blank\">more\u003C\u002Fa>.\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n    \u003Ctd>SenseTime\u003C\u002Ftd>\n    \u003Ctd> \u003Ca href=\"https:\u002F\u002Fwww.sensetime.com\u002Fen\u002FService\u002FRemoteSensing.html#product\" target=\"_blank\">SenseRemote remote sensing intelligent solutions\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n    \u003Ctd rowspan=\"3\">Open source\u003C\u002Ftd>\n    \u003Ctd>QGIS\u003C\u002Ftd>\n    \u003Ctd>provides many \u003Ca href=\"https:\u002F\u002Fplugins.qgis.org\u002Fplugins\u002Ftags\u002Fchange-detection\u002F\" target=\"_blank\">change detection tools\u003C\u002Fa>.\u003C\u002Ftd>\n    \u003C\u002Ftr>\n     \u003Ctr>\n    \u003Ctd>Orfeo ToolBox\u003C\u002Ftd>\n    \u003Ctd>change detection by \u003Ca href=\"https:\u002F\u002Fwww.orfeo-toolbox.org\u002FCookBook\u002FApplications\u002FChange_Detection.html\" target=\"_blank\">multivariate alteration detector (MAD) algorithm\u003C\u002Fa>.\u003C\u002Ftd>\n    \u003C\u002Ftr>\n   \u003Ctr>\n    \u003Ctd>Change Detection ToolBox\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBobholamovic\u002FChangeDetectionToolbox\" target=\"_blank\">MATLAB toolbox for remote sensing change detection\u003C\u002Fa>.\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003Ctable>\n\n## 6. Review papers for change detection\nThe following papers are helpful for researchers to better understand this  field of remote sensing change detection, see table 6.\n\u003Ctable>\n\u003Ccaption>Table 6. A list of review papers on change detection.\u003C\u002Fcaption>\n\t\u003Ctr>\n\t    \u003Cth>Published year\u003C\u002Fth>\n\t    \u003Cth>Review paper\u003C\u002Fth>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n    \u003Ctd>1989\u003C\u002Ftd>\n    \u003Ctd>Digital change detection techniques using remotely sensed data, IJRS. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1080\u002F01431168908903939\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t \u003Ctr>\n    \u003Ctd>2004\u003C\u002Ftd>\n    \u003Ctd>Digital change detection methods in ecosystem monitoring: a review, IJRS. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1080\u002F0143116031000101675\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t \u003Ctr>\n\t \u003Ctd>2004\u003C\u002Ftd>\n    \u003Ctd>Change detection techniques, IJRS. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1080\u002F0143116031000139863\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t \u003Ctr>\n\t\u003Ctd>2012\u003C\u002Ftd>\n    \u003Ctd>Object-based change detection, IJRS. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1080\u002F01431161.2011.648285\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t \u003Ctr>\n\t \u003Ctd>2013\u003C\u002Ftd>\n    \u003Ctd>Change detection from remotely sensed images: From pixel-based to object-based approaches, ISPRS. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.isprsjprs.2013.03.006\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2016\u003C\u002Ftd>\n    \u003Ctd>3D change detection–approaches and applications, ISPRS. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.isprsjprs.2016.09.013\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2016\u003C\u002Ftd>\n    \u003Ctd>Deep learning for remote sensing data a technical tutorial on the state of the art, MGRS. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FMGRS.2016.2540798\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2017\u003C\u002Ftd>\n    \u003Ctd>Comprehensive survey of deep learning in remote sensing: theories, tools, and challenges for the community, JRS. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1117\u002F1.JRS.11.042609\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2017\u003C\u002Ftd>\n    \u003Ctd>Deep Learning in Remote Sensing, MGRS. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FMGRS.2017.2762307\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2018\u003C\u002Ftd>\n    \u003Ctd>Computational intelligence in optical remote sensing image processing, ASOC. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.asoc.2017.11.045\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2019\u003C\u002Ftd>\n    \u003Ctd>A review of change detection in multitemporal hyperspectral images: current techniques, applications, and challenges, MGRS. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FMGRS.2019.2898520\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2019\u003C\u002Ftd>\n    \u003Ctd>Deep learning in remote sensing applications: A meta-analysis and review, ISPRS. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.isprsjprs.2019.04.015\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2020\u003C\u002Ftd>\n    \u003Ctd>Deep Learning for change detection in remote sensing images: comprehensive review and meta-analysis, arXiv. [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.05612\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2020\u003C\u002Ftd>\n    \u003Ctd>Change detection based on artificial intelligence: state-of-the-art and challenges, RS. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs12101688\" target=\"_blank\">paper\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003Ctable>\n\n## 7. Reference\n\u003Cspan id=\"Ref-1\">[1] Hyperspectral Change Detection Dataset. Available online: https:\u002F\u002Fcitius.usc.es\u002Finvestigacion\u002Fdatasets\u002Fhyperspectral-change-detection-dataset (accessed on 4 May 2020).\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-2\">[2] Wang, Q.; Yuan, Z.; Du, Q.; Li, X. GETNET: A General End-to-End 2-D CNN Framework for Hyperspectral Image Change Detection. IEEE Trans. Geosci. Remote Sens. 2018, 57, 3–13. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=GETNET:+A+General+End-to-End+2-D+CNN+Framework+for+Hyperspectral+Image+Change+Detection&author=Wang,+Q.&author=Yuan,+Z.&author=Du,+Q.&author=Li,+X.&publication_year=2018&journal=IEEE+Trans.+Geosci.+Remote+Sens.&volume=57&pages=3%E2%80%9313&doi=10.1109\u002FTGRS.2018.2849692\" target=\"_blank\">Google Scholar\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8418840\u002F\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-3\">[3] Daudt, R.C.; Le Saux, B.; Boulch, A.; Gousseau, Y. Multitask learning for large-scale semantic change detection. Comput. Vis. Image Underst. 2019, 187, 102783. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Multitask+learning+for+large-scale+semantic+change+detection&author=Daudt,+R.C.&author=Le+Saux,+B.&author=Boulch,+A.&author=Gousseau,+Y.&publication_year=2019&journal=Comput.+Vis.+Image+Underst.&volume=187&pages=102783&doi=10.1016\u002Fj.cviu.2019.07.003\" target=\"_blank\">Google Scholar\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.cviu.2019.07.003\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-4\">[4] Ji, S.; Wei, S.; Lu, M. Fully Convolutional Networks for Multisource Building Extraction from an Open Aerial and Satellite Imagery Data Set. IEEE Trans. Geosci. Remote Sens. 2018, 57, 574–586. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Fully+Convolutional+Networks+for+Multisource+Building+Extraction+from+an+Open+Aerial+and+Satellite+Imagery+Data+Set&author=Ji,+S.&author=Wei,+S.&author=Lu,+M.&publication_year=2018&journal=IEEE+Trans.+Geosci.+Remote+Sens.&volume=57&pages=574%E2%80%93586&doi=10.1109\u002FTGRS.2018.2858817\" target=\"_blank\">Google Scholar\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2018.2858817\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-5\">[5] Benedek, C.; Sziranyi, T. Change Detection in Optical Aerial Images by a Multilayer Conditional Mixed Markov Model. IEEE Trans. Geosci. Remote Sens. 2009, 47, 3416–3430. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Change+Detection+in+Optical+Aerial+Images+by+a+Multilayer+Conditional+Mixed+Markov+Model&author=Benedek,+C.&author=Sziranyi,+T.&publication_year=2009&journal=IEEE+Trans.+Geosci.+Remote+Sens.&volume=47&pages=3416%E2%80%933430&doi=10.1109\u002FTGRS.2009.2022633\" target=\"_blank\">Google Scholar\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2009.2022633\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-6\">[6] Benedek, C.; Sziranyi, T. A Mixed Markov model for change detection in aerial photos with large time differences. In Proceedings of the 2008 19th International Conference on Pattern Recognition, Tampa, FL, USA, 8–11 December 2008; pp. 1–4. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=A+Mixed+Markov+model+for+change+detection+in+aerial+photos+with+large+time+differences&conference=Proceedings+of+the+2008+19th+International+Conference+on+Pattern+Recognition&author=Benedek,+C.&author=Sziranyi,+T.&publication_year=2008&pages=1%E2%80%934\" target=\"_blank\">Google Scholar\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-7\">[7] Daudt, R.C.; Le Saux, B.; Boulch, A.; Gousseau, Y. Urban change detection for multispectral earth observation using convolutional neural networks. In Proceedings of the IGARSS 2018 IEEE International Geoscience and Remote Sensing Symposium, Valencia, Spain, 22–27 July 2018; pp. 2115–2118. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Urban+change+detection+for+multispectral+earth+observation+using+convolutional+neural+networks&conference=Proceedings+of+the+IGARSS+2018+IEEE+International+Geoscience+and+Remote+Sensing+Symposium&author=Daudt,+R.C.&author=Le+Saux,+B.&author=Boulch,+A.&author=Gousseau,+Y.&publication_year=2018&pages=2115%E2%80%932118\" target=\"_blank\">Google Scholar\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-8\">[8] Zhang, M.; Shi, W. A Feature Difference Convolutional Neural Network-Based Change Detection Method. IEEE Trans. Geosci. Remote Sens. 2020, 1–15.  [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=A+Feature+Difference+Convolutional+Neural+Network-Based+Change+Detection+Method&author=Zhang,+M.&author=Shi,+W.&publication_year=2020&journal=IEEE+Trans.+Geosci.+Remote+Sens.&pages=1%E2%80%9315&doi=10.1109\u002Ftgrs.2020.2981051\" target=\"_blank\">Google Scholar\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002Ftgrs.2020.2981051\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-9\">[9] Wu, C.; Zhang, L.; Zhang, L. A scene change detection framework for multi-temporal very high resolution remote sensing images. Signal Process. 2016, 124, 184–197. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=A+scene+change+detection+framework+for+multi-temporal+very+high+resolution+remote+sensing+images&author=Wu,+C.&author=Zhang,+L.&author=Zhang,+L.&publication_year=2016&journal=Signal+Process.&volume=124&pages=184%E2%80%93197&doi=10.1016\u002Fj.sigpro.2015.09.020\" target=\"_blank\">Google Scholar\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.sigpro.2015.09.020\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-10\">[10] Fujita, A.; Sakurada, K.; Imaizumi, T.; Ito, R.; Hikosaka, S.; Nakamura, R. Damage detection from aerial images via convolutional neural networks. In Proceedings of the 2017 Fifteenth IAPR International Conference on Machine Vision Applications (MVA), Nagoya Univ, Nagoya, Japan, 08–12 May 2017; pp. 5–8 [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Damage+detection+from+aerial+images+via+convolutional+neural+networks&conference=Proceedings+of+the+2017+Fifteenth+IAPR+International+Conference+on+Machine+Vision+Applications+(MVA),+Nagoya+Univ&author=Fujita,+A.&author=Sakurada,+K.&author=Imaizumi,+T.&author=Ito,+R.&author=Hikosaka,+S.&author=Nakamura,+R.&publication_year=2017&pages=5%E2%80%938\" target=\"_blank\">Google Scholar\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-11\">[11] Gupta, R.; Goodman, B.; Patel, N.; Hosfelt, R.; Sajeev, S.; Heim, E.; Doshi, J.; Lucas, K.; Choset, H.; Gaston, M. Creating xBD: A dataset for assessing building damage from satellite imagery. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, Long Beach, CA, USA, 16–20 June 2019; pp. 10–17. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Creating+xBD:+A+dataset+for+assessing+building+damage+from+satellite+imagery&conference=Proceedings+of+the+IEEE+Conference+on+Computer+Vision+and+Pattern+Recognition+Workshops&author=Gupta,+R.&author=Goodman,+B.&author=Patel,+N.&author=Hosfelt,+R.&author=Sajeev,+S.&author=Heim,+E.&author=Doshi,+J.&author=Lucas,+K.&author=Choset,+H.&author=Gaston,+M.&publication_year=2019&pages=10%E2%80%9317\" target=\"_blank\">Google Scholar\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-12\">[12] Bourdis, N.; Marraud, D.; Sahbi, H. Constrained optical flow for aerial image change detection. In Proceedings of the 2011 IEEE International Geoscience and Remote Sensing Symposium, Vancouver, BC, Canada, 24–29 July 2011; pp. 4176–4179. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Constrained+optical+flow+for+aerial+image+change+detection&conference=Proceedings+of+the+2011+IEEE+International+Geoscience+and+Remote+Sensing+Symposium&author=Bourdis,+N.&author=Marraud,+D.&author=Sahbi,+H.&publication_year=2011&pages=4176%E2%80%934179&doi=10.1109\u002Figarss.2011.6050150\" target=\"_blank\">Google Scholar\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002Figarss.2011.6050150\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-13\">[13] Lebedev, M.A.; Vizilter, Y.V.; Vygolov, O.V.; Knyaz, V.A.; Rubis, A.Y. Change detection in remote sensing images using conditional adversarial networks. ISPRS Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. 2018, 565–571. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Change+detection+in+remote+sensing+images+using+conditional+adversarial+networks&author=Lebedev,+M.A.&author=Vizilter,+Y.V.&author=Vygolov,+O.V.&author=Knyaz,+V.A.&author=Rubis,+A.Y.&publication_year=2018&journal=ISPRS+Int.+Arch.+Photogramm.+Remote+Sens.+Spat.+Inf.+Sci.&pages=565%E2%80%93571&doi=10.5194\u002Fisprs-archives-XLII-2-565-2018\" target=\"_blank\">Google Scholar\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.5194\u002Fisprs-archives-XLII-2-565-2018\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-14\">[14] Chen, H.; Shi, Z. A Spatial-Temporal Attention-Based Method and a New Dataset for Remote Sensing Image Change Detection. Remote Sensing, 12(10), 1662. [\u003Ca href=\"https:\u002F\u002Fscholar.google.co.jp\u002Fscholar?q=A+Spatial-Temporal+Attention-Based+Method+and+a+New+Dataset+for+Remote+Sensing+Image+Change+Detection&hl=zh-TW&as_sdt=0&as_vis=1&oi=scholart\" target=\"_blank\">Google Scholar\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs12101662\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-15\">[15] Alcantarilla, P.F.; Stent, S.; Ros, G.; Arroyo, R.; Gherardi, R. Street-view change detection with deconvolutional networks. Auton. Robot. 2018, 42, 1301–1322. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Street-view+change+detection+with+deconvolutional+networks&author=Alcantarilla,+P.F.&author=Stent,+S.&author=Ros,+G.&author=Arroyo,+R.&author=Gherardi,+R.&publication_year=2018&journal=Auton.+Robot.&volume=42&pages=1301%E2%80%931322&doi=10.1007\u002Fs10514-018-9734-5\" target=\"_blank\">Google Scholar\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1007\u002Fs10514-018-9734-5\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-16\">[16] Sakurada, K.; Okatani, T. Change detection from a street image pair using CNN features and superpixel segmentation. In Proceedings of the British Machine Vision Conference (BMVC), Swansea, UK, 7–10 September 2015; pp. 61.1–61.12. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Change+detection+from+a+street+image+pair+using+CNN+features+and+superpixel+segmentation&conference=Proceedings+of+the+British+Machine+Vision+Conference+(BMVC)&author=Sakurada,+K.&author=Okatani,+T.&publication_year=2015&pages=61.1%E2%80%9361.12\" target=\"_blank\">Google Scholar\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-17\">[17] Sakurada, K.; Okatani, T.; Deguchi, K. Detecting changes in 3D structure of a scene from multi-view images captured by a vehicle-mounted camera. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Portland, OR, USA, 23–28 June 2013; pp. 137–144. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Detecting+changes+in+3D+structure+of+a+scene+from+multi-view+images+captured+by+a+vehicle-mounted+camera&conference=Proceedings+of+the+IEEE+Conference+on+Computer+Vision+and+Pattern+Recognition&author=Sakurada,+K.&author=Okatani,+T.&author=Deguchi,+K.&publication_year=2013&pages=137%E2%80%93144\" target=\"_blank\">Google Scholar\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-18\">[18] Goyette, N.; Jodoin, P.-M.; Porikli, F.; Konrad, J.; Ishwar, P. Changedetection. net: A new change detection benchmark dataset. In Proceedings of the 2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, Providence, RI, USA, 16–21 June 2012; pp. 1–8. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Changedetection.+net:+A+new+change+detection+benchmark+dataset&conference=Proceedings+of+the+2012+IEEE+Computer+Society+Conference+on+Computer+Vision+and+Pattern+Recognition+Workshops&author=Goyette,+N.&author=Jodoin,+P.-M.&author=Porikli,+F.&author=Konrad,+J.&author=Ishwar,+P.&publication_year=2012&pages=1%E2%80%938\" target=\"_blank\">Google Scholar\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-19\">[19] Wang, Y.; Jodoin, P.-M.; Porikli, F.; Konrad, J.; Benezeth, Y.; Ishwar, P. CDnet 2014: An Expanded Change Detection Benchmark Dataset. In Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops, Columbus, OH, USA, 23–28 June 2014; pp. 393–400.  [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=CDnet+2014:+An+Expanded+Change+Detection+Benchmark+Dataset&conference=Proceedings+of+the+2014+IEEE+Conference+on+Computer+Vision+and+Pattern+Recognition+Workshops&author=Wang,+Y.&author=Jodoin,+P.-M.&author=Porikli,+F.&author=Konrad,+J.&author=Benezeth,+Y.&author=Ishwar,+P.&publication_year=2014&pages=393%E2%80%93400\" target=\"_blank\">Google Scholar\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-20\">[20] Goyette, N.; Jodoin, P.-M.; Porikli, F.; Konrad, J.; Ishwar, P. A Novel Video Dataset for Change Detection Benchmarking. IEEE Trans. Image Process. 2014, 23, 4663–4679. [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=A+Novel+Video+Dataset+for+Change+Detection+Benchmarking&author=Goyette,+N.&author=Jodoin,+P.-M.&author=Porikli,+F.&author=Konrad,+J.&author=Ishwar,+P.&publication_year=2014&journal=IEEE+Trans.+Image+Process.&volume=23&pages=4663%E2%80%934679&doi=10.1109\u002FTIP.2014.2346013\" target=\"_blank\">Google Scholar\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTIP.2014.2346013\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-21\">[21] Volpi, Michele; Camps-Valls, Gustau; Tuia, Devis (2015). Spectral alignment of multi-temporal cross-sensor images with automated kernel canonical correlation analysis; ISPRS Journal of Photogrammetry and Remote Sensing, vol. 107, pp. 50-63, 2015. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.isprsjprs.2015.02.005\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-22\">[22] L. T. Luppino, F. M. Bianchi, G. Moser and S. N. Anfinsen. Unsupervised Image Regression for Heterogeneous Change Detection. IEEE Transactions on Geoscience and Remote Sensing. 2019, vol. 57, no. 12, pp. 9960-9975. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2019.2930348\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-23\">[23] D. Peng, L. Bruzzone, Y. Zhang, H. Guan, H. Ding and X. Huang, SemiCDNet: A Semisupervised Convolutional Neural Network for Change Detection in High Resolution Remote-Sensing Images. IEEE Transactions on Geoscience and Remote Sensing. 2020. [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2020.3011913\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-24\">[24] Yang, Kunping, et al. Asymmetric Siamese Networks for Semantic Change Detection. arXiv preprint arXiv:2010.05687 (2020). [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.05687\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-25\">[25] Zhang, C., Yue, P., Tapete, D., Jiang, L., Shangguan, B., Huang, L., & Liu, G. A deeply supervised image fusion network for change detection in high resolution bi-temporal remote sensing images. ISPRS Journal of Photogrammetry and Remote Sensing. 2020. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.isprsjprs.2020.06.003\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-26\">[26] LEENSTRA, Marrit, et al. Self-supervised pre-training enhances change detection in Sentinel-2 imagery. arXiv. 2021. [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.08122\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-27\">[27] SHI, Qian, et al. A Deeply Supervised Attention Metric-Based Network and an Open Aerial Image Dataset for Remote Sensing Change Detection. IEEE Transactions on Geoscience and Remote Sensing. 2021. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTGRS.2021.3085870\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-28\">[28] SHEN, Li, et al. S2Looking: A Satellite Side-Looking Dataset for Building Change Detection. arXiv. 2021. [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.09244\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-29\">[29] LEBEDEV, M. A., et al. CHANGE DETECTION IN REMOTE SENSING IMAGES USING CONDITIONAL ADVERSARIAL NETWORKS. International Archives of the Photogrammetry, Remote Sensing & Spatial Information Sciences, 2018. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.5194\u002Fisprs-archives-XLII-2-565-2018\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-30\">[30] SUN, Yuli, et al. Structure Consistency-Based Graph for Unsupervised Change Detection With Homogeneous and Heterogeneous Remote Sensing Images. IEEE Transactions on Geoscience and Remote Sensing, 2021. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.5194\u002F10.1109\u002FTGRS.2021.3053571\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-31\">[31] PARK, Jin-Man, et al. ChangeSim: Towards End-to-End Online Scene Change Detection in Industrial Indoor Environments. arXiv. 2021. [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.05368\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\n\n## Cite\nIf you find this review helpful to you, please consider citing our paper. [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs12101688\" target=\"_blank\">Open Access\u003C\u002Fa>]\n\n```\n@Article{rs12101688,\nAUTHOR = {Shi, Wenzhong and Zhang, Min and Zhang, Rui and Chen, Shanxiong and Zhan, Zhao},\nTITLE = {Change Detection Based on Artificial Intelligence: State-of-the-Art and Challenges},\nJOURNAL = {Remote Sensing},\nVOLUME = {12},\nYEAR = {2020},\nNUMBER = {10},\nARTICLE-NUMBER = {1688},\nURL = {https:\u002F\u002Fwww.mdpi.com\u002F2072-4292\u002F12\u002F10\u002F1688},\nISSN = {2072-4292},\nDOI = {10.3390\u002Frs12101688}\n}\n```\n\n## Note\nThis list will be updated in time, and volunteer contributions are welcome. For questions or sharing, please feel free to [contact us](mailto:007zhangmin@whu.edu.cn) or make issues.\n\n##### Reference materials:\n* [I-Hope-Peace\u002FChangeDetectionRepository](https:\u002F\u002Fgithub.com\u002FI-Hope-Peace\u002FChangeDetectionRepository)\n* [Michele Volpi personal research page](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fmichelevolpiresearch\u002Fcodes)\n* [llu025\u002FHeterogeneous_CD](https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD)\n* [wenhwu\u002Fawesome-remote-sensing-change-detection](https:\u002F\u002Fgithub.com\u002Fwenhwu\u002Fawesome-remote-sensing-change-detection)\n* [neverstoplearn\u002Fremote_sensing_change_detection](https:\u002F\u002Fgithub.com\u002Fneverstoplearn\u002Fremote_sensing_change_detection)\n* [Change Detection in GIS](https:\u002F\u002Fwww.gislounge.com\u002Fchange-detection-in-gis\u002F)\n* [Gao Feng personal research page](http:\u002F\u002Ffeng-gao.cn\u002F)\n* [Bobholamovic\u002FChangeDetectionToolbox](https:\u002F\u002Fgithub.com\u002FBobholamovic\u002FChangeDetectionToolbox)\n\n","# 基于人工智能的变化检测：最新进展与挑战\n\n## 1. 引言\n基于遥感（RS）数据的变化检测是探测地球表面变化的重要方法，在城市规划、环境监测、农业调查、灾害评估和地图更新等领域有着广泛的应用。近年来，融合人工智能（AI）技术已成为开发新型变化检测方法的研究热点。尽管有研究者声称基于AI的变化检测方法优于传统方法，但AI究竟如何以及在多大程度上提升变化检测性能仍不甚明了。本综述聚焦于AI在变化检测领域的最新方法、应用及面临的挑战。具体而言，首先介绍基于AI的变化检测实现流程；随后，阐述用于变化检测的不同传感器数据，包括光学遥感数据、合成孔径雷达（SAR）数据、街景图像以及多源异构数据，并列出现有的公开数据集；系统性地回顾并分析基于AI的变化检测方法的通用框架，进一步探讨无监督方案在其中的应用；接着，描述AI在变化检测中常用的网络结构；从实践角度出发，依据适用性将基于AI的变化检测方法的应用领域进行分类；最后，讨论并梳理AI在变化检测中的主要挑战与未来展望，包括（a）异构大数据处理、（b）无监督AI以及（c）AI的可靠性问题。本综述将有助于研究人员更好地理解该研究领域。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMinZHANG-WHU_Change-Detection-Review_readme_b504048816de.png)\n\u003Ccenter>图1. 变化检测的一般示意图。\u003C\u002Fcenter>\n\n## 2. 实现流程\n\n图2展示了基于AI的变化检测的一般实现流程，然而AI模型的具体结构多种多样，需根据不同的应用场景和训练数据进行合理设计。值得一提的是，现有的成熟框架如\u003Ca href=\"https:\u002F\u002Fwww.tensorflow.org\u002F\" target=\"_blank\">TensorFlow\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fkeras.io\u002F\" target=\"_blank\">Keras\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fpytorch.org\u002F\" target=\"_blank\">PyTorch\u003C\u002Fa>和\u003Ca href=\"https:\u002F\u002Fcaffe.berkeleyvision.org\u002F\" target=\"_blank\">Caffe\u003C\u002Fa>等，能够帮助研究人员更便捷地完成AI模型的设计、训练与部署，其官方文档也提供了详尽的说明。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMinZHANG-WHU_Change-Detection-Review_readme_528a4e9c8112.png)\n\u003Ccenter>图2. 基于AI的变化检测实现流程（黑色箭头表示工作流，红色箭头表示示例）。\u003C\u002Fcenter>\n\n### 2.1 基于AI方法的可用代码\n\n\u003Ctable>\n\u003Ccaption>表1. 基于人工智能的变化检测方法可用代码列表。\u003C\u002Fcaption>\n\t\u003Ctr>\n\t    \u003Cth>方法\u003C\u002Fth>\n\t    \u003Cth>关键词\u003C\u002Fth>\n\t    \u003Cth>发表文献\u003C\u002Fth>  \n        \u003Cth>(重新)实现\u003C\u002Fth>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SRCDNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN；孪生网络；注意力机制；超分辨率；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>基于堆叠注意力模块的超分辨率变化检测网络，适用于不同分辨率影像，TGRS, 2021年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTGRS.2021.3091758\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fliumency\u002FSRCDNet\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch 1.2\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>ESCNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN；孪生网络；超像素；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>面向超高分辨率遥感影像的端到端超像素增强型变化检测网络。TNNLS, 2021年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTNNLS.2021.3089332\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBobholamovic\u002FESCNet\" target=\"_blank\">代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch 1.3\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>KPCAMNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN；孪生网络；核主成分分析；无监督；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>基于深度核主成分分析卷积映射网络的多时相超高分辨率影像无监督变化检测，TCYB, 2021年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTCYB.2021.3086884\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FI-Hope-Peace\u002FKPCAMNet\" target=\"_blank\">代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Python\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SeCo\u003C\u002Ftd>\n\t    \u003Ctd>CNN（ResNet）；迁移学习；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>季节对比：来自未标注遥感数据的无监督预训练，arXiv, 2021年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.16607\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FElementAI\u002Fseasonal-contrast\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch 1.7\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>CapsNet\u003C\u002Ftd>\n\t    \u003Ctd>胶囊网络（SegCaps）；条件变分自动编码器；孪生网络；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>用于航空遥感影像变化检测的伪孪生胶囊网络，GRSL, 2020年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FLGRS.2020.3022512\" target=\"_blank\">论文1\u003C\u002Fa>]，光学遥感影像变化检测的胶囊网络，RS, 2021年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FLGRS.2020.3022512\" target=\"_blank\">论文2\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fxuquanfu\u002Fcapsule_change_detection\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>BIT_CD\u003C\u002Ftd>\n\t    \u003Ctd>CNN（ResNet18）；孪生网络；注意力机制；Transformer；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>基于Transformer的遥感影像变化检测，TGRS, 2021年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTGRS.2021.3095166\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjustchenhao\u002FBIT_CD\" target=\"_blank\">代码、数据集、预训练模型\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch 1.6\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>IAug_CDNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN（GauGAN+UNet）；孪生网络；生成对抗网络；有监督；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>遥感影像建筑物变化检测中的对抗式实例增强，TGRS, 2021年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTGRS.2021.3066802\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjustchenhao\u002FIAug_CDNet\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>DDNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN；DI+FCM；无监督；合成孔径雷达影像\u003C\u002Ftd>\n\t    \u003Ctd>利用双域网络进行合成孔径雷达影像变化检测，GRSL, 2021年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FLGRS.2021.3073900\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_CD_DDNet\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SNUNet-CD\u003C\u002Ftd>\n\t    \u003Ctd>CNN（NestedUNet）；孪生网络；注意力机制；有监督；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>SNUNet-CD：一种用于超高分辨率影像变化检测的密集连接孪生网络，GRSL, 2021年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FLGRS.2021.3056416\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flikyoo\u002FSiam-NestedUNet\" target=\"_blank\">代码、数据集、预训练模型\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch 1.4\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>DSMSCN\u003C\u002Ftd>\n\t    \u003Ctd>CNN；孪生网络；多尺度；无监督\u002F有监督；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>用于高分辨率双时相遥感影像变化检测的深度监督图像融合网络，arXiv, 2020年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.11479\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FI-Hope-Peace\u002FDSMSCN\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Tensorflow 1.9\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SiamCRNN\u003C\u002Ftd>\n\t    \u003Ctd>CNN+RNN；孪生网络；多源；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>通过深度孪生卷积多层循环神经网络进行多源超高分辨率影像变化检测，TGRS, 2020年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTGRS.2019.2956756\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FI-Hope-Peace\u002FSiamCRNN\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Tensorflow 1.9\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>DSIFN\u003C\u002Ftd>\n\t    \u003Ctd>CNN；注意力机制；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>用于高分辨率双时相遥感影像变化检测的深度监督图像融合网络，ISPRS, 2020年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.isprsjprs.2020.06.003\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FGeoZcx\u002FA-deeply-supervised-image-fusion-network-for-change-detection-in-remote-sensing-images\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch & Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>CEECNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN；注意力机制；相似度度量；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>寻找变化？掷骰子并引起关注，arXiv, 2020年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.02062\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ffeevos\u002Fceecnet\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>MXNet + Python\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>LamboiseNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN（轻量级UNet++）；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>利用深度学习进行卫星影像变化检测，硕士论文。 [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhbaudhuin\u002FLamboiseNet\" target=\"_blank\">代码、数据集、预训练模型\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>DTCDSCN\u003C\u002Ftd>\n\t    \u003Ctd>CNN；孪生网络\u003C\u002Ftd>\n\t    \u003Ctd>使用双重任务约束的深度孪生卷积网络模型进行遥感影像建筑物变化检测，正在审稿中。 [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ffitzpchao\u002FDTCDSCN\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>Land-Cover-Analysis\u003C\u002Ftd>\n\t    \u003Ctd>CNN（UNet）；后分类法；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>利用卷积神经网络检测受飓风影响地区的土地利用\u002F土地覆盖变化。 [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FKalit31\u002FLand-Cover-Analysis\u002Fblob\u002Fmaster\u002FReport.pdf\" target=\"_blank\">报告\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FKalit31\u002FLand-Cover-Analysis\" target=\"_blank\">代码、数据集、预训练模型\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow+Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>CorrFusionNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN；场景级；孪生网络；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>基于相关性的融合网络，用于多时相场景分类和变化检测，正在审稿中。 [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frulixiang\u002FCorrFusionNet\" target=\"_blank\">代码、预训练模型\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frulixiang\u002FMtS-WH-Dataset\" target=\"_blank\">数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow 1.8\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SSCDNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN（ResNet18）；孪生网络；迁移学习；语义；街景影像\u003C\u002Ftd>\n\t    \u003Ctd>弱监督下的基于轮廓的语义场景变化检测，ICRA, 2020年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1811.11985\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fxdspacelab\u002Fsscdnet\" target=\"_blank\">代码、数据集、预训练模型\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch+Python3.6\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Heterogeneous_CD\u003C\u002Ftd>\n\t    \u003Ctd>AE（对齐编码自编码器）；无监督；变换；异构；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>用于多模态遥感影像无监督变化检测的对齐编码自编码器，arXiv, 2020年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.07011\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002FCode-Aligned_Autoencoders\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow 2.0\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>FDCNN\u003C\u002Ftd>\n\t    \u003Ctd>CNN（VGG16）；迁移学习；纯孪生网络；多尺度；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>基于特征差异的卷积神经网络变化检测方法，TGRS, 2020年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002Ftgrs.2020.2981051\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMinZHANG-WHU\u002FFDCNN\" target=\"_blank\">代码、数据集、预训练模型\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Caffe+Python2.7\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>STANet\u003C\u002Ftd>\n\t    \u003Ctd>CNN（ResNet-18）；注意力机制；纯孪生网络；时空依赖性；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>基于时空注意力的方法及新的遥感影像变化检测数据集，RS, 2020年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs12101662\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjustchenhao\u002FSTANet\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch+Python3.6\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctr>\n\t    \u003Ctd>X-Net\u003C\u002Ftd>\n\t    \u003Ctd>CNN；无监督；变换；异构；光学遥感影像；合成孔径雷达影像\u003C\u002Ftd>\n\t    \u003Ctd>基于亲和力先验的深度图像转换，用于无监督多模态变化检测，2020年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2001.04271\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002Flegacy\u002FDeep_Image_Translation\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Tensorflow 1.4\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctr>\n\t    \u003Ctd>ACE-Net\u003C\u002Ftd>\n\t    \u003Ctd>AE（对抗循环编码器）；无监督；变换；异构；光学遥感影像；合成孔径雷达影像\u003C\u002Ftd>\n\t    \u003Ctd>基于亲和力先验的深度图像转换，用于无监督多模态变化检测，2020年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2001.04271\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002Flegacy\u002FDeep_Image_Translation\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Tensorflow 1.4\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>VGG_LR\u003C\u002Ftd>\n\t    \u003Ctd>CNN（VGG16）；迁移学习；纯孪生网络；SLIC；低秩；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>基于深度特征和低秩的变化检测，GRSL, 2017年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2017.2766840\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMinZHANG-WHU\u002FFDCNN\u002Ftree\u002Fmaster\u002Fvgg_lr\" target=\"_blank\">重实现代码、数据集、预训练模型\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Caffe+Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>CDNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN；孪生网络；多模态数据；点云数据\u003C\u002Ftd>\n\t    \u003Ctd>检测机载激光扫描与摄影测量数据之间的建筑物变化，RS, 2019年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs11202417\" target=\"_blank\">论文\u003C\u002Fa>]，[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZhenchaolibrary\u002FPointCloud2PointCloud-Change-Detection\" target=\"_blank\">代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>SCCN\u003C\u002Ftd>\n\t    \u003Ctd>AE（DAE）；无监督；异构；光学遥感影像；合成孔径雷达影像\u003C\u002Ftd>\n\t    \u003Ctd>用于基于异构光学和雷达影像变化检测的深度卷积耦合网络，TNNLS, 2018年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTNNLS.2016.2636227\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002FCode-Aligned_Autoencoders\" target=\"_blank\">重实现代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow 2.0\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>cGAN\u003C\u002Ftd>\n\t    \u003Ctd>GAN（条件生成对抗网络）；异构；光学遥感影像；合成孔径雷达影像\u003C\u002Ftd>\n\t    \u003Ctd>用于异构影像变化检测的条件对抗网络，GRSL, 2019年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2018.2868704\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002FCode-Aligned_Autoencoders\" target=\"_blank\">重实现代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow 2.0\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>DASNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN（VGG16）；孪生网络；注意力机制；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>DASNet：用于高分辨率卫星影像变化检测的双注意力全卷积孪生网络，arXiv, 2020年。 [\u003Ca href=\"\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flehaifeng\u002FDASNet\" target=\"_blank\">代码、数据集、预训练模型\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch+Python3.6\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>UNetLSTM\u003C\u002Ftd>\n\t    \u003Ctd>CNN（UNet）；RNN（LSTM）；集成模型；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>利用多时相Sentinel-2数据结合循环神经网络检测城市变化，IGARSS, 2019年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.07778\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fgranularai\u002Fchip_segmentation_fabric\" target=\"_blank\">代码、数据集、预训练模型\u003C\u002Fa]以及[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSebastianHafner\u002Furban_change_detection\" target=\"_blank\">代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch+Python3.6\u003C\u002Ftd>\n\t\u003C\u002Ftr>\u003Ctr>\n\t    \u003Ctd>CDMI-Net\u003C\u002Ftd>\n\t    \u003Ctd>CNN（Unet）；纯孪生网络；多实例学习；滑坡测绘；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>用于滑坡测绘的深度多实例学习，GRSL, 2020年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2020.3007183\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMinZHANG-WHU\u002FCDMI-Net\" target=\"_blank\">代码、预训练模型\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch+Python3.6\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>DSFANet\u003C\u002Ftd>\n\t    \u003Ctd>DNN；无监督；预分类；慢特征分析；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>用于多时相遥感影像变化检测的无监督深度慢特征分析，TGRS, 2019年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2019.2930682\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frulixiang\u002FDSFANet\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow 1.7\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>CD-UNet++\u003C\u002Ftd>\n\t    \u003Ctd>CNN（改进的UNet++）；直接分类；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>利用改进的UNet++进行高分辨率卫星影像端到端变化检测，RS, 2019年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs11111382\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdaifeng2016\u002FEnd-to-end-CD-for-VHR-satellite-image\" target=\"_blank\">代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow+Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>SiameseNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN（VGG16）；纯孪生网络；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>具有多级特征的孪生网络，用于卫星影像的基于补丁的变化检测，GlobalSIP, 2018年。 [\u003Ca href=\"https:\u002F\u002Fsigport.org\u002Fdocuments\u002Fsiamese-network-multi-level-features-patch-based-change-detection-satellite-imagery\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvbhavank\u002FSiamese-neural-network-for-change-detection\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow+Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>Re3FCN\u003C\u002Ftd>\n\t    \u003Ctd>CNN（ConvLSTM）；PCA；3D卷积；多类别变化；光学遥感影像；高光谱影像\u003C\u002Ftd>\n\t    \u003Ctd>利用递归3D全卷积网络进行高光谱影像变化检测，RS, 2018年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs10111827\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmkbensalah\u002FChange-Detection-in-Hyperspectral-Images\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow+Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>FC-EF、FC-Siam-conc、FC-Siam-diff\u003C\u002Ftd>\n\t    \u003Ctd>CNN（UNet）；纯孪生网络；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>用于变化检测的全卷积孪生网络，ICIP, 2018年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.08462\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frcdaudt\u002Ffully_convolutional_change_detection\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>CosimNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN（Deeplab v2）；纯孪生网络；街景影像\u003C\u002Ftd>\n\t    \u003Ctd>学会衡量变化：用于场景变化检测的全卷积孪生度量网络，arXiv, 2018年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.09111\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fgmayday1997\u002FSceneChangeDet\" target=\"_blank\">代码、数据集、预训练模型\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch+Python2.7\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Mask R-CNN\u003C\u002Ftd>\n\t    \u003Ctd>Mask R-CNN（ResNet-101）；迁移学习；后分类；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>贫民窟分割与变化检测：一种深度学习方法，NIPS, 2018年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1811.07896\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcbsudux\u002FMumbai-slum-segmentation\" target=\"_blank\">代码、数据集、预训练模型\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow+Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>CaffeNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN（CaffeNet）；无监督；迁移学习；光学遥感影像\u003C\u002Ftd>\n\t    \u003Ctd>基于卷积神经网络特征的卫星影像变化检测，IWPR, 2016年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1117\u002F12.2243798\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvbhavank\u002FUnstructured-change-detection-using-CNN\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>TensorFlow+Keras\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>CWNN\u003C\u002Ftd>\n\t    \u003Ctd>CNN（CWNN）；无监督；预分类；合成孔径雷达影像\u003C\u002Ftd>\n\t    \u003Ctd>基于卷积–小波神经网络的合成孔径雷达影像海冰变化检测，GRSL, 2019年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2019.2895656\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_Change_Detection_CWNN\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>MLFN\u003C\u002Ftd>\n\t    \u003Ctd>CNN（DenseNet）；迁移学习；合成孔径雷达影像\u003C\u002Ftd>\n\t    \u003Ctd>从合成孔径雷达影像转移来的深度学习技术用于海冰变化检测，GRSL, 2019年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2019.2906279\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR-Change-Detection-MLFN\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Caffe+Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>GarborPCANet\u003C\u002Ftd>\n\t    \u003Ctd>CNN（PCANet）；无监督；预分类；加博尔小波；合成孔径雷达影像\u003C\u002Ftd>\n\t    \u003Ctd>基于PCANet的合成孔径雷达影像自动变化检测，GRSL, 2016年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2016.2611001\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_Change_Detection_GarborPCANet\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Ms-CapsNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN（Ms-CapsNet）；胶囊网络；注意力机制；自适应融合卷积；合成孔径雷达影像\u003C\u002Ftd>\n\t    \u003Ctd>基于多尺度胶囊网络的合成孔径雷达影像变化检测，GRSL, 2020年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2020.2977838\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_CD_MS_CapsNet\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab+Keras2.16\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>DCNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN；无监督；预分类；合成孔径雷达影像\u003C\u002Ftd>\n\t    \u003Ctd>基于通道权重的深度级联网络进行合成孔径雷达影像变化检测，JSTARS, 2019年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FJSTARS.2019.2953128\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_CD_DCNet\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Caffe\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>ChangeNet\u003C\u002Ftd>\n\t    \u003Ctd>CNN；孪生网络；街景影像\u003C\u002Ftd>\n\t    \u003Ctd>ChangeNet：一种用于视觉变化检测的深度学习架构，ECCV, 2018年。 [\u003Ca href=\"http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_eccv_2018_workshops\u002Fw7\u002Fhtml\u002FVarghese_ChangeNet_A_Deep_Learning_Architecture_for_Visual_Change_Detection_ECCVW_2018_paper.html\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fleonardoaraujosantos\u002FChangeNet\" target=\"_blank\">代码、数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Pytorch\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd colspan=\"4\">更多内容即将添加！\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n### 2.2 传统方法可用代码\n\n\u003Ctable>\n\u003Ccaption>表2. 传统变化检测方法的可用代码列表。\u003C\u002Fcaption>\n\t\u003Ctr>\n\t    \u003Cth>方法\u003C\u002Fth>\n\t    \u003Cth>关键词\u003C\u002Fth>\n\t    \u003Cth>发表文献\u003C\u002Fth>  \n        \u003Cth>实现语言\u003C\u002Fth>  \n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>若干经典方法\u003C\u002Ftd>\n\t    \u003Ctd>CVA; DPCA; 影像差分; 影像比值; 影像回归; IR-MAD; MAD; PCA+kMeans; PCDA; KMeans; OTSU; 固定阈值\u003C\u002Ftd>\n\t    \u003Ctd>用于遥感变化检测的工具箱。[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBobholamovic\u002FChangeDetectionToolbox\" target=\"_blank\">代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>Matlab工具箱变化检测\u003C\u002Ftd>\n\t    \u003Ctd>IR-MAD; IT-PCA; ERM; ICM\u003C\u002Ftd>\n\t    \u003Ctd>无监督变化检测分析工具箱，IJRS，2016年。[\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1080\u002F01431161.2016.1154226\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FNicolaFalco\u002FMatlab-toolbox-change-detection\" target=\"_blank\">代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>RFR、SVR、GPR\u003C\u002Ftd>\n\t    \u003Ctd>无监督；影像回归；异源；光学遥感；SAR\u003C\u002Ftd>\n\t    \u003Ctd>用于异源变化检测的无监督影像回归，TGRS，2019年。[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2019.2930348\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002Flegacy\u002FImage_Regression\" target=\"_blank\">代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>HPT\u003C\u002Ftd>\n\t    \u003Ctd>无监督；变换；异源；光学遥感；SAR\u003C\u002Ftd>\n\t    \u003Ctd>通过同质化像素变换进行异源遥感图像变化检测，TIP，2018年。[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTIP.2017.2784560\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD\u002Ftree\u002Fmaster\u002Flegacy\u002FImage_Regression\" target=\"_blank\">重实现代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>kCCA\u003C\u002Ftd>\n\t    \u003Ctd>典型相关分析；跨传感器；光学遥感\u003C\u002Ftd>\n\t    \u003Ctd>利用自动核相关分析对多时相跨传感器影像进行光谱配准，IJPRS，2015年。[\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.isprsjprs.2015.02.005\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fsite\u002Fmichelevolpiresearch\u002Fcodes\u002Fcross-sensor\" target=\"_blank\">代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>Ker. Diff. RBF\u003C\u002Ftd>\n\t    \u003Ctd>无监督；K-means；光学遥感\u003C\u002Ftd>\n\t    \u003Ctd>基于核函数的无监督变化检测，GRSL，2012年。[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.jag.2011.10.013\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B9xP9Y5JKJz0Q1ctbDJERWpTd2s\u002Fedit?usp=sharing\" target=\"_blank\">代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>FDA-RM\u003C\u002Ftd>\n\t    \u003Ctd>基于DI；频域分析；随机多重图；SAR\u003C\u002Ftd>\n\t    \u003Ctd>基于频域分析和随机多重图的合成孔径雷达图像变化检测，JARS，2018年。[\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1117\u002F1.JRS.12.016010\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_Change_Detection_FDA_RMG\" target=\"_blank\">代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>CD-NR-ELM\u003C\u002Ftd>\n\t    \u003Ctd>基于DI；预分类；极限学习机；SAR\u003C\u002Ftd>\n\t    \u003Ctd>基于邻域比值和极限学习机的合成孔径雷达图像变化检测，JARS，2016年。[\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1117\u002F1.JRS.10.046019\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsummitgao\u002FSAR_Change_Detection_NR_ELM\" target=\"_blank\">代码及数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>无\u003C\u002Ftd>\n\t    \u003Ctd>似然比；检验统计量；SAR\u003C\u002Ftd>\n\t    \u003Ctd>极化合成孔径雷达图像的变化检测，2015年。[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ffouronnes\u002FSAR-change-detection\u002Fblob\u002Fmaster\u002FSAR_Change_Detection_Victor_Poughon.pdf\" target=\"_blank\">报告\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ffouronnes\u002FSAR-change-detection\" target=\"_blank\">代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Python\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>PCA+K-Means\u003C\u002Ftd>\n\t    \u003Ctd>无监督；基于DI；PCA；K-Means；光学遥感\u003C\u002Ftd>\n\t    \u003Ctd>利用主成分分析和k-Means聚类进行卫星影像的无监督变化检测，GRSL，2009年。[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2009.2025059\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frulixiang\u002FChangeDetectionPCAKmeans\" target=\"_blank\">重实现代码及数据集\u003C\u002Fa>或\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fleduckhai\u002FChange-Detection-PCA-KMeans\" target=\"_blank\">重实现代码\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>PTCD\u003C\u002Ftd>\n\t    \u003Ctd>张量；高光谱光学遥感\u003C\u002Ftd>\n\t    \u003Ctd>三阶Tucker分解与重构检测器，用于无监督高光谱变化检测。JSTARS，2021年。[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FJSTARS.2021.3088438\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzephyrhours\u002FHyperspectral-Change-Detection-PTCD\" target=\"_blank\">代码及数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\t\u003Ctr>\n\t    \u003Ctd>GBF-CD\u003C\u002Ftd>\n\t    \u003Ctd>数据融合；图；EM；KI；\u003C\u002Ftd>\n\t    \u003Ctd>基于图的数据融合应用于水稻作物的变化检测与生物量估算。Remote Sensing，2020年。[\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs12172683\" target=\"_blank\">论文\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDavidJimenezS\u002FGBF-CD\" target=\"_blank\">代码及数据集\u003C\u002Fa>]\u003C\u002Ftd>\n        \u003Ctd>Matlab\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd colspan=\"4\">其他内容即将添加！\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n## 3. 开放数据集\n\n目前，存在一些可免费获取的变化检测数据集，这些数据集可用作未来研究中人工智能训练和精度评估的基准数据集。详细信息见表3。\n\u003Ctable>\n\u003Ccaption>表3. 变化检测开源数据集列表\u003C\u002Fcaption>\n\t\u003Ctr>\n\t    \u003Cth>类型\u003C\u002Fth>\n\t    \u003Cth width=\"180px\">数据集\u003C\u002Fth>\n\t    \u003Cth>描述\u003C\u002Fth>  \n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd rowspan=\"21\">光学遥感\u003C\u002Ftd>\n\t    \u003Ctd>DSIFN数据集 [\u003Ca href=\"#Ref-25\">25\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>6对来自Google Earth的双时相高分辨率影像。包含3600对512×512大小的图像用于训练，340对用于验证，48对用于测试。[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FGeoZcx\u002FA-deeply-supervised-image-fusion-network-for-change-detection-in-remote-sensing-images\u002Ftree\u002Fmaster\u002Fdataset\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>S2MTCP [\u003Ca href=\"#Ref-26\">26\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>1520对聚焦于全球各地城市区域的Sentinel-2 Level 1C影像，空间分辨率为10米，图像尺寸为600×600像素。未进行几何或辐射校正。[\u003Ca href=\"https:\u002F\u002Fzenodo.org\u002Frecord\u002F4280482#.YQPtXI5LhjV\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>SYSU-CD [\u003Ca href=\"#Ref-27\">27\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>20000对香港地区2007年至2014年间拍摄的0.5米分辨率、256×256大小的航空影像，涵盖6种变化类型：(a) 新建城市建筑；(b) 郊区扩张；(c) 建设前的场地平整；(d) 植被变化；(e) 道路拓宽；(f) 海域建设。[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fliumency\u002FSYSU-CD\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>S2Looking [\u003Ca href=\"#Ref-28\">28\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>建筑物变化检测数据集，包含5000对配准后的双时相影像（尺寸为1024×1024，0.5~0.8米\u002F像素），覆盖全球农村地区，并标注了超过65,920个变化实例，分别指示新建和拆除的建筑物。[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAnonymousForACMMM\u002FDataset\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>合成与真实影像数据集 [\u003Ca href=\"#Ref-29\">29\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>该数据库包含12,000组无目标位移的合成影像三元组、12,000组有目标位移的模型影像三元组以及16,000组真实遥感影像片段。实验表明，所提出的CNN在合成与真实影像的变化检测任务中具有良好的前景和较高的效率。[\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1GX656JqqOyBi_Ef0w65kDGVto-nHrNs9\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>语义变化检测数据集（SECOND） [\u003Ca href=\"#Ref-24\">24\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>一种像素级标注的语义变化检测数据集，包含来自多个平台和传感器的4662对512×512像素的航空影像，覆盖杭州、成都和上海等地。重点关注非植被地表、树木、低矮植被、水体、建筑物和运动场等6类常见自然及人为地理变化的地表覆盖类型。[\u003Ca href=\"http:\u002F\u002Fwww.captain-whu.com\u002FPROJECT\u002FSCD\u002F\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>高光谱变化检测数据集 [\u003Ca href=\"#Ref-1\">1\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>由AVIRIS或HYPERION传感器获取的3个不同高光谱场景，分别具有224或242个光谱波段，在像素级别标注了5种与作物转换相关的变化类型。[\u003Ca href=\"https:\u002F\u002Fcitius.usc.es\u002Finvestigacion\u002Fdatasets\u002Fhyperspectral-change-detection-dataset\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>河流高光谱影像数据集 [\u003Ca href=\"#Ref-2\">2\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>中国江苏省的2景高光谱影像，具有198个波段，在像素级别标注为已发生变化和未发生变化。[\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1cWy6KqE0rymSk5-ytqr7wM1yLMKLukfP\u002Fview\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>HRSCD  [\u003Ca href=\"#Ref-3\">3\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>291对配准后的RGB航空影像，在像素级别标注了变化和地表覆盖信息，并提供了分层的变化标签。例如，第一层级标签包括五类：无信息、人工地表、农业区、森林、湿地和水体。[\u003Ca href=\"https:\u002F\u002Fieee-dataport.org\u002Fopen-access\u002Fhrscd-high-resolution-semantic-change-detection-dataset\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>WHU建筑物数据集  [\u003Ca href=\"#Ref-4\">4\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>包含12,796栋建筑物的两期航空影像，并附带建筑物的矢量和栅格地图。[\u003Ca href=\"http:\u002F\u002Fstudy.rsgis.whu.edu.cn\u002Fpages\u002Fdownload\u002F\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\u003Ctd>SZTAKI空中变化基准  [\u003Ca href=\"#Ref-5\">5\u003C\u002Fa>, \u003Ca href=\"#Ref-6\">6\u003C\u002Fa>]\u003C\u002Ftd>\n\t    \u003Ctd>13对空间分辨率为1.5米的航空影像，在像素级别标注为已发生变化和未发生变化。[\u003Ca href=\"http:\u002F\u002Fweb.eee.sztaki.hu\u002Fremotesensing\u002Fairchange_benchmark.html\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>OSCD  [\u003Ca href=\"#Ref-7\">7\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>24对由Sentinel-2获取的多光谱影像，在像素级别标注为已发生变化和未发生变化。[\u003Ca href=\"https:\u002F\u002Frcdaudt.github.io\u002Foscd\u002F\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>变化检测数据集  [\u003Ca href=\"#Ref-8\">8\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>4对不同空间分辨率的多光谱影像，在像素级别标注为已发生变化和未发生变化。[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMinZHANG-WHU\u002FFDCNN\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>MtS-WH [\u003Ca href=\"#Ref-9\">9\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>2幅由IKONOS传感器获取的大型VHR影像，具有4个波段和1米的空间分辨率，在场景级别标注了5种变化类型（如停车场、稀疏住宅区、居民区和植被区）。[\u003Ca href=\"http:\u002F\u002Fsigma.whu.edu.cn\u002Fnewspage.php?q=2019_03_26\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>ABCD  [\u003Ca href=\"#Ref-10\">10\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>16,950对RGB航空影像，用于检测海啸冲毁的建筑物，在场景级别标注受损建筑物。[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fgistairc\u002FABCDdataset\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>xBD  [\u003Ca href=\"#Ref-11\">11\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>灾前和灾后卫星影像，用于评估建筑物损毁情况，包含来自6种灾害类型的超过85万个多边形建筑物，按4个损毁等级在像素级别标注。[\u003Ca href=\"https:\u002F\u002Fxview2.org\u002Fdataset\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>AICD  [\u003Ca href=\"#Ref-12\">12\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>1000对通过渲染引擎生成的人工变化的合成航空影像，在像素级别标注为已发生变化和未发生变化。[\u003Ca href=\"https:\u002F\u002Fcomputervisiononline.com\u002Fdataset\u002F1105138664\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>合成与真实影像数据库  [\u003Ca href=\"#Ref-13\">13\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>24,000张合成影像和16,000份由Google Earth获取的真实季节性遥感影像片段，在像素级别标注为已发生变化和未发生变化。[\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1GX656JqqOyBi_Ef0w65kDGVto-nHrNs9\u002Fedit\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>LEVIR-CD  [\u003Ca href=\"#Ref-14\">14\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>637对超高清（VHR，0.5米\u002F像素）Google Earth影像补丁，每对尺寸为1024×1024像素，共包含31,333个独立的变化建筑实例，在像素级别标注为已发生变化和未发生变化。[\u003Ca href=\"https:\u002F\u002Fjustchenhao.github.io\u002FLEVIR\u002F\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>巴斯托火灾数据集 [\u003Ca href=\"#Ref-21\">21\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>4幅由不同传感器在美国德克萨斯州巴斯托县上空获取的影像。其中，Landsat 5 TM作为灾前影像，而Landsat 5 TM、EO-1 ALI和Landsat 8则作为灾后影像，在像素级别标注为已发生变化和未发生变化，主要由野火引起。[\u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fsite\u002Fmichelevolpiresearch\u002Fcodes\u002Fcross-sensor\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t \u003Ctr>\n\t    \u003Ctd>谷歌数据集 [\u003Ca href=\"#Ref-23\">23\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>19对季节性变化的VHR影像，包含红、绿、蓝三通道，空间分辨率为0.55米，图像尺寸范围从1006×1168像素到4936×5224像素。影像变化包括水域、道路、农田、裸地、森林、建筑物、船只等，其中建筑物是主要变化对象。这些影像采集于2006年至2019年间，覆盖中国广州市郊区。[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdaifeng2016\u002FChange-Detection-Dataset-for-High-Resolution-Satellite-Imagery\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd rowspan=\"2\" >光学遥感与SAR\u003C\u002Ftd>\n\t    \u003Ctd>加利福尼亚数据集 [\u003Ca href=\"#Ref-22\">22\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>3幅影像，包括2017年Landsat 8以9个波段拍摄的遥感影像、洪水发生后Sentinel-1A以VV和VH极化方式拍摄的SAR影像，以及一张地面真值图。[\u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fview\u002Fluppino\u002Fdata\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t \u003Ctr>\n\t    \u003Ctd>同源变化检测数据集 [\u003Ca href=\"#Ref-30\">30\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>6种场景：场景1为两套单极化SAR数据；场景2为两套PolSAR数据；场景3为两套光学影像数据。异源变化检测：场景4为两套SAR\u002F光学（多光谱）数据；场景5为两套由不同传感器获取的不同波段多光谱数据；场景6为两套PolSAR\u002F光学（多光谱）数据。[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyulisun\u002FINLPG\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd rowspan=\"3\" >街景\u003C\u002Ftd>\n\t    \u003Ctd>VL-CMU-CD  [\u003Ca href=\"#Ref-15\">15\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>1362对配准后的RGB和深度影像，在像素级别标注了地面真值变化（如垃圾桶、标志牌、车辆、垃圾、施工、交通锥、人\u002F自行车、屏障）以及天空掩膜。[\u003Ca href=\"http:\u002F\u002Fghsi.github.io\u002Fproj\u002FRSS2016.html\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>PCD 2015 [\u003Ca href=\"#Ref-16\">16\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>“TSUNAMI”和“GSV”子集中200对全景影像，尺寸为224×1024像素，在像素级别标注为已发生变化和未发生变化。[\u003Ca href=\"http:\u002F\u002Fwww.vision.is.tohoku.ac.jp\u002Fus\u002Fdownload\u002F\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>变化检测数据集  [\u003Ca href=\"#Ref-17\">17\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>由车载摄像头在两个不同时间点拍摄的城市街道图像序列，尺寸为5000×2500像素，在像素级别标注了3D场景结构的变化。[\u003Ca href=\"http:\u002F\u002Fwww.vision.is.tohoku.ac.jp\u002Fus\u002Fresearch\u002F4d_city_modeling\u002Fchg_dataset\u002F\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \t\u003Ctr>\n       \u003Ctd rowspan=\"4\" >计算机视觉\u003C\u002Ftd>\n\t    \u003Ctd>CDNet 2012 [\u003Ca href=\"#Ref-18\">18\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>6个视频类别，每个类别包含4至6段视频序列，地面真值图像包含5个标签：静态、硬阴影、感兴趣区域外、未知运动（通常出现在移动物体周围，由于半透明和运动模糊）以及运动。[\u003Ca href=\"http:\u002F\u002Fjacarini.dinf.usherbrooke.ca\u002Fdataset2012\u002F\" target=\"_blank\">下载\u003C\u002Fa>]\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \t\u003Ctr>\n\t    \u003Ctd>CDNet 2014  [\u003Ca href=\"#Ref-19\">19\u003C\u002Fa>,\u003Ca href=\"#Ref-20\">20\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>新增22段视频（约7万个逐帧标注的帧），涵盖5个新类别，这些类别包含了众多监控场景中遇到的挑战，提供了与CDNet 2012相似的逼真、未经CGI处理的室内外多样化视频集。[\u003Ca href=\"http:\u002F\u002Fwww.changedetection.net\u002F\" target=\"_blank\">下载\u003C\u002Fa>]\n        \u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>ChangeSim  [\u003Ca href=\"#Ref-31\">31\u003C\u002Fa>] \u003C\u002Ftd>\n\t    \u003Ctd>一个面向在线场景变化检测等任务的挑战性数据集，收集了在照片级逼真的仿真环境中产生的环境非目标性变化，如空气浑浊度和光照条件的变化，以及工业室内环境中目标性物体的变化。[\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSAMMiCA\u002FChangeSim\" target=\"_blank\">下载\u003C\u002Fa>]\n        \u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd colspan=\"2\"> \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMinZHANG-WHU\u002FChange-Detection-Review\u002Fblob\u002Fmaster\u002FVideo%20datasets.png\" target=\"_blank\"> 更多视频数据集\u003C\u002Fa> \u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n可以看出，可用于变化检测任务的公开数据集数量较少，且其中部分数据集规模较小。目前，仍缺乏可用于人工智能训练的大规模SAR数据集。大多数基于人工智能的变化检测方法都依赖于几组包含变化类型较为有限的SAR数据集，例如伯尔尼数据集、渥太华数据集、黄河数据集和墨西哥数据集，这些数据集难以满足复杂地表覆盖及多种变化类型的区域变化检测需求。此外，这些数据集的标注信息也并非公开可用。在计算机视觉（CV）领域，街景数据集通常被用于基于人工智能的变化检测方法研究。在CV中，基于图像或视频的变化检测同样是一个热门研究方向，其基本思路与基于遥感（RS）数据的变化检测一致。因此，除了街景图像数据集外，CV领域中的若干视频数据集也可用于基于人工智能的变化检测方法研究，如CDNet 2012和CDNet 2014。\n\n\n\n## 4. 应用\n基于人工智能的变化检测技术的发展极大地促进了众多应用的开展，并提升了其自动化与智能化水平。大多数基于人工智能的变化检测方法生成的是二值分类图，而相关研究往往仅关注算法本身，缺乏明确的应用场景。因此，可以认为这类方法普遍适用于土地利用\u002F土地覆被变化检测。在本节中，我们将重点介绍与具体应用相关的技术，并将其大致分为四类：\n* **城市环境**：城市扩张监测、公共空间管理以及建筑物变化检测；\n* **资源与环境**：人类活动引起的环境变化、水文环境变化、海冰、地表水体及森林监测；\n* **自然灾害**：滑坡制图与灾损评估；\n* **天文学**：行星表面研究。\n\n我们对不同应用类别下文献中各类变化检测技术进行了综述，并将与这些应用相关的研究工作及数据类型列于表4中。\n\n\u003Ctable>\n\u003Ccaption>表4. 基于人工智能的变化检测技术的主要应用汇总\u003C\u002Fcaption>\n\t\u003Ctr>\n\t    \u003Cth colspan=\"2\">应用\u003C\u002Fth>\n\t    \u003Cth>数据类型\u003C\u002Fth>\n\t    \u003Cth>文献\u003C\u002Fth>  \n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd rowspan=\"10\">城市环境\u003C\u002Ftd>\n\t    \u003Ctd rowspan=\"2\">城市扩张\u003C\u002Ftd>\n\t    \u003Ctd>卫星影像  \u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs10030471\" target=\"_blank\">Lyu等（2018）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1080\u002F01431160903475290\" target=\"_blank\">Tong等（2007）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>SAR影像  \u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Generating+high-accuracy+urban+distribution+map+for+short-term+change+monitoring+based+on+convolutional+neural+network+by+utilizing+SAR+imagery&author=Iino,+S.&author=Ito,+R.&author=Doi,+K.&author=Imaizumi,+T.&author=Hikosaka,+S.&publication_year=2017\" target=\"_blank\">Iino等（2017）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003Ctr>\n\t    \u003Ctd>公共空间管理\u003C\u002Ftd>\n\t    \u003Ctd>街景图像\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=ChangeNet:+A+deep+learning+architecture+for+visual+change+detection&conference=Proceedings+of+the+European+Conference+on+Computer+Vision+(ECCV)&author=Varghese,+A.&author=Gubbi,+J.&author=Ramaswamy,+A.&author=Balamuralidhar,+P.&publication_year=2018&pages=129%E2%80%93145\" target=\"_blank\">Varghese等（2018）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>道路路面\u003C\u002Ftd>\n\t    \u003Ctd>无人机影像\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Fsu12062482\" target=\"_blank\">Truong等（2020）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd rowspan=\"6\">建筑物变化检测\u003C\u002Ftd>\n\t    \u003Ctd>航拍影像\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11111343\" target=\"_blank\">Ji等（2019）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=A+deep+learning+approach+to+detecting+changes+in+buildings+from+aerial+images&conference=Proceedings+of+the+International+Symposium+on+Neural+Networks&author=Sun,+B.&author=Li,+G.-Z.&author=Han,+M.&author=Lin,+Q.-H.&publication_year=2019&pages=414%E2%80%93421\" target=\"_blank\">Sun等（2019）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1117\u002F12.2277912\" target=\"_blank\">Nemoto等（2017）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>卫星影像\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.jvcir.2019.102585\" target=\"_blank\">Huang等（2019）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Change+Detection+Based+on+the+Combination+of+Improved+SegNet+Neural+Network+and+Morphology&conference=Proceedings+of+the+2018+IEEE+3rd+International+Conference+on+Image,+Vision+and+Computing+(ICIVC)&author=Zhu,+B.&author=Gao,+H.&author=Wang,+X.&author=Xu,+M.&author=Zhu,+X.&publication_year=2018&pages=55%E2%80%9359\" target=\"_blank\">Zhu等（2018）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>卫星\u002F航拍影像\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs12030484\" target=\"_blank\">Jiang等（2020）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2018.2858817\" target=\"_blank\">Ji等（2018）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2020.3000296\" target=\"_blank\">Saha等（2020）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>机载激光扫描数据和航拍影像 \u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11202417\" target=\"_blank\">Zhang等（2019）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>SAR影像 \u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11121444\" target=\"_blank\">Jaturapitpornchai等（2019）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>卫星影像和GIS地图\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11202427\" target=\"_blank\">Ghaffarian等（2019）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd rowspan=\"5\">资源与环境\u003C\u002Ftd>\n\t    \u003Ctd>人为驱动的环境变化\u003C\u002Ftd>\n\t    \u003Ctd>卫星影像  \u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1117\u002F1.JRS.10.016021\" target=\"_blank\">Chen等（2016）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>水文环境变化\u003C\u002Ftd>\n\t    \u003Ctd>卫星影像\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.jhydrol.2018.05.018\" target=\"_blank\">Nourani等（2018）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n     \u003Ctr>\n\t    \u003Ctd>海冰\u003C\u002Ftd>\n\t    \u003Ctd>SAR影像\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2019.2906279\" target=\"_blank\">Gao等（2019）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2019.2895656\" target=\"_blank\">Gao等（2019）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>地表水\u003C\u002Ftd>\n\t    \u003Ctd>卫星影像\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.2112\u002FSI91-086.1\" target=\"_blank\">Song等（2019）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.jag.2014.08.014\" target=\"_blank\">Rokni等（2015）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>森林监测\u003C\u002Ftd>\n\t    \u003Ctd>卫星影像\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2017.2707528\" target=\"_blank\">Khan等（2017）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs8080678\" target=\"_blank\">Lindquist等（2016）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Comparison+of+pixel+-based+and+artificial+neural+networks+classification+methods+for+detecting+forest+cover+changes+in+Malaysia&conference=Proceedings+of+the+8th+International+Symposium+of+the+Digital+Earth,+Univ+Teknologi+Malaysia,+Inst+Geospatial+Sci+&+Technol&author=Deilmai,+B.R.&author=Kanniah,+K.D.&author=Rasib,+A.W.&author=Ariffin,+A.&publication_year=2014\" target=\"_blank\">Deilmai等（2014）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002FS0034-4257(01)00259-0\" target=\"_blank\">Woodcock等（2001）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002F36.485117\" target=\"_blank\">Gopal等（1996）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd rowspan=\"7\">自然灾害\u003C\u002Ftd>\n\t    \u003Ctd rowspan=\"2\">滑坡测绘\u003C\u002Ftd>\n\t    \u003Ctd>航拍影像\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2020.2979693\" target=\"_blank\">Fang等（2020）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2018.2889307\" target=\"_blank\">Lei等（2019）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>卫星影像\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Fs18030821\" target=\"_blank\">Chen等（2018）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Automatic+Recognition+of+Landslide+Based+on+CNN+and+Texture+Change+Detection&conference=Proceedings+of+the+2016+31st+Youth+Academic+Annual+Conference+of+Chinese-Association-of-Automation+(YAC)&author=Ding,+A.&author=Zhang,+Q.&author=Zhou,+X.&author=Dai,+B.&publication_year=2016&pages=444%E2%80%93448\" target=\"_blank\">Ding等（2016）\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1007\u002Fs11069-006-9041-x\" target=\"_blank\">Tarantino等（2006）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd rowspan=\"5\">灾情评估 \u003C\u002Ftd>\n\t    \u003Ctd>卫星影像\u003C\u002Ftd>\n        \u003Ctd>由海啸引起[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11091123\" target=\"_blank\">Sublime等（2019）\u003C\u002Fa>,\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1007\u002Fs11069-015-1595-z\" target=\"_blank\">Singh等（2015）\u003C\u002Fa>]，特定事件[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Change+detection+from+unlabeled+remote+sensing+images+using+siamese+ANN&conference=Proceedings+of+the+IGARSS+2019%E2%80%942019+IEEE+International+Geoscience+and+Remote+Sensing+Symposium&author=Hedjam,+R.&author=Abdesselam,+A.&author=Melgani,+F.&publication_year=2019&pages=1530%E2%80%931533\" target=\"_blank\">Hedjam等（2019）\u003C\u002Fa>]，洪水[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11212492\" target=\"_blank\">Peng等（2019）\u003C\u002Fa>]，或地震[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.3390\u002Frs11101202\" target=\"_blank\">Ji等（2019）\u003C\u002Fa>]。\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>航拍影像\u003C\u002Ftd>\n        \u003Ctd>由海啸引起[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Damage+detection+from+aerial+images+via+convolutional+neural+networks&conference=Proceedings+of+the+2017+Fifteenth+IAPR+International+Conference+on+Machine+Vision+Applications+(MVA),+Nagoya+Univ&author=Fujita,+A.&author=Sakurada,+K.&author=Imaizumi,+T.&author=Ito,+R.&author=Hikosaka,+S.&author=Nakamura,+R.&publication_year=2017&pages=5%E2%80%938\" target=\"_blank\">Fujita等（2017）\u003C\u002Fa>]。\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>SAR影像\u003C\u002Ftd>\n        \u003Ctd>由火灾引起[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FLGRS.2017.2786344\" target=\"_blank\">Planinšič等（2018）\u003C\u002Fa>]，或地震[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Destroyed-buildings+detection+from+VHR+SAR+images+using+deep+features&author=Saha,+S.&author=Bovolo,+F.&author=Bruzzone,+L.&publication_year=2018\" target=\"_blank\">Saha等（2018）\u003C\u002Fa>]。\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>街景图像 \u003C\u002Ftd>\n        \u003Ctd>由海啸引起[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Change+detection+from+a+street+image+pair+using+CNN+features+and+superpixel+segmentation&conference=Proceedings+of+the+British+Machine+Vision+Conference+(BMVC)&author=Sakurada,+K.&author=Okatani,+T.&publication_year=2015&pages=61.1%E2%80%9361.12\" target=\"_blank\">Sakurada等（2015）\u003C\u002Fa>]。\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>街景图像和GIS地图 \u003C\u002Ftd>\n        \u003Ctd>由海啸引起[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.cviu.2017.01.012\" target=\"_blank\">Sakurada等（2017）\u003C\u002Fa>]。\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n\t    \u003Ctd>天文学\u003C\u002Ftd>\n\t    \u003Ctd>行星表面\u003C\u002Ftd>\n\t    \u003Ctd>卫星影像\u003C\u002Ftd>\n        \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FJSTARS.2019.2936771\" target=\"_blank\">Kerner等（2019）\u003C\u002Fa>\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 5. 软件程序\n目前有大量具备变化检测工具的软件，我们对其进行了简要总结，详见表5。\n\u003Ctable>\n\u003Ccaption>表5. 变化检测软件列表\u003C\u002Fcaption>\n\t\u003Ctr>\n\t    \u003Cth>类型\u003C\u002Fth>\n\t    \u003Cth>名称\u003C\u002Fth>\n        \u003Cth>描述\u003C\u002Fth>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n    \u003Ctd rowspan=\"6\">商业软件\u003C\u002Ftd>\n    \u003Ctd>ERDAS IMAGINE\u003C\u002Ftd>\n    \u003Ctd>提供全面的功能，将遥感、摄影测量、LiDAR分析、基础矢量分析和雷达处理整合到一个产品中，包含多种\u003Ca href=\"https:\u002F\u002Fwww.hexagongeospatial.com\u002Fproducts\u002Fpower-portfolio\u002Ferdas-imagine\u002Ferdas-imagine-remote-sensing-software-package\" target=\"_blank\">变化检测工具\u003C\u002Fa>。\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n    \u003Ctd>ArcGIS\u003C\u002Ftd>\n    \u003Ctd>可以通过\u003Ca href=\"https:\u002F\u002Fsupport.esri.com\u002Fen\u002Ftechnical-article\u002F000001209\" target=\"_blank\">栅格计算器工具\u003C\u002Fa>或\u003Ca href=\"https:\u002F\u002Fpro.arcgis.com\u002Fen\u002Fpro-app\u002Fhelp\u002Fanalysis\u002Fimage-analyst\u002Fdeep-learning-in-arcgis-pro.htm\" target=\"_blank\">深度学习工作流\u003C\u002Fa>计算两个栅格数据集之间的变化。\u003C\u002Ftd>\n    \u003C\u002Ftr>\n     \u003Ctr>\n    \u003Ctd>ENVI\u003C\u002Ftd>\n    \u003Ctd>提供\u003Ca href=\"https:\u002F\u002Fwww.harrisgeospatial.com\u002Fdocs\u002FChangeDetectionAnalysis.html\" target=\"_blank\">变化检测分析工具\u003C\u002Fa>以及\u003Ca href=\"https:\u002F\u002Fwww.harrisgeospatial.com\u002FSoftware-Technology\u002FENVI-Deep-Learning\" target=\"_blank\">ENVI深度学习模块\u003C\u002Fa>。\u003C\u002Ftd>\n    \u003C\u002Ftr>\n     \u003Ctr>\n    \u003Ctd>eCognition\u003C\u002Ftd>\n    \u003Ctd>可用于\u003Ca href=\"https:\u002F\u002Fgeospatial.trimble.com\u002Fproducts-and-solutions\u002Fecog-essentials-support-cases\" target=\"_blank\">多种变化制图\u003C\u002Fa>,并通过利用Google TensorFlow™库中的深度学习技术，eCognition为客户提供高度复杂的模式识别和相关性工具，从而自动对感兴趣的目标进行分类，以获得更快、更准确的结果,\u003Ca href=\"https:\u002F\u002Fgeospatial.trimble.com\u002Fecognition-whats-new\" target=\"_blank\">更多信息\u003C\u002Fa>。\u003C\u002Ftd>\n    \u003C\u002Ftr>\n     \u003Ctr>\n    \u003Ctd>PCI Geomatica\u003C\u002Ftd>\n    \u003Ctd>提供\u003Ca href=\"https:\u002F\u002Fsupport.pcigeomatics.com\u002Fhc\u002Fen-us\u002Farticles\u002F203483499-Change-Detection-Optical\" target=\"_blank\">变化检测工具\u003C\u002Fa>,在许多需要分析变化的情况下都非常有用，例如：风暴破坏、森林火灾损害、洪水、城市扩张等,\u003Ca href=\"https:\u002F\u002Fsupport.pcigeomatics.com\u002Fhc\u002Fen-us\u002Farticles\u002F203483499-Change-Detection-Optical\" target=\"_blank\">更多\u003C\u002Fa>。\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n    \u003Ctd>SenseTime\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.sensetime.com\u002Fen\u002FService\u002FRemoteSensing.html#product\" target=\"_blank\">SenseRemote遥感智能解决方案\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n    \u003Ctd rowspan=\"3\">开源软件\u003C\u002Ftd>\n    \u003Ctd>QGIS\u003C\u002Ftd>\n    \u003Ctd>提供了许多\u003Ca href=\"https:\u002F\u002Fplugins.qgis.org\u002Fplugins\u002Ftags\u002Fchange-detection\u002F\" target=\"_blank\">变化检测工具\u003C\u002Fa>。\u003C\u002Ftd>\n    \u003C\u002Ftr>\n     \u003Ctr>\n    \u003Ctd>Orfeo ToolBox\u003C\u002Ftd>\n    \u003Ctd>通过\u003Ca href=\"https:\u002F\u002Fwww.orfeo-toolbox.org\u002FCookBook\u002FApplications\u002FChange_Detection.html\" target=\"_blank\">多元变化检测（MAD）算法\u003C\u002Fa>进行变化检测。\u003C\u002Ftd>\n    \u003C\u002Ftr>\n   \u003Ctr>\n    \u003Ctd>Change Detection ToolBox\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBobholamovic\u002FChangeDetectionToolbox\" target=\"_blank\">用于遥感变化检测的MATLAB工具箱\u003C\u002Fa>。\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003Ctable>\n\n## 6. 变化检测综述论文\n以下论文有助于研究人员更好地理解遥感变化检测这一领域，详见表6。\n\u003Ctable>\n\u003Ccaption>表6. 变化检测综述论文列表\u003C\u002Fcaption>\n\t\u003Ctr>\n\t    \u003Cth>发表年份\u003C\u002Fth>\n\t    \u003Cth>综述论文\u003C\u002Fth>\n\t\u003C\u002Ftr>\n    \u003Ctr>\n    \u003Ctd>1989\u003C\u002Ftd>\n    \u003Ctd>利用遥感数据的数字变化检测技术，IJRS。[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1080\u002F01431168908903939\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t \u003Ctr>\n    \u003Ctd>2004\u003C\u002Ftd>\n    \u003Ctd>生态系统监测中的数字变化检测方法：综述，IJRS。[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1080\u002F0143116031000101675\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t \u003Ctr>\n\t \u003Ctd>2004\u003C\u002Ftd>\n    \u003Ctd>变化检测技术，IJRS。[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1080\u002F0143116031000139863\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t \u003Ctr>\n\t\u003Ctd>2012\u003C\u002Ftd>\n    \u003Ctd>基于对象的变化检测，IJRS。[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1080\u002F01431161.2011.648285\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t \u003Ctr>\n\t \u003Ctd>2013\u003C\u002Ftd>\n    \u003Ctd>从遥感影像中进行变化检测：从基于像元的方法到基于对象的方法，ISPRS。[\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.isprsjprs.2013.03.006\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2016\u003C\u002Ftd>\n    \u003Ctd>三维变化检测——方法与应用，ISPRS。[\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.isprsjprs.2016.09.013\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2016\u003C\u002Ftd>\n    \u003Ctd>遥感数据的深度学习：最新技术教程，MGRS。[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FMGRS.2016.2540798\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2017\u003C\u002Ftd>\n    \u003Ctd>遥感领域深度学习的综合调查：理论、工具及社区面临的挑战，JRS。[\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1117\u002F1.JRS.11.042609\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2017\u003C\u002Ftd>\n    \u003Ctd>遥感中的深度学习，MGRS。[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FMGRS.2017.2762307\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2018\u003C\u002Ftd>\n    \u003Ctd>光学遥感图像处理中的计算智能，ASOC。[\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.asoc.2017.11.045\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2019\u003C\u002Ftd>\n    \u003Ctd>多时相高光谱影像中变化检测的综述：当前技术、应用及挑战，MGRS。[\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FMGRS.2019.2898520\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2019\u003C\u002Ftd>\n    \u003Ctd>遥感应用中的深度学习：元分析与综述，ISPRS。[\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.isprsjprs.2019.04.015\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2020\u003C\u002Ftd>\n    \u003Ctd>遥感影像中基于深度学习的变化检测：综合综述与元分析，arXiv。[\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.05612\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\t\u003Ctr>\n\t \u003Ctd>2020\u003C\u002Ftd>\n    \u003Ctd>基于人工智能的变化检测：现状与挑战，RS。[\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs12101688\" target=\"_blank\">论文\u003C\u002Fa>]\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003Ctable>\n\n## 7. 参考文献\n\u003Cspan id=\"Ref-1\">[1] 高光谱变化检测数据集。在线获取：https:\u002F\u002Fcitius.usc.es\u002Finvestigacion\u002Fdatasets\u002Fhyperspectral-change-detection-dataset（访问日期：2020年5月4日）。\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-2\">[2] Wang, Q.; Yuan, Z.; Du, Q.; Li, X. GETNET：一种用于高光谱图像变化检测的通用端到端二维卷积神经网络框架。IEEE地球科学与遥感汇刊，2018年，57卷，第3–13页。[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=GETNET:+A+General+End-to-End+2-D+CNN+Framework+for+Hyperspectral+Image+Change+Detection&author=Wang,+Q.&author=Yuan,+Z.&author=Du,+Q.&author=Li,+X.&publication_year=2018&journal=IEEE+Trans.+Geosci.+Remote+Sens.&volume=57&pages=3%E2%80%9313&doi=10.1109\u002FTGRS.2018.2849692\" target=\"_blank\">Google 学术\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8418840\u002F\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-3\">[3] Daudt, R.C.; Le Saux, B.; Boulch, A.; Gousseau, Y. 大规模语义变化检测中的多任务学习。计算机视觉与图像理解，2019年，187卷，102783页。[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Multitask+learning+for+large-scale+semantic+change+detection&author=Daudt,+R.C.&author=Le+Saux,+B.&author=Boulch,+A.&author=Gousseau,+Y.&publication_year=2019&journal=Comput.+Vis.+Image+Underst.&volume=187&pages=102783&doi=10.1016\u002Fj.cviu.2019.07.003\" target=\"_blank\">Google 学术\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.cviu.2019.07.003\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-4\">[4] Ji, S.; Wei, S.; Lu, M. 基于开放航空与卫星影像数据集的多源建筑物提取全卷积网络。IEEE地球科学与遥感汇刊，2018年，57卷，第574–586页。[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Fully+Convolutional+Networks+for+Multisource+Building+Extraction+from+an+Open+Aerial+and+Satellite+Imagery+Data+Set&author=Ji,+S.&author=Wei,+S.&author=Lu,+M.&publication_year=2018&journal=IEEE+Trans.+Geosci.+Remote+Sens.&volume=57&pages=574%E2%80%93586&doi=10.1109\u002FTGRS.2018.2858817\" target=\"_blank\">Google 学术\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2018.2858817\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-5\">[5] Benedek, C.; Sziranyi, T. 基于多层条件混合马尔可夫模型的光学航空影像变化检测。IEEE地球科学与遥感汇刊，2009年，47卷，第3416–3430页。[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Change+Detection+in+Optical+Aerial+Images+by+a+Multilayer+Conditional+Mixed+Markov+Model&author=Benedek,+C.&author=Sziranyi,+T.&publication_year=2009&journal=IEEE+Trans.+Geosci.+Remote+Sens.&volume=47&pages=3416%E2%80%933430&doi=10.1109\u002FTGRS.2009.2022633\" target=\"_blank\">Google 学术\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2009.2022633\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-6\">[6] Benedek, C.; Sziranyi, T. 一种用于大时间跨度航空照片变化检测的混合马尔可夫模型。载于2008年第19届国际模式识别会议论文集，美国佛罗里达州坦帕市，2008年12月8–11日；第1–4页。[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=A+Mixed+Markov+model+for+change+detection+in+aerial+photos+with+large+time+differences&conference=Proceedings+of+the+2008+19th+International+Conference+on+Pattern+Recognition&author=Benedek,+C.&author=Sziranyi,+T.&publication_year=2008&pages=1%E2%80%934\" target=\"_blank\">Google 学术\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-7\">[7] Daudt, R.C.; Le Saux, B.; Boulch, A.; Gousseau, Y. 利用卷积神经网络进行多光谱地球观测的城市变化检测。载于2018年IEEE IGARSS国际地球科学与遥感研讨会论文集，西班牙瓦伦西亚，2018年7月22–27日；第2115–2118页。[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Urban+change+detection+for+multispectral+earth+observation+using+convolutional+neural+networks&conference=Proceedings+of+the+IGARSS+2018+IEEE+International+Geoscience+and+Remote+Sensing+Symposium&author=Daudt,+R.C.&author=Le+Saux,+B.&author=Boulch,+A.&author=Gousseau,+Y.&publication_year=2018&pages=2115%E2%80%932118\" target=\"_blank\">Google 学术\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-8\">[8] Zhang, M.; Shi, W. 一种基于特征差分卷积神经网络的变化检测方法。IEEE地球科学与遥感汇刊，2020年，第1–15页。[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=A+Feature+Difference+Convolutional+Neural+Network-Based+Change+Detection+Method&author=Zhang,+M.&author=Shi,+W.&publication_year=2020&journal=IEEE+Trans.+Geosci.+Remote+Sens.&pages=1%E2%80%9315&doi=10.1109\u002Ftgrs.2020.2981051\" target=\"_blank\">Google 学术\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002Ftgrs.2020.2981051\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-9\">[9] Wu, C.; Zhang, L.; Zhang, L. 用于多时相超高分辨率遥感影像的场景变化检测框架。信号处理，2016年，124卷，第184–197页。[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=A+scene+change+detection+framework+for+multi-temporal+very+high+resolution+remote+sensing+images&author=Wu,+C.&author=Zhang,+L.&author=Zhang,+L.&publication_year=2016&journal=Signal+Process.&volume=124&pages=184%E2%80%93197&doi=10.1016\u002Fj.sigpro.2015.09.020\" target=\"_blank\">Google 学术\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.sigpro.2015.09.020\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-10\">[10] Fujita, A.; Sakurada, K.; Imaizumi, T.; Ito, R.; Hikosaka, S.; Nakamura, R. 通过卷积神经网络从航空影像中检测损毁情况。载于2017年第十五届IAPR机器视觉应用国际会议论文集，日本名古屋大学，2017年5月8–12日；第5–8页。[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Damage+detection+from+aerial+images+via+convolutional+neural+networks&conference=Proceedings+of+the+2017+Fifteenth+IAPR+International+Conference+on+Machine+Vision+Applications+(MVA),+Nagoya+Univ&author=Fujita,+A.&author=Sakurada,+K.&author=Imaizumi,+T.&author=Ito,+R.&author=Hikosaka,+S.&author=Nakamura,+R.&publication_year=2017&pages=5%E2%80%938\" target=\"_blank\">Google 学术\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-11\">[11] Gupta, R.; Goodman, B.; Patel, N.; Hosfelt, R.; Sajeev, S.; Heim, E.; Doshi, J.; Lucas, K.; Choset, H.; Gaston, M. 创建xBD：一个用于评估卫星影像中建筑物损毁情况的数据集。载于2019年IEEE计算机视觉与模式识别研讨会论文集，美国加利福尼亚州长滩市，2019年6月16–20日；第10–17页。[\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Creating+xBD:+A+dataset+for+assessing+building+damage+from+satellite+imagery&conference=Proceedings+of+the+IEEE+Conference+on+Computer+Vision+and+Pattern+Recognition+Workshops&author=Gupta,+R.&author=Goodman,+B.&author=Patel,+N.&author=Hosfelt,+R.&author=Sajeev,+S.&author=Heim,+E.&author=Doshi,+J.&author=Lucas,+K.&author=Choset,+H.&author=Gaston,+M.&publication_year=2019&pages=10%E2%80%9317\" target=\"_blank\">Google 学术\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-12\">[12] Bourdis, N.; Marraud, D.; Sahbi, H. 用于航空影像变化检测的约束光流。载于2011年IEEE国际地球科学与遥感研讨会论文集，加拿大不列颠哥伦比亚省温哥华，2011年7月24–29日；页码4176–4179。 [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Constrained+optical+flow+for+aerial+image+change+detection&conference=Proceedings+of+the+2011+IEEE+International+Geoscience+and+Remote+Sensing+Symposium&author=Bourdis,+N.&author=Marraud,+D.&author=Sahbi,+H.&publication_year=2011&pages=4176%E2%80%934179&doi=10.1109\u002Figarss.2011.6050150\" target=\"_blank\">Google 学术\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002Figarss.2011.6050150\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-13\">[13] Lebedev, M.A.; Vizilter, Y.V.; Vygolov, O.V.; Knyaz, V.A.; Rubis, A.Y. 利用条件对抗网络进行遥感影像变化检测。ISPRS 国际摄影测量、遥感与空间信息科学档案，2018年，565–571页。 [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Change+detection+in+remote+sensing+images+using+conditional+adversarial+networks&author=Lebedev,+M.A.&author=Vizilter,+Y.V.&author=Vygolov,+O.V.&author=Knyaz,+V.A.&author=Rubis,+A.Y.&publication_year=2018&journal=ISPRS+Int.+Arch.+Photogramm.+Remote+Sens.+Spat.+Inf.+Sci.&pages=565%E2%80%93571&doi=10.5194\u002Fisprs-archives-XLII-2-565-2018\" target=\"_blank\">Google 学术\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.5194\u002Fisprs-archives-XLII-2-565-2018\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-14\">[14] Chen, H.; Shi, Z. 一种基于时空注意力机制的方法及新的遥感影像变化检测数据集。遥感，12(10)，1662页。 [\u003Ca href=\"https:\u002F\u002Fscholar.google.co.jp\u002Fscholar?q=A+Spatial-Temporal+Attention-Based+Method+and+a+New+Dataset+for+Remote+Sensing+Image+Change+Detection&hl=zh-TW&as_sdt=0&as_vis=1&oi=scholart\" target=\"_blank\">Google 学术\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs12101662\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-15\">[15] Alcantarilla, P.F.; Stent, S.; Ros, G.; Arroyo, R.; Gherardi, R. 利用反卷积网络进行街景变化检测。自主机器人，2018年，42卷，1301–1322页。 [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Street-view+change+detection+with+deconvolutional+networks&author=Alcantarilla,+P.F.&author=Stent,+S.&author=Ros,+G.&author=Arroyo,+R.&author=Gherardi,+R.&publication_year=2018&journal=Auton.+Robot.&volume=42&pages=1301%E2%80%931322&doi=10.1007\u002Fs10514-018-9734-5\" target=\"_blank\">Google 学术\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1007\u002Fs10514-018-9734-5\" target=\"_blank\">CrossRef\u003C\u002Fa>]\u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-16\">[16] Sakurada, K.; Okatani, T. 利用CNN特征和超像素分割从街景图像对中检测变化。载于英国机器视觉大会（BMVC）论文集，英国斯旺西，2015年9月7–10日；页码61.1–61.12。 [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Change+detection+from+a+street+image+pair+using+CNN+features+and+superpixel+segmentation&conference=Proceedings+of+the+British+Machine+Vision+Conference+(BMVC)&author=Sakurada,+K.&author=Okatani,+T.&publication_year=2015&pages=61.1%E2%80%9361.12\" target=\"_blank\">Google 学术\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-17\">[17] Sakurada, K.; Okatani, T.; Deguchi, K. 从车载相机拍摄的多视角图像中检测场景三维结构的变化。载于IEEE计算机视觉与模式识别会议论文集，美国俄勒冈州波特兰，2013年6月23–28日；页码137–144。 [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Detecting+changes+in+3D+structure+of+a+scene+from+multi-view+images+captured+by+a+vehicle-mounted+camera&conference=Proceedings+of+the+IEEE+Conference+on+Computer+Vision+and+Pattern+Recognition&author=Sakurada,+K.&author=Okatani,+T.&author=Deguchi,+K.&publication_year=2013&pages=137%E2%80%93144\" target=\"_blank\">Google 学术\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-18\">[18] Goyette, N.; Jodoin, P.-M.; Porikli, F.; Konrad, J.; Ishwar, P. Changedetection.net：一个新的变化检测基准数据集。载于2012年IEEE计算机学会计算机视觉与模式识别研讨会论文集，美国罗德岛州普罗维登斯，2012年6月16–21日；页码1–8。 [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=Changedetection.+net:+A+new+change+detection+benchmark+dataset&conference=Proceedings+of+the+2012+IEEE+Computer+Society+Conference+on+Computer+Vision+and+Pattern+Recognition+Workshops&author=Goyette,+N.&author=Jodoin,+P.-M.&author=Porikli,+F.&author=Konrad,+J.&author=Ishwar,+P.&publication_year=2012&pages=1%E2%80%938\" target=\"_blank\">Google 学术\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-19\">[19] Wang, Y.; Jodoin, P.-M.; Porikli, F.; Konrad, J.; Benezeth, Y.; Ishwar, P. CDnet 2014：一个扩展的变化检测基准数据集。载于2014年IEEE计算机视觉与模式识别研讨会论文集，美国俄亥俄州哥伦布，2014年6月23–28日；页码393–400。 [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=CDnet+2014:+An+Expanded+Change+Detection+Benchmark+Dataset&conference=Proceedings+of+the+2014+IEEE+Conference+on+Computer+Vision+and+Pattern+Recognition+Workshops&author=Wang,+Y.&author=Jodoin,+P.-M.&author=Porikli,+F.&author=Konrad,+J.&author=Benezeth,+Y.&author=Ishwar,+P.&publication_year=2014&pages=393%E2%80%93400\" target=\"_blank\">Google 学术\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-20\">[20] Goyette, N.; Jodoin, P.-M.; Porikli, F.; Konrad, J.; Ishwar, P. 一种用于变化检测基准测试的新视频数据集。IEEE 图像处理汇刊，2014年，23卷，4663–4679页。 [\u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fscholar_lookup?title=A+Novel+Video+Dataset+for+Change+Detection+Benchmarking&author=Goyette,+N.&author=Jodoin,+P.-M.&author=Porikli,+F.&author=Konrad,+J.&author=Ishwar,+P.&publication_year=2014&journal=IEEE+Trans.+Image+Process.&volume=23&pages=4663%E2%80%934679&doi=10.1109\u002FTIP.2014.2346013\" target=\"_blank\">Google 学术\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTIP.2014.2346013\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-21\">[21] Volpi, Michele; Camps-Valls, Gustau; Tuia, Devis (2015). 基于自动核典型相关分析的多时相跨传感器影像光谱配准；ISPRS 摄影测量与遥感杂志，第107卷，2015年，50–63页。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1016\u002Fj.isprsjprs.2015.02.005\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-22\">[22] L. T. Luppino、F. M. Bianchi、G. Moser 和 S. N. Anfinsen. 用于异质性变化检测的无监督图像回归。IEEE 地球科学与遥感汇刊。2019年，57卷，第12期，9960–9975页。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2019.2930348\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-23\">[23] D. Peng, L. Bruzzone, Y. Zhang, H. Guan, H. Ding 和 X. Huang，《SemiCDNet：一种用于高分辨率遥感影像变化检测的半监督卷积神经网络》。IEEE地球科学与遥感汇刊。2020年。 [\u003Ca href=\"https:\u002F\u002Fdx.doi.org\u002F10.1109\u002FTGRS.2020.3011913\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-24\">[24] 杨坤平等。用于语义变化检测的非对称暹罗网络。arXiv预印本 arXiv:2010.05687 (2020)。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.05687\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-25\">[25] 张超、岳鹏、塔佩特、蒋立、尚冠博、黄磊和刘刚。一种深度监督的图像融合网络，用于高分辨率双时相遥感影像的变化检测。ISPRS摄影测量与遥感杂志。2020年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.isprsjprs.2020.06.003\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-26\">[26] LEENSTRA, Marrit 等。自监督预训练提升哨兵-2影像中的变化检测能力。arXiv。2021年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.08122\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-27\">[27] 史谦等。基于深度监督注意力度量的网络及面向遥感变化检测的公开航空影像数据集。IEEE地球科学与遥感汇刊。2021年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTGRS.2021.3085870\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-28\">[28] 沈莉等。S2Looking：用于建筑物变化检测的卫星侧视数据集。arXiv。2021年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.09244\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-29\">[29] LEBEDEV, M. A. 等。利用条件对抗网络进行遥感影像的变化检测。国际摄影测量、遥感与空间信息科学档案，2018年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.5194\u002Fisprs-archives-XLII-2-565-2018\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-30\">[30] 孙宇丽等。基于结构一致性的图方法，用于同质与异质遥感影像的无监督变化检测。IEEE地球科学与遥感汇刊，2021年。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.1109\u002FTGRS.2021.3053571\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\u003Cspan id=\"Ref-31\">[31] 朴振满等。ChangeSim：迈向工业室内环境中端到端的在线场景变化检测。arXiv。2021年。 [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.05368\" target=\"_blank\">CrossRef\u003C\u002Fa>] \u003C\u002Fspan>\n\n\n\n\n\n## 引用\n如果您觉得这篇综述对您有所帮助，请考虑引用我们的论文。 [\u003Ca href=\"https:\u002F\u002Fdoi.org\u002F10.3390\u002Frs12101688\" target=\"_blank\">开放获取\u003C\u002Fa>]\n\n```\n@Article{rs12101688,\nAUTHOR = {史文忠、张敏、张睿、陈善雄、詹钊},\nTITLE = {基于人工智能的变化检测：现状与挑战},\nJOURNAL = {遥感},\nVOLUME = {12},\nYEAR = {2020},\nNUMBER = {10},\nARTICLE-NUMBER = {1688},\nURL = {https:\u002F\u002Fwww.mdpi.com\u002F2072-4292\u002F12\u002F10\u002F1688},\nISSN = {2072-4292},\nDOI = {10.3390\u002Frs12101688}\n}\n```\n\n## 注\n此列表将及时更新，欢迎志愿者贡献。如有疑问或分享，请随时 [联系我们](mailto:007zhangmin@whu.edu.cn) 或提交问题。\n\n##### 参考资料：\n* [I-Hope-Peace\u002FChangeDetectionRepository](https:\u002F\u002Fgithub.com\u002FI-Hope-Peace\u002FChangeDetectionRepository)\n* [Michele Volpi个人研究页面](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fmichelevolpiresearch\u002Fcodes)\n* [llu025\u002FHeterogeneous_CD](https:\u002F\u002Fgithub.com\u002Fllu025\u002FHeterogeneous_CD)\n* [wenhwu\u002Fawesome-remote-sensing-change-detection](https:\u002F\u002Fgithub.com\u002Fwenhwu\u002Fawesome-remote-sensing-change-detection)\n* [neverstoplearn\u002Fremote_sensing_change_detection](https:\u002F\u002Fgithub.com\u002Fneverstoplearn\u002Fremote_sensing_change_detection)\n* [GIS中的变化检测](https:\u002F\u002Fwww.gislounge.com\u002Fchange-detection-in-gis\u002F)\n* [高枫个人研究页面](http:\u002F\u002Ffeng-gao.cn\u002F)\n* [Bobholamovic\u002FChangeDetectionToolbox](https:\u002F\u002Fgithub.com\u002FBobholamovic\u002FChangeDetectionToolbox)","# Change-Detection-Review 快速上手指南\n\n本指南基于开源项目 **Change-Detection-Review**，该项目汇总了基于人工智能的遥感变化检测（Change Detection, CD）的前沿方法、代码实现及数据集。由于这是一个综述性资源库，包含了多个独立的算法模型（如 SNUNet-CD, BIT_CD, STANet 等），以下指南以其中最常用且文档完善的 **SNUNet-CD** 为例，演示如何搭建环境并运行一个典型的 AI 变化检测模型。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04) 或 Windows (需配置 WSL2 或原生 CUDA 支持)。\n*   **硬件要求**: \n    *   GPU: NVIDIA 显卡 (显存建议 8GB 以上)，支持 CUDA。\n    *   CPU: 多核处理器。\n    *   内存: 16GB 以上。\n*   **软件依赖**:\n    *   Python >= 3.6 (推荐 3.7 或 3.8)\n    *   PyTorch >= 1.4 (根据具体模型版本调整，SNUNet-CD 推荐 1.4+)\n    *   CUDA Toolkit (版本需与 PyTorch 匹配)\n    *   Git\n\n**国内加速建议**：\n推荐使用清华源或阿里源安装 Python 包，使用镜像站下载预训练模型和数据集。\n\n## 2. 安装步骤\n\n### 2.1 创建虚拟环境\n建议使用 `conda` 或 `venv` 隔离环境。\n\n```bash\n# 创建名为 cd_env 的虚拟环境，指定 Python 版本为 3.8\nconda create -n cd_env python=3.8 -y\nconda activate cd_env\n```\n\n### 2.2 安装 PyTorch (国内镜像)\n访问 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002F) 获取对应命令，或使用以下清华源命令安装带有 CUDA 支持的版本（以 CUDA 11.1 为例）：\n\n```bash\npip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 torchaudio==0.9.0 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n# 若下载速度慢，可尝试手动下载 wheel 文件后本地安装\n```\n\n### 2.3 克隆项目代码\n选择您想要运行的具体模型仓库。此处以 **SNUNet-CD** 为例：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Flikyoo\u002FSiam-NestedUNet.git\ncd Siam-NestedUNet\n```\n\n### 2.4 安装项目依赖\n进入项目目录并安装所需的 Python 库：\n\n```bash\npip install -r requirements.txt\n# 如果项目中没有 requirements.txt，通常只需安装基础库：\n# pip install numpy opencv-python tqdm scikit-image\n```\n\n## 3. 基本使用\n\n以下流程涵盖数据准备、模型训练和推理预测的最简步骤。\n\n### 3.1 准备数据集\n大多数变化检测模型需要成对的双时相图像（A 期和 B 期）以及对应的标签图（Label）。\n本项目通常支持 **LEVIR-CD** 或 **WHU-CD** 数据集。\n\n1.  下载数据集（例如 LEVIR-CD）。\n2.  按照项目规定的目录结构整理数据，通常结构如下：\n    ```text\n    data\u002F\n    ├── train\u002F\n    │   ├── A\u002F  (时期 A 图像)\n    │   ├── B\u002F  (时期 B 图像)\n    │   └── label\u002F (变化标签)\n    ├── val\u002F\n    └── test\u002F\n    ```\n    *注：部分代码库提供脚本自动划分数据集，请查阅具体项目的 `data_preparation.py`。*\n\n### 3.2 训练模型\n使用提供的训练脚本启动训练。以下命令假设当前目录为项目根目录：\n\n```bash\n# 示例：训练 SNUNet-CD 模型\n# --gpu_ids 指定 GPU ID，--batch_size 根据显存调整\npython train.py --model_name snunet --batch_size 8 --gpu_ids 0 --epoch 100\n```\n\n训练过程中，日志和检查点（checkpoints）将保存在 `checkpoints\u002F` 目录下。\n\n### 3.3 模型推理（预测）\n使用训练好的模型对新图像进行变化检测：\n\n```bash\n# 示例：运行测试脚本\n# 指向测试数据目录和保存结果的目录\npython test.py --model_name snunet --checkpoint_path checkpoints\u002Fsnunet_best.pth --data_root data\u002Ftest --save_path results\u002F\n```\n\n### 3.4 查看结果\n运行完成后，生成的二值变化图将保存在 `results\u002F` 文件夹中。您可以使用图像查看器或 Python 脚本对比原图与检测结果。\n\n---\n*提示：本仓库还包含 BIT_CD, STANet, DSIFN 等多种模型，使用方法类似，只需切换对应的 GitHub 仓库和模型参数名称即可。请参考各子项目的具体 README 获取特定超参数建议。*","某市自然资源局的技术团队正利用卫星遥感影像，紧急评估近期洪灾对城市建成区及农田的破坏范围，以制定救援与重建计划。\n\n### 没有 Change-Detection-Review 时\n- **算法选型盲目**：面对海量的深度学习论文，团队难以快速判断哪种网络架构（如 Siamese CNN 或注意力机制模型）最适合处理光学与 SAR 异构数据，只能凭经验试错。\n- **代码复现困难**：缺乏统一的代码入口，研究人员需花费数周在各大学术主页搜寻开源实现，且常遇到版本不兼容或缺失关键预处理脚本的问题。\n- **数据准备耗时**：找不到经过标注的标准变化检测数据集，团队不得不人工筛选原始影像并手动标注样本，严重拖慢了模型训练进度。\n- **技术盲区明显**：对无监督学习等前沿方案了解不足，导致在缺乏历史标签数据的区域无法有效开展灾害评估。\n\n### 使用 Change-Detection-Review 后\n- **精准锁定模型**：通过综述中分类整理的 SOTA 方法表，团队迅速锁定了适合高分辨率光学影像的 ESCNet 和适用于多分辨率数据的 SRCDNet，直接明确了技术路线。\n- **一键获取资源**：利用文中提供的 GitHub 链接列表，直接下载了基于 PyTorch 的成熟代码库及配套开放数据集，将环境搭建与数据准备时间从数周缩短至两天。\n- **流程规范清晰**：参照文中梳理的 AI 变化检测通用实施流程图，团队规范了从数据输入、模型设计到部署的全链路操作，避免了架构设计上的低级错误。\n- **前沿技术赋能**：借助对无监督方案和异构数据处理挑战的深度分析，团队成功引入了半监督学习策略，解决了部分重灾区标签缺失的难题。\n\nChange-Detection-Review 将原本分散的学术成果转化为可执行的工程指南，让灾害评估团队从“大海捞针”式的科研摸索转变为“按图索骥”的高效开发。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMinZHANG-WHU_Change-Detection-Review_b6aadcda.png","MinZHANG-WHU","Min ZHANG","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMinZHANG-WHU_6d76e30c.png","Research interests include spatial data quality, change detection, object detection, deep learning, and smart city.","PolyU,WHU","Hong Kong",null,"https:\u002F\u002Fgithub.com\u002FMinZHANG-WHU",906,187,"2026-04-12T13:09:12","","未说明",{"notes":86,"python":87,"dependencies":88},"该 README 为综述文章，列出了多个不同的开源变更检测工具（如 SRCDNet, ESCNet, BIT_CD 等），而非单一软件。不同工具依赖不同的深度学习框架（主要是 PyTorch 和 TensorFlow）及特定版本。例如，FDCNN 需要 Caffe 和 Python 2.7，而 SeCo 需要 PyTorch 1.7。用户需根据具体想要运行的子项目代码库（GitHub 链接）去查询其独立的详细环境配置。文中未统一规定操作系统、GPU 型号或内存大小，但运行此类深度学习模型通常建议使用支持 CUDA 的 NVIDIA GPU。","主要依赖 Python 3.6+ (部分项目明确标注 Python 3.6，部分标注 Python 2.7)",[89,90,91,92,93],"PyTorch (版本涵盖 1.2 - 1.7+)","TensorFlow (版本涵盖 1.8 - 2.0)","Keras","Caffe","MXNet",[35,52,14,16],[96,97,98,99,100,101,102,103,104,105,106,107,108,109,110,111,112],"change-detection","open-datasets","deep-learning","remote-sensing","artificial-intelligence","review","streetview","sar","unsupervised-learning","code","pytorch","python","machine-learning","matlab","tensorflow","caffe","keras","2026-03-27T02:49:30.150509","2026-04-13T13:39:20.972433",[],[]]