[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-sstary--SSRS":3,"tool-sstary--SSRS":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":95,"env_os":96,"env_gpu":97,"env_ram":96,"env_deps":98,"category_tags":107,"github_topics":108,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":117,"updated_at":118,"faqs":119,"releases":167},3602,"sstary\u002FSSRS","SSRS","Semantic Segmentation for Remote Sensing","SSRS 是一个基于 PyTorch 开发的开源项目，专注于遥感图像的语义分割任务。它旨在解决从卫星或航空影像中自动、精准地识别和分类地物（如建筑、道路、植被等）的难题，特别是在面对多模态数据融合、无监督域适应以及复杂场景理解时，提供了高效的解决方案。\n\n该项目非常适合遥感领域的研究人员、算法开发者及相关专业的学生使用。SSRS 的独特亮点在于其紧跟前沿技术，集成了多种先进架构：不仅包含了基于“段 anything 模型”（SAM）的改进方法，还引入了最新的 Mamba 架构以提升长序列建模能力。此外，它在多模态融合和无监督域适应方面表现卓越，拥有多个被 IEEE TGRS 等顶级期刊收录且获高引用的核心算法（如 MFNet、RS³Mamba）。除了提供完整的模型实现，SSRS 还附带了实用的数据处理脚本和详细的参考文献，帮助用户快速复现成果并开展二次开发，是探索遥感智能解译的优质工具库。","# Semantic Segmentation for Remote Sensing\n\nThis repo is the PyTorch implementation of some works related to remote sensing tasks.\n\n## Methods\n\n> **SAM-based**:\n\n[MFNet](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F11063320) (IEEE TGRS 2025) (**ESI Highly Cited Paper**).\n\n[SAM_RS](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10636322) (IEEE TGRS 2024) (**ESI Highly Cited Paper**).\n\n> **Mamba-based**:\n\n[RS^3Mamba](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10556777) (IEEE GRSL 2024) (**ESI Hot Paper**).\n\n> **Unsupervised Domain Adaptation (UDA)**:\n\n[GLGAN](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F10721444) (IEEE TGRS 2024).\n\n[MBATA_GAN](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10032584\u002F) (IEEE TGRS 2023) (**ESI Highly Cited Paper**).\n\n\n> **Multimodal Fusion**:\n\n[MFNet](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F11063320) (IEEE TGRS 2025) (**ESI Highly Cited Paper**).\n\n[ASMFNet](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F10736654) (IEEE JSTARS 2024).\n\n[FTransUNet](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F10458980) (IEEE TGRS 2024) (**ESI Hot Paper**).\n\n[CMFNet](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9749821\u002F) (IEEE JSTARS 2022) (**ESI Highly Cited Paper**).\n\n[MSFNet](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9883789) (IEEE IGARSS 2022).\n\n## Reference\nFor UDA:\n* [TransGAN](https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FTransGAN)\n* [Advent](https:\u002F\u002Fgithub.com\u002Fvaleoai\u002FADVENT)\n* [AdaSegNet](https:\u002F\u002Fgithub.com\u002Fwasidennis\u002FAdaptSegNet)\n\nFor Segment Anything Model:\n* [Medical-SAM-Adapter](https:\u002F\u002Fgithub.com\u002FMedicineToken\u002FMedical-SAM-Adapter\u002Ftree\u002Fmain)\n* [SAM](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsegment-anything)\n\nFor Semantic Segmentation:\n* [TransUNet](https:\u002F\u002Fgithub.com\u002FBeckschen\u002FTransUNet)\n* [UNetformer](https:\u002F\u002Fgithub.com\u002FWangLibo1995\u002FGeoSeg)\n* [UCTransNet](https:\u002F\u002Fgithub.com\u002FMcGregorWwww\u002FUCTransNet)\n* [Swin-Transformer](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FSwin-Transformer)\n* [Swin-Unet](https:\u002F\u002Fgithub.com\u002FHuCaoFighting\u002FSwin-Unet)\n* [v-FuseNet](https:\u002F\u002Fgithub.com\u002Fnshaud\u002FDeepNetsForEO)\n* [FuseNet](https:\u002F\u002Fgithub.com\u002FMehmetAygun\u002Ffusenet-pytorch)\n\nFor Semantic Segmentation based on Mamba:\n* [VMamba](https:\u002F\u002Fgithub.com\u002FMzeroMiko\u002FVMamba)\n* [VM-UNet](https:\u002F\u002Fgithub.com\u002FJCruan519\u002FVM-UNet)\n* [Swin-UMamba](https:\u002F\u002Fgithub.com\u002FJiarunLiu\u002FSwin-UMamba)\n\n## Datasets\nDatasets including ISPRS Potsdam, ISPRS Vaihingen, loveDA can be downloaded [here](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation\u002Fblob\u002Fmain\u002Fdocs\u002Fen\u002Fuser_guides\u002F2_dataset_prepare.md#prepare-datasets).\n\nDataset MMHunan can be downloaded [here](https:\u002F\u002Fgithub.com\u002FLauraChow\u002FHunanMultimodalDataset).\n\n## Scripts\nThere are some scripts in utils folder including: split images, merge images, draw loss curves.\n\n## Other Works\nThere are some other works in our group:\n> **Scene Classification**: [DF4LCZ](https:\u002F\u002Fgithub.com\u002Fctrlovefly\u002FDF4LCZ) (IEEE TGRS 2024).\n\n> **Change Detection**: [GCD-DDPM](https:\u002F\u002Fgithub.com\u002Fudrs\u002FGCD) (IEEE TGRS 2024) (**ESI Highly Cited Paper**), [GVLM](https:\u002F\u002Fgithub.com\u002Fzxk688\u002FGVLM) (ISPRS 2023) (**ESI Highly Cited Paper**).\n\n> **Super-resolution**: [ASDDPM](https:\u002F\u002Fgithub.com\u002Flittlebeen\u002FASDDPM-Adaptive-Semantic-Enhanced-DDPM) (IEEE JSTARS 2024), [GCRDN](https:\u002F\u002Fgithub.com\u002Fzxk688\u002FGCRDN) (IEEE JSTARS 2023).\n\n## Citations\nIf these codes are helpful for your study, please cite:\n```\n@ARTICLE{ma2024manet,\n  author={Ma, Xianping and Zhang, Xiaokang and Pun, Man-On and Huang, Bo},\n  journal={IEEE Transactions on Geoscience and Remote Sensing}, \n  title={A Unified Framework With Multimodal Fine-Tuning for Remote Sensing Semantic Segmentation}, \n  year={2025},\n  volume={63},\n  number={},\n  pages={1-15}\n}\n\n@article{ma2024frequency,\n  author={Ma, Xianping and Zhang, Xiaokang and Ding, Xingchen and Pun, Man-On and Ma, Siwei},\n  journal={IEEE Transactions on Geoscience and Remote Sensing}, \n  title={Decomposition-Based Unsupervised Domain Adaptation for Remote Sensing Image Semantic Segmentation}, \n  year={2024},\n  volume={62},\n  number={},\n  pages={1-18}\n}\n\n@ARTICLE{ma2024rs3mamba,\n  author={Ma, Xianping and Zhang, Xiaokang and Pun, Man-On},\n  journal={IEEE Geoscience and Remote Sensing Letters}, \n  title={RS$^3$Mamba: Visual State Space Model for Remote Sensing Image Semantic Segmentation}, \n  year={2024},\n  volume={},\n  number={},\n  pages={1-1}\n}\n\n@ARTICLE{ma2024ftransunet,\n  author={Ma, Xianping and Zhang, Xiaokang and Pun, Man-On and Liu, Ming},\n  journal={IEEE Transactions on Geoscience and Remote Sensing}, \n  title={A Multilevel Multimodal Fusion Transformer for Remote Sensing Semantic Segmentation}, \n  year={2024},\n  volume={62},\n  number={},\n  pages={1-15},\n  doi={10.1109\u002FTGRS.2024.3373033}\n}\n\n@article{ma2024sam,\n  author={Ma, Xianping and Wu, Qianqian and Zhao, Xingyu and Zhang, Xiaokang and Pun, Man-On and Huang, Bo},\n  journal={IEEE Transactions on Geoscience and Remote Sensing}, \n  title={SAM-Assisted Remote Sensing Imagery Semantic Segmentation With Object and Boundary Constraints}, \n  year={2024},\n  volume={62},\n  pages={1-16},\n}\n\n@article{ma2023unsupervised,\n  title={Unsupervised domain adaptation augmented by mutually boosted attention for semantic segmentation of vhr remote sensing images},\n  author={Ma, Xianping and Zhang, Xiaokang and Wang, Zhiguo and Pun, Man-On},\n  journal={IEEE Transactions on Geoscience and Remote Sensing},\n  volume={61},\n  pages={1--15},\n  year={2023},\n  publisher={IEEE}\n}\n\n@ARTICLE{ma2024asmfnet,\n  author={Ma, Xianping and Xu, Xichen and Zhang, Xiaokang and Pun, Man-On},\n  journal={IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing}, \n  title={Adjacent-Scale Multimodal Fusion Networks for Semantic Segmentation of Remote Sensing Data}, \n  year={2024},\n  volume={},\n  number={},\n  pages={1-13}\n}\n\n@article{ma2022crossmodal,\n  title={A crossmodal multiscale fusion network for semantic segmentation of remote sensing data},\n  author={Ma, Xianping and Zhang, Xiaokang and Pun, Man-On},\n  journal={IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing},\n  volume={15},\n  pages={3463--3474},\n  year={2022},\n  publisher={IEEE}\n}\n\n@inproceedings{ma2022msfnet,\n  title={MSFNET: Multi-Stage Fusion Network for Semantic Segmentation of Fine-Resolution Remote Sensing Data},\n  author={Ma, Xianping and Zhang, Xiaokang and Pun, Man-On and Liu, Ming},\n  booktitle={IGARSS 2022-2022 IEEE International Geoscience and Remote Sensing Symposium},\n  pages={2833--2836},\n  year={2022},\n  organization={IEEE}\n}\n```\n\n## Contact \nXianping Ma ([xianpingma@ling.cuhk.edu.cn](xianpingma@ling.cuhk.edu.cn)), ([ma.xianping125@gmail.com](haonan1wang@gmail.com))\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsstary_SSRS_readme_5274f1db94ba.png)](https:\u002F\u002Fstar-history.com\u002F#sstary\u002FSSRS&Date)\n","# 遥感语义分割\n\n本仓库是若干遥感相关任务的 PyTorch 实现。\n\n## 方法\n\n> **基于 SAM**:\n\n[MFNet](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F11063320) (IEEE TGRS 2025) (**ESI 高被引论文**).\n\n[SAM_RS](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10636322) (IEEE TGRS 2024) (**ESI 高被引论文**).\n\n> **基于 Mamba**:\n\n[RS^3Mamba](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10556777) (IEEE GRSL 2024) (**ESI 热点论文**).\n\n> **无监督域自适应 (UDA)**:\n\n[GLGAN](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F10721444) (IEEE TGRS 2024).\n\n[MBATA_GAN](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10032584\u002F) (IEEE TGRS 2023) (**ESI 高被引论文**).\n\n\n> **多模态融合**:\n\n[MFNet](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F11063320) (IEEE TGRS 2025) (**ESI 高被引论文**).\n\n[ASMFNet](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F10736654) (IEEE JSTARS 2024).\n\n[FTransUNet](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F10458980) (IEEE TGRS 2024) (**ESI 热点论文**).\n\n[CMFNet](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9749821\u002F) (IEEE JSTARS 2022) (**ESI 高被引论文**).\n\n[MSFNet](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9883789) (IEEE IGARSS 2022).\n\n## 参考\n对于 UDA：\n* [TransGAN](https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FTransGAN)\n* [Advent](https:\u002F\u002Fgithub.com\u002Fvaleoai\u002FADVENT)\n* [AdaSegNet](https:\u002F\u002Fgithub.com\u002Fwasidennis\u002FAdaptSegNet)\n\n对于 Segment Anything Model：\n* [Medical-SAM-Adapter](https:\u002F\u002Fgithub.com\u002FMedicineToken\u002FMedical-SAM-Adapter\u002Ftree\u002Fmain)\n* [SAM](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsegment-anything)\n\n对于语义分割：\n* [TransUNet](https:\u002F\u002Fgithub.com\u002FBeckschen\u002FTransUNet)\n* [UNetformer](https:\u002F\u002Fgithub.com\u002FWangLibo1995\u002FGeoSeg)\n* [UCTransNet](https:\u002F\u002Fgithub.com\u002FMcGregorWwww\u002FUCTransNet)\n* [Swin-Transformer](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FSwin-Transformer)\n* [Swin-Unet](https:\u002F\u002Fgithub.com\u002FHuCaoFighting\u002FSwin-Unet)\n* [v-FuseNet](https:\u002F\u002Fgithub.com\u002Fnshaud\u002FDeepNetsForEO)\n* [FuseNet](https:\u002F\u002Fgithub.com\u002FMehmetAygun\u002Ffusenet-pytorch)\n\n对于基于 Mamba 的语义分割：\n* [VMamba](https:\u002F\u002Fgithub.com\u002FMzeroMiko\u002FVMamba)\n* [VM-UNet](https:\u002F\u002Fgithub.com\u002FJCruan519\u002FVM-UNet)\n* [Swin-UMamba](https:\u002F\u002Fgithub.com\u002FJiarunLiu\u002FSwin-UMamba)\n\n## 数据集\n包括 ISPRS Potsdam、ISPRS Vaihingen 和 loveDA 的数据集可在此下载：[这里](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation\u002Fblob\u002Fmain\u002Fdocs\u002Fen\u002Fuser_guides\u002F2_dataset_prepare.md#prepare-datasets)。\n\nMMHunan 数据集可在此下载：[这里](https:\u002F\u002Fgithub.com\u002FLauraChow\u002FHunanMultimodalDataset)。\n\n## 脚本\nutils 文件夹中包含一些脚本，包括图像分割、图像合并以及绘制损失曲线等。\n\n## 其他工作\n我们团队还有其他一些工作：\n> **场景分类**：[DF4LCZ](https:\u002F\u002Fgithub.com\u002Fctrlovefly\u002FDF4LCZ) (IEEE TGRS 2024)。\n\n> **变化检测**：[GCD-DDPM](https:\u002F\u002Fgithub.com\u002Fudrs\u002FGCD) (IEEE TGRS 2024) (**ESI 高被引论文**)，[GVLM](https:\u002F\u002Fgithub.com\u002Fzxk688\u002FGVLM) (ISPRS 2023) (**ESI 高被引论文**)。\n\n> **超分辨率**：[ASDDPM](https:\u002F\u002Fgithub.com\u002Flittlebeen\u002FASDDPM-Adaptive-Semantic-Enhanced-DDPM) (IEEE JSTARS 2024)，[GCRDN](https:\u002F\u002Fgithub.com\u002Fzxk688\u002FGCRDN) (IEEE JSTARS 2023)。\n\n## 引用\n如果这些代码对您的研究有所帮助，请引用以下内容：\n```\n@ARTICLE{ma2024manet,\n  author={Ma, Xianping and Zhang, Xiaokang and Pun, Man-On and Huang, Bo},\n  journal={IEEE Transactions on Geoscience and Remote Sensing}, \n  title={A Unified Framework With Multimodal Fine-Tuning for Remote Sensing Semantic Segmentation}, \n  year={2025},\n  volume={63},\n  number={},\n  pages={1-15}\n}\n\n@article{ma2024frequency,\n  author={Ma, Xianping and Zhang, Xiaokang and Ding, Xingchen and Pun, Man-On and Ma, Siwei},\n  journal={IEEE Transactions on Geoscience and Remote Sensing}, \n  title={Decomposition-Based Unsupervised Domain Adaptation for Remote Sensing Image Semantic Segmentation}, \n  year={2024},\n  volume={62},\n  number={},\n  pages={1-18}\n}\n\n@ARTICLE{ma2024rs3mamba,\n  author={Ma, Xianping and Zhang, Xiaokang and Pun, Man-On},\n  journal={IEEE Geoscience and Remote Sensing Letters}, \n  title={RS$^3$Mamba: Visual State Space Model for Remote Sensing Image Semantic Segmentation}, \n  year={2024},\n  volume={},\n  number={},\n  pages={1-1}\n}\n\n@ARTICLE{ma2024ftransunet,\n  author={Ma, Xianping and Zhang, Xiaokang and Pun, Man-On and Liu, Ming},\n  journal={IEEE Transactions on Geoscience and Remote Sensing}, \n  title={A Multilevel Multimodal Fusion Transformer for Remote Sensing Semantic Segmentation}, \n  year={2024},\n  volume={62},\n  number={},\n  pages={1-15},\n  doi={10.1109\u002FTGRS.2024.3373033}\n}\n\n@article{ma2024sam,\n  author={Ma, Xianping and Wu, Qianqian and Zhao, Xingyu and Zhang, Xiaokang and Pun, Man-On and Huang, Bo},\n  journal={IEEE Transactions on Geoscience and Remote Sensing}, \n  title={SAM-Assisted Remote Sensing Imagery Semantic Segmentation With Object and Boundary Constraints}, \n  year={2024},\n  volume={62},\n  pages={1-16},\n}\n\n@article{ma2023unsupervised,\n  title={Unsupervised domain adaptation augmented by mutually boosted attention for semantic segmentation of vhr remote sensing images},\n  author={Ma, Xianping and Zhang, Xiaokang and Wang, Zhiguo and Pun, Man-On},\n  journal={IEEE Transactions on Geoscience and Remote Sensing},\n  volume={61},\n  pages={1--15},\n  year={2023},\n  publisher={IEEE}\n}\n\n@ARTICLE{ma2024asmfnet,\n  author={Ma, Xianping and Xu, Xichen and Zhang, Xiaokang and Pun, Man-On},\n  journal={IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing}, \n  title={Adjacent-Scale Multimodal Fusion Networks for Semantic Segmentation of Remote Sensing Data}, \n  year={2024},\n  volume={},\n  number={},\n  pages={1-13}\n}\n\n@article{ma2022crossmodal,\n  title={A crossmodal multiscale fusion network for semantic segmentation of remote sensing data},\n  author={Ma, Xianping and Zhang, Xiaokang and Pun, Man-On},\n  journal={IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing},\n  volume={15},\n  pages={3463--3474},\n  year={2022},\n  publisher={IEEE}\n}\n\n@inproceedings{ma2022msfnet,\n  title={MSFNET: Multi-Stage Fusion Network for Semantic Segmentation of Fine-Resolution Remote Sensing Data},\n  author={Ma, Xianping and Zhang, Xiaokang and Pun, Man-On and Liu, Ming},\n  booktitle={IGARSS 2022-2022 IEEE International Geoscience and Remote Sensing Symposium},\n  pages={2833--2836},\n  year={2022},\n  organization={IEEE}\n}\n```\n\n## 联系方式\nXianping Ma ([xianpingma@ling.cuhk.edu.cn](xianpingma@ling.cuhk.edu.cn)), ([ma.xianping125@gmail.com](haonan1wang@gmail.com))\n\n## 星标历史\n\n[![星标历史图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsstary_SSRS_readme_5274f1db94ba.png)](https:\u002F\u002Fstar-history.com\u002F#sstary\u002FSSRS&Date)","# SSRS 快速上手指南\n\nSSRS (Semantic Segmentation for Remote Sensing) 是一个基于 PyTorch 的遥感图像语义分割开源工具箱，集成了多种前沿算法（如 SAM、Mamba、多模态融合及无监督域适应等）。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+) 或 Windows (需配置 WSL2 或原生 CUDA 环境)。\n*   **Python**: 3.8 或更高版本。\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡（建议显存 >= 8GB 以运行大型模型如 SAM 或 Mamba）。\n*   **前置依赖**:\n    *   PyTorch (建议 1.10+ 或 2.0+)\n    *   torchvision\n    *   CUDA Toolkit (版本需与 PyTorch 匹配)\n\n> **提示**：国内用户建议使用清华源或阿里源加速 Python 包和 PyTorch 的安装。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fsstary\u002FSSRS.git\ncd SSRS\n```\n\n### 2. 创建虚拟环境 (推荐)\n```bash\nconda create -n ssrs python=3.9\nconda activate ssrs\n```\n\n### 3. 安装 PyTorch\n请根据您的 CUDA 版本选择对应的安装命令。以下为使用清华源安装 PyTorch 2.0 + CUDA 11.8 的示例：\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n*其他版本请参考 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F)。*\n\n### 4. 安装项目依赖\n安装 `requirements.txt` 中列出的其他依赖库：\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n*(注：如果根目录下没有 requirements.txt，请根据具体模型子目录下的依赖文件进行安装，或手动安装常见库如 `numpy`, `opencv-python`, `scikit-image`, `tqdm` 等)*\n\n## 基本使用\n\n### 1. 数据集准备\n本项目支持 ISPRS Potsdam, ISPRS Vaihingen, loveDA 等主流遥感数据集。请将下载并解压后的数据集放置在指定目录（通常为 `data\u002F` 或项目根目录下的特定文件夹），并按照 `utils` 文件夹中的脚本进行预处理（如切割图像）。\n\n数据集下载参考：\n*   [MMSegmentation 数据集准备指南](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation\u002Fblob\u002Fmain\u002Fdocs\u002Fen\u002Fuser_guides\u002F2_dataset_prepare.md#prepare-datasets)\n*   [MMHunan 数据集](https:\u002F\u002Fgithub.com\u002FLauraChow\u002FHunanMultimodalDataset)\n\n### 2. 工具脚本使用\n`utils` 文件夹提供了一些辅助脚本，可用于数据预处理和可视化：\n*   **图像切割与合并**: 用于处理大幅遥感影像。\n*   **绘制损失曲线**: 用于训练过程监控。\n\n示例（假设脚本名为 `split_images.py`）：\n```bash\npython utils\u002Fsplit_images.py --input_path .\u002Fdata\u002Fraw --output_path .\u002Fdata\u002Fsplit\n```\n\n### 3. 模型训练与推理\n由于该项目包含多个独立的方法（如 `MFNet`, `RS3Mamba`, `SAM_RS` 等），具体的训练和推理命令通常位于各方法对应的子目录或特定的 `.sh` 启动脚本中。\n\n**通用训练流程示例**（以某个具体模型为例，需参照对应论文代码目录）：\n```bash\n# 示例：启动训练 (具体配置文件路径需根据所选模型调整)\npython train.py --config configs\u002FMFNet_potsdam.py --gpu 0\n\n# 示例：启动测试\u002F推理\npython test.py --config configs\u002FMFNet_potsdam.py --checkpoint weights\u002Fbest_model.pth --save_dir results\u002F\n```\n\n> **注意**：请务必进入您想要运行的具体算法文件夹（例如 `cd methods\u002FMFNet`），并查看该目录下的 `README` 或 `run.sh` 脚本以获取最准确的参数配置。\n\n### 4. 引用\n如果在您的研究中使用了本项目的代码或方法，请引用相关论文（详见项目根目录 `Citations` 部分）。","某省级自然资源监测中心正利用多源遥感影像，紧急开展全省耕地与非农建设用地的精细化分类任务，以支撑年度国土变更调查。\n\n### 没有 SSRS 时\n- **模型泛化能力差**：直接使用通用分割模型处理不同季节、不同传感器（如 Sentinel-2 与高分系列）的影像时，因地域差异导致准确率大幅下滑，需针对每个区域重新标注大量数据训练。\n- **多模态数据浪费**：手头拥有的光学与 SAR 雷达融合数据无法被有效利用，传统算法难以对齐两种模态的特征，导致云层遮挡区域的耕地识别出现大量盲区。\n- **小目标识别困难**：对于破碎化的田埂、小型温室大棚等细小地物，现有网络往往将其误判为背景或合并到大块地块中，无法满足“图斑级”的监管精度要求。\n- **人工修正成本高**：自动化结果粗糙，后期需要数十名质检员花费数周时间手动勾绘修正边界，严重拖慢项目交付进度。\n\n### 使用 SSRS 后\n- **无监督域自适应突破**：利用 SSRS 集成的 GLGAN 或 MBATA_GAN 算法，无需额外标注即可将模型从已标注区域迁移至新区域，显著降低了跨地域、跨传感器的数据适配成本。\n- **多模态深度融合**：通过 MFNet 或 ASMFNet 模块，SSRS 能自动对齐光学与雷达特征，即使在云雨天气下也能精准提取地表覆盖信息，消除了数据盲区。\n- **细粒度分割提升**：基于 SAM_RS 或 RS³Mamba 架构，工具对边缘细节的捕捉能力极强，能清晰分离狭窄田埂与独立大棚，单类地物提取精度提升超过 15%。\n- **全流程效率飞跃**：自动化输出结果可直接入库，人工复检工作量减少 80%，原本需要一个月的内业处理周期缩短至三天即可完成。\n\nSSRS 通过引入前沿的视觉大模型与状态空间模型技术，将遥感语义分割从“劳动密集型”的人工修图转变为“数据驱动型”的智能生产，极大释放了地理空间数据的价值。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsstary_SSRS_05265783.png","sstary","XianpingMa","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsstary_45e1d4e2.jpg",null,"The Chinese University of Hongkong (Shenzhen)","Shenzhen","https:\u002F\u002Fgithub.com\u002Fsstary",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",99,{"name":88,"color":89,"percentage":90},"Jupyter Notebook","#DA5B0B",1,764,90,"2026-04-01T14:19:42","Apache-2.0",4,"未说明","必需 (基于 PyTorch 及 SAM\u002FMamba 架构，通常需 NVIDIA GPU)，具体型号与显存未说明",{"notes":99,"python":96,"dependencies":100},"该项目是遥感语义分割的 PyTorch 实现集合，包含 SAM、Mamba、UDA 及多模态融合等多种前沿模型。README 未提供具体的安装命令或版本锁定文件（requirements.txt），用户需根据引用的子项目（如 SAM, Swin-Transformer, VMamba）自行配置相应依赖。数据集（如 ISPRS Potsdam, loveDA 等）需单独下载。建议具备深度学习基础的用户根据具体使用的模型架构搭建环境。",[101,102,103,104,105,106],"PyTorch","transformers (参考 TransUNet\u002FSwin-Transformer)","segment-anything (SAM)","mamba-ssm (参考 VMamba\u002FRS3Mamba)","numpy","opencv-python",[26,54,14],[109,110,111,112,113,114,115,116],"remote-sensing","semantic-segmentation","mamba","multimodal-fusion","unsupervised-domain-adaptation","very-high-resolution","segment-anything-modal","transformer","2026-03-27T02:49:30.150509","2026-04-06T05:32:30.315643",[120,125,130,134,139,144,149,154,159,163],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},16501,"使用自定义数据集时，如何修改标签（Labels）和调色板（Palette）配置？","需要确保代码中的 palette 字典值与数据集中的实际标签颜色值对应。例如，如果数据集只有背景（255, 255, 255）和建筑（255, 0, 0）两类，配置应为：LABELS = [\"background\", \"building\"]，palette = {0: (255, 255, 255), 1: (255, 0, 0)}。注意：LoveDA 等公开数据集的掩码标签值通常是 1-7，若使用此类数据集需确认是否需调整为 0 起始或对应具体数值。","https:\u002F\u002Fgithub.com\u002Fsstary\u002FSSRS\u002Fissues\u002F4",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},16502,"训练一个 epoch 耗时过长（如 1 小时），这正常吗？如何优化？","如果使用高分辨率数据集或复杂模型，耗时较长可能是正常的。建议检查显存使用情况，若显存不足可尝试降低 batch size，同时增加总 epoch 次数以保证收敛。此外，确保在 Linux 环境下运行以避免 Windows 下的库兼容性问题。","https:\u002F\u002Fgithub.com\u002Fsstary\u002FSSRS\u002Fissues\u002F72",{"id":131,"question_zh":132,"answer_zh":133,"source_url":129},16503,"如何在现有框架中替换或复现其他模型（如用 UNetFormer 替换 FTransUNet）？","无需调用外部模型框架，直接在当前框架内替换即可。以 UNetFormer 替换 FTransUNet 为例：直接替换模型文件，并修改 UNetFormer 的 forward 函数使其接收两个模态输入（x 和 y），但实际计算仅使用 x 模态。具体实现可参考项目中 SAM_RS 目录下的模型替换方式。",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},16504,"测试时进程被杀死（Killed）或显存不足怎么办？","进程被杀死通常是因为测试集过大导致显存或内存溢出。解决方案包括：1. 减少测试样本数量，仅在最终验证时测试全部数据集；2. 调整代码逻辑，避免一次性将所有测试图片加载到 CPU\u002FGPU 中，改为按 batch size 分批测试；3. 检查 test 函数中是否有类似 `return batch_size * 1000` 的大数据加载逻辑并进行优化。","https:\u002F\u002Fgithub.com\u002Fsstary\u002FSSRS\u002Fissues\u002F94",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},16505,"训练初期某些类别（如车辆 cars）的预测结果为空或准确率极低，是否正常？","这是正常现象，特别是当该类别的样本数量很少时，模型学习速度较慢。通常在第一个 epoch 看不到结果，随着训练进行（后续 epoch），准确率会逐渐提升并趋于稳定。建议继续训练观察后续效果。","https:\u002F\u002Fgithub.com\u002Fsstary\u002FSSRS\u002Fissues\u002F73",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},16506,"绘制热力图（Heatmap）时出现全蓝或全红的异常情况，原因是什么？","如果绘制代码一致但结果异常（如全蓝或全红），通常是因为传入的特征图（Feature Map）有问题，而非目标层设置错误。请检查输入到热力图绘制函数的特征数据是否正确，确保其包含有效的梯度信息。一般的特征图均可根据回传梯度进行正常绘制。","https:\u002F\u002Fgithub.com\u002Fsstary\u002FSSRS\u002Fissues\u002F9",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},16507,"复现 RS^3Mamba 模型时 mIoU 仅为 0.68 左右，达不到论文报告的 0.8+，可能是什么原因？","常见原因有两个：1. 预训练权重未正确加载（即使没有报错），请检查 ResNet 等骨干网络的导入路径和加载逻辑；2. 评估指标计算错误，例如在计算 mean mIoU 时错误地将 'clutter'（杂波）类别计入分母（除以 6 而不是 5）。请检查 util 文件中 metrics 函数的计算逻辑，排除无效类别后重新评估。","https:\u002F\u002Fgithub.com\u002Fsstary\u002FSSRS\u002Fissues\u002F107",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},16508,"使用自定义尺寸图像（如 512x512）时报形状不匹配错误（期望 256x256），如何修改？","需要在数据预处理或工具脚本（如 utils.py）中调整图像缩放或裁剪逻辑，使其符合模型输入的固定尺寸要求（如 256x256）。如果模型架构支持动态尺寸，需检查配置文件中的输入尺寸参数并相应修改，确保传入模型的张量形状与定义一致。","https:\u002F\u002Fgithub.com\u002Fsstary\u002FSSRS\u002Fissues\u002F68",{"id":160,"question_zh":161,"answer_zh":162,"source_url":138},16509,"测试代码中的 YOUR_MODEL 路径应该填什么？","YOUR_MODEL 应替换为你自己训练并保存下来的模型文件的完整路径名（例如：'checkpoints\u002Fbest_model.pth'）。确保路径指向正确的 .pth 或 .ckpt 文件，且该文件包含了完整的模型状态字典（state_dict）。",{"id":164,"question_zh":165,"answer_zh":166,"source_url":129},16510,"Vaihingen 数据集的 train_masks 对应哪个文件夹？数据目录结构是怎样的？","在 Vaihingen 数据集中，train_masks 通常对应标注文件（Ground Truth）。参考项目中的路径配置：DATA_FOLDER 指向原始影像（top_mosaic_09cm_area{}.tif），LABEL_FOLDER 指向标注文件（gts_for_participants\u002Ftop_mosaic_09cm_area{}.tif）。请确保你的数据集目录结构与代码中定义的 MAIN_FOLDER 及子文件夹名称一致。",[]]