[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Junjue-Wang--LoveDA":3,"tool-Junjue-Wang--LoveDA":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":94,"forks":95,"last_commit_at":96,"license":82,"difficulty_score":10,"env_os":97,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":101,"github_topics":102,"view_count":10,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":107,"updated_at":108,"faqs":109,"releases":140},210,"Junjue-Wang\u002FLoveDA","LoveDA","[NeurIPS 2021] LoveDA: A Remote Sensing Land-Cover Dataset for Domain Adaptive Semantic Segmentation","LoveDA 是一个专注于遥感土地覆盖的开源数据集与基准平台，发表于 NeurIPS 2021 会议。LoveDA 主要服务于域自适应语义分割任务，旨在解决遥感图像分析中因城乡地理环境差异导致的模型泛化难题。在传统场景中训练的模型往往难以直接适用于不同地域的影像，LoveDA 通过提供跨域数据，帮助算法更好地适应这种分布变化。\n\nLoveDA 非常适合计算机视觉研究人员、遥感算法开发者以及高校学生使用。数据集包含 5987 张高分辨率（0.3 米）遥感影像，采集自南京、常州和武汉三地，重点对比了城市与乡村的不同地理环境。LoveDA 的技术亮点在于构建了多尺度目标、复杂背景样本及类别分布不一致三大挑战场景，真实反映了实际落地中的难点。\n\n为了方便使用，LoveDA 已集成至 MMsegmentation 和 Torchgeo 等主流开源框架中，支持用户快速开展实验与性能评估。此外，项目还维护了相关的语义分割和无监督域适应竞赛排行榜，为学术界和工业界提供了公平的对比基准。如果你正在从事遥感图像解译或迁移学习研究，LoveDA 是一个值得参考的重要资源。","\u003Ch2 align=\"center\">LoveDA: A Remote Sensing Land-Cover Dataset for Domain Adaptive Semantic Segmentation\u003C\u002Fh2>\n\n\u003Ch5 align=\"right\">by \u003Ca href=\"https:\u002F\u002Fjunjue-wang.github.io\u002Fhomepage\u002F\">Junjue Wang\u003C\u002Fa>, \u003Ca href=\"http:\u002F\u002Fzhuozheng.top\u002F\">Zhuo Zheng\u003C\u002Fa>, Ailong Ma, Xiaoyan Lu, and \u003Ca href=\"http:\u002F\u002Frsidea.whu.edu.cn\u002F\">Yanfei Zhong\u003C\u002Fa>\u003C\u002Fh5>\n\n[[`Paper`](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FJunjue-Wang\u002Fpublication\u002F355390292_LoveDA_A_Remote_Sensing_Land-Cover_Dataset_for_Domain_Adaptive_Semantic_Segmentation\u002Flinks\u002F617cd8bda767a03c14cecbc9\u002FLoveDA-A-Remote-Sensing-Land-Cover-Dataset-for-Domain-Adaptive-Semantic-Segmentation.pdf?_sg%5B0%5D=Iw5FPui1-9iYrZN7aZO766hZA-LmublHlq8bp0694vUeIGDIzp5SGTfYN-OWhurZOujSPU0RDZ5lW0i02HVUew.7x9qdrvJwRmAnsqEyh5-xSFdh0M9AaTpdXcZCfHyhVl5GNLR5nlDIx8ctTXFy1HE1yNexX4ytzYqJWkAGJVTvg.Rrg3rXhcp9mMlLTU3n9Jf-h0Kt8VzHAd0AmhG2yPQxI-yRK6J0wAulUZ65dih6BQ9CbrQm0_23_nULO_BXwaJg&_sg%5B1%5D=KLu7pn0g50f8FwKE9x5iOuDPYb8VaOpX4k_ieq8eWJVVeJyXbZJO-O4pCL687QRxYbBnWdo7fJj8FZEOc3t3lgVVyDz0CFS-ff7LToXj4R9W.7x9qdrvJwRmAnsqEyh5-xSFdh0M9AaTpdXcZCfHyhVl5GNLR5nlDIx8ctTXFy1HE1yNexX4ytzYqJWkAGJVTvg.Rrg3rXhcp9mMlLTU3n9Jf-h0Kt8VzHAd0AmhG2yPQxI-yRK6J0wAulUZ65dih6BQ9CbrQm0_23_nULO_BXwaJg&_iepl=)],\n[[`Video`](https:\u002F\u002Fslideslive.com\u002F38969542)],\n[[`Dataset`](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5706578)],\n[[`BibTeX`](https:\u002F\u002Fdatasets-benchmarks-proceedings.neurips.cc\u002Fpaper\u002F2021\u002Ffile\u002F4e732ced3463d06de0ca9a15b6153677-Bibtex-round2.bib)],\n[[`Leaderboard-SEG`](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13030)],\n[[`Leaderboard-UDA`](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13037)]\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJunjue-Wang_LoveDA_readme_fe67fc4369a6.jpg\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJunjue-Wang_LoveDA_readme_957b27cceef1.png\">\n\u003C\u002Fdiv>\n\n## News\n- 2026\u002F01\u002F22, We moved the evaluation platform to [\u003Cb>LoveDA Semantic Segmentation Challenge\u003C\u002Fb>](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13030), [\u003Cb>LoveDA Unsupervised Domain Adaptation Challenge\u003C\u002Fb>](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13037).\n\n- 2026\u002F01\u002F08, We extended the scope of LoveDA from China to a global scale at [\u003Cb>EarthVL\u003C\u002Fb>](https:\u002F\u002Fgithub.com\u002FJunjue-Wang\u002FEarthVL) dataset.\n\n- 2024\u002F05\u002F12, The new version of LoveDA dataset has been released at [\u003Cb>EarthVQA\u003C\u002Fb>](https:\u002F\u002Fgithub.com\u002FJunjue-Wang\u002FEarthVQA) dataset.\n\n- 2021\u002F12\u002F13, Pre-trained urls for HRNet have been updated.\n\n- 2021\u002F12\u002F10, LoveDA has been included in\n[\u003Cb>Torchgeo\u003C\u002Fb>](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Ftorchgeo\u002Fblob\u002Fmain\u002Ftorchgeo\u002Fdatasets\u002Floveda.py).\n\n- 2021\u002F11\u002F30, The contests have been moved to new server:\n[\u003Cb>LoveDA Semantic Segmentation Challenge\u003C\u002Fb>](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13030), [\u003Cb>LoveDA Unsupervised Domain Adaptation Challenge\u003C\u002Fb>](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13037).\n\n- 2021\u002F11\u002F11, LoveDA has been included in [MMsegmentation](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation).\n🔥🔥 The Semantic Segmentation task can be prepared follow [dataset_prepare.md](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation\u002Fblob\u002Fmaster\u002Fdocs\u002Fen\u002Fdataset_prepare.md#loveda).🔥🔥 \n\n\n\n\n## Highlights\n1. 5987 high spatial resolution (0.3 m) remote sensing images from Nanjing, Changzhou, and Wuhan\n2. Focus on different geographical environments between Urban and Rural\n3. Advance both semantic segmentation and domain adaptation tasks\n4. Three considerable challenges:\n    * Multi-scale objects\n    * Complex background samples\n    * Inconsistent class distributions\n\n## Citation\nIf you use LoveDA in your research, please cite our NeurIPS2021 paper.\n```text\n    @inproceedings{NEURIPS DATASETS AND BENCHMARKS2021_4e732ced,\n         author = {Wang, Junjue and Zheng, Zhuo and Ma, Ailong and Lu, Xiaoyan and Zhong, Yanfei},\n         booktitle = {Proceedings of the Neural Information Processing Systems Track on Datasets and Benchmarks},\n         editor = {J. Vanschoren and S. Yeung},\n         pages = {},\n         publisher = {Curran Associates, Inc.},\n         title = {LoveDA: A Remote Sensing Land-Cover Dataset for Domain Adaptive Semantic Segmentation},\n         url = {https:\u002F\u002Fdatasets-benchmarks-proceedings.neurips.cc\u002Fpaper_files\u002Fpaper\u002F2021\u002Ffile\u002F4e732ced3463d06de0ca9a15b6153677-Paper-round2.pdf},\n         volume = {1},\n         year = {2021}\n    }\n    @dataset{junjue_wang_2021_5706578,\n        author={Junjue Wang and Zhuo Zheng and Ailong Ma and Xiaoyan Lu and Yanfei Zhong},\n        title={Love{DA}: A Remote Sensing Land-Cover Dataset for Domain Adaptive Semantic Segmentation},\n        month=oct,\n        year=2021,\n        publisher={Zenodo},\n        doi={10.5281\u002Fzenodo.5706578},\n        url={https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5706578}\n    }\n```\n\n\n## Dataset and Contest\nThe LoveDA dataset is released at [\u003Cb>Zenodo\u003C\u002Fb>](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5706578)\nand [\u003Cb>Baidu Drive\u003C\u002Fb>](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1YrU1Y4Y0dS0f_OOHXpzspQ) Code: 27vc\n\n\n\nYou can develop your models on Train and Validation sets.\n\nCategory labels: background – 1, building – 2, road – 3,\n                 water – 4, barren – 5,forest – 6, agriculture – 7. And the no-data regions were assigned 0\n                 which should be ignored. The provided data loader will help you construct your pipeline.  \n                 \n\nSubmit your test results on [\u003Cb>LoveDA Semantic Segmentation Challenge\u003C\u002Fb>](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13030), [\u003Cb>LoveDA Unsupervised Domain Adaptation Challenge\u003C\u002Fb>](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13037).\nYou will get your Test scores smoothly.\n\nFeel free to design your own models, and we are looking forward to your exciting results!\n\n\n## License\nThe owners of the data and of the copyright on the data are [RSIDEA](http:\u002F\u002Frsidea.whu.edu.cn\u002F), Wuhan University.\nUse of the Google Earth images must respect the [\"Google Earth\" terms of use](https:\u002F\u002Fabout.google\u002Fbrand-resource-center\u002Fproducts-and-services\u002Fgeo-guidelines\u002F).\nAll images and their associated annotations in LoveDA can be used for academic purposes only,\n\u003Cfont color=\"red\">\u003Cb> but any commercial use is prohibited.\u003C\u002Fb>\u003C\u002Ffont>\n\n\u003Ca rel=\"license\" href=\"https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002Fdeed.en\">\n\u003Cimg alt=\"知识共享许可协议\" style=\"border-width:0\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJunjue-Wang_LoveDA_readme_6809fa69949c.png\" \u002F>\u003C\u002Fa>\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJunjue-Wang_LoveDA_readme_795c38d12afd.png)](https:\u002F\u002Fstar-history.com\u002F#Junjue-Wang\u002FLoveDA&Date)\n","\u003Ch2 align=\"center\">LoveDA：用于域自适应语义分割的遥感土地覆盖数据集\u003C\u002Fh2>\n\n\u003Ch5 align=\"right\">作者：\u003Ca href=\"https:\u002F\u002Fjunjue-wang.github.io\u002Fhomepage\u002F\">Junjue Wang\u003C\u002Fa>, \u003Ca href=\"http:\u002F\u002Fzhuozheng.top\u002F\">Zhuo Zheng\u003C\u002Fa>, Ailong Ma, Xiaoyan Lu, 和 \u003Ca href=\"http:\u002F\u002Frsidea.whu.edu.cn\u002F\">Yanfei Zhong\u003C\u002Fa>\u003C\u002Fh5>\n\n[[`论文`](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FJunjue-Wang\u002Fpublication\u002F355390292_LoveDA_A_Remote_Sensing_Land-Cover_Dataset_for_Domain_Adaptive_Semantic_Segmentation\u002Flinks\u002F617cd8bda767a03c14cecbc9\u002FLoveDA-A-Remote-Sensing-Land-Cover-Dataset-for-Domain-Adaptive-Semantic-Segmentation.pdf?_sg%5B0%5D=Iw5FPui1-9iYrZN7aZO766hZA-LmublHlq8bp0694vUeIGDIzp5SGTfYN-OWhurZOujSPU0RDZ5lW0i02HVUew.7x9qdrvJwRmAnsqEyh5-xSFdh0M9AaTpdXcZCfHyhVl5GNLR5nlDIx8ctTXFy1HE1yNexX4ytzYqJWkAGJVTvg.Rrg3rXhcp9mMlLTU3n9Jf-h0Kt8VzHAd0AmhG2yPQxI-yRK6J0wAulUZ65dih6BQ9CbrQm0_23_nULO_BXwaJg&_sg%5B1%5D=KLu7pn0g50f8FwKE9x5iOuDPYb8VaOpX4k_ieq8eWJVVeJyXbZJO-O4pCL687QRxYbBnWdo7fJj8FZEOc3t3lgVVyDz0CFS-ff7LToXj4R9W.7x9qdrvJwRmAnsqEyh5-xSFdh0M9AaTpdXcZCfHyhVl5GNLR5nlDIx8ctTXFy1HE1yNexX4ytzYqJWkAGJVTvg.Rrg3rXhcp9mMlLTU3n9Jf-h0Kt8VzHAd0AmhG2yPQxI-yRK6J0wAulUZ65dih6BQ9CbrQm0_23_nULO_BXwaJg&_iepl=)],\n[[`视频`](https:\u002F\u002Fslideslive.com\u002F38969542)],\n[[`数据集`](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5706578)],\n[[`BibTeX`](https:\u002F\u002Fdatasets-benchmarks-proceedings.neurips.cc\u002Fpaper\u002F2021\u002Ffile\u002F4e732ced3463d06de0ca9a15b6153677-Bibtex-round2.bib)],\n[[`排行榜 - 语义分割`](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13030)],\n[[`排行榜 - 无监督域自适应`](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13037)]\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJunjue-Wang_LoveDA_readme_fe67fc4369a6.jpg\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJunjue-Wang_LoveDA_readme_957b27cceef1.png\">\n\u003C\u002Fdiv>\n\n## 新闻动态\n- 2026\u002F01\u002F22, 我们将评估平台迁移至 [\u003Cb>LoveDA 语义分割挑战\u003C\u002Fb>](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13030), [\u003Cb>LoveDA 无监督域自适应挑战\u003C\u002Fb>](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13037)。\n\n- 2026\u002F01\u002F08, 我们在 [\u003Cb>EarthVL\u003C\u002Fb>](https:\u002F\u002Fgithub.com\u002FJunjue-Wang\u002FEarthVL) 数据集中将 LoveDA 的范围从中国扩展到了全球尺度。\n\n- 2024\u002F05\u002F12, 新版 LoveDA 数据集已在 [\u003Cb>EarthVQA\u003C\u002Fb>](https:\u002F\u002Fgithub.com\u002FJunjue-Wang\u002FEarthVQA) 数据集中发布。\n\n- 2021\u002F12\u002F13, HRNet 的预训练权重链接已更新。\n\n- 2021\u002F12\u002F10, LoveDA 已被收录进\n[\u003Cb>Torchgeo\u003C\u002Fb>](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Ftorchgeo\u002Fblob\u002Fmain\u002Ftorchgeo\u002Fdatasets\u002Floveda.py)。\n\n- 2021\u002F11\u002F30, 竞赛已迁移至新服务器：\n[\u003Cb>LoveDA 语义分割挑战\u003C\u002Fb>](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13030), [\u003Cb>LoveDA 无监督域自适应挑战\u003C\u002Fb>](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13037)。\n\n- 2021\u002F11\u002F11, LoveDA 已被收录进 [MMsegmentation](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation)。\n🔥🔥 语义分割任务可遵循 [dataset_prepare.md](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation\u002Fblob\u002Fmaster\u002Fdocs\u002Fen\u002Fdataset_prepare.md#loveda) 进行准备。🔥🔥 \n\n\n\n\n## 亮点\n1. 5987 张来自南京、常州和武汉的高空间分辨率 (0.3 m) 遥感图像\n2. 聚焦于城市与乡村之间不同的地理环境\n3. 推动语义分割和域自适应任务的发展\n4. 三个显著挑战：\n    * 多尺度目标\n    * 复杂背景样本\n    * 不一致的类别分布\n\n## 引用\n如果您在研究中使用 LoveDA，请引用我们的 NeurIPS2021 论文。\n```text\n    @inproceedings{NEURIPS DATASETS AND BENCHMARKS2021_4e732ced,\n         author = {Wang, Junjue and Zheng, Zhuo and Ma, Ailong and Lu, Xiaoyan and Zhong, Yanfei},\n         booktitle = {Proceedings of the Neural Information Processing Systems Track on Datasets and Benchmarks},\n         editor = {J. Vanschoren and S. Yeung},\n         pages = {},\n         publisher = {Curran Associates, Inc.},\n         title = {LoveDA: A Remote Sensing Land-Cover Dataset for Domain Adaptive Semantic Segmentation},\n         url = {https:\u002F\u002Fdatasets-benchmarks-proceedings.neurips.cc\u002Fpaper_files\u002Fpaper\u002F2021\u002Ffile\u002F4e732ced3463d06de0ca9a15b6153677-Paper-round2.pdf},\n         volume = {1},\n         year = {2021}\n    }\n    @dataset{junjue_wang_2021_5706578,\n        author={Junjue Wang and Zhuo Zheng and Ailong Ma and Xiaoyan Lu and Yanfei Zhong},\n        title={Love{DA}: A Remote Sensing Land-Cover Dataset for Domain Adaptive Semantic Segmentation},\n        month=oct,\n        year=2021,\n        publisher={Zenodo},\n        doi={10.5281\u002Fzenodo.5706578},\n        url={https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5706578}\n    }\n```\n\n\n## 数据集与竞赛\nLoveDA 数据集发布在 [\u003Cb>Zenodo\u003C\u002Fb>](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5706578)\n和 [\u003Cb>百度网盘\u003C\u002Fb>](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1YrU1Y4Y0dS0f_OOHXpzspQ) 提取码：27vc\n\n\n\n您可以在训练集和验证集上开发您的模型。\n\n类别标签：背景 – 1, 建筑物 – 2, 道路 – 3,\n                 水体 – 4, 裸地 – 5, 森林 – 6, 农业用地 – 7。无数据区域被分配为 0，应被忽略。提供的数据加载器将帮助您构建流程。  \n                 \n\n在 [\u003Cb>LoveDA 语义分割挑战\u003C\u002Fb>](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13030), [\u003Cb>LoveDA 无监督域自适应挑战\u003C\u002Fb>](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13037) 提交您的测试结果。\n您将顺利获得测试分数。\n\n欢迎设计您自己的模型，我们期待您的精彩结果！\n\n\n## 许可证\n数据及数据版权的所有者是 [RSIDEA](http:\u002F\u002Frsidea.whu.edu.cn\u002F), 武汉大学。\n使用 Google Earth 图像必须遵守 [\"Google Earth\" 使用条款](https:\u002F\u002Fabout.google\u002Fbrand-resource-center\u002Fproducts-and-services\u002Fgeo-guidelines\u002F)。\nLoveDA 中的所有图像及其相关注释仅可用于学术目的，\n\u003Cfont color=\"red\">\u003Cb> 但禁止任何商业用途。\u003C\u002Fb>\u003C\u002Ffont>\n\n\u003Ca rel=\"license\" href=\"https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002Fdeed.en\">\n\u003Cimg alt=\"知识共享许可协议\" style=\"border-width:0\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJunjue-Wang_LoveDA_readme_6809fa69949c.png\" \u002F>\u003C\u002Fa>\n\n## Star 历史\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJunjue-Wang_LoveDA_readme_795c38d12afd.png)](https:\u002F\u002Fstar-history.com\u002F#Junjue-Wang\u002FLoveDA&Date)","# LoveDA 快速上手指南\n\nLoveDA 是一个用于域自适应语义分割的遥感土地覆盖数据集。本指南将帮助您快速配置环境、获取数据并基于 MMSegmentation 框架开始使用。\n\n## 环境准备\n\n*   **操作系统**: Linux \u002F Windows \u002F macOS\n*   **Python**: 3.7 及以上\n*   **深度学习框架**: PyTorch 1.5+\n*   **推荐框架**: MMSegmentation (已原生集成 LoveDA)\n*   **硬件要求**: 建议使用 NVIDIA GPU 进行模型训练\n*   **许可说明**: 数据仅限学术用途，禁止商业使用\n\n## 安装步骤\n\n1.  **克隆项目仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FJunjue-Wang\u002FLoveDA.git\n    cd LoveDA\n    ```\n\n2.  **下载数据集**\n    推荐使用国内镜像源加速下载，下载后解压至项目目录。\n    *   **百度网盘**: [链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1YrU1Y4Y0dS0f_OOHXpzspQ) (提取码：27vc)\n    *   **Zenodo**: [链接](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5706578)\n\n3.  **安装依赖框架**\n    LoveDA 已集成至 MMSegmentation，安装该框架即可直接调用数据集。\n    ```bash\n    pip install mmsegmentation\n    ```\n    *详细环境配置请参考 [MMSegmentation 文档](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation)*\n\n## 基本使用\n\n1.  **数据准备**\n    按照 MMSegmentation 规范整理数据集结构，具体步骤参考：\n    [dataset_prepare.md](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation\u002Fblob\u002Fmaster\u002Fdocs\u002Fen\u002Fdataset_prepare.md#loveda)\n\n2.  **模型训练**\n    使用配置文件启动训练（示例）：\n    ```bash\n    python tools\u002Ftrain.py configs\u002Floveda\u002Fyour_config.py\n    ```\n\n3.  **结果提交**\n    将测试集预测结果提交至官方评测平台获取分数：\n    *   [LoveDA Semantic Segmentation Challenge](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13030)\n    *   [LoveDA Unsupervised Domain Adaptation Challenge](https:\u002F\u002Fwww.codabench.org\u002Fcompetitions\u002F13037)","某地理信息公司的算法团队正在构建全国范围的土地覆盖监测系统，需要模型能够同时高精度识别城市建筑群与乡村农田地块。\n\n### 没有 LoveDA 时\n- 城市数据训练的模型迁移到乡村场景后，因背景差异大，分割边界严重模糊。\n- 面对不同地区的遥感影像，每次部署新区域都需要人工重新标注数千张样本，成本高昂。\n- 遥感图像中道路与建筑尺度变化剧烈，传统数据集缺乏多尺度样本，导致小目标漏检率高。\n- 类别分布不一致导致模型对稀有地物（如水域）识别能力弱，需反复调整权重。\n\n### 使用 LoveDA 后\n- 基于 LoveDA 的城乡域适应特性，模型跨场景泛化能力显著提升，无需微调即可适应新环境。\n- 利用其 0.3 米高分辨率影像训练，直接复用模型部署，节省了 80% 的新区域标注人力。\n- 数据集中丰富的多尺度物体样本，让模型在复杂背景下对道路和建筑的分割更加精准。\n- 一致的类别分布优化了训练过程，显著提升了水域等稀有地物的识别准确率。\n\nLoveDA 通过提供高质量的跨域遥感数据，大幅降低了土地覆盖分析模型的适配成本与部署门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJunjue-Wang_LoveDA_fe67fc43.jpg","Junjue-Wang","Kingdrone","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FJunjue-Wang_c3cb2ce2.jpg","Deep learning in Remote Sensing","The University of Tokyo","Tokyo, Japan","kingdrone@edu.k.u-tokyo.ac.jp",null,"http:\u002F\u002Fjunjuewang.top\u002F","https:\u002F\u002Fgithub.com\u002FJunjue-Wang",[86,90],{"name":87,"color":88,"percentage":89},"Python","#3572A5",99.4,{"name":91,"color":92,"percentage":93},"Shell","#89e051",0.6,529,64,"2026-04-03T07:15:53","未说明",{"notes":99,"python":97,"dependencies":100},"本项目主要为遥感数据集（LoveDA），而非独立软件工具，因此未提供具体的运行环境配置。已集成至 MMsegmentation 和 Torchgeo 框架，具体模型训练环境需参考相应框架文档。数据包含 5987 张 0.3m 分辨率图像，仅限学术用途，禁止商业使用。",[],[13,14],[103,104,105,106],"semantic-segmentation","domain-adaptation","remote-sensing","pytorch","2026-03-27T02:49:30.150509","2026-04-06T08:45:36.039576",[110,115,120,125,130,135],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},574,"运行代码时报错 `module 'ever' has no attribute 'viz'` 是什么原因？","这通常是环境部署问题。该代码默认只能在 GPU 上运行。如果需要在 CPU 上运行，需要修改部分代码。建议检查环境配置是否符合要求。","https:\u002F\u002Fgithub.com\u002FJunjue-Wang\u002FLoveDA\u002Fissues\u002F21",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},575,"下载预训练模型后执行 `predict_test.sh` 或 `predict.py` 报错怎么办？","官方提供的预训练模型经过了后处理，去掉了 optim 等参数，与用户自己训练的模型加载方式不同。如果使用更新后的 `predict.py` 运行出错，请根据错误提示调整代码（例如注释掉不兼容的行）。","https:\u002F\u002Fgithub.com\u002FJunjue-Wang\u002FLoveDA\u002Fissues\u002F9",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},576,"提交结果到 Codalab 后状态长时间卡在 'running' 怎么办？","旧服务器可能存在延迟或问题。竞赛已迁移到新服务器，请使用新地址提交：https:\u002F\u002Fcodalab.lisn.upsaclay.fr\u002Fcompetitions\u002F421","https:\u002F\u002Fgithub.com\u002FJunjue-Wang\u002FLoveDA\u002Fissues\u002F14",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},577,"提交到 Codalab 的结果得分为零（Zero Score）如何排查？","可能是提交格式错误。建议在 Codalab 页面下载详细结果（detailed results）查看具体报错信息。确保输出类别索引为 0~6，图像尺寸为 1024*1024 像素。","https:\u002F\u002Fgithub.com\u002FJunjue-Wang\u002FLoveDA\u002Fissues\u002F6",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},578,"复现 CBST 训练结果效果很差，甚至不如源域方法怎么办？","维护者已更新了预训练权重（pre-weights）并添加了 `predict.py` 脚本。请拉取最新代码，使用更新后的权重和脚本重新测试。","https:\u002F\u002Fgithub.com\u002FJunjue-Wang\u002FLoveDA\u002Fissues\u002F8",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},579,"上传文件到 Codalab 失败提示错误怎么办？","可能是上传格式错误。可以尝试检查文件格式是否符合要求，或者使用旧服务器进行提交：https:\u002F\u002Fcompetitions.codalab.org\u002Fcompetitions\u002F35865#results","https:\u002F\u002Fgithub.com\u002FJunjue-Wang\u002FLoveDA\u002Fissues\u002F22",[]]