[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-linksense--LightNet":3,"tool-linksense--LightNet":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":79,"owner_twitter":78,"owner_website":80,"owner_url":81,"languages":82,"stars":103,"forks":104,"last_commit_at":105,"license":106,"difficulty_score":107,"env_os":108,"env_gpu":109,"env_ram":108,"env_deps":110,"category_tags":120,"github_topics":121,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":141,"updated_at":142,"faqs":143,"releases":179},2660,"linksense\u002FLightNet","LightNet","LightNet: Light-weight Networks for Semantic Image Segmentation (Cityscapes and Mapillary Vistas Dataset)","LightNet 是一套专为语义图像分割任务设计的轻量级神经网络框架，基于 PyTorch 构建。它主要解决自动驾驶等场景中，嵌入式设备计算与存储资源有限，难以运行庞大深度学习模型的痛点，旨在在保持较高分割精度的同时，大幅降低模型的计算量和参数量，实现实时处理。\n\n该工具非常适合从事计算机视觉研究的学者、算法工程师以及需要在边缘设备上部署视觉应用的开发者使用。LightNet 的核心亮点在于其灵活的架构设计，它以 MobileNetV2、ShuffleNet 等高效骨干网络为基础，创新性地融合了空间通道压缩与激励（SCSE）模块、感受野块（RFB）以及涡流池化（Vortex Pooling）等技术。这些改进显著增强了模型对多尺度特征的提取能力。在权威数据集 Cityscapes 的测试中，LightNet 取得了类别平均交并比（mIoU）最高达 70.72% 的优异成绩，完美平衡了推理速度与分割精度，是资源受限环境下进行场景理解的理想选择。","# LightNet\n## !!!New Repo.!!! ⇒ **[LightNet++: Boosted Light-weighted Networks for Real-time Semantic Segmentation](https:\u002F\u002Fgithub.com\u002Fansleliu\u002FLightNetPlusPlus)**\n## !!!New Repo.!!! ⇒ **[EfficientNet.PyTorch: Concise, Modular, Human-friendly PyTorch implementation of EfficientNet with Pre-trained Weights](https:\u002F\u002Fgithub.com\u002Fansleliu\u002FEfficientNet.PyTorch)**\n## !!!New Repo.!!! ⇒ **[MixNet-Pytorch: Concise, Modular, Human-friendly PyTorch implementation of MixNet with Pre-trained Weights](https:\u002F\u002Fgithub.com\u002Fansleliu\u002FMixNet-Pytorch)**\n\nThis repository contains the code (in PyTorch) for: \"LightNet: Light-weight Networks for Semantic Image Segmentation\n\" (underway) by Huijun Liu @ TU Braunschweig.\n\n- **[MobileNetV2Plus](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Fmethod-details\u002F?submissionID=1157)**: Modified MobileNetV2\u003Csup>[[1,8]](#references)\u003C\u002Fsup> + Spatial-Channel Sequeeze & Excitation (SCSE)\u003Csup>[[6]](#references)\u003C\u002Fsup> + ASPP\u003Csup>[[2,3]](#references)\u003C\u002Fsup> + Encoder-Decoder Arch.\u003Csup>[[3]](#references)\u003C\u002Fsup> + InplaceABN\u003Csup>[[4]](#references)\u003C\u002Fsup>.\n- **[RF-MobileNetV2Plus](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Fmethod-details\u002F?submissionID=1172)**: Modified MobileNetV2 + SCSE + Receptive Field Block (RFB)\u003Csup>[[5]](#references)\u003C\u002Fsup> + Encoder-Decoder Arch. + InplaceABN.\n- **MobileNetV2Vortex**: Modified MobileNetV2 + SCSE + Vortex Pooling\u003Csup>[[24]](#references)\u003C\u002Fsup> + Encoder-Decoder Arch. + InplaceABN.\n- **MobileNetV2Share**: Split Image & Concat Features + Modified MobileNetV2 + SCSE + ASPP\u002FRFB + Encoder-Decoder Arch. + InplaceABN.\n- **Mixed-scale DenseNet**: Modified Mixed-scale DenseNet\u003Csup>[[11]](#references)\u003C\u002Fsup> + SCSE + ASPP\u002FRFB + InplaceABN.\n- **SE-WResNetV2**: Modified WResNetV2 (InplaceABN & SCSE\u002FSE)\u003Csup>[[4,6,7,13]](#references)\u003C\u002Fsup> + SCSE\u002FSE + ASPP\u002FRFB + Encoder-Decoder Arch. + InplaceABN.\n- **ShuffleNetPlus**: Modified ShuffleNet\u003Csup>[[9]](#references)\u003C\u002Fsup> + SCSE + ASPP\u002FRFB + Encoder-Decoder Arch. + InplaceABN.\n\n**!!!New!!!**: add **Vortex Pooling**\u003Csup>[[24]](#references)\u003C\u002Fsup>\n\nI no longer have GPUs to continue more experiments and model training (I **borrowed** 2 GPUs from the [Institute for Computer Graphics @ TU Braunschweig](https:\u002F\u002Fwww.cg.cs.tu-bs.de\u002F) to complete preliminary experiments, so thank them and [Lukas Zhang](https:\u002F\u002Fgithub.com\u002FZHHJemotion) here.), \nso if you like, welcome to experiment with other under-training models and my ideas!\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002F0g9zDGSRBi0\" target=\"_blank\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_readme_542de43f6f42.gif\" width=\"896\" height=\"384\" \u002F>\n\u003C\u002Fa>\n\u003C\u002Fp>\n\n## Contents\n\n1. [Introduction](#introduction)\n2. [Usage](#usage)\n3. [Results](#results)\n4. [Contacts](#contacts)\n5. [References](#references)\n5. [Acknowledgement](#acknowledgement)\n\n## Introduction\nSemantic Segmentation is a significant part of the modern autonomous driving system, as exact understanding the surrounding scene is very important for the navigation and driving decision of the self-driving car. \nNowadays, deep fully convolutional networks (FCNs) have a very significant effect on semantic segmentation, but most of the relevant researchs have focused on improving segmentation accuracy rather than model computation efficiency. \nHowever, the autonomous driving system is often based on embedded devices, where computing and storage resources are relatively limited. \nIn this paper we describe several light-weight networks based on MobileNetV2, ShuffleNet and Mixed-scale DenseNet for semantic image segmentation task, Additionally, we introduce **GAN for data augmentation**\u003Csup>[[17]](#references)\u003C\u002Fsup> ([pix2pixHD](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fpix2pixHD)) concurrent **Spatial-Channel Sequeeze & Excitation** (SCSE) and **Receptive Field Block** (RFB) to the proposed network. \nWe measure our performance on Cityscapes pixel-level segmentation, and achieve up to **70.72%** class mIoU and **88.27%** cat. mIoU. We evaluate the trade-offs between mIoU, and number of operations measured by multiply-add (MAdd), as well as the number of parameters.\n\n### Network Architecture\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_readme_8df5087dfdaa.png\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_readme_8bacc1537611.png\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_readme_bdf8bca6787d.png\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_readme_3739bff2e75e.png\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_readme_bdcd49543fa2.png\" \u002F>\n\u003C\u002Fp>\n\n\n## Usage\n\n### Dependencies\n\n- [Python3](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F)\n- [PyTorch(0.3.0+)](http:\u002F\u002Fpytorch.org)\n- [tensorboard](https:\u002F\u002Fwww.tensorflow.org\u002Fprogrammers_guide\u002Fsummaries_and_tensorboard)\n- [tensorboardX](https:\u002F\u002Fgithub.com\u002Flanpa\u002Ftensorboard-pytorch)\n- [tqdm](https:\u002F\u002Fgithub.com\u002Ftqdm\u002Ftqdm)\n- [inplace_abn](https:\u002F\u002Fgithub.com\u002Fmapillary\u002Finplace_abn)\n- [CityscapesScripts](https:\u002F\u002Fgithub.com\u002Fmcordts\u002FcityscapesScripts)\n- [Cityscapes](https:\u002F\u002Fwww.cityscapes-dataset.com\u002F)\n- [Mapillary Vistas Dataset](https:\u002F\u002Fwww.mapillary.com\u002Fdataset\u002Fvistas)\n\n### Train\nAs an example, use the following command to train a LightNet on Cityscapes \nor Mapillary Vistas Dataset:\n\n```\n> python3 train_mobile.py\n> python3 train_mobile_mvd.py \n> python3 train_share.py \n> python3 train_mixscale.py \n> python3 train_shuffle.py \n> python3 train_inplace.py \n```\n\n### Evaluation\nWe take the Cityscapes model trained above as an example.\n\nTo evaluate the trained model:\n\n```\n> python3 deploy_model.py\n> python3 evaluation_cityscapes.py\n> python3 demo_cityscapes.py\n```\n\n### Other Options\nWe also include Mixed-scale DenseNet\u002FRF-Mixed-scale DenseNet, ShuffleNetPlus\u002FRFShuffleNetPlus, SE-DPShuffleNet, SE-Wide-ResNetV2 implementation in this repository.  \n\n\n## Results\nMixed-scale DenseNet\u002FRF-Mixed-scale DenseNet, ShuffleNetPlus\u002FRFShuffleNetPlus, SE-DPShuffleNet, SE-Wide-ResNetV2 under-training (Ask a friend for help)\n\n### Results on Cityscapes (Pixel-level\u002FSemantic Segmentation)\n\n| Model | GFLOPs | Params |gtFine\u002FgtCoarse\u002FGAN| mIoU Classes(val.\u002Ftest S.S*) | mIoU Cat.(val.\u002Ftest S.S*) | Result(*.cvs) | Pytorch Model&Checkpoint |\n|---|---|---|---|---|---|---|---|\n|MobileNetV2Plus|117.1?|8.3M|Yes\u002FNo\u002FNo|70.13\u002F68.90|87.95\u002F86.85|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1D7maZzuunop_CJHeFIkuqv2gFEoxUanq)|\u002F|\n|MobileNetV2SDASPP|?|?M|Yes\u002FNo\u002FYes|73.17\u002F70.09|87.98\u002F87.84|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1tiECuwuQ8S8rx4H94pkemqozX39Seusn)|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1umpCqNk_2XovkvTTNKLct0p7P6NaN-0w)|\n|[MobileNetV2Plus](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Fmethod-details\u002F?submissionID=1157)|117.1?|8.3M|Yes\u002FNo\u002FYes|73.89\u002F**70.72**|88.72\u002F87.64|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1b1NJhe4sQ126d7xqg-d9mf8WNTstAoER)|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=19s7mdCJqTgZ17hgN7_t17sP-RM_FibmW)|\n|[RF-MobileNetV2Plus](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Fmethod-details\u002F?submissionID=1172)|87.6?|8.6M|Yes\u002FNo\u002FYes|72.37\u002F70.68|88.31\u002F**88.27**|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1JmB5KNmMV92yk5qtjwZnX-ZOhU35Pk6Y)|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1QKLJ7u3DKKOTrMGQCFOprqQZWVrmWQm7)|\n|ShuffleNetPlus|229.3?|15.3M|Yes\u002FNo\u002FYes|*|*|*|*|\n|Mixed-scale DenseNet|49.9?|0.80M|Yes\u002FNo\u002FYes|*|*|*|*|\n|SE-WResNetV2|?|?M|Yes\u002FNo\u002FNo|80.13\u002F77.15|90.87\u002F90.59|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1MIJL6cfoBt3opcPWeNfudXLimE42Ow6_)|\u002F|\n\n* S.S.: Single Scale\n  \n## Contact\nansleliu@gmail.com  \nh.liu@tu-braunschweig.de\n\nAny discussions or concerns are welcomed!\n\n## References\n[1]. [Inverted Residuals and Linear Bottlenecks: Mobile Networks for Classification, Detection and Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.04381v2)  \n[2]. [Rethinking Atrous Convolution for Semantic Image Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.05587v3)  \n[3]. [Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.02611v2)  \n[4]. [In-Place Activated BatchNorm for Memory-Optimized Training of DNNs](https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.02616v2)  \n[5]. [Receptive Field Block Net for Accurate and Fast Object Detection](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.07767v2)  \n[6]. [Concurrent Spatial and Channel Squeeze & Excitation in Fully Convolutional Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.02579v1)  \n[7]. [Squeeze-and-Excitation Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.01507v1)  \n[8]. [MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.04861v1)  \n[9]. [ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.01083v2)  \n[10]. [Averaging Weights Leads to Wider Optima and Better Generalization](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.05407v1)  \n[11]. [A mixed-scale dense convolutional neural network for image analysis](https:\u002F\u002Fslidecam-camera.lbl.gov\u002Fstatic\u002Fasset\u002FPNAS.pdf)  \n[12]. [Dual Path Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.01629v2)  \n[13]. [Wide Residual Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07146v4)  \n[14]. [Densely Connected Convolutional Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993v5)  \n[15]. [CondenseNet: An Efficient DenseNet using Learned Group Convolutions](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.09224v1)  \n[16]. [Full-Resolution Residual Networks for Semantic Segmentation in Street Scenes](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.08323v2)  \n[17]. [High-Resolution Image Synthesis and Semantic Manipulation with Conditional GANs](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.11585v1)  \n[18]. [SGDR: Stochastic Gradient Descent with Warm Restarts](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.03983v5)  \n[19]. [Cyclical Learning Rates for Training Neural Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1506.01186v6)  \n[20]. [Group Normalization](https:\u002F\u002F128.84.21.199\u002Fabs\u002F1803.08494v1)  \n[21]. [Context Encoding for Semantic Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.08904v1)  \n[22]. [ExFuse: Enhancing Feature Fusion for Semantic Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.03821v1)  \n[23]. [The Lovász-Softmax loss: A tractable surrogate for the optimization of the intersection-over-union measure in neural networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.08790v2)  \n[24]. [Vortex Pooling: Improving Context Representation in Semantic Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.06242v1)  \n  \n\n# Acknowledgement\n\n[0]. [Lukas Zhang](https:\u002F\u002Fgithub.com\u002FZHHJemotion): Lend me GPUs.  \n[1]. [meetshah1995](https:\u002F\u002Fgithub.com\u002Fmeetshah1995): [pytorch-semseg](https:\u002F\u002Fgithub.com\u002Fmeetshah1995\u002Fpytorch-semseg).  \n[2]. [ruinmessi](https:\u002F\u002Fgithub.com\u002Fruinmessi): [RFBNet](https:\u002F\u002Fgithub.com\u002Fruinmessi\u002FRFBNet).  \n[3]. [Jackson Huang](https:\u002F\u002Fgithub.com\u002Fjaxony): [ShuffleNet](https:\u002F\u002Fgithub.com\u002Fjaxony\u002FShuffleNet).  \n[4]. [Ji Lin](https:\u002F\u002Fgithub.com\u002Ftonylins): [pytorch-mobilenet-v2](https:\u002F\u002Fgithub.com\u002Ftonylins\u002Fpytorch-mobilenet-v2).  \n[5]. [ericsun99](https:\u002F\u002Fgithub.com\u002Fericsun99): [MobileNet-V2-Pytorch](https:\u002F\u002Fgithub.com\u002Fericsun99\u002FMobileNet-V2-Pytorch).  \n[6]. [Ross Wightman](https:\u002F\u002Fgithub.com\u002Frwightman): [pytorch-dpn-pretrained](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-dpn-pretrained).  \n[7]. [mapillary](https:\u002F\u002Fgithub.com\u002Fmapillary): [inplace_abn](https:\u002F\u002Fgithub.com\u002Fmapillary\u002Finplace_abn).  \n[8]. [Cadene](https:\u002F\u002Fgithub.com\u002FCadene): [pretrained-models.pytorch](https:\u002F\u002Fgithub.com\u002FCadene\u002Fpretrained-models.pytorch).  \n[9]. [Maxim Berman](https:\u002F\u002Fgithub.com\u002Fbermanmaxim): [LovaszSoftmax](https:\u002F\u002Fgithub.com\u002Fbermanmaxim\u002FLovaszSoftmax).  \n","# LightNet\n## !!!新仓库!!! ⇒ **[LightNet++：用于实时语义分割的增强型轻量级网络](https:\u002F\u002Fgithub.com\u002Fansleliu\u002FLightNetPlusPlus)**\n## !!!新仓库!!! ⇒ **[EfficientNet.PyTorch：简洁、模块化、易用的PyTorch实现，包含预训练权重的EfficientNet](https:\u002F\u002Fgithub.com\u002Fansleliu\u002FEfficientNet.PyTorch)**\n## !!!新仓库!!! ⇒ **[MixNet-Pytorch：简洁、模块化、易用的PyTorch实现，包含预训练权重的MixNet](https:\u002F\u002Fgithub.com\u002Fansleliu\u002FMixNet-Pytorch)**\n\n本仓库包含基于PyTorch的代码，用于Huijun Liu在布伦瑞克工业大学撰写的“LightNet：用于图像语义分割的轻量级网络”（正在进行中）。\n\n- **[MobileNetV2Plus](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Fmethod-details\u002F?submissionID=1157)**：改进版MobileNetV2\u003Csup>[[1,8]](#references)\u003C\u002Fsup> + 空间通道压缩与激励机制（SCSE）\u003Csup>[[6]](#references)\u003C\u002Fsup> + ASPP\u003Csup>[[2,3]](#references)\u003C\u002Fsup> + 编码器-解码器架构\u003Csup>[[3]](#references)\u003C\u002Fsup> + InplaceABN\u003Csup>[[4]](#references)\u003C\u002Fsup>。\n- **[RF-MobileNetV2Plus](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Fmethod-details\u002F?submissionID=1172)**：改进版MobileNetV2 + SCSE + 受容野块（RFB）\u003Csup>[[5]](#references)\u003C\u002Fsup> + 编码器-解码器架构 + InplaceABN。\n- **MobileNetV2Vortex**：改进版MobileNetV2 + SCSE + 涡流池化\u003Csup>[[24]](#references)\u003C\u002Fsup> + 编码器-解码器架构 + InplaceABN。\n- **MobileNetV2Share**：图像分割与特征拼接 + 改进版MobileNetV2 + SCSE + ASPP\u002FRFB + 编码器-解码器架构 + InplaceABN。\n- **混合尺度DenseNet**：改进版混合尺度DenseNet\u003Csup>[[11]](#references)\u003C\u002Fsup> + SCSE + ASPP\u002FRFB + InplaceABN。\n- **SE-WResNetV2**：改进版WResNetV2（InplaceABN及SCSE\u002FSE）\u003Csup>[[4,6,7,13]](#references)\u003C\u002Fsup> + SCSE\u002FSE + ASPP\u002FRFB + 编码器-解码器架构 + InplaceABN。\n- **ShuffleNetPlus**：改进版ShuffleNet\u003Csup>[[9]](#references)\u003C\u002Fsup> + SCSE + ASPP\u002FRFB + 编码器-解码器架构 + InplaceABN。\n\n**!!!新内容!!!**：新增**涡流池化**\u003Csup>[[24]](#references)\u003C\u002Fsup>\n\n目前我已无GPU资源继续进行更多实验和模型训练（我曾从[布伦瑞克工业大学计算机图形学研究所](https:\u002F\u002Fwww.cg.cs.tu-bs.de\u002F)借用了2块GPU来完成初步实验，在此向他们以及[Lukas Zhang](https:\u002F\u002Fgithub.com\u002FZHHJemotion)表示感谢），因此如果您感兴趣，欢迎尝试其他正在训练中的模型及我的想法！\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002F0g9zDGSRBi0\" target=\"_blank\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_readme_542de43f6f42.gif\" width=\"896\" height=\"384\" \u002F>\n\u003C\u002Fa>\n\u003C\u002Fp>\n\n## 目录\n\n1. [简介](#introduction)\n2. [使用方法](#usage)\n3. [结果](#results)\n4. [联系方式](#contacts)\n5. [参考文献](#references)\n6. [致谢](#acknowledgement)\n\n## 简介\n语义分割是现代自动驾驶系统的重要组成部分，准确理解周围场景对于自动驾驶车辆的导航与决策至关重要。如今，深度全卷积网络（FCN）在语义分割领域取得了显著成效，但大多数相关研究主要关注提升分割精度，而忽视了模型的计算效率。然而，自动驾驶系统通常运行在嵌入式设备上，其计算和存储资源相对有限。本文我们提出几种基于MobileNetV2、ShuffleNet和混合尺度DenseNet的轻量级网络，用于图像语义分割任务。此外，我们还引入了**用于数据增强的GAN**\u003Csup>[[17]](#references)\u003C\u002Fsup>（如[pix2pixHD](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fpix2pixHD)），并将其与**空间通道压缩与激励机制**（SCSE）以及**受容野块**（RFB）结合应用于所提出的网络。我们在Cityscapes像素级分割数据集上进行了性能评估，最终实现了高达**70.72%**的类别mIoU和**88.27%**的类别mIoU。同时，我们也分析了mIoU与乘加操作次数（MAdd）及参数量之间的权衡关系。\n\n### 网络架构\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_readme_8df5087dfdaa.png\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_readme_8bacc1537611.png\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_readme_bdf8bca6787d.png\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_readme_3739bff2e75e.png\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_readme_bdcd49543fa2.png\" \u002F>\n\u003C\u002Fp>\n\n\n## 使用方法\n\n### 依赖项\n\n- [Python3](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F)\n- [PyTorch(0.3.0+)](http:\u002F\u002Fpytorch.org)\n- [tensorboard](https:\u002F\u002Fwww.tensorflow.org\u002Fprogrammers_guide\u002Fsummaries_and_tensorboard)\n- [tensorboardX](https:\u002F\u002Fgithub.com\u002Flanpa\u002Ftensorboard-pytorch)\n- [tqdm](https:\u002F\u002Fgithub.com\u002Ftqdm\u002Ftqdm)\n- [inplace_abn](https:\u002F\u002Fgithub.com\u002Fmapillary\u002Finplace_abn)\n- [CityscapesScripts](https:\u002F\u002Fgithub.com\u002Fmcordts\u002FcityscapesScripts)\n- [Cityscapes](https:\u002F\u002Fwww.cityscapes-dataset.com\u002F)\n- [Mapillary Vistas 数据集](https:\u002F\u002Fwww.mapillary.com\u002Fdataset\u002Fvistas)\n\n### 训练\n以在Cityscapes或Mapillary Vistas数据集上训练LightNet为例，可使用以下命令：\n\n```\n> python3 train_mobile.py\n> python3 train_mobile_mvd.py \n> python3 train_share.py \n> python3 train_mixscale.py \n> python3 train_shuffle.py \n> python3 train_inplace.py \n```\n\n### 评估\n以上述在Cityscapes数据集上训练的模型为例。\n\n评估训练好的模型：\n\n```\n> python3 deploy_model.py\n> python3 evaluation_cityscapes.py\n> python3 demo_cityscapes.py\n```\n\n### 其他选项\n本仓库还包含了混合尺度DenseNet\u002FRF混合尺度DenseNet、ShuffleNetPlus\u002FRFShuffleNetPlus、SE-DPShuffleNet以及SE-Wide-ResNetV2的实现。\n\n\n## 结果\n混合尺度DenseNet\u002FRF混合尺度DenseNet、ShuffleNetPlus\u002FRFShuffleNetPlus、SE-DPShuffleNet、SE-Wide-ResNetV2正处于训练中（请寻求朋友帮助）。\n\n### Cityscapes 数据集上的结果（像素级\u002F语义分割）\n\n| 模型 | GFLOPs | 参数量 |gtFine\u002FgtCoarse\u002FGAN| mIoU 类别(验证集\u002F测试集 S.S*) | mIoU 物种(验证集\u002F测试集 S.S*) | 结果(*.cvs) | Pytorch 模型&检查点 |\n|---|---|---|---|---|---|---|---|\n|MobileNetV2Plus|117.1?|8.3M|是\u002F否\u002F否|70.13\u002F68.90|87.95\u002F86.85|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1D7maZzuunop_CJHeFIkuqv2gFEoxUanq)|\u002F|\n|MobileNetV2SDASPP|?|?M|是\u002F否\u002F是|73.17\u002F70.09|87.98\u002F87.84|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1tiECuwuQ8S8rx4H94pkemqozX39Seusn)|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1umpCqNk_2XovkvTTNKLct0p7P6NaN-0w)|\n|[MobileNetV2Plus](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Fmethod-details\u002F?submissionID=1157)|117.1?|8.3M|是\u002F否\u002F是|73.89\u002F**70.72**|88.72\u002F87.64|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1b1NJhe4sQ126d7xqg-d9mf8WNTstAoER)|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=19s7mdCJqTgZ17hgN7_t17sP-RM_FibmW)|\n|[RF-MobileNetV2Plus](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Fmethod-details\u002F?submissionID=1172)|87.6?|8.6M|是\u002F否\u002F是|72.37\u002F70.68|88.31\u002F**88.27**|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1JmB5KNmMV92yk5qtjwZnX-ZOhU35Pk6Y)|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1QKLJ7u3DKKOTrMGQCFOprqQZWVrmWQm7)|\n|ShuffleNetPlus|229.3?|15.3M|是\u002F否\u002F是|*|*|*|*|\n|混合尺度密集网络|49.9?|0.80M|是\u002F否\u002F是|*|*|*|*|\n|SE-WResNetV2|?|?M|是\u002F否\u002F否|80.13\u002F77.15|90.87\u002F90.59|[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1MIJL6cfoBt3opcPWeNfudXLimE42Ow6_)|\u002F|\n\n* S.S.: 单尺度\n  \n## 联系方式\nansleliu@gmail.com  \nh.liu@tu-braunschweig.de\n\n欢迎任何讨论或疑问！\n\n## 参考文献\n[1]. [倒残差与线性瓶颈：用于分类、检测和分割的移动网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.04381v2)  \n[2]. [重新思考语义图像分割中的空洞卷积](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.05587v3)  \n[3]. [带空洞可分离卷积的编码器-解码器用于语义图像分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.02611v2)  \n[4]. [就地激活批归一化用于 DNN 的内存优化训练](https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.02616v2)  \n[5]. [感受野块网络用于准确快速的目标检测](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.07767v2)  \n[6]. [全卷积网络中的空间与通道同时挤压与激励](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.02579v1)  \n[7]. [挤压与激励网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.01507v1)  \n[8]. [MobileNets：适用于移动视觉应用的高效卷积神经网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.04861v1)  \n[9]. [ShuffleNet：一种极其高效的卷积神经网络，专为移动设备设计](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.01629v2)  \n[10]. [权重平均可带来更宽泛的最优解并提升泛化能力](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.05407v1)  \n[11]. [一种用于图像分析的混合尺度密集卷积神经网络](https:\u002F\u002Fslidecam-camera.lbl.gov\u002Fstatic\u002Fasset\u002FPNAS.pdf)  \n[12]. [双路网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.01629v2)  \n[13]. [宽残差网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07146v4)  \n[14]. [密集连接的卷积网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993v5)  \n[15]. [CondenseNet：一种使用学习到的组卷积的高效 DenseNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.09224v1)  \n[16]. [全分辨率残差网络用于街景语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.08323v2)  \n[17]. [基于条件 GAN 的高分辨率图像合成与语义操控](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.11585v1)  \n[18]. [SGDR：带有热重启的随机梯度下降](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.03983v5)  \n[19]. [用于训练神经网络的循环学习率](https:\u002F\u002Farxiv.org\u002Fabs\u002F1506.01186v6)  \n[20]. [组归一化](https:\u002F\u002F128.84.21.199\u002Fabs\u002F1803.08494v1)  \n[21]. [语义分割中的上下文编码](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.08904v1)  \n[22]. [ExFuse：增强语义分割中的特征融合](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.03821v1)  \n[23]. [洛瓦斯-Softmax 损失：一种可用于神经网络中优化交并比指标的可处理替代损失函数](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.08790v2)  \n[24]. [涡流池化：改进语义分割中的上下文表征](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.06242v1)  \n  \n\n# 致谢\n\n[0]. [Lukas Zhang](https:\u002F\u002Fgithub.com\u002FZHHJemotion)：借给我 GPU。  \n[1]. [meetshah1995](https:\u002F\u002Fgithub.com\u002Fmeetshah1995)：[pytorch-semseg](https:\u002F\u002Fgithub.com\u002Fmeetshah1995\u002Fpytorch-semseg)。  \n[2]. [ruinmessi](https:\u002F\u002Fgithub.com\u002Fruinmessi)：[RFBNet](https:\u002F\u002Fgithub.com\u002Fruinmessi\u002FRFBNet)。  \n[3]. [Jackson Huang](https:\u002F\u002Fgithub.com\u002Fjaxony)：[ShuffleNet](https:\u002F\u002Fgithub.com\u002Fjaxony\u002FShuffleNet)。  \n[4]. [Ji Lin](https:\u002F\u002Fgithub.com\u002Ftonylins)：[pytorch-mobilenet-v2](https:\u002F\u002Fgithub.com\u002Ftonylins\u002Fpytorch-mobilenet-v2)。  \n[5]. [ericsun99](https:\u002F\u002Fgithub.com\u002Fericsun99)：[MobileNet-V2-Pytorch](https:\u002F\u002Fgithub.com\u002Fericsun99\u002FMobileNet-V2-Pytorch)。  \n[6]. [Ross Wightman](https:\u002F\u002Fgithub.com\u002Frwightman)：[pytorch-dpn-pretrained](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-dpn-pretrained)。  \n[7]. [mapillary](https:\u002F\u002Fgithub.com\u002Fmapillary)：[inplace_abn](https:\u002F\u002Fgithub.com\u002Fmapillary\u002Finplace_abn)。  \n[8]. [Cadene](https:\u002F\u002Fgithub.com\u002FCadene)：[pretrained-models.pytorch](https:\u002F\u002Fgithub.com\u002FCadene\u002Fpretrained-models.pytorch)。  \n[9]. [Maxim Berman](https:\u002F\u002Fgithub.com\u002Fbermanmaxim)：[LovaszSoftmax](https:\u002F\u002Fgithub.com\u002Fbermanmaxim\u002FLovaszSoftmax)。","# LightNet 快速上手指南\n\nLightNet 是一个基于 PyTorch 的轻量级语义分割网络集合，专为自动驾驶等嵌入式场景设计。它结合了 MobileNetV2、ShuffleNet 等高效骨干网络，并引入了 SCSE、RFB 及 Vortex Pooling 等模块，在保持低计算量的同时实现了高精度的像素级分割。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐) 或 macOS\n- **Python**: Python 3.x\n- **GPU**: 支持 CUDA 的 NVIDIA GPU（用于训练和加速推理）\n\n### 前置依赖\n请确保已安装以下核心库：\n- [PyTorch](http:\u002F\u002Fpytorch.org) (版本 0.3.0+)\n- [tensorboardX](https:\u002F\u002Fgithub.com\u002Flanpa\u002Ftensorboard-pytorch) (用于可视化)\n- [tqdm](https:\u002F\u002Fgithub.com\u002Ftqdm\u002Ftqdm) (进度条显示)\n- [inplace_abn](https:\u002F\u002Fgithub.com\u002Fmapillary\u002Finplace_abn) (显存优化)\n- [CityscapesScripts](https:\u002F\u002Fgithub.com\u002Fmcordts\u002FcityscapesScripts) (数据集评估工具)\n\n**国内加速建议**：\n安装 PyTorch 时推荐使用清华或中科大镜像源：\n```bash\npip install torch torchvision -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 安装步骤\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fansleliu\u002FLightNet.git\n   cd LightNet\n   ```\n\n2. **安装 Python 依赖**\n   建议先安装 `inplace_abn`，再安装其他通用依赖：\n   ```bash\n   # 安装 inplace_abn (需编译)\n   pip install inplace_abn\n   \n   # 安装其他依赖 (推荐使用国内镜像加速)\n   pip install tensorboardX tqdm CityscapesScripts -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n   ```\n\n3. **准备数据集**\n   下载 [Cityscapes](https:\u002F\u002Fwww.cityscapes-dataset.com\u002F) 或 [Mapillary Vistas](https:\u002F\u002Fwww.mapillary.com\u002Fdataset\u002Fvistas) 数据集，并按照项目要求的目录结构放置（通常需包含 `leftImg8bit` 和 `gtFine` 文件夹）。\n\n## 基本使用\n\n### 1. 模型训练\n以在 Cityscapes 数据集上训练 `MobileNetV2Plus` 模型为例，运行以下命令：\n\n```bash\npython3 train_mobile.py\n```\n\n若需训练其他变体（如共享特征模型、混合尺度模型等），可使用对应的脚本：\n```bash\npython3 train_share.py \npython3 train_mixscale.py \npython3 train_shuffle.py \n```\n\n### 2. 模型评估与演示\n训练完成后，使用以下命令进行模型部署验证、指标评估及可视化演示：\n\n```bash\n# 部署模型检查\npython3 deploy_model.py\n\n# 在 Cityscapes 验证集上评估 mIoU\npython3 evaluation_cityscapes.py\n\n# 生成分割结果演示视频\u002F图片\npython3 demo_cityscapes.py\n```\n\n> **注意**：运行评估和演示脚本前，请确保已在代码配置中正确指向预训练权重文件路径及测试数据集路径。","某自动驾驶初创团队正在为量产车型开发实时道路感知系统，需要在算力有限的嵌入式芯片上实现高精度的语义分割。\n\n### 没有 LightNet 时\n- **推理延迟过高**：传统高精度分割模型参数量大，在车载嵌入式设备上运行帧率不足 15 FPS，无法满足实时避障需求。\n- **硬件资源受限**：现有方案显存占用过大，导致无法在同一芯片上并行运行定位与规划模块，被迫升级昂贵硬件。\n- **细节识别丢失**：为了提速强行压缩模型，导致对远处行人、车道线等小目标的分割精度大幅下降，存在安全隐患。\n- **部署调试困难**：缺乏针对轻量级网络优化的现成架构，团队需从零修改骨干网络，研发周期长达数月。\n\n### 使用 LightNet 后\n- **实时性能达标**：基于 MobileNetV2Plus 等轻量化架构，推理速度提升至 30+ FPS，完美适配嵌入式端实时决策。\n- **资源占用降低**：通过引入 SCSE 模块与 InplaceABN 技术，在保持精度的同时显著减少显存占用，无需更换硬件即可多任务并行。\n- **精度效率平衡**：利用 RFB 感受野模块与 Vortex Pooling 技术，在低算力下仍实现了 70.72% 的 mIoU，有效识别细小障碍物。\n- **快速落地验证**：直接复用成熟的 PyTorch 代码与预训练权重，将算法集成与调优时间从数月缩短至数周。\n\nLightNet 成功解决了自动驾驶边缘端“算力强约束”与“感知高精度”之间的矛盾，让轻量级模型也能具备工业级落地能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flinksense_LightNet_6b3b5e33.png","linksense","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flinksense_3e21ba76.png","LinkSense is a leading computer vision core technology solution provider in the field of industrial artificial intelligence.",null,"liuhuijun@lksense.com","http:\u002F\u002Fwww.lksense.com\u002F","https:\u002F\u002Fgithub.com\u002Flinksense",[83,87,91,95,99],{"name":84,"color":85,"percentage":86},"Python","#3572A5",97.2,{"name":88,"color":89,"percentage":90},"Cuda","#3A4E3A",1.4,{"name":92,"color":93,"percentage":94},"C++","#f34b7d",1,{"name":96,"color":97,"percentage":98},"C","#555555",0.4,{"name":100,"color":101,"percentage":102},"Shell","#89e051",0.1,726,175,"2026-04-02T02:32:45","MIT",4,"未说明","训练阶段必需（作者提及借用 2 块 GPU 进行实验），具体型号、显存大小及 CUDA 版本未说明",{"notes":111,"python":112,"dependencies":113},"该项目基于较旧的 PyTorch 版本（0.3.0+）开发，主要面向 Cityscapes 和 Mapillary Vistas 数据集。部分模型（如 Mixed-scale DenseNet, ShuffleNetPlus 等）在 README 中标记为“训练中”，可能缺乏完整的预训练权重或最终代码。作者明确表示不再拥有 GPU 资源继续实验，欢迎社区贡献。","Python3",[114,115,116,117,118,119],"PyTorch>=0.3.0","tensorboard","tensorboardX","tqdm","inplace_abn","CityscapesScripts",[51,14,13,53],[122,123,124,125,126,127,128,129,130,131,132,133,134,135,136,137,138,139,140],"semantic-segmentation","mobilenet-v2","deeplabv3plus","wide-residual-networks","pytorch","cityscapes","mapillary-vistas-dataset","shufflenet","inplace-activated-batchnorm","mobilenet","light-weight-net","deeplabv3","mobilenetv2plus","rfmobilenetv2plus","semantic-context-loss","scse-aspp","light-weight-networks","mobilenetv2","segmentation","2026-03-27T02:49:30.150509","2026-04-06T05:16:09.297301",[144,149,154,159,164,169,174],{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},12324,"如何解决训练 SE-WResNetV2 时出现的 CUDA 显存不足（Out of Memory）错误？","如果本地 GPU 显存不足以在 ImageNet 数据集上预训练宽残差网络（wide_resnet），可以使用维护者提供的预训练模型。该模型基于 inplace_abn 官方仓库修改，适用于 Cityscapes 或 Mapillary 数据集。下载地址：https:\u002F\u002Fdrive.google.com\u002Fopen?id=1BpwQJzl9dLR7kb71dM1ZsZQOwtLOZF-6","https:\u002F\u002Fgithub.com\u002Flinksense\u002FLightNet\u002Fissues\u002F8",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},12325,"如何获取 Cityscapes 的演示视频和预训练权重？","1. 不带掩码的演示视频可从 Cityscapes 官网下载：https:\u002F\u002Fwww.cityscapes-dataset.com\u002Fdownloads\u002F。\n2. 基础网络（原始 MobileNetV2）是使用 ImageNet 预训练的；而 LightNets（如 MobileNetV2Plus, RFMobileNetPlus 等）则是使用 Cityscapes 的 'gtFine' 数据集结合 'GAN 数据增强'进行拟合训练的。检查点下载链接通常在项目的 README 文件中。","https:\u002F\u002Fgithub.com\u002Flinksense\u002FLightNet\u002Fissues\u002F9",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},12326,"如何在验证集（val dataset）上测试模型并计算 mIOU？","请运行脚本 \"evaluation_cityscapes.py\" 来针对想要测试的模型（用于 Cityscapes 测试集或验证集）生成掩码（masks），然后使用 \"evalPixelLevelSemanticLabeling.py\" 脚本来评估这些生成的掩码以获取 mIOU 指标。","https:\u002F\u002Fgithub.com\u002Flinksense\u002FLightNet\u002Fissues\u002F5",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},12327,"遇到 'ModuleNotFoundError: No module named modules._ext.__ext' 或 'encoding' 模块缺失怎么办？","这是缺少依赖库导致的。解决方法如下：\n1. 若要使用 \"encoding\" 功能，请按照 PyTorch-Encoding 仓库的说明添加并构建它：https:\u002F\u002Fgithub.com\u002Fzhanghang1989\u002FPyTorch-Encoding\n2. 确保已正确构建 \"modules\" 目录下的 \"inplace ABN\"，参考此仓库的说明：https:\u002F\u002Fgithub.com\u002Fmapillary\u002Finplace_abn","https:\u002F\u002Fgithub.com\u002Flinksense\u002FLightNet\u002Fissues\u002F4",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},12328,"训练时报错 'no CUDA-capable device is detected' 但已安装 CUDA 驱动，原因是什么？","这通常是因为代码中指定的 GPU 数量与实际机器拥有的 GPU 数量不匹配。例如，训练脚本（如 train_mobile.py 第 75 行）可能默认使用了 `device_ids=[0, 1]`（双卡），如果你的机器只有一张显卡，需要修改代码将 device_ids 改为 `[0]` 或移除多卡并行设置。","https:\u002F\u002Fgithub.com\u002Flinksense\u002FLightNet\u002Fissues\u002F3",{"id":170,"question_zh":171,"answer_zh":172,"source_url":173},12329,"在哪里可以找到在 ImageNet 上预训练的 Base Model (MobileNetV2)？","预训练模型的下载链接通常直接提供在项目的 README 文件中。如果只看到了 'best checkpoint' 而未找到预训练权重，请仔细查阅 README 中的相关章节或链接。","https:\u002F\u002Fgithub.com\u002Flinksense\u002FLightNet\u002Fissues\u002F10",{"id":175,"question_zh":176,"answer_zh":177,"source_url":178},12330,"项目文档中的网络架构图是使用什么软件绘制的？","作者使用的是 Microsoft PowerPoint 来绘制 LightNet 的网络架构图。","https:\u002F\u002Fgithub.com\u002Flinksense\u002FLightNet\u002Fissues\u002F7",[]]