[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xiaoyufenfei--LEDNet":3,"tool-xiaoyufenfei--LEDNet":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":91,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":101,"github_topics":102,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":109,"updated_at":110,"faqs":111,"releases":141},8154,"xiaoyufenfei\u002FLEDNet","LEDNet","LEDNet: A Lightweight Encoder-Decoder Network for Real-time Semantic Segmentation  ","LEDNet 是一款专为实时语义分割设计的轻量级深度学习网络。它主要解决了传统卷积神经网络在移动设备或资源受限环境下计算负担过重、难以兼顾速度与精度的难题，让高密度的图像理解任务也能流畅运行。\n\n这款工具非常适合从事计算机视觉研究的学者、需要部署边缘计算应用的开发者，以及关注模型效率的算法工程师使用。其核心亮点在于采用了非对称的编码器 - 解码器架构：编码器部分以 ResNet 为骨干，创新性地引入了“通道分裂”与“通道洗牌”操作，在大幅降低计算成本的同时保持了较高的分割精度；解码器则利用注意力金字塔网络进一步简化结构。最终模型参数量不足 100 万，在单张 GTX 1080Ti 显卡上推理速度可超过 71 FPS，在 Cityscapes 数据集上实现了速度与准确率的优异平衡，是落地实时视觉任务的理想选择。","###  [LEDNet: A Lightweight Encoder-Decoder Network for Real-time Semantic Segmentation](https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei\u002FLEDNet)\n\n[![python-image]][python-url]\n[![pytorch-image]][pytorch-url]\n\n#### Table of Contents:\n- \u003Ca href='#Introduction'>Introduction\u003C\u002Fa>\n- \u003Ca href='#Project-Structure'>Project Structure\u003C\u002Fa>\n- \u003Ca href='#Installation'>Installation\u003C\u002Fa>\n- \u003Ca href='#Datasets'>Datasets\u003C\u002Fa>\n- \u003Ca href='#Training-LEDNet'>Train\u003C\u002Fa>\n- \u003Ca href='#Resuming-training-if-decoder-part-broken'>Resuming training\u003C\u002Fa>\n- \u003Ca href='#Testing'>Test\u003C\u002Fa>\n- \u003Ca href='#Results'>Results\u003C\u002Fa>\n- \u003Ca href='#Citation'>Reference\u003C\u002Fa>\n- \u003Ca href='#Tips'>Tips\u003C\u002Fa>\n\n#### Introduction\n\nThis project contains the code (Note: The code is test in the environment with python=3.6, cuda=9.0, PyTorch-0.4.1, also support Pytorch-0.4.1+) for:  [**LEDNet: A Lightweight Encoder-Decoder Network for Real-time Semantic Segmentation**](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.02423.pdf)  by [Yu Wang](https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei).\n\n\u003Cp align=\"center\">\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaoyufenfei_LEDNet_readme_2f01bdcf3d5f.png\" \u002F>\u003C\u002Fp>\nThe extensive computational burden limits the usage of CNNs in mobile devices for dense estimation tasks, a.k.a semantic segmentation. In this paper, we present a lightweight network to address this problem, namely **LEDNet**, which employs an asymmetric encoder-decoder architecture for the task of real-time semantic segmentation.More specifically, the encoder adopts a ResNet as backbone network, where two new operations, channel split and shuffle, are utilized in each residual block to greatly reduce computation cost while maintaining higher segmentation accuracy. On the other hand, an attention pyramid network (APN) is employed in the decoder to further lighten the entire network complexity. Our model has less than 1M parameters, and is able to run at over 71 FPS on a single GTX 1080Ti GPU card. The comprehensive experiments demonstrate that our approach achieves state-of-the-art results in terms of speed and accuracy trade-off on Cityscapes dataset. and becomes an effective method for real-time semantic segmentation tasks.\n\n#### Project-Structure\n```\n├── datasets  # contains all datasets for the project\n|  └── cityscapes #  cityscapes dataset\n|  |  └── gtCoarse #  Coarse cityscapes annotation\n|  |  └── gtFine #  Fine cityscapes annotation\n|  |  └── leftImg8bit #  cityscapes training image\n|  └── cityscapesscripts #  cityscapes dataset label convert scripts！\n├── utils\n|  └── dataset.py # dataloader for cityscapes dataset\n|  └── iouEval.py # for test 'iou mean' and 'iou per class'\n|  └── transform.py # data preprocessing\n|  └── visualize.py # Visualize with visdom \n|  └── loss.py # loss function \n├── checkpoint\n|  └── xxx.pth # pretrained models encoder form ImageNet\n├── save\n|  └── xxx.pth # trained models form scratch \n├── imagenet-pretrain\n|  └── lednet_imagenet.py # \n|  └── main.py # \n├── train\n|  └── lednet.py  # model definition for semantic segmentation\n|  └── main.py # train model scripts\n├── test\n|  |  └── dataset.py \n|  |  └── lednet.py # model definition\n|  |  └── lednet_no_bn.py # Remove the BN layer in model definition\n|  |  └── eval_cityscapes_color.py # Test the results to generate RGB images\n|  |  └── eval_cityscapes_server.py # generate result uploaded official server\n|  |  └── eval_forward_time.py # Test model inference time\n|  |  └── eval_iou.py \n|  |  └── iouEval.py \n|  |  └── transform.py \n```\n\n#### Installation\n- Python 3.6.x. Recommended using [Anaconda3](https:\u002F\u002Fwww.anaconda.com\u002Fdistribution\u002F)\n- Set up python environment\n\n```\npip3 install -r requirements.txt\n```\n\n- Env: PyTorch_0.4.1; cuda_9.0; cudnn_7.1; python_3.6, \n\n- Clone this repository.\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei\u002FLEDNet.git\ncd LEDNet-master\n```\n\n- Install [Visdom](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fvisdom).\n- Install [torchsummary](https:\u002F\u002Fgithub.com\u002Fsksq96\u002Fpytorch-summary)\n- Download the dataset by following the **Datasets** below.\n- Note: For training, we currently support [cityscapes](https:\u002F\u002Fwww.cityscapes-dataset.com\u002F) , aim to add [Camvid](https:\u002F\u002Fgithub.com\u002Falexgkendall\u002FSegNet-Tutorial\u002Ftree\u002Fmaster\u002FCamVid)  and  [VOC](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002F)  and  [ADE20K](http:\u002F\u002Fgroups.csail.mit.edu\u002Fvision\u002Fdatasets\u002FADE20K\u002F)  dataset\n\n#### Datasets\n- You can download [cityscapes](https:\u002F\u002Fwww.cityscapes-dataset.com\u002F) from [here](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Fdownloads\u002F). Note: please download [leftImg8bit_trainvaltest.zip(11GB)](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Ffile-handling\u002F?packageID=4) and [gtFine_trainvaltest(241MB)](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Ffile-handling\u002F?packageID=1) and [gtCoarse(1.3GB)](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Ffile-handling\u002F?packageID=1).\n- You can download [CityscapesScripts](https:\u002F\u002Fgithub.com\u002Fmcordts\u002FcityscapesScripts), and convert the dataset to [19 categories](https:\u002F\u002Fgithub.com\u002Fmcordts\u002FcityscapesScripts\u002Fblob\u002Fmaster\u002Fcityscapesscripts\u002Fhelpers\u002Flabels.py). It should have this basic structure.\n\n```\n├── leftImg8bit\n│   ├── train\n│   ├──  val\n│   └── test\n├── gtFine\n│   ├── train\n│   ├──  val\n│   └── test\n├── gtCoarse\n│   ├── train\n│   ├── train_extra\n│   └── val\n```\n\n#### Training-LEDNet\n\n- For help on the optional arguments you can run: `python main.py -h`\n\n- By default, we assume you have downloaded the cityscapes dataset in the `.\u002Fdata\u002Fcityscapes` dir.\n- To train LEDNet using the train\u002Fmain.py script the parameters listed in `main.py` as a flag or manually change them.\n\n```\npython main.py --savedir logs --model lednet --datadir path\u002Froot_directory\u002F  --num-epochs xx --batch-size xx ...\n```\n\n#### Resuming-training-if-decoder-part-broken\n\n- for help on the optional arguments you can run: `python main.py -h`\n\n```\npython main.py --savedir logs --name lednet --datadir path\u002Froot_directory\u002F  --num-epochs xx --batch-size xx --decoder --state \"..\u002Fsave\u002Flogs\u002Fmodel_best_enc.pth.tar\"...\n```\n\n#### Testing\n\n- the trained models of training process can be found at [here](https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei\u002FLEDNet\u002Fsave\u002F). This may not be the best one, you can train one from scratch by yourself or Fine-tuning the training decoder with  model encoder pre-trained on ImageNet, For instance\n\n```\nmore details refer .\u002Ftest\u002FREADME.md\n```\n\n#### Results\n\n- Please refer to our article for more details.\n\n|Method|Dataset|Fine|Coarse| IoU_cla |IoU_cat|FPS|\n|:-:|:-:|:-:|:-:|:-:|:-:|:-:|\n|**LEDNet**|**cityscapes**|yes|yes|**70.6​%**|**87.1​%​**|**70​+​**|\n\nqualitative segmentation result examples:\n\n\u003Cp align=\"center\">\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaoyufenfei_LEDNet_readme_8b7bdb28705d.png\" \u002F>\u003C\u002Fp>\n\n#### Citation\n\nIf you find this code useful for your research, please use the following BibTeX entry.\n\n```\n @article{wang2019lednet,\n  title={LEDNet: A Lightweight Encoder-Decoder Network for Real-time Semantic Segmentation},\n  author={Wang, Yu and Zhou, Quan and Liu, Jia and Xiong，Jian and Gao, Guangwei and Wu, Xiaofu, and Latecki Jan Longin},\n  journal={arXiv preprint arXiv:1905.02423},\n  year={2019}\n}\n```\n\n#### Tips\n\n- Limited by GPU resources, the project results need to be further improved...\n- It is recommended to pre-train Encoder on ImageNet and then Fine-turning Decoder part. The result will be better.\n\n#### Reference\n\n1. [**Deep residual learning for image recognition**](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.03385.pdf)\n2. [**Enet: A deep neural network architecture for real-time semantic segmentation**](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.02147.pdf)\n3. [**Erfnet: Efficient residual factorized convnet for real-time semantic segmentation**](https:\u002F\u002Fieeexplore.ieee.org\u002Fstamp\u002Fstamp.jsp?tp=&arnumber=8063438)\n4. [**Shufflenet: An extremely efficient convolutional neural network for mobile devices**](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1707.01083.pdf)\n\n\u003C!--\n[![python-image]][python-url]\n[![pytorch-image]][pytorch-url]\n-->\n\n[python-image]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.x-ff69b4.svg\n[python-url]: https:\u002F\u002Fwww.python.org\u002F\n[pytorch-image]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPyTorch-1.0-2BAF2B.svg\n[pytorch-url]: https:\u002F\u002Fpytorch.org\u002F","###  [LEDNet：用于实时语义分割的轻量级编码器-解码器网络](https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei\u002FLEDNet)\n\n[![python-image]][python-url]\n[![pytorch-image]][pytorch-url]\n\n#### 目录：\n- \u003Ca href='#Introduction'>简介\u003C\u002Fa>\n- \u003Ca href='#Project-Structure'>项目结构\u003C\u002Fa>\n- \u003Ca href='#Installation'>安装\u003C\u002Fa>\n- \u003Ca href='#Datasets'>数据集\u003C\u002Fa>\n- \u003Ca href='#Training-LEDNet'>训练\u003C\u002Fa>\n- \u003Ca href='#Resuming-training-if-decoder-part-broken'>恢复训练\u003C\u002Fa>\n- \u003Ca href='#Testing'>测试\u003C\u002Fa>\n- \u003Ca href='#Results'>结果\u003C\u002Fa>\n- \u003Ca href='#Citation'>引用\u003C\u002Fa>\n- \u003Ca href='#Tips'>提示\u003C\u002Fa>\n\n#### 简介\n\n本项目包含代码（注：代码已在 python=3.6、cuda=9.0、PyTorch-0.4.1 的环境下测试，同时也支持 PyTorch-0.4.1+），用于实现：[**LEDNet：用于实时语义分割的轻量级编码器-解码器网络**](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.02423.pdf)，作者为 [Yu Wang](https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei)。\n\n\u003Cp align=\"center\">\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaoyufenfei_LEDNet_readme_2f01bdcf3d5f.png\" \u002F>\u003C\u002Fp>\n巨大的计算负担限制了 CNN 在移动设备上进行密集估计任务（即语义分割）的应用。在本文中，我们提出了一种轻量级网络来解决这一问题，即 **LEDNet**，它采用非对称的编码器-解码器架构，用于实时语义分割任务。具体来说，编码器以 ResNet 作为骨干网络，并在每个残差块中引入两种新的操作——通道拆分和通道洗牌——以大幅降低计算成本，同时保持较高的分割精度。另一方面，解码器中采用了注意力金字塔网络（APN），进一步降低了整个网络的复杂度。我们的模型参数量不足 100 万，能够在单张 GTX 1080Ti GPU 上以超过 71 FPS 的速度运行。全面的实验表明，我们的方法在 Cityscapes 数据集上实现了速度与精度之间的最佳平衡，成为一种高效的实时语义分割方法。\n\n#### 项目结构\n```\n├── datasets  # 包含项目的所有数据集\n|  └── cityscapes #  Cityscapes 数据集\n|  |  └── gtCoarse #  Coarse Cityscapes 标注\n|  |  └── gtFine #  Fine Cityscapes 标注\n|  |  └── leftImg8bit #  Cityscapes 训练图像\n|  └── cityscapesscripts #  Cityscapes 数据集标签转换脚本！\n├── utils\n|  └── dataset.py # Cityscapes 数据集的数据加载器\n|  └── iouEval.py # 用于计算“平均 IoU”和“类别 IoU”\n|  └── transform.py # 数据预处理\n|  └── visualize.py # 使用 Visdom 可视化\n|  └── loss.py # 损失函数\n├── checkpoint\n|  └── xxx.pth # 从 ImageNet 预训练的编码器模型\n├── save\n|  └── xxx.pth # 从头开始训练的模型\n├── imagenet-pretrain\n|  └── lednet_imagenet.py # \n|  └── main.py # \n├── train\n|  └── lednet.py  # 语义分割模型定义\n|  └── main.py # 训练模型的脚本\n├── test\n|  |  └── dataset.py \n|  |  └── lednet.py # 模型定义\n|  |  └── lednet_no_bn.py # 移除模型定义中的 BN 层\n|  |  └── eval_cityscapes_color.py # 测试结果并生成 RGB 图像\n|  |  └── eval_cityscapes_server.py # 生成结果并上传至官方服务器\n|  |  └── eval_forward_time.py # 测试模型推理时间\n|  |  └── eval_iou.py \n|  |  └── iouEval.py \n|  |  └── transform.py \n```\n\n#### 安装\n- Python 3.6.x。推荐使用 [Anaconda3](https:\u002F\u002Fwww.anaconda.com\u002Fdistribution\u002F)。\n- 设置 Python 环境。\n\n```\npip3 install -r requirements.txt\n```\n\n- 环境要求：PyTorch_0.4.1；cuda_9.0；cudnn_7.1；python_3.6。\n\n- 克隆本仓库。\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei\u002FLEDNet.git\ncd LEDNet-master\n```\n\n- 安装 [Visdom](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fvisdom)。\n- 安装 [torchsummary](https:\u002F\u002Fgithub.com\u002Fsksq96\u002Fpytorch-summary)。\n- 按照下方的 **数据集** 说明下载数据集。\n- 注意：目前我们支持 [Cityscapes](https:\u002F\u002Fwww.cityscapes-dataset.com\u002F) 数据集进行训练，未来计划增加 [Camvid](https:\u002F\u002Fgithub.com\u002Falexgkendall\u002FSegNet-Tutorial\u002Ftree\u002Fmaster\u002FCamVid)、[VOC](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002F) 和 [ADE20K](http:\u002F\u002Fgroups.csail.mit.edu\u002Fvision\u002Fdatasets\u002FADE20K\u002F) 数据集。\n\n#### 数据集\n- 您可以从 [这里](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Fdownloads\u002F) 下载 [Cityscapes](https:\u002F\u002Fwww.cityscapes-dataset.com\u002F) 数据集。请注意，需要下载 [leftImg8bit_trainvaltest.zip(11GB)](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Ffile-handling\u002F?packageID=4)、[gtFine_trainvaltest(241MB)](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Ffile-handling\u002F?packageID=1) 和 [gtCoarse(1.3GB)](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Ffile-handling\u002F?packageID=1)。\n- 您还可以下载 [CityscapesScripts](https:\u002F\u002Fgithub.com\u002Fmcordts\u002FcityscapesScripts)，并将数据集转换为 [19 个类别](https:\u002F\u002Fgithub.com\u002Fmcordts\u002FcityscapesScripts\u002Fblob\u002Fmaster\u002Fcityscapesscripts\u002Fhelpers\u002Flabels.py)。数据集应具有以下基本结构。\n\n```\n├── leftImg8bit\n│   ├── train\n│   ├──  val\n│   └── test\n├── gtFine\n│   ├── train\n│   ├──  val\n│   └── test\n├── gtCoarse\n│   ├── train\n│   ├── train_extra\n│   └── val\n```\n\n#### 训练 LEDNet\n\n- 如需了解可选参数，可以运行：`python main.py -h`\n\n- 默认情况下，我们假设您已将 Cityscapes 数据集下载到 `.\u002Fdata\u002Fcityscapes` 目录下。\n- 要使用 train\u002Fmain.py 脚本训练 LEDNet，您可以按照 `main.py` 中列出的参数作为命令行选项，或手动修改它们。\n\n```\npython main.py --savedir logs --model lednet --datadir path\u002Froot_directory\u002F  --num-epochs xx --batch-size xx ...\n```\n\n#### 恢复训练（若解码器部分损坏）\n\n- 如需了解可选参数，可以运行：`python main.py -h`\n\n```\npython main.py --savedir logs --name lednet --datadir path\u002Froot_directory\u002F  --num-epochs xx --batch-size xx --decoder --state \"..\u002Fsave\u002Flogs\u002Fmodel_best_enc.pth.tar\"...\n```\n\n#### 测试\n\n- 训练过程中的模型可以在 [这里](https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei\u002FLEDNet\u002Fsave\u002F) 找到。这可能不是最佳模型，您可以自行从头训练一个，或者使用在 ImageNet 上预训练的编码器模型对训练好的解码器进行微调。例如：\n\n```\n更多详情请参阅 .\u002Ftest\u002FREADME.md\n```\n\n#### 结果\n\n- 更多详细信息请参考我们的论文。\n\n|方法|数据集|Fine|Coarse| IoU_cla |IoU_cat|FPS|\n|:-:|:-:|:-:|:-:|:-:|:-:|:-:|\n|**LEDNet**|**cityscapes**|是|是|**70.6​%**|**87.1​%​**|**70​+​**|\n\n定性分割结果示例：\n\n\u003Cp align=\"center\">\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaoyufenfei_LEDNet_readme_8b7bdb28705d.png\" \u002F>\u003C\u002Fp>\n\n#### 引用\n\n如果您发现此代码对您的研究有所帮助，请使用以下 BibTeX 条目。\n\n```\n @article{wang2019lednet,\n  title={LEDNet: A Lightweight Encoder-Decoder Network for Real-time Semantic Segmentation},\n  author={Wang, Yu and Zhou, Quan and Liu, Jia and Xiong，Jian and Gao, Guangwei and Wu, Xiaofu, and Latecki Jan Longin},\n  journal={arXiv preprint arXiv:1905.02423},\n  year={2019}\n}\n```\n\n#### 提示\n\n- 受GPU资源限制，项目结果还需进一步提升……\n- 建议先在ImageNet上预训练Encoder，再对Decoder部分进行微调，这样效果会更好。\n\n#### 参考文献\n\n1. [**用于图像识别的深度残差学习**](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.03385.pdf)\n2. [**ENet：一种用于实时语义分割的深度神经网络架构**](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.02147.pdf)\n3. [**ERFNet：用于实时语义分割的高效残差因子化卷积网络**](https:\u002F\u002Fieeexplore.ieee.org\u002Fstamp\u002Fstamp.jsp?tp=&arnumber=8063438)\n4. [**ShuffleNet：一种专为移动设备设计的极其高效的卷积神经网络**](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1707.01083.pdf)\n\n\u003C!--\n[![python-image]][python-url]\n[![pytorch-image]][pytorch-url]\n-->\n\n[python-image]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.x-ff69b4.svg\n[python-url]: https:\u002F\u002Fwww.python.org\u002F\n[pytorch-image]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPyTorch-1.0-2BAF2B.svg\n[pytorch-url]: https:\u002F\u002Fpytorch.org\u002F","# LEDNet 快速上手指南\n\nLEDNet 是一个轻量级的编码器 - 解码器网络，专为实时语义分割任务设计。它在保持高精度的同时大幅降低了计算成本，适合在移动设备或资源受限的环境中运行。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n- **操作系统**: Linux (推荐) 或 Windows\n- **Python**: 3.6.x (推荐使用 Anaconda3 管理环境)\n- **PyTorch**: 0.4.1 或更高版本\n- **CUDA**: 9.0\n- **cuDNN**: 7.1\n- **GPU**: 支持 CUDA 的 NVIDIA 显卡 (测试环境为 GTX 1080Ti)\n\n**前置依赖库**:\n项目所需的其他 Python 依赖包将在安装步骤中统一安装。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei\u002FLEDNet.git\ncd LEDNet-master\n```\n\n### 2. 创建并激活虚拟环境 (推荐)\n如果您使用 Anaconda：\n```bash\nconda create -n lednet python=3.6\nconda activate lednet\n```\n\n### 3. 安装依赖包\n```bash\npip3 install -r requirements.txt\n```\n\n### 4. 安装辅助工具\n为了支持训练可视化和模型分析，请额外安装以下工具：\n```bash\npip3 install visdom\npip3 install torchsummary\n```\n\n### 5. 准备数据集\n本项目主要支持 **Cityscapes** 数据集。\n1. 访问 [Cityscapes 官网](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Fdownloads\u002F) 下载以下文件：\n   - `leftImg8bit_trainvaltest.zip` (训练图像)\n   - `gtFine_trainvaltest.zip` (精细标注)\n   - `gtCoarse.zip` (粗糙标注，可选)\n2. 解压文件，并确保目录结构如下：\n   ```text\n   datasets\u002Fcityscapes\u002F\n   ├── leftImg8bit\n   │   ├── train\n   │   ├── val\n   │   └── test\n   ├── gtFine\n   │   ├── train\n   │   ├── val\n   │   └── test\n   └── gtCoarse\n       ├── train\n       └── val\n   ```\n3. (可选) 使用 `cityscapesscripts` 将标签转换为 19 类格式。\n\n## 基本使用\n\n### 训练模型\n默认假设数据集位于 `.\u002Fdatasets\u002Fcityscapes`。您可以使用以下命令开始训练：\n\n```bash\npython train\u002Fmain.py --savedir logs --model lednet --datadir .\u002Fdatasets\u002Fcityscapes --num-epochs 50 --batch-size 8\n```\n\n**参数说明**:\n- `--savedir`: 模型保存路径\n- `--datadir`: 数据集根目录路径\n- `--num-epochs`: 训练轮数\n- `--batch-size`: 批次大小\n\n> **提示**: 为了获得更好的效果，建议先在 ImageNet 上预训练 Encoder 部分，然后微调 Decoder。\n\n### 恢复训练 (如果 Decoder 部分中断)\n如果训练过程中断，可以使用以下命令加载已保存的 Encoder 状态继续训练：\n\n```bash\npython train\u002Fmain.py --savedir logs --name lednet --datadir .\u002Fdatasets\u002Fcityscapes --num-epochs 50 --batch-size 8 --decoder --state \".\u002Fsave\u002Flogs\u002Fmodel_best_enc.pth.tar\"\n```\n\n### 测试与评估\n训练完成后，可以使用测试脚本评估模型性能或生成可视化结果。具体测试命令请参考 `.\u002Ftest\u002FREADME.md`。\n\n例如，评估推理时间：\n```bash\npython test\u002Feval_forward_time.py\n```\n\n评估 mIoU (平均交并比)：\n```bash\npython test\u002Feval_iou.py\n```","一家自动驾驶初创团队正在为量产车型开发实时道路感知系统，需要在嵌入式设备上对摄像头画面进行毫秒级的语义分割以识别车道线和行人。\n\n### 没有 LEDNet 时\n- 部署主流高精度分割模型导致计算负载过重，车载芯片无法维持实时帧率，车辆决策出现明显延迟。\n- 为了强行提升速度而简化网络结构，牺牲了太多细节识别能力，导致远处行人或模糊车道线漏检率高。\n- 模型参数量过大占用大量内存资源，挤占了其他关键驾驶辅助功能的运行空间。\n- 在移动端调试时需要反复权衡速度与精度，缺乏一种能同时兼顾两者的现成轻量级架构。\n\n### 使用 LEDNet 后\n- 借助其非对称编码器 - 解码器架构，系统在单张 GPU 上推理速度突破 71 FPS，完美满足实时性要求。\n- 利用通道分裂与洗牌操作，在大幅降低计算成本的同时，依然保持了对细小物体的高精度分割效果。\n- 整体参数量压缩至 100 万以内，显著释放了嵌入式设备的内存带宽，便于多任务并行处理。\n- 解码端引入的注意力金字塔网络进一步轻量化了复杂度，让团队无需手动魔改即可直接落地高性能方案。\n\nLEDNet 通过极致的轻量化设计，成功打破了移动端实时语义分割中速度与精度难以兼得的技术瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaoyufenfei_LEDNet_8b7bdb28.png","xiaoyufenfei","Yu Wang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxiaoyufenfei_5f2e137d.jpg","I am a graduate student  in CV, my research areas center around computer vision and deep learning.","NJUPT","NanJing，China","wangy314159@163.com",null,"https:\u002F\u002Fxiaoyufenfei.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,522,80,"2025-12-28T11:10:10","MIT",4,"未说明","需要 NVIDIA GPU，测试环境为 GTX 1080Ti，需安装 CUDA 9.0 和 cuDNN 7.1",{"notes":95,"python":96,"dependencies":97},"代码在 Python 3.6、CUDA 9.0、PyTorch 0.4.1 环境下测试通过（也支持 PyTorch 0.4.1+ 版本）。建议使用 Anaconda 管理环境。训练数据主要支持 Cityscapes 数据集，需手动下载并转换标签格式。建议先在 ImageNet 上预训练编码器部分，再微调解码器以获得更好效果。","3.6.x",[98,99,100],"torch>=0.4.1","visdom","torchsummary",[15,14,16],[103,104,105,106,107,108],"pytorch","semantic-segmentation","cityscape-dataset","lednet","real-time","computer-vision","2026-03-27T02:49:30.150509","2026-04-17T08:24:20.956762",[112,117,122,127,132,137],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},36477,"复现论文时，DownSampling 模块、SS-nbt 模块的具体配置及 Dropout 策略是什么？","1. DownSampling 模块：可以在 BN 后使用 Dropout。\n2. SS-nbt 模块结构示例：Conv3x1 -> ReLu -> Conv1x3 -> Bn -> ReLu -> Conv3x1 -> ReLu -> Conv1x3 -> Bn -> Dropout。\n3. Dropout 设置：中间的 8 个 SS-nbt 模块 drop_rate 设为 0.3，其余 SS-nbt 模块设为 0.03。\n4. 建议尝试将所有 inplace 参数设为 True 以获得更好结果。","https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei\u002FLEDNet\u002Fissues\u002F3",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},36475,"Cityscapes 数据集和 cityscapesscripts 应该如何准备和处理？","需要遵循 Cityscapes 官方教程处理数据。训练使用的是 trainId，因此必须使用 preparation\u002FcreateTrainIdLabelImgs.py 脚本将数据集转换为包含 19 个类别的格式。请确保数据集结构符合要求，并参考 https:\u002F\u002Fgithub.com\u002Fmcordts\u002FcityscapesScripts 获取详细脚本和说明。","https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei\u002FLEDNet\u002Fissues\u002F15",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},36476,"为什么我的 LEDNet 实现参数量约为 2.5M，而论文声称只有约 900K？","论文中的 900K 参数版本在解码器的下采样分支中，从第一个卷积层开始就将通道数直接降为 1。如果你的实现保留了前两层相同的通道数，参数量会增加到约 2.5M。若要复现 900K 的版本，需要修改网络结构以匹配论文中的通道缩减策略。","https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei\u002FLEDNet\u002Fissues\u002F7",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},36478,"训练时出现 'IndexError: list index out of range' 错误如何解决？","该错误通常是因为数据集路径或文件列表不匹配导致的。解决方法：\n1. 检查 dataset.py 文件中的路径读取逻辑。\n2. 确保已下载并运行 CityscapesScripts，将标签图转换为 19 类格式（trainId）。\n3. 确认数据集目录结构正确，包含 leftImg8bit\u002Ftrain 和对应的 gtFine\u002Ftrain 等文件夹。","https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei\u002FLEDNet\u002Fissues\u002F27",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},36479,"eval_cityscapes_server.py 生成的标签分辨率是 512x1024 而不是 1024x2048，能否正常提交评测？","可以正常提交。Cityscapes 测试服务器现在支持子采样比例（subsampling scale）选项。提交时可以选择 scale=2，这样 512x1024 的输出会被服务器正确处理和评估，无需强制调整为原始分辨率。","https:\u002F\u002Fgithub.com\u002Fxiaoyufenfei\u002FLEDNet\u002Fissues\u002F14",{"id":138,"question_zh":139,"answer_zh":140,"source_url":121},36480,"如何自定义训练数据集？需要提供什么样的图片格式示例？","虽然维护者未直接提供示例图片，但明确指出需参照 Cityscapes 的标准格式。你需要：\n1. 图像分为 leftImg8bit（输入图像）和 gtFine（标签图像）。\n2. 标签图像必须通过 createTrainIdLabelImgs.py 处理为 trainId 格式（19 类）。\n3. 目录结构应严格模仿 Cityscapes 的 train\u002Fval\u002Ftest 划分。建议查看官方仓库中的数据结构示例。",[]]