[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-voldemortX--pytorch-auto-drive":3,"tool-voldemortX--pytorch-auto-drive":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150720,2,"2026-04-11T11:33:10",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":103,"forks":104,"last_commit_at":105,"license":106,"difficulty_score":10,"env_os":107,"env_gpu":108,"env_ram":107,"env_deps":109,"category_tags":115,"github_topics":116,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":136,"updated_at":137,"faqs":138,"releases":174},6671,"voldemortX\u002Fpytorch-auto-drive","pytorch-auto-drive","PytorchAutoDrive: Segmentation models (ERFNet, ENet, DeepLab, FCN...) and Lane detection models (SCNN, RESA, LSTR, LaneATT, BézierLaneNet...) based on PyTorch with fast training, visualization, benchmarking & deployment help","pytorch-auto-drive 是一个专为自动驾驶感知任务打造的纯 Python 开源框架，基于 PyTorch 构建。它主要聚焦于两大核心视觉任务：语义分割（如识别道路、车辆）与车道线检测，旨在帮助开发者快速复现前沿算法并落地应用。\n\n在自动驾驶研究中，模型训练繁琐、基准测试不统一以及从实验到部署的转化困难是常见痛点。pytorch-auto-drive 通过提供“配置文件驱动”的开发模式，让用户仅需修改配置即可轻松完成模型训练、测试与公平对比，极大降低了重复造轮子的成本。此外，它还内置了丰富的可视化工具，并支持混合精度训练以加速过程，同时提供 ONNX 和 TensorRT 部署方案，打通了从学术研究到实际应用的最后一公里。\n\n该工具非常适合自动驾驶领域的研究人员、算法工程师及高校学生使用。其代码结构模块化且易于理解，既方便初学者入门学习经典模型（如 ERFNet、SCNN、LaneATT 等），也能满足资深研究者进行高效实验的需求。值得一提的是，框架内的模型经过优化，在单张显卡上即可快速训练，且往往能取得优于其他开源实现的性能表现，是探索自动驾驶视觉感知技术的得力助手。","# PytorchAutoDrive: Framework for self-driving perception\n\n\n*PytorchAutoDrive* is a **pure Python** framework includes semantic segmentation models, lane detection models based on **PyTorch**. Here we provide full stack supports from research (model training, testing, fair benchmarking by simply writing configs) to application (visualization, model deployment).\n\n**Paper:** [Rethinking Efficient Lane Detection via Curve Modeling](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.02431) (CVPR 2022)\n\n**Poster:** [PytorchAutoDrive: Toolkit & Fair Benchmark for Autonomous Driving Research](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F14EgcwPnKvAZJ1aWqBv6W9Msm666Wqi5a\u002Fview?usp=sharing) (PyTorch Developer Day 2021)\n\n*This repository is under active development, results with models uploaded are stable. For legacy code users, please check [deprecations](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fissues\u002F14) for changes.*\n\n**A demo video from ERFNet:**\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F32259501\u002F148680744-a18793cd-f437-461f-8c3a-b909c9931709.mp4\n\n## Highlights\n\nVarious methods on a wide range of backbones, **config** based implementations, **modulated** and **easily understood** codes, image\u002Fkeypoint loading, transformations and **visualizations**, **mixed precision training**, tensorboard logging and **deployment support** with ONNX and TensorRT.\n\nModels from this repo are faster to train (**single card trainable**) and often have better performance than other implementations, see [wiki](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fwiki\u002FNotes) for reasons and technical specification of models.\n\n## Supported datasets: \n\n| Task | Dataset |\n| :---: | :---: |\n| semantic segmentation | PASCAL VOC 2012 |\n| semantic segmentation | Cityscapes |\n| semantic segmentation | GTAV* |\n| semantic segmentation | SYNTHIA* |\n| lane detection | CULane |\n| lane detection | TuSimple |\n| lane detection | LLAMAS |\n| lane detection | BDD100K (*In progress*) |\n\n\\* The UDA baseline setup, with Cityscapes *val* set as validation.\n\n## Supported models:\n\n| Task | Backbone | Model\u002FMethod |\n| :---: | :---: | :---: |\n| semantic segmentation | ResNet-101 | [FCN](\u002Fconfigs\u002Fsemantic_segmentation\u002Ffcn) |\n| semantic segmentation | ResNet-101 | [DeeplabV2](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.00915) |\n| semantic segmentation | ResNet-101 | [DeeplabV3](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.05587) |\n| semantic segmentation | - | [ENet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.02147) |\n| semantic segmentation | - | [ERFNet](\u002Fconfigs\u002Fsemantic_segmentation\u002Ferfnet) |\n| lane detection | ENet, ERFNet, VGG16, ResNets (18, 34, 50, 101), MobileNets (V2, V3-Large), RepVGGs (A0, A1, B0, B1g2, B2), Swin (Tiny) | [Baseline](\u002Fconfigs\u002Flane_detection\u002Fbaseline) |\n| lane detection | ERFNet, VGG16, ResNets (18, 34, 50, 101), RepVGGs (A1) | [SCNN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.06080) |\n| lane detection | ResNets (18, 34, 50, 101), MobileNets (V2, V3-Large), ERFNet | [RESA](https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.13719) |\n| lane detection | ERFNet, ENet | [SAD](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.00821) ([*Postponed*](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fwiki\u002FNotes)) |\n| lane detection | ERFNet | [PRNet](http:\u002F\u002Fwww.ecva.net\u002Fpapers\u002Feccv_2020\u002Fpapers_ECCV\u002Fpapers\u002F123630698.pdf) (*In progress*) |\n| lane detection | ResNets (18, 34, 50, 101), ResNet18-reduced | [LSTR](https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.04233) |\n| lane detection | ResNets (18, 34) | [LaneATT](https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.12035) |\n| lane detection | ResNets (18, 34) | [BézierLaneNet](\u002Fconfigs\u002Flane_detection\u002Fbezierlanenet) |\n\n## Model Zoo\n\nWe provide solid results (average\u002Fbest\u002Fdetailed), training time, shell scripts and trained models available for download in [MODEL_ZOO.md](docs\u002FMODEL_ZOO_J.md).\n\n## Installation\n\nPlease prepare the environment and code with [INSTALL.md](docs\u002FINSTALL.md). Then follow the instructions in [DATASET.md](docs\u002FDATASET.md) to set up datasets. \n\n## Getting Started\n\nGet started with [LANEDETECTION.md](docs\u002FLANEDETECTION.md) for lane detection.\n\nGet started with [SEGMENTATION.md](docs\u002FSEGMENTATION.md) for semantic segmentation.\n\n## Visualization Tools\n\nRefer to [VISUALIZATION.md](docs\u002FVISUALIZATION.md) for a visualization & inference tutorial, for image and video inputs.\n\n## Benchmark Tools\n\nRefer to [BENCHMARK.md](docs\u002FBENCHMARK.md) for a benchmarking tutorial, including FPS test, FLOPs & memory count for each supported model.\n\n## Deployment\n\nRefer to [DEPLOY.md](docs\u002FDEPLOY.md) for ONNX and TensorRT deployment supports.\n\n## Advanced Tutorial\n\nCheckout [ADVANCED_TUTORIAL.md](docs\u002FADVANCED_TUTORIAL.md) for advanced use cases and how to code in PytorchAutoDrive.\n\n## Contributing\n\nRefer to [CONTRIBUTING.md](\u002Fdocs\u002FCONTRIBUTING.md) for contribution guides.\n\n## Citation\n\nIf you feel this framework substantially helped your research or you want a reference when using our results, please cite the following paper that made the official release of PytorchAutoDrive:\n\n```\n@inproceedings{feng2022rethinking,\n  title={Rethinking efficient lane detection via curve modeling},\n  author={Feng, Zhengyang and Guo, Shaohua and Tan, Xin and Xu, Ke and Wang, Min and Ma, Lizhuang},\n  booktitle={Computer Vision and Pattern Recognition},\n  year={2022}\n}\n```\n\n## Credits:\n\nPytorchAutoDrive is maintained by Zhengyang Feng ([voldemortX](https:\u002F\u002Fgithub.com\u002FvoldemortX)) and Shaohua Guo ([cedricgsh](https:\u002F\u002Fgithub.com\u002Fcedricgsh)).\n\nContributors (GitHub ID): [kalkun](https:\u002F\u002Fgithub.com\u002Fkalkun), [LittleJohnKhan](https:\u002F\u002Fgithub.com\u002FLittleJohnKhan), [francis0407](https:\u002F\u002Fgithub.com\u002Ffrancis0407), [PannenetsF](https:\u002F\u002Fgithub.com\u002FPannenetsF), [bjzhb666](https:\u002F\u002Fgithub.com\u002Fbjzhb666)\n\nPeople who sponsored us (e.g., with hardware): [Lizhuang Ma](https:\u002F\u002Fdmcv.sjtu.edu.cn\u002Fpeople\u002F), [Xin Tan](https:\u002F\u002Ftanxincs.github.io\u002FTAN-Xin.github.io\u002F), Junshu Tang ([junshutang](https:\u002F\u002Fgithub.com\u002Fjunshutang)), Fengqi Liu ([FengqiLiu1221](https:\u002F\u002Fgithub.com\u002FFengqiLiu1221)) \n","# PytorchAutoDrive：自动驾驶感知框架\n\n\n*PytorchAutoDrive* 是一个 **纯 Python** 框架，包含基于 **PyTorch** 的语义分割模型和车道线检测模型。我们提供从研究（通过简单编写配置文件进行模型训练、测试和公平基准测试）到应用（可视化、模型部署）的全栈支持。\n\n**论文**：[通过曲线建模重新思考高效的车道线检测](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.02431)（CVPR 2022）\n\n**海报**：[PytorchAutoDrive：自动驾驶研究工具包与公平基准测试](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F14EgcwPnKvAZJ1aWqBv6W9Msm666Wqi5a\u002Fview?usp=sharing)（PyTorch 开发者日 2021）\n\n*本仓库仍在积极开发中，已上传的模型结果是稳定的。对于使用旧版代码的用户，请查看 [弃用说明](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fissues\u002F14) 以了解变更。*\n\n**ERFNet 的演示视频**：\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F32259501\u002F148680744-a18793cd-f437-461f-8c3a-b909c9931709.mp4\n\n## 亮点\n\n多种方法适用于广泛的骨干网络，基于 **配置文件** 的实现，代码 **模块化** 且 **易于理解**，支持图像\u002F关键点加载、数据增强及 **可视化**，提供 **混合精度训练**、TensorBoard 日志记录，并通过 ONNX 和 TensorRT 提供 **部署支持**。\n\n本仓库中的模型训练速度更快（**单卡即可训练**），且性能通常优于其他实现。具体原因及各模型的技术规格请参阅 [wiki](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fwiki\u002FNotes)。\n\n## 支持的数据集：\n\n| 任务 | 数据集 |\n| :---: | :---: |\n| 语义分割 | PASCAL VOC 2012 |\n| 语义分割 | Cityscapes |\n| 语义分割 | GTAV* |\n| 语义分割 | SYNTHIA* |\n| 车道线检测 | CULane |\n| 车道线检测 | TuSimple |\n| 车道线检测 | LLAMAS |\n| 车道线检测 | BDD100K (*正在进行中*) |\n\n\\* 使用 UDA 基线设置，以 Cityscapes *val* 集合作为验证集。\n\n## 支持的模型：\n\n| 任务 | 骨干网络 | 模型\u002F方法 |\n| :---: | :---: | :---: |\n| 语义分割 | ResNet-101 | [FCN](\u002Fconfigs\u002Fsemantic_segmentation\u002Ffcn) |\n| 语义分割 | ResNet-101 | [DeeplabV2](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.00915) |\n| 语义分割 | ResNet-101 | [DeeplabV3](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.05587) |\n| 语义分割 | - | [ENet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.02147) |\n| 语义分割 | - | [ERFNet](\u002Fconfigs\u002Fsemantic_segmentation\u002Ferfnet) |\n| 车道线检测 | ENet、ERFNet、VGG16、ResNet（18、34、50、101）、MobileNet（V2、V3-Large）、RepVGG（A0、A1、B0、B1g2、B2）、Swin（Tiny） | [基线](\u002Fconfigs\u002Flane_detection\u002Fbaseline) |\n| 车道线检测 | ERFNet、VGG16、ResNet（18、34、50、101）、RepVGG（A1） | [SCNN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.06080) |\n| 车道线检测 | ResNet（18、34、50、101）、MobileNet（V2、V3-Large）、ERFNet | [RESA](https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.13719) |\n| 车道线检测 | ERFNet、ENet | [SAD](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.00821)（[*已推迟*](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fwiki\u002FNotes)） |\n| 车道线检测 | ERFNet | [PRNet](http:\u002F\u002Fwww.ecva.net\u002Fpapers\u002Feccv_2020\u002Fpapers_ECCV\u002Fpapers\u002F123630698.pdf)（*正在进行中*） |\n| 车道线检测 | ResNet（18、34、50、101）、ResNet18-reduced | [LSTR](https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.04233) |\n| 车道线检测 | ResNet（18、34） | [LaneATT](https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.12035) |\n| 车道线检测 | ResNet（18、34） | [BézierLaneNet](\u002Fconfigs\u002Flane_detection\u002Fbezierlanenet) |\n\n## 模型库\n\n我们在 [MODEL_ZOO.md](docs\u002FMODEL_ZOO_J.md) 中提供了可靠的结果（平均\u002F最佳\u002F详细）、训练时间、Shell 脚本以及可供下载的已训练模型。\n\n## 安装\n\n请按照 [INSTALL.md](docs\u002FINSTALL.md) 准备环境和代码。然后根据 [DATASET.md](docs\u002FDATASET.md) 中的说明设置数据集。\n\n## 快速入门\n\n关于车道线检测，请参阅 [LANEDETECTION.md](docs\u002FLANEDETECTION.md)。\n\n关于语义分割，请参阅 [SEGMENTATION.md](docs\u002FSEGMENTATION.md)。\n\n## 可视化工具\n\n有关图像和视频输入的可视化与推理教程，请参阅 [VISUALIZATION.md](docs\u002FVISUALIZATION.md)。\n\n## 基准测试工具\n\n有关基准测试教程，包括每种支持模型的 FPS 测试、FLOPs 和内存占用统计，请参阅 [BENCHMARK.md](docs\u002FBENCHMARK.md)。\n\n## 部署\n\n有关 ONNX 和 TensorRT 部署支持，请参阅 [DEPLOY.md](docs\u002FDEPLOY.md)。\n\n## 高级教程\n\n有关高级用例及如何在 PytorchAutoDrive 中编写代码，请参阅 [ADVANCED_TUTORIAL.md](docs\u002FADVANCED_TUTORIAL.md)。\n\n## 贡献\n\n有关贡献指南，请参阅 [CONTRIBUTING.md](\u002Fdocs\u002FCONTRIBUTING.md)。\n\n## 引用\n\n如果您认为本框架对您的研究有重大帮助，或希望在使用我们的成果时引用，请引用以下发表 PytorchAutoDrive 正式版本的论文：\n\n```\n@inproceedings{feng2022rethinking,\n  title={Rethinking efficient lane detection via curve modeling},\n  author={Feng, Zhengyang and Guo, Shaohua and Tan, Xin and Xu, Ke and Wang, Min and Ma, Lizhuang},\n  booktitle={计算机视觉与模式识别会议},\n  year={2022}\n}\n```\n\n## 致谢：\n\nPytorchAutoDrive 由 Zhengyang Feng（[voldemortX](https:\u002F\u002Fgithub.com\u002FvoldemortX)）和 Shaohua Guo（[cedricgsh](https:\u002F\u002Fgithub.com\u002Fcedricgsh)）维护。\n\n贡献者（GitHub ID）：[kalkun](https:\u002F\u002Fgithub.com\u002Fkalkun)、[LittleJohnKhan](https:\u002F\u002Fgithub.com\u002FLittleJohnKhan)、[francis0407](https:\u002F\u002Fgithub.com\u002Ffrancis0407)、[PannenetsF](https:\u002F\u002Fgithub.com\u002FPannenetsF)、[bjzhb666](https:\u002F\u002Fgithub.com\u002Fbjzhb666)\n\n赞助我们的人士（例如提供硬件支持）：[Lizhuang Ma](https:\u002F\u002Fdmcv.sjtu.edu.cn\u002Fpeople\u002F)、[Xin Tan](https:\u002F\u002Ftanxincs.github.io\u002FTAN-Xin.github.io\u002F)、Junshu Tang（[junshutang](https:\u002F\u002Fgithub.com\u002Fjunshutang)）、Fengqi Liu（[FengqiLiu1221](https:\u002F\u002Fgithub.com\u002FFengqiLiu1221)）","# PytorchAutoDrive 快速上手指南\n\nPytorchAutoDrive 是一个基于 PyTorch 的纯 Python 自动驾驶感知框架，支持语义分割和车道线检测任务。它提供从模型训练、测试、公平基准评测到可视化及模型部署（ONNX\u002FTensorRT）的全栈支持。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04) 或 Windows (部分功能可能受限)。\n*   **Python**: 3.6 及以上版本。\n*   **深度学习框架**: PyTorch 1.7+ (建议匹配对应的 CUDA 版本)。\n*   **硬件**: 支持 CUDA 的 NVIDIA GPU (单卡即可训练)。\n*   **前置依赖**:\n    *   `opencv-python`\n    *   `tensorboard`\n    *   `scikit-image`\n    *   `tqdm`\n    *   `yacs` (用于配置管理)\n\n> **国内加速建议**：\n> 安装 Python 依赖时，推荐使用清华或阿里镜像源以加快下载速度：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 2. 安装步骤\n\n请按照以下步骤克隆代码并配置环境：\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive.git\n    cd pytorch-auto-drive\n    ```\n\n2.  **安装依赖**\n    根据官方文档 `docs\u002FINSTALL.md` 的指引，安装核心依赖包。如果项目中包含 `requirements.txt`，可直接运行：\n    ```bash\n    pip install -r requirements.txt\n    ```\n    *(注：若需使用 TensorRT 部署，请额外参考 `docs\u002FDEPLOY.md` 安装对应版本的 TensorRT)*\n\n3.  **数据集准备**\n    框架支持 Cityscapes, CULane, TuSimple 等主流数据集。请下载相应数据集并按照 `docs\u002FDATASET.md` 中的目录结构进行整理。\n    \n    例如，对于 Cityscapes 数据集，典型的结构如下：\n    ```text\n    datasets\u002F\n    └── cityscapes\u002F\n        ├── leftImg8bit\u002F\n        │   ├── train\u002F\n        │   ├── val\u002F\n        │   └── test\u002F\n        └── gtFine\u002F\n            ├── train\u002F\n            ├── val\u002F\n            └── test\u002F\n    ```\n\n## 3. 基本使用\n\nPytorchAutoDrive 采用**配置文件驱动**的方式，无需修改代码即可切换模型、数据集和超参数。\n\n### 场景一：车道线检测 (Lane Detection)\n\n以在 CULane 数据集上训练一个基于 ERFNet 的基线模型为例：\n\n1.  **查看配置文件**：\n    配置文件位于 `configs\u002Flane_detection\u002F` 目录下。\n\n2.  **启动训练**：\n    使用提供的训练脚本，指定配置文件路径：\n    ```bash\n    python train_lane.py --config configs\u002Flane_detection\u002Fbaseline\u002Fculane_erfnet.py\n    ```\n\n3.  **模型评估**：\n    训练完成后，使用测试脚本评估模型性能：\n    ```bash\n    python test_lane.py --config configs\u002Flane_detection\u002Fbaseline\u002Fculane_erfnet.py --model path\u002Fto\u002Fyour\u002Fbest_model.pth\n    ```\n\n### 场景二：语义分割 (Semantic Segmentation)\n\n以在 Cityscapes 数据集上训练 DeeplabV3 为例：\n\n1.  **启动训练**：\n    ```bash\n    python train_seg.py --config configs\u002Fsemantic_segmentation\u002Fdeeplabv3\u002Fcityscapes_deeplabv3_res101.py\n    ```\n\n2.  **模型评估**：\n    ```bash\n    python test_seg.py --config configs\u002Fsemantic_segmentation\u002Fdeeplabv3\u002Fcityscapes_deeplabv3_res101.py --model path\u002Fto\u002Fyour\u002Fbest_model.pth\n    ```\n\n### 可视化与推理\n\n要对单张图片或视频进行推理并可视化结果，请参考 `docs\u002FVISUALIZATION.md`。基本命令示例如下：\n\n```bash\npython demo.py --config \u003Cyour_config_path> --model \u003Cyour_model_path> --input_path \u003Cimage_or_video_path>\n```\n\n### 模型导出 (部署)\n\n支持将训练好的模型导出为 ONNX 格式，以便后续转换为 TensorRT 引擎：\n\n```bash\npython export_onnx.py --config \u003Cyour_config_path> --model \u003Cyour_model_path> --output \u003Coutput.onnx>\n```\n\n---\n*更多高级用法（如混合精度训练、自定义 Backbone、FLOPs 统计等）请参阅项目根目录下的 `docs\u002FADVANCED_TUTORIAL.md` 和 `docs\u002FBENCHMARK.md`。*","某自动驾驶初创公司的算法团队正急需在有限算力下，快速验证多种车道线检测与语义分割模型，以适配新的城市道路数据集。\n\n### 没有 pytorch-auto-drive 时\n- **代码复用难**：复现 SCNN、RESA 或 LaneATT 等不同论文模型时，需从零搭建数据加载与训练循环，代码风格迥异且难以统一调试。\n- **配置管理乱**：每次切换骨干网络（如从 ResNet-18 换到 MobileNet）或调整超参数，都要手动修改多处脚本，极易出错且无法公平对比性能。\n- **部署门槛高**：模型训练完成后，缺乏标准的 ONNX 或 TensorRT 导出流程，工程师需花费数天编写转换脚本才能进行实车测试。\n- **可视化缺失**：缺少内置的直观可视化工具，难以快速判断模型在复杂路况下的车道线拟合效果与分割边界精度。\n\n### 使用 pytorch-auto-drive 后\n- **开箱即用**：直接调用内置的 LaneATT、BézierLaneNet 等成熟模型架构，仅需修改配置文件即可启动训练，大幅降低复现成本。\n- **配置驱动开发**：通过简单的 YAML 配置文件即可灵活切换主干网络与损失函数，自动记录实验日志，确保基准测试的公平性与可追溯性。\n- **端到端部署支持**：利用框架自带的混合精度训练加速收敛，并一键导出优化后的 ONNX\u002FTensorRT 模型，将部署周期从数天缩短至数小时。\n- **直观效果评估**：内置强大的可视化模块，能实时生成车道线拟合图与语义分割热力图，帮助研究员迅速定位模型缺陷并迭代优化。\n\npytorch-auto-drive 通过统一的配置化框架与全栈工具链，让自动驾驶感知算法的研发从繁琐的工程实现回归到核心的模型创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FvoldemortX_pytorch-auto-drive_535bb0e0.png","voldemortX","Zhengyang Feng","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FvoldemortX_7a0cabde.jpg","\r\n    Coder? Researcher? Artist?\r\n","Momenta","Suzhou, China","zyfeng97@outlook.com",null,"https:\u002F\u002Fvoldemortx.github.io","https:\u002F\u002Fgithub.com\u002FvoldemortX",[83,87,91,95,99],{"name":84,"color":85,"percentage":86},"Python","#3572A5",92.1,{"name":88,"color":89,"percentage":90},"Shell","#89e051",4.6,{"name":92,"color":93,"percentage":94},"C++","#f34b7d",2.5,{"name":96,"color":97,"percentage":98},"Cuda","#3A4E3A",0.7,{"name":100,"color":101,"percentage":102},"Makefile","#427819",0.1,946,148,"2026-04-09T12:40:43","BSD-3-Clause","未说明","需要 NVIDIA GPU（支持混合精度训练、ONNX 和 TensorRT 部署），具体型号和显存大小未说明，但提及单卡可训练",{"notes":110,"python":107,"dependencies":111},"该框架为纯 Python 实现，支持语义分割和车道线检测任务。安装环境和数据集配置需参考项目文档中的 INSTALL.md 和 DATASET.md。支持单显卡训练，提供混合精度训练功能。模型部署支持 ONNX 和 TensorRT。代码处于活跃开发中，旧版用户需注意废弃变更。",[112,113,114],"PyTorch","ONNX","TensorRT",[15,14],[117,118,119,120,121,122,123,124,125,126,127,128,129,130,131,132,133,134,135],"fcn","semantic-segmentation","tensorboard","apex","deeplab","pytorch","cityscapes","pascal-voc","erfnet","lane-detection","tusimple","culane","gtav","scnn","resa","lstr","tensorrt","onnx","mobilenet","2026-03-27T02:49:30.150509","2026-04-11T23:23:56.795650",[139,144,149,154,159,164,169],{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},30129,"运行时报错：Target size 和 input size 不匹配（例如 [20, 4] vs [20, 6]），如何解决？","这通常是由于数据集设置或标签维度配置错误导致的，而非代码本身的 Bug。请检查您的自定义数据集配置文件，确保输出的车道线数量（类别数）与模型预测的维度一致。如果是使用官方数据集，请确认数据预处理步骤是否正确执行。","https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fissues\u002F76",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},30130,"在编译 CULane 评估脚本时遇到 OpenCV 头文件缺失错误（fatal error: opencv2\u002Fcore\u002Fcore.hpp），怎么办？","推荐方案：项目现已支持 Python 后端的 CULane 评估，无需编译 C++ 代码。只需在 `autotest_culane.sh` 脚本中将 `backend` 参数修改为 `python` 即可。\n\n如果必须使用 C++ 版本：\n1. 确保系统中只安装了一个版本的 OpenCV（包括自编译和 apt 安装的包），避免版本冲突。\n2. 对于 OpenCV 4 及以上版本，需要设置特定的 CXXFLAGS（参考相关 Issue #80）。\n3. 使用 `pkg-config --modversion opencv` 检查当前链接的版本，确保其与编译环境一致（通常建议 OpenCV 3.2.0）。","https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fissues\u002F46",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},30131,"测试 CULane 数据集时，运行脚本后只生成了 test_cfg.json，没有生成预期的检测结果或评测指标，原因是什么？","这通常是因为修改 `autotest_culane.sh` 脚本时操作不当。根据文档，您只需要修改脚本顶部的 `backend` 变量为 `python`。\n\n注意：不要修改脚本内部 `if` 判断语句中的路径或逻辑，也不要随意更改 `eval.sh` 等被调用脚本的路径配置，除非您明确知道自己在做什么。保持 `if` 块内的原始逻辑通常能解决此问题。","https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fissues\u002F109",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},30132,"在 TuSimple 数据集上测试时，提示找不到输出 JSON 文件，且数据集目录结构应该如何整理？","TuSimple 的数据集目录结构需要特别注意：训练集（train）和测试集（test）的 clips 文件夹中可能包含同名子文件夹（如 '0530'）。\n\n解决方法：在合并数据时，不能直接覆盖同名文件夹。即使文件夹名称相同，也必须将两个来源文件夹内的所有视频文件复制到同一个目标文件夹下，确保数据完整。建议在 README 中更新此说明，或手动检查并合并重复命名的文件夹内容。","https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fissues\u002F129",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},30133,"如何为 TuSimple 数据集生成用于分割训练的标签（segmentation labels）？","TuSimple 原始数据不直接提供分割标签，需要自行生成。社区已贡献了完整的 Python 代码脚本来生成这些标签。\n\n建议查看项目文档中更新的链接（通常在 tusimple.md 或相关 PR 中），下载并使用这些生成脚本。使用错误的或缺失的分割标签会导致训练准确率（ACC）极低（如仅 0.665）。","https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fissues\u002F40",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},30134,"运行测试命令后没有任何返回或输出，结果保存到哪里了？","如果运行测试命令后看似无反应或未生成结果，可能是环境或数据准备问题。\n\n建议步骤：\n1. 重新克隆仓库代码，确保是最新的 master 分支。\n2. 删除旧的 `lists` 文件夹。\n3. 严格按照文档步骤重新准备数据集。\n4. 如果使用上传的权重文件复现失败（如 FP 为 1），请检查数据集路径配置是否正确，并尝试清理缓存后重试。","https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fissues\u002F28",{"id":170,"question_zh":171,"answer_zh":172,"source_url":173},30135,"LSTR 模型在 CULane 数据集上的复现指标与论文报告不一致，可能的原因是什么？","指标差异可能与是否使用混合精度（mixed precision）训练或推理有关。论文报告的指标通常是在未使用混合精度的情况下得出的。\n\n此外，可视化功能（如学习率曲线、预测与标签对比图）目前优先级较低，可能尚未完善。建议检查配置文件中的精度设置，并确保评估脚本的参数（如 IoU 阈值、车道线宽度）与官方设定一致。","https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fissues\u002F77",[175,180,185,190,195,200,205,210,215,220,225,230],{"id":176,"version":177,"summary_zh":178,"released_at":179},214516,"v3.2.3","# PytorchAutoDrive v3.2.3（2023年第三季度发布）\n\n本次发布为常规更新，未包含重大变更。维护者目前在开源项目上的时间较为有限。一如既往，欢迎各位提供帮助。\n\n自 v3.2.2 以来，共关闭了 **12** 个问题，合并了 **1** 个 Pull Request，并向 master 分支提交了 **6** 次 commits。\n\n贡献者：@voldemortX @bjzhb666\n\n## 主要特性\n\n_**无。**_\n\n## 次要特性、文档、重构与 Bug 修复\n\n1. 修复了针对 Kaggle 新下载格式的 TuSimple 数据集下载与准备文档。#154\n2. 改进了文档之间的链接。626c396\n3. 修复了部分 Shell 脚本和配置文件中实验命名不一致的问题。9a87153\n4. BézierLaneNet 论文中存在数学表达式问题，现已在 arXiv 上修正。感谢以下 Issue 的指出：#147 #131\n\n## 已知的二进制兼容性破坏\n\n_**无。**_\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fcompare\u002Fv3.2.2...v3.2.3","2023-10-04T03:24:59",{"id":181,"version":182,"summary_zh":183,"released_at":184},214517,"v3.2.2","# PytorchAutoDrive v3.2.2（2023年第一季度发布）\n\n本次发布为常规更新，未包含重大变更，且间隔时间较长（6个月）。维护者们在逐渐告别校园生活之际，认为该项目需要在社区中找到更清晰的定位，目前尚未确定下一步方向。诸如近期热门的3D占用预测和在线车道结构预测等任务或许会被纳入考虑，也有可能暂时保持现有框架不变。一如既往，欢迎各方支持与贡献。\n\n自v3.2.1以来，共关闭了**22**个问题，合并了**4**个Pull Request，并向master分支提交了**8**次commit。\n\n贡献者：@voldemortX @PannenetsF\n\n## 主要特性\n\n_**无。**_\n\n## 次要特性、文档、重构及Bug修复\n\n1. 修复了LSTR模型中`eval()`模式不可逆的问题。#126\n2. 修复了一个罕见情况下连续重复数据可能导致CULane指标Python后端崩溃的问题。#136\n3. 将RESA和SCNN改为非原地操作方式。#139\n4. 完全支持**PyTorch 1.x**版本。#141 26cb0464e654659506468762401bcb93e3e34152\n\n## 已知的二进制兼容性破坏\n\n#139对SCNN和RESA的空间卷积实现进行了修改，将其改为梯度安全的非原地操作方式。尽管未检测到性能问题，我们仍将其标记为**可能的BC-Break**。相关讨论和测试请参阅关联问题（#121）。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fcompare\u002Fv3.2.1...v3.2.2","2023-04-03T02:42:43",{"id":186,"version":187,"summary_zh":188,"released_at":189},214518,"v3.2.1","# PytorchAutoDrive v3.2.1（2022年第三季度发布）\n\n本次发布为常规更新，未包含重大变更，因为维护者目前正忙于求职。未来，我们可能会将支持的任务扩展到3D感知领域。\n\n自v3.2版本以来，共关闭了**10**个问题，合并了**2**个PR，并向master分支提交了**5**次commit。\n\n贡献者：@voldemortX\n\n## 主要特性\n\n_**无。**_\n\n## 次要特性、文档、重构及Bug修复\n\n1. 为CULane评估新增了一个Python后端，其功能与原有的C++后端完全一致。不过，精度可能与C++版本存在细微差异（约0.1%的差距），因此仍建议技术爱好者编译并使用C++版本。#116\n2. 提供了关于C++ OpenCV编译问题的最终指南。https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fissues\u002F46#issuecomment-1260681971\n3. 文件描述符限制要求相关的错误已降级为警告。#117 #114\n4. 提供了百度网盘链接，用于下载可视化测试图像。https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fcommit\u002F2b0d5ec5f7536c9d2d2b6d8498718a8fca2ab276\n\n## 已知的二进制兼容性破坏\n\n_**无。**_\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fcompare\u002Fv3.2...v3.2.1","2022-09-30T09:06:05",{"id":191,"version":192,"summary_zh":193,"released_at":194},214519,"v3.2","# PytorchAutoDrive v3.2（2022年第二季度发布）\n\n本次发布是对车道线检测模块的常规更新，包括 LaneATT 的实现、可视化改进以及部署支持。**需要注意的是，本仓库的车道线检测测试使用相同的缓存目录 `.\u002Foutput`，因此在同一数据集上同时进行测试可能会导致结果错误。**\n\n自 v3.1 以来，共关闭了 **16** 个问题，合并了 **8** 个 Pull Request，并向 master 分支提交了 **24** 次 commit。\n\n贡献者：@cedricgsh @francis0407 @LittleJohnKhan @voldemortX\n\n## 主要特性\n\n1. LaneATT #90 及其 TensorRT 转换支持（当然，NMS 无法转换）。#102\n2. 基于 ERFNet 主干网络的 RESA。#74\n\n## 次要特性、文档、重构与 Bug 修复\n\n1. 车道线检测可视化改进（详情请参阅更新后的 [VISUALIZATION.md](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fblob\u002Ffbba224857a2b49a44dbd792e3cf2ee671af556a\u002Fdocs\u002FVISUALIZATION.md)）。#72\n   - 新增 `--style` 选项用于车道线可视化，支持三种样式：`point`、`line` 和 `bezier`。\n   - 新增 `--gt-keypoint-path` 和 `--metric` 用于与真值对比。\n   - 提供了一种在数据集上直接可视化的简便方法（例如 CULane、TuSimple）。\n2. 修复了 RESA ONNX 转换中的一个 Bug。#95\n3. 修复了一个仅在部分机器上出现的 Python 导入 Bug。#86\n4. 对 OpenCV 3.x 和 4.x 的使用提出了一些建议，可能对用户有所帮助。#78 https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fissues\u002F80#issuecomment-1109935902\n\n## 已知的兼容性破坏\n\n1. 所有文件名中包含短横线（-）的 Python 文件均已重命名为下划线（_），这些文件均为配置文件。#72\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fcompare\u002Fv3.1...v3.2","2022-07-03T08:09:06",{"id":196,"version":197,"summary_zh":198,"released_at":199},214520,"v3.1","# PytorchAutoDrive v3.1（2022年第一季度发布）\n\n**重要提示：** 这绝不是愚人节玩笑。\n本次发布主要新增了用于车道线检测的模型，现在我们还有一篇论文参考文献！[https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.02431](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.02431)。尽管并非所有数据集和方法变体都针对这些新骨干网络进行了测试，但借助当前基于配置文件的编码风格，您可以相当容易地完成相关实验。\n自v3.0版本以来，共关闭了**12**个问题，合并了**9**个拉取请求，并向主分支提交了**14**次提交。\n\n贡献者：@voldemortX @cedricgsh  \n感谢@FengqiLiu1221 和@junshutang 慷慨提供GPU资源！\n\n## 主要特性\n\n1. 为车道线检测基准模型及SCNN（CULane）添加了一系列[RepVGG](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.03697)骨干网络。#54\n2. 支持使用[Swin-Tiny](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.14030)作为车道线检测基准模型（CULane）的骨干网络。#56\n3. 支持使用[MobileNetV2](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.04381v4)和[MobileNetV3-Large](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fhtml\u002FHoward_Searching_for_MobileNetV3_ICCV_2019_paper.html)作为车道线检测基准模型以及RESA（CULane、TuSimple）的骨干网络。#53\n4. 支持使用[BézierLaneNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.02431)（ResNet-18、ResNet-34）进行车道线检测（CULane、TuSimple、LLAMAS）。#60\n随着此次私有仓库的合并，我们现在拥有：\n   - 一套成熟的关键点加载与变换系统（包括新的数据增强策略“level 1b”），相关实用函数及实现细节请参阅[functional_keypoints.py](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fblob\u002Ffabc82252918ddeb8e9518964c97e905241daaf7\u002Futils\u002Ftransforms\u002Ffunctional_keypoints.py)。\n   - 余弦退火学习率调度器。\n   - 多项式曲线与贝塞尔曲线的支持（用于车道拟合、上界测试等），更多信息请参阅[CURVE.md](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fblob\u002Fmaster\u002Fdocs\u002FCURVE.md)。\n   - 为自定义层实现自定义FLOPs计数的方法。[示例](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fblob\u002Ffabc82252918ddeb8e9518964c97e905241daaf7\u002Futils\u002Fcustom_op_flop_counters.py#L4)。\n\n## 次要特性、文档、重构与Bug修复\n\n1. 按照#62中的建议，已开始编写各模型的文档，部分已完成，其余待续（我们非常欢迎社区参与协助）。#63 #64 #67 #69\n2. 发表了论文的Arxiv预印本。[https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.02431](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.02431)。#61\n\n## 已知的二进制兼容性破坏\n\n1. 一次静默的BC破坏（更准确地说是一种改进）。LSTR CULane模型现采用阈值`0.95`重新评估，以与BézierLaneNet保持一致，性能略有提升（约1%），而下载的权重文件则保持不变。#60\n2. 车道线检测中旧有的`simple`和`strong`增强策略已被重命名为`level 0`和`level 1a`，以便容纳更多新的增强策略。这仅仅是名称变更，不会影响任何已训练好的模型。#60","2022-04-01T02:12:44",{"id":201,"version":202,"summary_zh":203,"released_at":204},214521,"v3.0","# PytorchAutoDrive v3.0（2021年第四季度发布）\n\n“大重构”比预期花费了更多时间，因此本次发布稍有延迟。\n自v2.0以来，共关闭了**8**个问题，合并了**7**个PR，并向master分支提交了**13**次commit，其中就包括包含超过1万行代码（109次commit）的#45。\n特别感谢以下贡献者：@voldemortX、@cedricgsh、@kalkun；\n同时也感谢@junshutang慷慨提供的硬件支持！\n\n## 主要特性\n\n1. 整个仓库已采用面向对象编程进行重构，模型现在通过简洁且易于扩展的配置文件来表示。具体变更请参见#45。我们通过对现有模型的预训练权重进行评估，并对部分重要模型进行了重新训练，尽最大努力确保性能的向后兼容性。此外，我们还为高级用户准备了[ADVANCED_TUTORIAL.md](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fblob\u002Fv3.0\u002Fdocs\u002FADVANCED_TUTORIAL.md)。\n2. 支持ONNX和TensorRT转换，详情请参阅[DEPLOY.md](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fblob\u002Fv3.0\u002Fdocs\u002FDEPLOY.md)。#43 #47 \n\n此次发布对我们框架而言是一次具有变革意义的升级，因此我们将其定为**PytorchAutoDrive v3.0**这一重大版本。\n\n## 次要特性与Bug修复\n\n1. RESA已在ResNet系列模型上完成测试。#27 #31 #32 \n2. LSTR-ResNet34在CULane数据集上的准确率超过70%。#29 \n3. 现在新增了`requirements.txt`文件。请查阅全新的[安装说明](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fblob\u002Fv3.0\u002Fdocs\u002FINSTALL.md#requirements)，内容更加清晰明了。#38 \n4. 修复了LSTR可视化中的一个Bug。#30 \n\n## 已知的向后不兼容变更\n\n1. 引入了一个新的依赖项[importmagician](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fimport_magician)：`pip install importmagician`。\n2. 来自#45的一些重要变更：\n","2022-01-10T07:53:29",{"id":206,"version":207,"summary_zh":208,"released_at":209},214522,"v2.0","# 2021年第三季度发布\n\n## 主要特性\n\n1. 我们支持了分布式数据并行（DDP）以及较低版本的 PyTorch（关于低版本的注意事项请参见[这里](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive\u002Fwiki\u002FLow-PyTorch-versions)）#25 6a31436。\n2. 我们在**图像、视频和图像目录**上实现了分割和车道检测的可视化功能 #23 #24，一段精彩的演示视频已展示在[Readme.md](https:\u002F\u002Fgithub.com\u002FvoldemortX\u002Fpytorch-auto-drive#readme)中。\n\n上述改动使得既能够进行**大规模训练**，也能够实现**开箱即用的推理**。这是朝着生产级框架迈出的重要一步，因此我们将其作为 v2.0 版本进行重大发布。\n\n## 次要特性与错误修复\n\n1. RESA 的代码已完整实现 #22，不过目前仍在进行与原始代码的性能对比工作，该任务仍处于开发中 #27。\n2. [PRNet 的实现](#16)现已被提议为 RFC 并推迟实施，原因是作者方面尚未给予回应。\n3. LSTR 已在 CULane 数据集上进行了测试，取得了 **67.21** 的 F1 分数，且仅用了 31 个 GPU 小时完成训练。\n4. 我们在 TuSimple 数据集上使用简单\u002F增强的数据增广方法对典型方法进行了测试。721fc26 844ebd7\n5. 其他各种修复已记录在提交历史中。\n\n","2021-10-04T05:46:06",{"id":211,"version":212,"summary_zh":213,"released_at":214},214523,"v1.4","2021年第二季度发布：\n我们现在支持 [LLAMAS](https:\u002F\u002Funsupervised-llamas.com\u002Fllamas\u002F) 数据集，我们实现的 SCNN-VGG16 在该基准上取得了第二名！\n针对车道线检测优化了 ResNet18 主干网络。\n关键点变换经过重构，现支持基于关键点的车道线检测。\n新增对 LSTR 的支持，训练速度大幅提升（提速约 3 倍），并提供了公平的 FPS 评估。\n修复了多项 bug，其中包括一个破坏向后兼容的车道线检测测试方案问题，该修复显著提升了 TuSimple 数据集上的 F1 分数。#13","2021-07-01T03:06:49",{"id":216,"version":217,"summary_zh":218,"released_at":219},214524,"v1.3","2021年第一季度发布：\n用于分割和车道线检测的ENet和ResNet系列骨干网络。\n关键点变换模块。\n提供针对图像输入的可视化工具包。\n建立了统一的基准测试，用于评估FPS、FLOPs和内存占用。\n重构了文档，新增了数据集准备指南及预训练权重下载链接。\n","2021-04-01T08:59:20",{"id":221,"version":222,"summary_zh":223,"released_at":224},214525,"v1.2","分割任务已最终完成。\n车道线检测现已全面支持两个数据集，涵盖训练、验证和测试：TuSimple 和 CULane。\n车道线检测模型 ERFNet 和 SCNN 均已完成测试。","2021-01-16T15:13:54",{"id":226,"version":227,"summary_zh":228,"released_at":229},214526,"v1.1","Segmentation code updated to PyTorch 1.6 with native mixed precision supports and re-evaluated.","2020-09-27T02:21:39",{"id":231,"version":232,"summary_zh":233,"released_at":234},214527,"v1.0","Segmentation models (Deeplabv2, Deeplabv3, FCN, ERFNet), datasets (PASCAL VOC 2012, Cityscapes) all supported and tested.","2020-07-03T10:04:56"]