[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-erdos-project--pylot":3,"tool-erdos-project--pylot":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160411,2,"2026-04-18T23:33:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":77,"owner_website":79,"owner_url":80,"languages":81,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":10,"env_os":98,"env_gpu":99,"env_ram":100,"env_deps":101,"category_tags":108,"github_topics":109,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":123,"updated_at":124,"faqs":125,"releases":155},9451,"erdos-project\u002Fpylot","pylot","Modular autonomous driving platform running on the CARLA simulator and real-world vehicles.","Pylot 是一款模块化的自动驾驶开发平台，旨在帮助开发者在 CARLA 仿真环境或真实车辆上高效构建与测试自动驾驶系统。它主要解决了自动驾驶算法从理论验证到实际部署过程中，缺乏统一、灵活且可复现测试框架的痛点，让用户能够轻松集成感知、预测、规划及控制等核心环节。\n\n这款工具特别适合自动驾驶领域的研究人员、算法工程师以及高校学生使用。无论是需要快速原型验证的学术团队，还是致力于技术落地的企业开发者，都能通过 Pylot 获得标准化的实验环境。其独特的技术亮点在于基于 ERDOS 操作符架构设计，将障碍物检测、车道线识别、交通灯判断等功能拆分为独立模块。这种设计不仅支持组件单独调试，还能灵活组合成完整流水线，极大提升了开发效率。此外，Pylot 提供了便捷的 Docker 部署方案，内置仿真器与依赖环境，显著降低了配置门槛，让用户能更专注于算法本身的优化与创新。","[![Build Status](https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fworkflows\u002FCI\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Factions)\n[![Documentation Status](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ferdos-project_pylot_readme_13d664e1afd7.png)](https:\u002F\u002Fpylot.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest)\n\nPylot is an autonomous vehicle platform for developing and testing autonomous\nvehicle components (e.g., perception, prediction, planning) on the\nCARLA simulator and real-world cars.\n\n* [**Setup instructions**](#setup-instructions)\n* [**Documentation**](https:\u002F\u002Fpylot.readthedocs.io\u002Fen\u002Flatest\u002F)\n* [**Pylot components**](#pylot-components)\n* [**Data collection**](#data-collection)\n* [**Build Docker image**](#build-your-own-docker-image)\n* [**CARLA autonomous driving challenge**](#carla-autonomous-driving-challenge)\n* [**Getting involved**](#getting-involved)\n\n# Setup instructions\n\n## Deploy using Docker\n\nThe easiest way to get Pylot running is to use our Docker image. Please ensure\nyou have `nvidia-docker` on your machine before you start installing Pylot.\nIn case you do not have `nvidia-docker` please\nrun ```.\u002Fscripts\u002Finstall-nvidia-docker.sh```\n\nWe provide a Docker image with both Pylot and CARLA already setup.\n\n```console\ndocker pull erdosproject\u002Fpylot\nnvidia-docker run -itd --name pylot -p 20022:22 erdosproject\u002Fpylot \u002Fbin\u002Fbash\n```\n\nFollowing, start the simulator in the container:\n\n```console\nnvidia-docker exec -i -t pylot \u002Fhome\u002Ferdos\u002Fworkspace\u002Fpylot\u002Fscripts\u002Frun_simulator.sh\n```\n\nFinally, start Pylot in the container:\n\n```console\nnvidia-docker exec -i -t pylot \u002Fbin\u002Fbash\ncd ~\u002Fworkspace\u002Fpylot\u002F\npython3 pylot.py --flagfile=configs\u002Fdetection.conf\n```\n\n## Visualizing components\nIn case you desire to visualize outputs of different components (e.g., bounding boxes),\nyou have to forward X from the container. First, add your public ssh key to the\n`~\u002F.ssh\u002Fauthorized_keys` in the container:\n\n```console\nnvidia-docker cp ~\u002F.ssh\u002Fid_rsa.pub pylot:\u002Fhome\u002Ferdos\u002F.ssh\u002Fauthorized_keys\nnvidia-docker exec -i -t pylot sudo chown erdos \u002Fhome\u002Ferdos\u002F.ssh\u002Fauthorized_keys\nnvidia-docker exec -i -t pylot sudo service ssh start\n```\n\nFinally, ssh into the container with X forwarding:\n```console\nssh -p 20022 -X erdos@localhost\ncd \u002Fhome\u002Ferdos\u002Fworkspace\u002Fpylot\u002F\npython3 pylot.py --flagfile=configs\u002Fdetection.conf --visualize_detected_obstacles\n```\n\nIf everything worked ok, you should be able to see a visualization like\nthe one below:\n\n![Pylot obstacle detection](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ferdos-project_pylot_readme_f4024c3e825a.png)\n\n## Manual installation instructions\nAlternatively, you can install Pylot on your base system by executing the\nfollowing steps:\n\n```console\n.\u002Finstall.sh\npip install -e .\u002F\n```\n\nNext, start the simulator:\n```console\nexport CARLA_HOME=$PYLOT_HOME\u002Fdependencies\u002FCARLA_0.9.10.1\u002F\n.\u002Fscripts\u002Frun_simulator.sh\n```\n\nIn a different terminal, setup the paths:\n```console\nexport CARLA_HOME=$PYLOT_HOME\u002Fdependencies\u002FCARLA_0.9.10.1\u002F\ncd $PYLOT_HOME\u002Fscripts\u002F\nsource .\u002Fset_pythonpath.sh\n```\n\nFinally, run Pylot:\n```console\ncd  $PYLOT_HOME\u002F\npython3 pylot.py --flagfile=configs\u002Fdetection.conf\n```\n\n# Pylot components\n\nPylot comprises of several components: obstacle detection, traffic light\ndetection, lane detection, obstacle tracking, localization, segmentation,\nfusion, prediction, planners, and control.\nEach component is implemented using one or more ERDOS operators and can be\nexecuted in isolation or with the entire Pylot application. Please read\nthe [**Documentation**](https:\u002F\u002Fpylot.readthedocs.io\u002Fen\u002Flatest\u002F) for\na more in depth description.\n\n![Pylot pipeline](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ferdos-project_pylot_readme_7de127e63780.png)\n\nRun the following command to see a demo of all the components, and the Pylot\ndriving policy:\n\n```console\npython3 pylot.py --flagfile=configs\u002Fdemo.conf\n```\n\nThe demo will execute: obstacle detection, traffic light detection,\nsegmentation, prediction, planning, and the driving policy.\n\n***\nYou can also run components in isolation:\n\n### Obstacle detection\nPylot supports three object detection models: `frcnn_resnet101`,\n`ssd-mobilenet-fpn-640` and `ssdlite-mobilenet-v2`. The following command runs\na detector in isolation:\n\n```console\npython3 pylot.py --flagfile=configs\u002Fdetection.conf\n```\n\nIn case you want to evaluate the detector (i.e., compute mAP), you can run:\n```console\npython3 pylot.py --flagfile=configs\u002Fdetection.conf --evaluate_obstacle_detection\n```\n\nIn case you are not satisfied with the accuracy of our obstacle detector, you\ncan run a perfect version of it:\n\n```console\npython3 pylot.py --flagfile=configs\u002Fperfect_detection.conf\n```\n\nIf the detector does not run at your desired frequency, or if you want to track\nobstacles across frames, you can use a mix of detector plus tracker by running:\n\n```console\npython3 pylot.py --flagfile=configs\u002Ftracking.conf\n```\n\n### Traffic light detection\nPylot has uses a separate component for traffic light detection and\nclassification. The following command runs the component in isolation:\n\n```console\npython3 pylot.py --flagfile=configs\u002Ftraffic_light.conf\n```\n\nIn case you require higher accuracy, you can run perfect traffic light detection\nby passing the ```--perfect_traffic_light_detection``` flag.\n\n### Lane detection\n\n```console\npython3 pylot.py --flagfile=configs\u002Flane_detection.conf\n```\n\n### Obstacle tracking\n\n```console\npython3 pylot.py --flagfile=configs\u002Ftracking.conf\n```\n\n### Segmentation\nIn order to run Pylot's segmentation component in isolation execute the\nfollowing command:\n\n```console\npython3 pylot.py --flagfile=configs\u002Fsegmentation.conf\n```\n\nSimilarly, pass ```--perfect_segmentation``` if you desire ideal pixel semantic\nsegmentation.\n\n### Prediction\nPylot offers a simple linear prediction component:\n\n```console\npython3 pylot.py --flagfile=configs\u002Fprediction.conf\n```\n\n### Planning\nThe planning component provides two planning options, which can be specified\nusing the ```--planning_type``` flag:\n\n1. `waypoint`: a simple planner that follows predefined waypoints. These\nwaypoints can either be either pre-specified or computed using the A-star\nplanner part of the CARLA simulator map. The planner ensures that the\nego-vehicle respects traffic lights, stops whenever there are obstacles in its\npath, but does not implement obstacle avoidance.\n2. `frenet_optimal_trajectory`: a Frenet Optimal Trajectory planner.\n3. `rrt_star`: a Rapidly-explory Random Tree planner.\n4. `hybrid_astar`: a Hybrid A* planner.\n\n```console\n# To run the Frenet Optimal Trajectory planner.\npython3 pylot.py --flagfile=configs\u002Ffrenet_optimal_trajectory_planner.conf\n\n# To run the RRT* planner.\npython3 pylot.py --flagfile=configs\u002Frrt_star_planner.conf\n\n# To run the Hybrid A* planner.\npython3 pylot.py --flagfile=configs\u002Fhybrid_astar_planner.conf\n```\n\n### Control\nPylot supports three controllers, which can be specified using the\n```control``` flag:\n1. `pid`: follows the waypoints computed by the planning component using a PID\ncontroller.\n2. `mpc`: uses model predictive control for speed and waypoint following.\n3. `simulator_auto_pilot`: uses the simulator auto pilot to drive on predefined routes.\nThis controller drives independent of the output of the other components.\n\nYou can run all the components, together with one of the two policies by\nexecuting:\n\n```console\n# Runs all components using the algorithms we implemented and the models we trained:\npython3 pylot.py --flagfile=configs\u002Fe2e.conf\n# Runs the MPC\npython3 pylot.py --flagfile=configs\u002Fmpc.conf\n# Runs the simulator auto pilot.\npython3 pylot.py --control=simulator_auto_pilot\n```\n\n### Debug logs\nIn case you want to debug the application, you can active additional logging\nby passing: `--log_file_name=pylot.log --v=1` to your command.\n\n# Data collection\n\nPylot also provides a script for collecting CARLA data such as: RGB images,\nsegmented images, obstacle 2D bounding boxes, depth frames, point clouds,\ntraffic lights, obstacle trajectories, and data in Chauffeur format.\n\nRun ```python3 data_gatherer.py --help``` to see what data you can collect.\nAlternatively, you can inspect this\n[configuration](https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fblob\u002Fmaster\u002Fconfigs\u002Fdata_gatherer.conf)\nfor an example of a data collection setup.\n\n# Build your own Docker image\n\nIn case you want to build your own images from the latest code, you can execute:\n\n```console\ncd docker\n.\u002Fbuild_images.sh\n```\n\nThe script creates two Docker images: one that contains the CARLA simulator and\nanother one that contains ERDOS and Pylot.\n\n# CARLA autonomous driving challenge\n\nPylot can also be used as a baseline for executing on the CARLA\n[**Leaderboard**](https:\u002F\u002Fleaderboard.carla.org\u002F) routes. We provide an  agent\nthat offers reference implementations for perception (i.e., detection,\ntracking), localization (Extended Kalman filter), prediction, planning\n(e.g., waypoint follower, Frenet optimal trajectory, RRT*, Hybrid A*),\nand control.\n\nTo test this agent you can pull our image which has all the necessary software\nalready installed.\n\n```console\ndocker pull erdosproject\u002Fpylot-carla-challenge\nnvidia-docker run -itd --name pylot-challenge -p 20022:22 erdosproject\u002Fpylot-carla-challenge \u002Fbin\u002Fbash\n```\n\nAlternatively, you can manually install the dependencies on your machine by\nfollowing the instructions provided below:\n\n```console\nmkdir challenge\nexport CHALLENGE_ROOT=`pwd`\n# Clone the challenge leaderboard repository.\ngit clone -b stable --single-branch https:\u002F\u002Fgithub.com\u002Fcarla-simulator\u002Fleaderboard.git\nexport LEADERBOARD_ROOT=${CHALLENGE_ROOT}\u002Fleaderboard\u002F\ncd ${LEADERBOARD_ROOT} ; pip3 install -r requirements.txt ; cd ${CHALLENGE_ROOT}\n# Clone the CARLA scenario runner repository. This is used by the leaderboard.\ngit clone -b leaderboard --single-branch https:\u002F\u002Fgithub.com\u002Fcarla-simulator\u002Fscenario_runner.git\nexport SCENARIO_RUNNER_ROOT=${CHALLENGE_ROOT}\u002Fscenario_runner\u002F\ncd ${SCENARIO_RUNNER_ROOT} ; pip3 install -r requirements.txt ; cd ${CHALLENGE_ROOT}\n# Checkout the CARLA challenge branch.\ncd ${PYLOT_HOME} ; git checkout -b challenge origin\u002Fchallenge\nexport CARLA_ROOT=Path to CARLA 0.9.10.1.\ncd ${CHALLENGE_ROOT}\nexport TEAM_CODE_ROOT=${PYLOT_HOME} ; ${LEADERBOARD_ROOT}\u002Fscripts\u002Fmake_docker.sh\n```\n\n## Notes on the Pylot CARLA challenge agent\nSimilar to regular Pylot, the [Challenge agent](https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fblob\u002Fmaster\u002Fpylot\u002Fsimulation\u002Fchallenge\u002FERDOSAgent.py)\nnot only connects different reference implementation, but also provides the\noption of testing them in different configurations (e.g., test prediction,\nplanning and control with perfect perception). This can be done by changing the\nflags in the [challenge configuration](https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fblob\u002Fmaster\u002Fpylot\u002Fsimulation\u002Fchallenge\u002Fchallenge.conf)\naccording to the specification from the Pylot documentation.\n\n# More Information\n\nTo read more about the ideas behind Pylot, refer to our paper,\n*Pylot: A Modular Platform for Exploring Latency-Accuracy Tradeoffs in Autonomous Vehicles* ([IEEE](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9561747\u002F)) ([arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.07830)).\nIf you find Pylot useful to your work, please cite our paper as follows:\n```bibtex\n@inproceedings{gog2021pylot,\n  title={Pylot: A modular platform for exploring latency-accuracy tradeoffs in autonomous vehicles},\n  author={Gog, Ionel and Kalra, Sukrit and Schafhalter, Peter and Wright, Matthew A and Gonzalez, Joseph E and Stoica, Ion},\n  booktitle={2021 IEEE International Conference on Robotics and Automation (ICRA)},\n  pages={8806--8813},\n  year={2021},\n  organization={IEEE}\n}\n```\n\n# Getting Involved\n* [Community on Slack](https:\u002F\u002Fforms.gle\u002FKXwSrjM6ZqRi2MT18): Join our community\non Slack for discussions about development, questions about usage, and feature\nrequests.\n* [Github Issues](https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fissues): For reporting\nbugs.\n","[![构建状态](https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fworkflows\u002FCI\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Factions)\n[![文档状态](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ferdos-project_pylot_readme_13d664e1afd7.png)](https:\u002F\u002Fpylot.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest)\n\nPylot 是一个用于开发和测试自动驾驶车辆组件（例如感知、预测、规划）的平台，可在 CARLA 模拟器和真实世界车辆上运行。\n\n* [**设置说明**](#setup-instructions)\n* [**文档**](https:\u002F\u002Fpylot.readthedocs.io\u002Fen\u002Flatest\u002F)\n* [**Pylot 组件**](#pylot-components)\n* [**数据采集**](#data-collection)\n* [**构建 Docker 镜像**](#build-your-own-docker-image)\n* [**CARLA 自动驾驶挑战赛**](#carla-autonomous-driving-challenge)\n* [**参与方式**](#getting-involved)\n\n# 设置说明\n\n## 使用 Docker 部署\n\n运行 Pylot 最简单的方式是使用我们的 Docker 镜像。在开始安装 Pylot 之前，请确保您的机器上已安装 `nvidia-docker`。如果没有安装 `nvidia-docker`，请运行 ```.\u002Fscripts\u002Finstall-nvidia-docker.sh```。\n\n我们提供了一个包含 Pylot 和 CARLA 的预配置 Docker 镜像。\n\n```console\ndocker pull erdosproject\u002Fpylot\nnvidia-docker run -itd --name pylot -p 20022:22 erdosproject\u002Fpylot \u002Fbin\u002Fbash\n```\n\n接下来，在容器中启动模拟器：\n\n```console\nnvidia-docker exec -i -t pylot \u002Fhome\u002Ferdos\u002Fworkspace\u002Fpylot\u002Fscripts\u002Frun_simulator.sh\n```\n\n最后，在容器中启动 Pylot：\n\n```console\nnvidia-docker exec -i -t pylot \u002Fbin\u002Fbash\ncd ~\u002Fworkspace\u002Fpylot\u002F\npython3 pylot.py --flagfile=configs\u002Fdetection.conf\n```\n\n## 可视化组件输出\n如果您希望可视化不同组件的输出（例如边界框），则需要将 X 显示转发到容器中。首先，将您的公钥添加到容器中的 `~\u002F.ssh\u002Fauthorized_keys` 文件中：\n\n```console\nnvidia-docker cp ~\u002F.ssh\u002Fid_rsa.pub pylot:\u002Fhome\u002Ferdos\u002F.ssh\u002Fauthorized_keys\nnvidia-docker exec -i -t pylot sudo chown erdos \u002Fhome\u002Ferdos\u002F.ssh\u002Fauthorized_keys\nnvidia-docker exec -i -t pylot sudo service ssh start\n```\n\n最后，通过 X 转发登录到容器：\n\n```console\nssh -p 20022 -X erdos@localhost\ncd \u002Fhome\u002Ferdos\u002Fworkspace\u002Fpylot\u002F\npython3 pylot.py --flagfile=configs\u002Fdetection.conf --visualize_detected_obstacles\n```\n\n如果一切正常，您应该能够看到如下所示的可视化效果：\n\n![Pylot 障碍物检测](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ferdos-project_pylot_readme_f4024c3e825a.png)\n\n## 手动安装说明\n或者，您也可以通过以下步骤在本地系统上安装 Pylot：\n\n```console\n.\u002Finstall.sh\npip install -e .\u002F\n```\n\n接下来，启动模拟器：\n```console\nexport CARLA_HOME=$PYLOT_HOME\u002Fdependencies\u002FCARLA_0.9.10.1\u002F\n.\u002Fscripts\u002Frun_simulator.sh\n```\n\n在另一个终端中，设置路径：\n```console\nexport CARLA_HOME=$PYLOT_HOME\u002Fdependencies\u002FCARLA_0.9.10.1\u002F\ncd $PYLOT_HOME\u002Fscripts\u002F\nsource .\u002Fset_pythonpath.sh\n```\n\n最后，运行 Pylot：\n```console\ncd  $PYLOT_HOME\u002F\npython3 pylot.py --flagfile=configs\u002Fdetection.conf\n```\n\n# Pylot 组件\n\nPylot 包含多个组件：障碍物检测、交通信号灯检测、车道检测、障碍物跟踪、定位、分割、融合、预测、规划器和控制。每个组件都由一个或多个 ERDOS 算子实现，可以单独运行，也可以与整个 Pylot 应用程序一起运行。有关更详细的描述，请参阅 [**文档**](https:\u002F\u002Fpylot.readthedocs.io\u002Fen\u002Flatest\u002F)。\n\n![Pylot 流水线](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ferdos-project_pylot_readme_7de127e63780.png)\n\n运行以下命令以查看所有组件以及 Pylot 驾驶策略的演示：\n\n```console\npython3 pylot.py --flagfile=configs\u002Fdemo.conf\n```\n\n该演示将执行：障碍物检测、交通信号灯检测、分割、预测、规划以及驾驶策略。\n***\n您也可以单独运行各个组件：\n\n### 障碍物检测\nPylot 支持三种目标检测模型：`frcnn_resnet101`、`ssd-mobilenet-fpn-640` 和 `ssdlite-mobilenet-v2`。以下命令可单独运行检测器：\n\n```console\npython3 pylot.py --flagfile=configs\u002Fdetection.conf\n```\n\n如果您想评估检测器性能（即计算 mAP），可以运行：\n```console\npython3 pylot.py --flagfile=configs\u002Fdetection.conf --evaluate_obstacle_detection\n```\n\n如果您对我们的障碍物检测器精度不满意，可以运行其完美版本：\n\n```console\npython3 pylot.py --flagfile=configs\u002Fperfect_detection.conf\n```\n\n如果检测器未能达到您期望的频率，或者您希望跨帧跟踪障碍物，可以结合检测器和跟踪器运行：\n\n```console\npython3 pylot.py --flagfile=configs\u002Ftracking.conf\n```\n\n### 交通信号灯检测\nPylot 使用独立的组件进行交通信号灯的检测和分类。以下命令可单独运行该组件：\n\n```console\npython3 pylot.py --flagfile=configs\u002Ftraffic_light.conf\n```\n\n如果您需要更高的精度，可以通过传递 ```--perfect_traffic_light_detection``` 标志来运行完美版交通信号灯检测。\n\n### 车道检测\n\n```console\npython3 pylot.py --flagfile=configs\u002Flane_detection.conf\n```\n\n### 障碍物跟踪\n\n```console\npython3 pylot.py --flagfile=configs\u002Ftracking.conf\n```\n\n### 分割\n要单独运行 Pylot 的分割组件，请执行以下命令：\n\n```console\npython3 pylot.py --flagfile=configs\u002Fsegmentation.conf\n```\n\n同样地，如果您希望获得理想的像素语义分割，可以传递 ```--perfect_segmentation``` 标志。\n\n### 预测\nPylot 提供一个简单的线性预测组件：\n\n```console\npython3 pylot.py --flagfile=configs\u002Fprediction.conf\n```\n\n### 规划\n规划组件提供两种规划选项，可通过 ```--planning_type``` 标志指定：\n\n1. `waypoint`：一种简单的规划器，遵循预定义的航点。这些航点可以是预先指定的，也可以使用 CARLA 模拟器地图中的 A* 规划器计算得出。该规划器会确保自车遵守交通信号灯规则，并在前方有障碍物时停车，但不执行避障操作。\n2. `frenet_optimal_trajectory`：Frenet 最优轨迹规划器。\n3. `rrt_star`：快速随机树规划器。\n4. `hybrid_astar`：混合 A* 规划器。\n\n```console\n# 运行 Frenet 最优轨迹规划器。\npython3 pylot.py --flagfile=configs\u002Ffrenet_optimal_trajectory_planner.conf\n\n# 运行 RRT* 规划器。\npython3 pylot.py --flagfile=configs\u002Frrt_star_planner.conf\n\n# 运行混合 A* 规划器。\npython3 pylot.py --flagfile=configs\u002Fhybrid_astar_planner.conf\n```\n\n### 控制\nPylot 支持三种控制器，可以通过 `control` 标志来指定：\n1. `pid`：使用 PID 控制器跟踪由规划组件计算出的航点。\n2. `mpc`：使用模型预测控制来实现速度控制和航点跟踪。\n3. `simulator_auto_pilot`：使用模拟器自动驾驶仪沿着预定义路线行驶。该控制器独立于其他组件的输出运行。\n\n你可以通过以下命令运行所有组件以及其中一种策略：\n\n```console\n# 使用我们实现的算法和训练的模型运行所有组件：\npython3 pylot.py --flagfile=configs\u002Fe2e.conf\n# 运行 MPC：\npython3 pylot.py --flagfile=configs\u002Fmpc.conf\n# 运行模拟器自动驾驶仪：\npython3 pylot.py --control=simulator_auto_pilot\n```\n\n### 调试日志\n如果你需要调试应用程序，可以通过在命令中添加 `--log_file_name=pylot.log --v=1` 来启用额外的日志记录。\n\n# 数据收集\n\nPylot 还提供了一个用于收集 CARLA 数据的脚本，包括：RGB 图像、分割图像、障碍物 2D 边界框、深度帧、点云、交通信号灯、障碍物轨迹以及 Chauffeur 格式的数据。\n\n运行 `python3 data_gatherer.py --help` 可以查看可以收集哪些数据。或者，你也可以查看这个\n[配置文件](https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fblob\u002Fmaster\u002Fconfigs\u002Fdata_gatherer.conf)\n以了解数据收集设置的示例。\n\n# 构建你自己的 Docker 镜像\n\n如果你想基于最新代码构建自己的镜像，可以执行以下命令：\n\n```console\ncd docker\n.\u002Fbuild_images.sh\n```\n\n该脚本会创建两个 Docker 镜像：一个包含 CARLA 模拟器，另一个包含 ERDOS 和 Pylot。\n\n# CARLA 自动驾驶挑战赛\n\nPylot 也可以用作在 CARLA 的\n**Leaderboard**（排行榜）路线上运行的基线。我们提供了一个智能体，它为感知（例如检测、跟踪）、定位（扩展卡尔曼滤波器）、预测、规划（例如航点跟踪器、Frenet 最优轨迹、RRT*、Hybrid A*）和控制提供了参考实现。\n\n要测试这个智能体，你可以拉取我们已经安装好所有必要软件的镜像：\n\n```console\ndocker pull erdosproject\u002Fpylot-carla-challenge\nnvidia-docker run -itd --name pylot-challenge -p 20022:22 erdosproject\u002Fpylot-carla-challenge \u002Fbin\u002Fbash\n```\n\n或者，你也可以按照以下步骤手动在你的机器上安装依赖项：\n\n```console\nmkdir challenge\nexport CHALLENGE_ROOT=`pwd`\n# 克隆挑战赛排行榜仓库。\ngit clone -b stable --single-branch https:\u002F\u002Fgithub.com\u002Fcarla-simulator\u002Fleaderboard.git\nexport LEADERBOARD_ROOT=${CHALLENGE_ROOT}\u002Fleaderboard\u002F\ncd ${LEADERBOARD_ROOT} ; pip3 install -r requirements.txt ; cd ${CHALLENGE_ROOT}\n# 克隆 CARLA 场景运行器仓库。这是排行榜所使用的。\ngit clone -b leaderboard --single-branch https:\u002F\u002Fgithub.com\u002Fcarla-simulator\u002Fscenario_runner.git\nexport SCENARIO_RUNNER_ROOT=${CHALLENGE_ROOT}\u002Fscenario_runner\u002F\ncd ${SCENARIO_RUNNER_ROOT} ; pip3 install -r requirements.txt ; cd ${CHALLENGE_ROOT}\n# 切换到 CARLA 挑战分支。\ncd ${PYLOT_HOME} ; git checkout -b challenge origin\u002Fchallenge\nexport CARLA_ROOT=CARLA 0.9.10.1 的路径。\ncd ${CHALLENGE_ROOT}\nexport TEAM_CODE_ROOT=${PYLOT_HOME} ; ${LEADERBOARD_ROOT}\u002Fscripts\u002Fmake_docker.sh\n```\n\n## 关于 Pylot CARLA 挑战赛智能体的说明\n与常规 Pylot 类似，[挑战赛智能体](https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fblob\u002Fmaster\u002Fpylot\u002Fsimulation\u002Fchallenge\u002FERDOSAgent.py)\n不仅连接了不同的参考实现，还提供了在不同配置下测试它们的选项（例如，在完美感知条件下测试预测、规划和控制）。这可以通过根据 Pylot 文档中的规范修改\n[挑战配置文件](https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fblob\u002Fmaster\u002Fpylot\u002Fsimulation\u002Fchallenge\u002Fchallenge.conf)\n中的标志来实现。\n\n# 更多信息\n\n欲了解更多关于 Pylot 背后的理念，请参阅我们的论文，\n《Pylot：一个用于探索自动驾驶车辆延迟-精度权衡的模块化平台》（[IEEE](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9561747\u002F)）（[arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.07830)）。\n如果你认为 Pylot 对你的工作有帮助，请按以下方式引用我们的论文：\n```bibtex\n@inproceedings{gog2021pylot,\n  title={Pylot: A modular platform for exploring latency-accuracy tradeoffs in autonomous vehicles},\n  author={Gog, Ionel and Kalra, Sukrit and Schafhalter, Peter and Wright, Matthew A and Gonzalez, Joseph E and Stoica, Ion},\n  booktitle={2021 IEEE International Conference on Robotics and Automation (ICRA)},\n  pages={8806--8813},\n  year={2021},\n  organization={IEEE}\n}\n```\n\n# 参与方式\n* [Slack 社区](https:\u002F\u002Fforms.gle\u002FKXwSrjM6ZqRi2MT18)：加入我们的 Slack 社区，参与开发讨论、使用问题交流以及功能请求。\n* [Github Issues](https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fissues)：用于报告 bug。","# Pylot 快速上手指南\n\nPylot 是一个用于开发和测试自动驾驶组件（如感知、预测、规划）的开源平台，支持在 CARLA 仿真器和真实车辆上运行。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐 Ubuntu)\n*   **GPU 驱动**: 必须安装 NVIDIA 显卡驱动\n*   **核心依赖**:\n    *   Docker\n    *   **nvidia-docker** (至关重要，用于容器内 GPU 加速)\n    *   Python 3\n*   **前置检查**: 确保机器已安装 `nvidia-docker`。若未安装，可运行项目提供的脚本：\n    ```bash\n    .\u002Fscripts\u002Finstall-nvidia-docker.sh\n    ```\n\n## 安装步骤\n\n推荐使用 Docker 方式部署，这是最简便且环境隔离最好的方法。\n\n### 1. 拉取并启动 Docker 容器\n拉取包含 Pylot 和 CARLA 的预配置镜像，并启动容器：\n\n```console\ndocker pull erdosproject\u002Fpylot\nnvidia-docker run -itd --name pylot -p 20022:22 erdosproject\u002Fpylot \u002Fbin\u002Fbash\n```\n\n### 2. 启动 CARLA 仿真器\n在容器内部启动仿真器服务：\n\n```console\nnvidia-docker exec -i -t pylot \u002Fhome\u002Ferdos\u002Fworkspace\u002Fpylot\u002Fscripts\u002Frun_simulator.sh\n```\n\n### 3. 运行 Pylot\n在新终端或当前终端进入容器，执行 Pylot 主程序（以障碍物检测配置为例）：\n\n```console\nnvidia-docker exec -i -t pylot \u002Fbin\u002Fbash\ncd ~\u002Fworkspace\u002Fpylot\u002F\npython3 pylot.py --flagfile=configs\u002Fdetection.conf\n```\n\n> **注**：若需手动安装在本地系统而非 Docker，请执行 `.\u002Finstall.sh` 和 `pip install -e .\u002F`，并确保 `CARLA_HOME` 环境变量指向正确的 CARLA 版本 (0.9.10.1)。\n\n## 基本使用\n\n### 运行完整演示\n运行以下命令即可启动包含障碍物检测、交通灯识别、分割、预测、规划和控制策略的完整演示流程：\n\n```console\npython3 pylot.py --flagfile=configs\u002Fdemo.conf\n```\n\n### 可视化组件输出\n若需在本地窗口查看检测结果（如边界框），需开启 X11 转发。\n\n1.  **配置 SSH 密钥**（将公钥复制到容器中）：\n    ```console\n    nvidia-docker cp ~\u002F.ssh\u002Fid_rsa.pub pylot:\u002Fhome\u002Ferdos\u002F.ssh\u002Fauthorized_keys\n    nvidia-docker exec -i -t pylot sudo chown erdos \u002Fhome\u002Ferdos\u002F.ssh\u002Fauthorized_keys\n    nvidia-docker exec -i -t pylot sudo service ssh start\n    ```\n\n2.  **SSH 登录并运行**（带 `-X` 参数开启图形转发）：\n    ```console\n    ssh -p 20022 -X erdos@localhost\n    cd \u002Fhome\u002Ferdos\u002Fworkspace\u002Fpylot\u002F\n    python3 pylot.py --flagfile=configs\u002Fdetection.conf --visualize_detected_obstacles\n    ```\n\n### 独立运行特定组件\nPylot 支持模块化运行，以下是常用组件的启动命令：\n\n*   **障碍物检测**:\n    ```console\n    python3 pylot.py --flagfile=configs\u002Fdetection.conf\n    ```\n*   **交通灯检测**:\n    ```console\n    python3 pylot.py --flagfile=configs\u002Ftraffic_light.conf\n    ```\n*   **车道线检测**:\n    ```console\n    python3 pylot.py --flagfile=configs\u002Flane_detection.conf\n    ```\n*   **Frenet 最优轨迹规划**:\n    ```console\n    python3 pylot.py --flagfile=configs\u002Ffrenet_optimal_trajectory_planner.conf\n    ```\n*   **端到端全流程 (含 MPC 控制)**:\n    ```console\n    python3 pylot.py --flagfile=configs\u002Fmpc.conf\n    ```\n\n### 调试模式\n如需查看详细日志进行调试，可添加以下参数：\n```console\npython3 pylot.py --flagfile=configs\u002Fdetection.conf --log_file_name=pylot.log --v=1\n```","某自动驾驶初创团队正在为城市复杂路口开发新的感知与规划算法，急需在低成本环境下验证多模块协同效果。\n\n### 没有 pylot 时\n- **仿真环境搭建繁琐**：团队需手动整合 CARLA 模拟器与各类深度学习模型，配置依赖库耗时数天且极易出错。\n- **模块测试割裂**：感知、预测和规划组件往往独立开发，缺乏统一框架进行端到端联调，难以发现系统级延迟或数据不同步问题。\n- **实车验证风险高**：未经充分仿真验证的算法直接上车测试，不仅成本高昂，且在复杂交通场景下存在安全隐患。\n- **可视化调试困难**：缺乏内置的可视化工具，开发者难以直观观察障碍物检测框、车道线拟合等中间结果，排查 Bug 如同“盲人摸象”。\n\n### 使用 pylot 后\n- **一键部署仿真平台**：通过 Pylot 提供的 Docker 镜像，团队几分钟内即可启动集成好 CARLA 和完整算法栈的开发环境。\n- **模块化流水线协同**：利用 Pylot 基于 ERDOS 构建的算子架构，感知、跟踪、预测及规划模块可无缝串联，轻松实现全链路闭环测试。\n- **安全高效的迭代循环**：先在 Pylot 支持的 CARLA 高保真场景中完成极端工况（如鬼探头、恶劣天气）验证，再部署实车，大幅降低试错成本与风险。\n- **实时可视化反馈**：借助 Pylot 的 X11 转发功能，开发人员能实时看到障碍物检测框与语义分割图，快速定位算法失效原因并优化参数。\n\nPylot 通过提供模块化、可可视化的端到端仿真平台，将自动驾驶算法的研发周期从数周缩短至数天，显著提升了迭代效率与安全性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ferdos-project_pylot_f4024c3e.png","erdos-project","ERDOS","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ferdos-project_82a04a76.png","Elastic Robot Dataflow Operating System",null,"erdos-developers@googlegroups.com","https:\u002F\u002Ferdos.readthedocs.io\u002Fen\u002Flatest\u002F","https:\u002F\u002Fgithub.com\u002Ferdos-project",[82,86,90],{"name":83,"color":84,"percentage":85},"Python","#3572A5",98.4,{"name":87,"color":88,"percentage":89},"Shell","#89e051",1.2,{"name":91,"color":92,"percentage":93},"Dockerfile","#384d54",0.3,535,138,"2026-04-17T11:10:14","Apache-2.0","Linux","必需 NVIDIA GPU (需安装 nvidia-docker)，具体型号和显存未说明","未说明",{"notes":102,"python":103,"dependencies":104},"该工具主要推荐使用 Docker (nvidia-docker) 部署，官方提供了包含 Pylot 和 CARLA 的镜像。若手动安装，需依赖特定版本的 CARLA 模拟器 (0.9.10.1)。支持可视化组件输出，但需配置 SSH X11 转发。包含多种感知、规划和控制算法模块，可单独运行或组合运行。","Python 3 (README 中使用 python3 命令)",[105,74,106,107],"CARLA 0.9.10.1","nvidia-docker","pip",[14,13],[110,111,112,113,114,115,116,117,118,119,120,121,122],"autonomous-vehicles","autonomous-driving","carla","perception","planning","prediction","control","machine-learning","traffic-light-detection","carla-simulator","obstacle-tracking","lane-detection","self-driving-car","2026-03-27T02:49:30.150509","2026-04-19T15:38:20.994482",[126,131,136,141,146,151],{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},42391,"运行 Docker 容器时遇到 GPU 显存不足或程序卡死怎么办？","如果遇到此类问题，可以尝试重启相关进程。使用以下命令强制杀死所有 Pylot 和 Carla 相关的进程：\n`ps -ef | grep 'pylot' | grep -v grep | awk '{print $2}' | xargs -r kill -9`\n此外，建议删除旧的 Docker 镜像并重新拉取最新版本，以确保环境配置正确。","https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fissues\u002F131",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},42392,"Pylot 是否支持 Carla 的大型地图（如 Town11）？如果不支持或车辆不动该如何解决？","Pylot 默认可能无法在大型地图（如 Town11, Town12）上正常工作，表现为车辆不移动。这是因为大型地图的地面 Z 轴坐标不为 0，而规划器默认生成的路径点 Z 轴为 0，导致距离计算失效。\n解决方法是修改代码逻辑以适应不同的 Z 轴高度，或者尝试使用 `--planning_type=waypoint` 参数运行（注意：此模式下可能不会自动避障）。","https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fissues\u002F291",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},42393,"在 Town03 环岛行驶时出现 'IndexError: tuple index out of range' 错误如何解决？","该错误通常与车道线检测模块有关。如果不需要使用该功能，可以通过在配置文件（如 `configs\u002Fe2e.conf`）中注释掉 `--lane_detection` 参数来禁用车道线检测，从而避免该错误。","https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fissues\u002F192",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},42394,"有没有办法加快 Pylot 的仿真运行速度？","Pylot 的大部分耗时集中在感知和规划模块。虽然没有直接的多线程规划标志，但可以通过以下方式优化：\n1. 编辑代码增加规划线程数：修改 `pylot\u002Fplanning\u002Ffrenet_optimal_trajectory\u002Ffot_planner.py` 第 23 行附近的线程设置。\n2. 使用 ML 编译器加速感知模型，例如 TensorFlow 的 XLA、TVM 或 PyTorch 的 `torch.compile`。\n3. 移除工作流中非必要的模块以减轻负载。","https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fissues\u002F292",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},42395,"安装时遇到 'ValueError: Unknown CUDA arch (8.6) or GPU not supported' 错误怎么办？","此错误通常是因为当前的 PyTorch 版本不支持您的 GPU 架构（如 RTX 30 系列的 CUDA 8.6）。建议检查并升级 PyTorch 到支持该架构的版本，或者在编译\u002F安装时指定正确的 CUDA 架构标志。如果是在基础系统中直接安装遇到困难，强烈建议使用官方提供的 Docker 镜像，其中已预配置好兼容的环境。","https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fissues\u002F250",{"id":152,"question_zh":153,"answer_zh":154,"source_url":130},42396,"Docker 教程中的 SSH 命令执行后命令行挂起，且缺少 PyGame 依赖如何处理？","1. 关于 SSH 挂起：可以直接运行 `ssh -p 20022 -X erdos@localhost` 进入服务器，然后在内部手动执行 `\u002Fbin\u002Fbash`，这不会影响功能。\n2. 关于 PyGame：如果 Docker 镜像中未默认安装，可以进入容器后手动运行 `pip3 install pygame` 进行安装。",[156,161,166,171,176,181],{"id":157,"version":158,"summary_zh":159,"released_at":160},334483,"v0.3.3-eurosys","此版本用于复现发表于 EuroSys 2022 的论文《D3：一种面向自动驾驶车辆构建的动态截止时间驱动方法》中的实验。","2022-03-10T22:53:36",{"id":162,"version":163,"summary_zh":164,"released_at":165},334484,"v0.3.3","Pylot v0.3.3\n\n* 更新 Pylot 以支持 Python 3.8 和 TensorFlow 2（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F220）。\n* 增加了对 QDTrack 障碍物跟踪器的支持（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F183）。\n* 改进了日志记录，并将日志文件整理到不同的文件夹中（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F191）。\n* 更新了所有必要的算子，使其使用 TensorFlow 2（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F214）。\n* 改进了标志参数的验证，并扩展了类型提示（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F178）。\n\n##  Bug 修复\n\n* 修复了车道线的可视化问题（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F199）。\n* 修复了设置 CARLA 交通管理器端口时的 bug（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F202）。","2021-09-29T18:59:32",{"id":167,"version":168,"summary_zh":169,"released_at":170},334485,"v0.3.2","* 添加了 CenterTrack 障碍物跟踪器（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F149）。\n* 向日志记录算子添加了指示流，以便用于同步。\n* 为挑战代理添加了启用评估算子的选项（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F175）。\n* 添加了新的跟踪器评估算子及基础评估类（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F160、https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F166、https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F168、https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F172）。\n\n## Bug 修复\n\n* 修复了解析 CARLA 版本字符串中的 bug。\n* 修复了 EfficientDet 检测算子，使其能够正确提取边界框。\n* 修复了 LaneNet 的导入问题（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F155）。\n* 将 pygame 锁定到一个可用版本（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F159）。\n* 添加了用于处理水印回调中顶部水印的代码（https:\u002F\u002Fgithub.com\u002Ferdos-project\u002Fpylot\u002Fpull\u002F169）。","2021-03-31T04:00:16",{"id":172,"version":173,"summary_zh":174,"released_at":175},334486,"v0.3.1","* 改进了完美车道检测器，以完整提取所有车道。 * 增加了对最新版CARLA激光雷达类型的支持（CARLA ≥ 0.9.9.4）。 * 更新了CARLA挑战赛智能体，使其支持完美感知。 * 添加了关闭Pygame窗口以及在接收到SIGINT信号时进行关机的逻辑。 * 更新了交通信号灯数据采集脚本，使其兼容最新版本的CARLA。 * 减少了代码库中对CARLA的依赖。","2020-11-12T04:36:08",{"id":177,"version":178,"summary_zh":179,"released_at":180},334487,"v0.3.0","# 新特性\n* EKF 位姿估计。\n* R2P2 障碍物预测。\n* Lanenet 车道检测。\n* EfficientDet 障碍物检测。\n* 用于在林肯 MKZ 车辆上运行的驱动脚本。\n* Grasshopper 相机和 Velodyne 激光雷达的驱动程序。\n* 伪异步执行模式，用于准确测量运行时对驾驶体验的影响。\n* 将可视化工具从 cv2 迁移到基于 Pygame 的界面，以可视化所有组件。\n* 为 CARLA 挑战赛添加了一个智能体。\n\n# 实现变更\n* 重构了规划器，使其能够使用统一的世界表示。","2020-07-22T04:49:04",{"id":182,"version":183,"summary_zh":184,"released_at":185},334488,"v0.2.0","首个基于 Rust 的 ERDOS 框架的 Pylot 版本。该版本还做了以下改进：\n1. 增加对 CARLA 0.9.7 的支持。\n2. 将工具模块重构为类。\n3. 确保所有从 CARLA 对象到 Pylot 对象的转换保持一致。","2020-01-20T02:16:40"]