[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-DriveVLA--OpenDriveVLA":3,"tool-DriveVLA--OpenDriveVLA":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,43,44,45,15,46,26,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,"2026-04-05T11:12:22",[26,15,13,45],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":92,"env_os":93,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":102,"github_topics":103,"view_count":10,"oss_zip_url":76,"oss_zip_packed_at":76,"status":16,"created_at":107,"updated_at":108,"faqs":109,"releases":145},740,"DriveVLA\u002FOpenDriveVLA","OpenDriveVLA","[AAAI 2026] OpenDriveVLA: Towards End-to-end Autonomous Driving with Large Vision Language Action Model","OpenDriveVLA 是一款面向端到端自动驾驶的大型视觉语言动作模型。它旨在打破传统自动驾驶系统中感知与决策模块相互割裂的局面，让车辆能够像人类驾驶员一样，通过视觉输入结合语言逻辑来理解复杂路况并直接输出驾驶动作。这一设计有效解决了现有系统在长尾场景下泛化能力不足以及黑盒决策缺乏可解释性的问题。\n\n作为 AAAI 2026 的录用论文项目，OpenDriveVLA 基于 Qwen2.5 等先进基座构建，融合了强大的视觉理解与推理能力。目前项目已在 Hugging Face 开源了 0.5B 参数版本，并提供了完整的环境配置与推理代码。它特别适合自动驾驶领域的研究人员、算法工程师以及关注多模态大模型落地的开发者使用。通过降低复现门槛，OpenDriveVLA 为探索更智能、更安全的无人驾驶技术提供了优质的开源基础，助力社区共同推动自动驾驶向通用人工智能迈进。","# OpenDriveVLA: Towards End-to-end Autonomous Driving with  Large Vision Language Action Model\n\n\u003Ch3 align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fdrivevla.github.io\u002F\">Project Page\u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.23463\">arXiv\u003C\u002Fa>\n\u003C\u002Fh3>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDriveVLA_OpenDriveVLA_readme_e0a1da6f1be6.jpg)\n\n## Overview ✨\n\n- [Todo List](#todo-list-)\n- [News](#news-)\n- [Getting Started](#getting-started-)\n- [Citation](#citation-)\n\n## TODO List 📅\n\nWe will release the model code and checkpoints soon. Stay tuned! 🔥\n\n- [x] Release environment setup\n- [x] Release inference code\n- [x] Release checkpoints\n- [ ] Release training scripts\n\n\n## News 📢\n\n- **`2025\u002F11\u002F14`** Released the OpenDriveVLA 0.5B checkpoint on [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FOpenDriveVLA\u002FOpenDriveVLA-0.5B). 🌟\n- **`2025\u002F11\u002F08`** OpenDriveVLA paper accepted by AAAI 2026. 🎉\n- **`2025\u002F08\u002F10`** OpenDriveVLA model & inference code released. 🔥\n- **`2025\u002F04\u002F01`** OpenDriveVLA [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.23463) is available on arXiv.\n- **`2025\u002F03\u002F28`** We release the environment setup of OpenDriveVLA.\n  - To make the dependencies of our OpenDriveVLA model [[mmcv](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv) & [mmdet3d](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d)] compatible with [PyTorch 2.1.2](https:\u002F\u002Fpytorch.org\u002F) and support [Transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers) and [Deepspeed](https:\u002F\u002Fgithub.com\u002Fdeepspeedai\u002FDeepSpeed), we selected specific versions and enhanced the source code accordingly. The resulting customized libraries are available in the `third_party` folder.\n\n## Getting Started 🌟\n\n1. [Environment Installation](docs\u002F1_INSTALL.md)\n2. [Data Preparation](docs\u002F2_DATA_PREP.md)\n3. [Inference & Evaluatation](docs\u002F3_EVAL.md)\n\n## Citation 📝\n\nIf you find our project useful for your research, please consider citing our paper and codebase with the following BibTeX:\n\n```bibtex\n@misc{zhou2025opendrivevlaendtoendautonomousdriving,\n      title={OpenDriveVLA: Towards End-to-end Autonomous Driving with Large Vision Language Action Model}, \n      author={Xingcheng Zhou and Xuyuan Han and Feng Yang and Yunpu Ma and Volker Tresp and Alois Knoll},\n      year={2025},\n      eprint={2503.23463},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.23463}, \n}\n```\n\n## Acknowledgement 🤝\n\n- [Transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)\n- [LLaVA-NeXT](https:\u002F\u002Fgithub.com\u002FLLaVA-VL\u002FLLaVA-NeXT)\n- [Qwen2.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5)\n- [UniAD](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FUniAD)\n- [mmcv](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv)\n- [mmdet3d](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d)\n- [GPT-Driver](https:\u002F\u002Fgithub.com\u002FPointsCoder\u002FGPT-Driver)\n- [Hint-AD](https:\u002F\u002Fgithub.com\u002FRobot-K\u002FHint-AD)\n- [TOD3Cap](https:\u002F\u002Fgithub.com\u002Fjxbbb\u002FTOD3Cap)\n","# OpenDriveVLA：迈向基于大型视觉语言动作模型（Large Vision Language Action Model）的端到端自动驾驶\n\n\u003Ch3 align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fdrivevla.github.io\u002F\">项目页面\u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.23463\">arXiv\u003C\u002Fa>\n\u003C\u002Fh3>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDriveVLA_OpenDriveVLA_readme_e0a1da6f1be6.jpg)\n\n## 概述 ✨\n\n- [待办事项列表](#todo-list- )\n- [新闻](#news- )\n- [开始使用](#getting-started- )\n- [引用](#citation- )\n\n## 待办事项列表 📅\n\n我们将很快发布模型代码和检查点（Checkpoints）。敬请期待！🔥\n\n- [x] 发布环境配置\n- [x] 发布推理代码\n- [x] 发布检查点\n- [ ] 发布训练脚本\n\n\n## 新闻 📢\n\n- **`2025\u002F11\u002F14`** 在 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FOpenDriveVLA\u002FOpenDriveVLA-0.5B) 上发布了 OpenDriveVLA 0.5B 检查点。🌟\n- **`2025\u002F11\u002F08`** OpenDriveVLA 论文被 AAAI 2026 接收。🎉\n- **`2025\u002F08\u002F10`** 发布 OpenDriveVLA 模型及推理代码。🔥\n- **`2025\u002F04\u002F01`** OpenDriveVLA [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.23463) 已在 arXiv 上线。\n- **`2025\u002F03\u002F28`** 我们发布了 OpenDriveVLA 的环境配置。\n  - 为了使我们的 OpenDriveVLA 模型依赖项 [[mmcv](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv) & [mmdet3d](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d)] 与 [PyTorch 2.1.2](https:\u002F\u002Fpytorch.org\u002F) 兼容，并支持 [Transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers) 和 [Deepspeed](https:\u002F\u002Fgithub.com\u002Fdeepspeedai\u002FDeepSpeed)，我们选择了特定版本并相应地增强了源代码。生成的定制库可在 `third_party` 文件夹中找到。\n\n## 开始使用 🌟\n\n1. [环境安装](docs\u002F1_INSTALL.md)\n2. [数据准备](docs\u002F2_DATA_PREP.md)\n3. [推理与评估](docs\u002F3_EVAL.md)\n\n## 引用 📝\n\n如果您发现我们的项目对您的研究有用，请考虑使用以下 BibTeX 引用我们的论文和代码库：\n\n```bibtex\n@misc{zhou2025opendrivevlaendtoendautonomousdriving,\n      title={OpenDriveVLA: Towards End-to-end Autonomous Driving with Large Vision Language Action Model}, \n      author={Xingcheng Zhou and Xuyuan Han and Feng Yang and Yunpu Ma and Volker Tresp and Alois Knoll},\n      year={2025},\n      eprint={2503.23463},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.23463}, \n}\n```\n\n## 致谢 🤝\n\n- [Transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)\n- [LLaVA-NeXT](https:\u002F\u002Fgithub.com\u002FLLaVA-VL\u002FLLaVA-NeXT)\n- [Qwen2.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5)\n- [UniAD](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FUniAD)\n- [mmcv](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv)\n- [mmdet3d](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d)\n- [GPT-Driver](https:\u002F\u002Fgithub.com\u002FPointsCoder\u002FGPT-Driver)\n- [Hint-AD](https:\u002F\u002Fgithub.com\u002FRobot-K\u002FHint-AD)\n- [TOD3Cap](https:\u002F\u002Fgithub.com\u002Fjxbbb\u002FTOD3Cap)","# OpenDriveVLA 快速上手指南\n\n**OpenDriveVLA** 是一个面向端到端自动驾驶的大视觉语言动作模型（Large Vision Language Action Model）。本项目已发布 0.5B 模型权重及推理代码，支持基于 PyTorch 2.1.2 的定制化深度学习环境。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n- **操作系统**: Linux (推荐 Ubuntu 20.04+)\n- **CUDA**: 兼容 PyTorch 2.1.2 的 GPU 驱动\n- **核心依赖版本**:\n  - `PyTorch`: 2.1.2\n  - `Transformers`: 最新稳定版\n  - `DeepSpeed`: 用于分布式训练\u002F推理\n  - `mmcv` & `mmdet3d`: 需使用项目定制版本以兼容上述 PyTorch 版本\n- **硬件建议**: 至少单张高性能 GPU (如 A100\u002FV100\u002FRTX 3090 及以上)\n\n> **💡 国内加速提示**: 由于模型托管于 Hugging Face，国内用户建议使用镜像源加速下载，例如 [HF-Mirror](https:\u002F\u002Fhf-mirror.com\u002F) 或 [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002F)。\n\n## 安装步骤\n\n### 1. 克隆仓库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenDriveVLA.git\ncd OpenDriveVLA\n```\n\n### 2. 配置依赖环境\n本项目针对特定版本的 `mmcv` 和 `mmdet3d` 进行了源码增强，自定义库位于 `third_party` 文件夹中。请按照官方文档进行环境初始化：\n\n```bash\n# 参考安装文档\ncat docs\u002F1_INSTALL.md\n```\n\n通常涉及以下步骤（具体请以 `docs\u002F1_INSTALL.md` 为准）：\n1. 创建 Conda 虚拟环境并激活。\n2. 安装 PyTorch 2.1.2 及相关基础库。\n3. 安装 `third_party` 中的定制化依赖。\n\n### 3. 下载模型权重\n从 Hugging Face 获取最新的 0.5B 检查点：\n```bash\n# 推荐使用 huggingface-cli 下载\nhuggingface-cli download OpenDriveVLA\u002FOpenDriveVLA-0.5B --local-dir .\u002Fcheckpoints\n```\n若网络受限，可尝试通过国内镜像站同步该模型路径。\n\n## 基本使用\n\n完成环境配置后，即可进行推理与评估。详细参数请参考 `docs\u002F3_EVAL.md`。\n\n### 运行推理脚本\n进入项目根目录，执行推理命令（示例结构）：\n```bash\npython scripts\u002Finference.py \\\n    --config configs\u002Fdefault.yaml \\\n    --checkpoint .\u002Fcheckpoints\u002FOpenDriveVLA-0.5B\n```\n\n### 数据准备\n如需自定义输入，请参照 `docs\u002F2_DATA_PREP.md` 准备符合 UniAD 或 OpenDrive 标准的数据格式。\n\n---\n*注：训练脚本尚未发布，当前仅支持推理与评估流程。更多细节请访问 [项目主页](https:\u002F\u002Fdrivevla.github.io\u002F) 或查阅 [arXiv 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.23463)。*","某自动驾驶算法团队正在研发城市复杂路况下的端到端驾驶系统，重点攻克突发交通状况下的智能决策难题。\n\n### 没有 OpenDriveVLA 时\n- 传统模块化方案需拼接感知、预测、规划多个独立模型，系统耦合度高且调试周期漫长。\n- 面对施工改道或交警手势等非结构化语义信息，纯视觉模型难以理解深层意图导致误判。\n- 长尾边缘场景数据标注成本极高，现有模型泛化能力不足，导致实车测试中频繁出现人工接管。\n- 多传感器融合配置极其复杂，各模块间的误差累积会严重影响最终决策的稳定性与安全性。\n\n### 使用 OpenDriveVLA 后\n- OpenDriveVLA 实现了从视觉输入到控制输出的端到端闭环，大幅缩短了算法开发与迭代周期。\n- 借助大语言模型的推理能力，它能准确解读路边施工牌含义或交警指挥手势，做出符合逻辑的避让。\n- 基于海量视频数据的预训练使其在未见过的复杂路口表现更稳健，有效降低了长尾场景的接管率。\n- 统一架构减少了模块间通信开销，提升了实时决策的流畅度，让车辆在动态环境中行驶更加安全自然。\n\nOpenDriveVLA 通过视觉语言动作模型将复杂驾驶任务简化为单一推理过程，显著提升了系统在真实路网的适应能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDriveVLA_OpenDriveVLA_bdc6171b.png","DriveVLA",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FDriveVLA_a0523e12.png","https:\u002F\u002Fgithub.com\u002FDriveVLA",[80,84],{"name":81,"color":82,"percentage":83},"Python","#3572A5",99.9,{"name":85,"color":86,"percentage":87},"Shell","#89e051",0.1,676,62,"2026-04-03T01:41:56","Apache-2.0",4,"未说明",{"notes":95,"python":93,"dependencies":96},"需使用 third_party 文件夹中的自定义版本 mmcv 和 mmdet3d 以兼容 PyTorch 2.1.2；训练脚本暂未发布，目前仅支持推理与评估；模型检查点已发布于 Hugging Face。",[97,98,99,100,101],"torch==2.1.2","transformers","deepspeed","mmcv","mmdet3d",[15],[104,105,106],"autonomous-driving","end-to-end-autonomous-driving","vision-language-action-model","2026-03-27T02:49:30.150509","2026-04-06T06:44:22.800968",[110,115,120,125,130,135,140],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},3137,"训练代码何时会开源？","论文目前处于审稿阶段（under review）。一旦论文被接收，我们将逐步整理并开源代码。","https:\u002F\u002Fgithub.com\u002FDriveVLA\u002FOpenDriveVLA\u002Fissues\u002F4",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},3138,"模型和推理代码是否已经发布？","是的，OpenDriveVLA 的模型权重和推理代码已经发布。","https:\u002F\u002Fgithub.com\u002FDriveVLA\u002FOpenDriveVLA\u002Fissues\u002F8",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},3139,"运行 eval_drivevla.sh 时报错 `ModuleNotFoundError: No module named 'llava.train'` 如何解决？","这通常与环境依赖安装有关。建议尝试使用以下命令安装 MM 相关依赖：`MMCV_WITH_OPS=1 MMCV_WITH_CUDA=1 pip install -v -e . --no-build-isolation`。同时确保使用兼容的 PyTorch 版本（如 2.1.2），并检查环境隔离问题。","https:\u002F\u002Fgithub.com\u002FDriveVLA\u002FOpenDriveVLA\u002Fissues\u002F21",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},3140,"安装 mmdet3d 时出现 `No module named 'torch'` 错误怎么办？","即使 conda 环境中已安装 torch，pip 的隔离构建环境可能无法找到它。解决方法是在 pip 安装命令中添加 `--no-build-isolation` 参数，例如：`pip install . --no-build-isolation`。","https:\u002F\u002Fgithub.com\u002FDriveVLA\u002FOpenDriveVLA\u002Fissues\u002F18",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},3141,"训练数据是公开的还是私有的？","训练数据由公开的开源数据集和从中派生的精心整理的结构化数据集组合而成。","https:\u002F\u002Fgithub.com\u002FDriveVLA\u002FOpenDriveVLA\u002Fissues\u002F6",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},3142,"端到端轨迹规划训练会破坏 LLM 的语言能力吗？","是的，维护者确认了这一点。进行类似的端到端规划训练确实会导致 LLM 语言能力的下降。","https:\u002F\u002Fgithub.com\u002FDriveVLA\u002FOpenDriveVLA\u002Fissues\u002F5",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},3143,"评估所需的 `eval_share` 目录及 Ground Truth 文件从哪里获取？","项目方使用了 [GPT-Driver](https:\u002F\u002Fgithub.com\u002FPointsCoder\u002FGPT-Driver) 仓库。评估部分说明指向了一个 Google Drive 链接（包含 gt_traj_mask.pkl 等文件），但具体数据生成方式尚不完全明确。","https:\u002F\u002Fgithub.com\u002FDriveVLA\u002FOpenDriveVLA\u002Fissues\u002F9",[]]