[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-BichenWuUCB--SqueezeSeg":3,"tool-BichenWuUCB--SqueezeSeg":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":77,"owner_website":77,"owner_url":79,"languages":80,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":93,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":103,"github_topics":104,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":108,"updated_at":109,"faqs":110,"releases":151},9691,"BichenWuUCB\u002FSqueezeSeg","SqueezeSeg","Implementation of SqueezeSeg, convolutional neural networks for LiDAR point clout segmentation","SqueezeSeg 是一款专为自动驾驶场景设计的开源深度学习模型，旨在实现对 3D LiDAR（激光雷达）点云数据的实时道路目标分割。它主要解决了传统方法在处理海量、稀疏且无序的激光雷达点云时，难以兼顾高精度与实时性的难题，能够快速识别并区分车辆、骑行者等关键道路物体。\n\n这款工具特别适合从事自动驾驶感知算法研发的工程师、计算机视觉领域的研究人员以及高校学生使用。其核心技术亮点在于采用了轻量级的卷积神经网络架构，并创新性地结合了循环条件随机场（Recurrent CRF），不仅大幅降低了计算资源消耗，还有效提升了分割结果的连贯性与准确度。作为加州大学伯克利分校团队基于 TensorFlow 实现的经典成果，SqueezeSeg 为后续相关研究奠定了重要基础，帮助开发者在嵌入式设备或边缘计算平台上高效部署点云分割任务。","## _SqueezeSeg_: Convolutional Neural Nets with Recurrent CRF for Real-Time Road-Object Segmentation from 3D LiDAR Point Cloud\n\nBy Bichen Wu, Alvin Wan, Xiangyu Yue, Kurt Keutzer (UC Berkeley)\n\nThis repository contains a tensorflow implementation of SqueezeSeg, a convolutional neural network model for LiDAR segmentation. A demonstration of SqueezeSeg can be found below:\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBichenWuUCB_SqueezeSeg_readme_91ade8308707.gif\" width=\"600\" \u002F>\n\u003C\u002Fp>\n\n\nPlease refer to our video for a high level introduction of this work: https:\u002F\u002Fyoutu.be\u002FXyn5Zd3lm6s. For more details, please refer to our paper: https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.07368. If you find this work useful for your research, please consider citing:\n\n    @article{wu2017squeezeseg,\n        title={Squeezeseg: Convolutional neural nets with recurrent crf for real-time road-object segmentation from 3d lidar point cloud},\n        author={Wu, Bichen and Wan, Alvin and Yue, Xiangyu and Keutzer, Kurt},\n        journal={ICRA},\n        year={2018}\n    }\n    @inproceedings{wu2018squeezesegv2,\n        title={SqueezeSegV2: Improved Model Structure and Unsupervised Domain Adaptation for Road-Object Segmentation from a LiDAR Point Cloud},\n        author={Wu, Bichen and Zhou, Xuanyu and Zhao, Sicheng and Yue, Xiangyu and Keutzer, Kurt},\n        booktitle={ICRA},\n        year={2019},\n    }\n    @inproceedings{yue2018lidar,\n        title={A lidar point cloud generator: from a virtual world to autonomous driving},\n        author={Yue, Xiangyu and Wu, Bichen and Seshia, Sanjit A and Keutzer, Kurt and Sangiovanni-Vincentelli, Alberto L},\n        booktitle={ICMR},\n        pages={458--464},\n        year={2018},\n        organization={ACM}\n    }\n\nWe recently open-sourced the code for SqueezeSegV2, a follow-up work to SqueezeSeg with significantly improved performance. For details, please check out: https:\u002F\u002Fgithub.com\u002Fxuanyuzhou98\u002FSqueezeSegV2\n\n## License\n**SqueezeSeg** is released under the BSD license (See [LICENSE](https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg\u002Fblob\u002Fmaster\u002FLICENSE) for details). The **dataset** used for training, evaluation, and demostration of SqueezeSeg is modified from [KITTI](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F) raw dataset. For your convenience, we provide links to download the converted dataset, which is distrubited under the [Creative Commons Attribution-NonCommercial-ShareAlike 3.0 License](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F3.0\u002F).\n\n## Installation:\n\nThe instructions are tested on Ubuntu 16.04 with python 2.7 and tensorflow 1.0 with GPU support. \n- Clone the SqueezeSeg repository:\n    ```Shell\n    git clone https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg.git\n    ```\n    We name the root directory as `$SQSG_ROOT`.\n\n- Setup virtual environment:\n    1. By default we use Python2.7. Create the virtual environment\n        ```Shell\n        virtualenv env\n        ```\n\n    2. Activate the virtual environment\n        ```Shell\n        source env\u002Fbin\u002Factivate\n        ```\n\n- Use pip to install required Python packages:\n    ```Shell\n    pip install -r requirements.txt\n    ```\n\n## Demo:\n- To run the demo script:\n  ```Shell\n  cd $SQSG_ROOT\u002F\n  python .\u002Fsrc\u002Fdemo.py\n  ```\n  If the installation is correct, the detector should write the detection results as well as 2D label maps to `$SQSG_ROOT\u002Fdata\u002Fsamples_out`. Here are examples of the output label map overlaped with the projected LiDAR signal. Green masks indicate clusters corresponding to cars and blue masks indicate cyclists.\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBichenWuUCB_SqueezeSeg_readme_4075741db5b8.gif\" width=\"600\" \u002F>\n  \u003C\u002Fp>\n\n\n## Training\u002FValidation\n- First, download training and validation data (3.9 GB) from this [link](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fpnzgcitvppmwfuf\u002Flidar_2d.tgz?dl=0). This dataset contains LiDAR point-cloud projected to a 2D spherical surface. Refer to our paper for details of the data conversion procedure. This dataset is converted from [KITTI](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F) raw dataset and is distrubited under the [Creative Commons Attribution-NonCommercial-ShareAlike 3.0 License](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F3.0\u002F).\n    ```Shell\n    cd $SQSG_ROOT\u002Fdata\u002F\n    wget https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fpnzgcitvppmwfuf\u002Flidar_2d.tgz\n    tar -xzvf lidar_2d.tgz\n    rm lidar_2d.tgz\n    ```\n\n- Now we can start training by\n    ```Shell\n    cd $SQSG_ROOT\u002F\n    .\u002Fscripts\u002Ftrain.sh -gpu 0 -image_set train -log_dir .\u002Flog\u002F\n    ```\n   Training logs and model checkpoints will be saved in the log directory.\n   \n- We can launch evaluation script simutaneously with training\n    ```Shell\n    cd $SQSG_ROOT\u002F\n    .\u002Fscripts\u002Feval.sh -gpu 1 -image_set val -log_dir .\u002Flog\u002F\n    ```\n    \n- We can monitor the training process using tensorboard.\n    ```Shell\n    tensorboard --logdir=$SQSG_ROOT\u002Flog\u002F\n    ```\n    Tensorboard displays information such as training loss, evaluation accuracy, visualization of detection results in the training process, which are helpful for debugging and tunning models, as shown below:\n    ![alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBichenWuUCB_SqueezeSeg_readme_20b297699839.png)\n    ![alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBichenWuUCB_SqueezeSeg_readme_aa6f63334702.png)\n\n\n","## _SqueezeSeg_：基于循环条件随机场的卷积神经网络，用于从3D激光雷达点云中实时分割道路目标\n\n作者：Bichen Wu、Alvin Wan、Xiangyu Yue、Kurt Keutzer（加州大学伯克利分校）\n\n本仓库包含SqueezeSeg的TensorFlow实现，这是一种用于激光雷达分割的卷积神经网络模型。SqueezeSeg的演示效果如下：\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBichenWuUCB_SqueezeSeg_readme_91ade8308707.gif\" width=\"600\" \u002F>\n\u003C\u002Fp>\n\n\n有关这项工作的高层次介绍，请参阅我们的视频：https:\u002F\u002Fyoutu.be\u002FXyn5Zd3lm6s。更多详细信息请参考我们的论文：https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.07368。如果您认为这项工作对您的研究有帮助，请考虑引用以下文献：\n\n    @article{wu2017squeezeseg,\n        title={Squeezeseg: Convolutional neural nets with recurrent crf for real-time road-object segmentation from 3d lidar point cloud},\n        author={Wu, Bichen and Wan, Alvin and Yue, Xiangyu and Keutzer, Kurt},\n        journal={ICRA},\n        year={2018}\n    }\n    @inproceedings{wu2018squeezesegv2,\n        title={SqueezeSegV2: Improved Model Structure and Unsupervised Domain Adaptation for Road-Object Segmentation from a LiDAR Point Cloud},\n        author={Wu, Bichen and Zhou, Xuanyu and Zhao, Sicheng and Yue, Xiangyu and Keutzer, Kurt},\n        booktitle={ICRA},\n        year={2019},\n    }\n    @inproceedings{yue2018lidar,\n        title={A lidar point cloud generator: from a virtual world to autonomous driving},\n        author={Yue, Xiangyu and Wu, Bichen and Seshia, Sanjit A and Keutzer, Kurt and Sangiovanni-Vincentelli, Alberto L},\n        booktitle={ICMR},\n        pages={458--464},\n        year={2018},\n        organization={ACM}\n    }\n\n我们最近开源了SqueezeSegV2的代码，这是SqueezeSeg的后续工作，性能有了显著提升。详情请访问：https:\u002F\u002Fgithub.com\u002Fxuanyuzhou98\u002FSqueezeSegV2\n\n## 许可证\n**SqueezeSeg** 采用BSD许可证发布（详情请参阅 [LICENSE](https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg\u002Fblob\u002Fmaster\u002FLICENSE)）。用于训练、评估和演示SqueezeSeg的**数据集**是由[KITTI](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F)原始数据集修改而来。为方便起见，我们提供了转换后数据集的下载链接，该数据集以[知识共享署名-非商业性使用-相同方式共享3.0许可](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F3.0\u002F)进行分发。\n\n## 安装：\n\n以下说明已在Ubuntu 16.04系统上测试通过，使用的Python版本为2.7，TensorFlow版本为1.0，并支持GPU加速。\n- 克隆SqueezeSeg仓库：\n    ```Shell\n    git clone https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg.git\n    ```\n    我们将根目录命名为 `$SQSG_ROOT`。\n\n- 设置虚拟环境：\n    1. 默认使用Python 2.7。创建虚拟环境\n        ```Shell\n        virtualenv env\n        ```\n\n    2. 激活虚拟环境\n        ```Shell\n        source env\u002Fbin\u002Factivate\n        ```\n\n- 使用pip安装所需的Python包：\n    ```Shell\n    pip install -r requirements.txt\n    ```\n\n## 演示：\n- 运行演示脚本：\n  ```Shell\n  cd $SQSG_ROOT\u002F\n  python .\u002Fsrc\u002Fdemo.py\n  ```\n  如果安装正确，检测器会将检测结果以及2D标签图保存到 `$SQSG_ROOT\u002Fdata\u002Fsamples_out` 目录下。以下是输出标签图与投影后的激光雷达信号叠加的示例。绿色掩码表示对应于汽车的聚类，蓝色掩码表示骑自行车的人。\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBichenWuUCB_SqueezeSeg_readme_4075741db5b8.gif\" width=\"600\" \u002F>\n  \u003C\u002Fp>\n\n\n## 训练\u002F验证\n- 首先，从该[链接](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fpnzgcitvppmwfuf\u002Flidar_2d.tgz?dl=0)下载训练和验证数据（3.9 GB）。该数据集包含投影到2D球面的激光雷达点云。有关数据转换过程的详细信息，请参阅我们的论文。该数据集由[KITTI](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F)原始数据集转换而来，并以[知识共享署名-非商业性使用-相同方式共享3.0许可](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F3.0\u002F)进行分发。\n    ```Shell\n    cd $SQSG_ROOT\u002Fdata\u002F\n    wget https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fpnzgcitvppmwfuf\u002Flidar_2d.tgz\n    tar -xzvf lidar_2d.tgz\n    rm lidar_2d.tgz\n    ```\n\n- 现在我们可以开始训练：\n    ```Shell\n    cd $SQSG_ROOT\u002F\n    .\u002Fscripts\u002Ftrain.sh -gpu 0 -image_set train -log_dir .\u002Flog\u002F\n    ```\n   训练日志和模型检查点将保存在日志目录中。\n   \n- 我们可以同时启动评估脚本：\n    ```Shell\n    cd $SQSG_ROOT\u002F\n    .\u002Fscripts\u002Feval.sh -gpu 1 -image_set val -log_dir .\u002Flog\u002F\n    ```\n    \n- 我们可以使用TensorBoard监控训练过程。\n    ```Shell\n    tensorboard --logdir=$SQSG_ROOT\u002Flog\u002F\n    ```\n    TensorBoard会显示训练损失、评估准确率以及训练过程中检测结果的可视化等信息，这些信息对于调试和调优模型非常有帮助，如下所示：\n    ![alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBichenWuUCB_SqueezeSeg_readme_20b297699839.png)\n    ![alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBichenWuUCB_SqueezeSeg_readme_aa6f63334702.png)","# SqueezeSeg 快速上手指南\n\nSqueezeSeg 是一个基于卷积神经网络（CNN）和循环条件随机场（CRF）的模型，专为从 3D LiDAR 点云中进行实时道路物体分割而设计。本指南将帮助开发者快速在本地部署并运行该模型。\n\n## 环境准备\n\n本项目已在以下环境中测试通过，建议优先匹配该配置以确保兼容性：\n\n- **操作系统**: Ubuntu 16.04\n- **Python 版本**: 2.7\n- **深度学习框架**: TensorFlow 1.0 (需支持 GPU)\n- **硬件要求**: 支持 CUDA 的 NVIDIA GPU\n\n> **注意**：由于项目依赖较旧的 Python 2.7 和 TensorFlow 1.0，建议在虚拟环境中运行以避免污染系统环境。国内用户若遇到 `pip` 下载慢的问题，可临时切换至清华或阿里镜像源。\n\n## 安装步骤\n\n### 1. 克隆代码仓库\n首先将项目克隆到本地，并定义根目录环境变量（后续步骤需用到）。\n\n```Shell\ngit clone https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg.git\nexport SQSG_ROOT=$(pwd)\u002FSqueezeSeg\n```\n\n### 2. 创建并激活虚拟环境\n使用 `virtualenv` 创建独立的 Python 2.7 环境。\n\n```Shell\ncd $SQSG_ROOT\nvirtualenv env\nsource env\u002Fbin\u002Factivate\n```\n\n### 3. 安装依赖包\n安装项目所需的 Python 库。国内用户推荐使用国内镜像加速安装：\n\n```Shell\n# 默认安装\npip install -r requirements.txt\n\n# 或使用国内镜像加速（推荐）\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n### 运行演示脚本 (Demo)\n安装完成后，可直接运行演示脚本来测试模型效果。该脚本会读取示例数据，生成检测结果及 2D 标签图。\n\n```Shell\ncd $SQSG_ROOT\npython .\u002Fsrc\u002Fdemo.py\n```\n\n**输出说明**：\n- 结果将保存至 `$SQSG_ROOT\u002Fdata\u002Fsamples_out` 目录。\n- 输出的标签图中，**绿色掩膜**代表汽车（Cars），**蓝色掩膜**代表骑行者（Cyclists）。\n\n### （可选）下载数据集进行训练\n若需重新训练或验证模型，需先下载处理好的 KITTI 数据集（约 3.9 GB，已投影至 2D 球面）。\n\n```Shell\ncd $SQSG_ROOT\u002Fdata\u002F\nwget https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fpnzgcitvppmwfuf\u002Flidar_2d.tgz\ntar -xzvf lidar_2d.tgz\nrm lidar_2d.tgz\n```\n\n下载完成后，可使用以下命令启动训练（需指定 GPU 编号）：\n\n```Shell\ncd $SQSG_ROOT\n.\u002Fscripts\u002Ftrain.sh -gpu 0 -image_set train -log_dir .\u002Flog\u002F\n```\n\n训练过程中可使用 TensorBoard 监控损失和准确率：\n\n```Shell\ntensorboard --logdir=$SQSG_ROOT\u002Flog\u002F\n```","某自动驾驶初创团队正在开发城市道路感知系统，急需处理车载 LiDAR 产生的海量 3D 点云数据以识别车辆和行人。\n\n### 没有 SqueezeSeg 时\n- **实时性差**：传统点云分割算法计算量巨大，无法在车载嵌入式设备上满足毫秒级的实时推理需求，导致车辆反应延迟。\n- **精度不足**：面对稀疏且噪声大的 LiDAR 原始数据，常规方法难以准确区分近距离的行人、骑行者与背景杂物，漏检率高。\n- **部署困难**：现有模型参数量过大，占用大量显存和算力，难以在功耗受限的边缘计算平台上流畅运行。\n- **开发周期长**：团队需从头设计网络结构并手动调优后处理逻辑，耗费数周时间仍难以达到量产标准。\n\n### 使用 SqueezeSeg 后\n- **极速推理**：SqueezeSeg 利用轻量级卷积神经网络结合循环 CRF，将单帧处理时间压缩至毫秒级，完美适配实时驾驶决策。\n- **精准分割**：针对道路场景优化的模型能清晰分离汽车（绿色掩码）与骑行者（蓝色掩码），显著降低复杂路况下的误检率。\n- **高效部署**：极小的模型体积使其能轻松运行在 GPU 资源有限的车载终端上，大幅降低了硬件成本与能耗。\n- **开箱即用**：基于 TensorFlow 的开源实现提供了预训练模型和完整演示脚本，团队仅需一天即可完成集成与验证。\n\nSqueezeSeg 通过轻量化架构与高精度算法的结合，成功解决了 3D LiDAR 数据在边缘端实时处理的难题，为自动驾驶感知系统奠定了坚实基础。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBichenWuUCB_SqueezeSeg_20b29769.png","BichenWuUCB","Bichen Wu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FBichenWuUCB_8e734e47.jpg","Research scientist in AI. ",null,"bichen@berkeley.edu","https:\u002F\u002Fgithub.com\u002FBichenWuUCB",[81,85],{"name":82,"color":83,"percentage":84},"Python","#3572A5",96.3,{"name":86,"color":87,"percentage":88},"Shell","#89e051",3.7,578,240,"2026-03-23T18:12:57","BSD-2-Clause",4,"Linux (Ubuntu 16.04)","需要支持 GPU 的 NVIDIA 显卡（具体型号和显存未说明，需配合 TensorFlow 1.0 GPU 版本使用）","未说明",{"notes":98,"python":99,"dependencies":100},"该工具基于较旧的 TensorFlow 1.0 和 Python 2.7 开发，现代环境可能需要额外配置兼容层。训练和验证数据集约为 3.9GB，需单独下载。建议使用虚拟环境管理依赖。","2.7",[101,102],"tensorflow>=1.0 (GPU support)","virtualenv",[13],[105,106,107],"lidar-point-cloud","autonomous-vehicles","deep-neural-networks","2026-03-27T02:49:30.150509","2026-04-20T04:04:32.124764",[111,116,121,126,131,136,141,146],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},43524,"训练时出现显存不足（Out of Memory）错误怎么办？","需要修改配置文件中的 batch_size（批次大小）。将其调整为较小的值（例如改为 16）通常可以解决该问题。","https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg\u002Fissues\u002F21",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},43525,"如何准备 lidar_mask 和 lidar_input 数据以用于实时测试？","lidar_mask 是一个二进制掩码，表示给定位置是否缺失数据，可直接从数据中推断（参考代码 src\u002Fimdb\u002Fimdb.py 第 95 行）。lidar_input 则需要对 LiDAR 扫描数据进行球面投影（spherical projection），将其转换为 2D 格式后再输入网络，具体方法可参考论文 https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.07368.pdf。","https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg\u002Fissues\u002F2",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},43526,"在 2D 投影中，如果多个点落入同一个像素会如何处理？","项目中采用的策略是保留最近的点（nearest point）。不过作者指出，这种情况发生的概率非常低。","https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg\u002Fissues\u002F9",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},43527,"Ground Truth（真实标签）是如何从原始数据生成的？","生成 Ground Truth 的相关代码尚未开源。用户可以参考论文 https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.07368 中关于数据变换的描述来了解具体过程。","https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg\u002Fissues\u002F3",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},43528,"在哪里可以找到原始的 3D LiDAR 数据？","项目使用的数据来自 KITTI 数据集（http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002Fraw_data.php）。在该链接中可以找到包含 3D 边界框标签（.xml 文件）的 tracklets 数据。","https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg\u002Fissues\u002F35",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},43529,"如何可视化生成的 .npy 预测文件？","官方未直接提供可视化工具，但社区用户推荐参考这个 Fork 版本获取可视化方案：https:\u002F\u002Fgithub.com\u002FDurant35\u002FSqueezeSeg。","https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg\u002Fissues\u002F6",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},43530,"导入预训练模型时遇到 joblib 版本兼容性问题（Pickle backward compatibility）如何解决？","这是由于预训练模型是用旧版本 joblib（如 0.10）导出，而当前环境使用新版本（如 0.16）导致的。解决方案是使用虚拟环境（virtualenvs）隔离环境，安装与模型匹配的旧版本依赖库。","https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg\u002Fissues\u002F11",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},43531,"训练过程中出现 'Skipping cancelled dequeue attempt' 和数组形状重塑错误怎么办？","该错误通常是由于中断了训练数据的提取过程导致数据文件损坏或不完整。建议重新运行数据提取步骤以确保数据完整性。","https:\u002F\u002Fgithub.com\u002FBichenWuUCB\u002FSqueezeSeg\u002Fissues\u002F1",[]]