zed-sdk
zed-sdk 是由 Stereolabs 推出的跨平台空间感知框架,旨在帮助开发者充分利用 ZED 系列相机及 Ouster 激光雷达设备,快速构建智能机器人与空间感知应用。它解决了传统开发中需要分别处理视觉、定位与传感器融合数据的难题,通过统一的 API 接口将深度感知、物体检测、人体追踪、位置跟踪及全局定位等核心功能整合在一起,大幅降低了多传感器协同开发的复杂度。
这款工具特别适合机器人工程师、计算机视觉研究人员以及自动驾驶领域的开发者使用。无论是需要让机器人在复杂环境中自主导航,还是希望实现高精度的三维空间重建,zed-sdk 都能提供强大的底层支持。其最新 5.2 版本带来了显著的技术亮点:在 Jetson 平台上实现了高达 85% 的 CPU 负载降低,并引入了先进的零拷贝 NV12 接口以提升数据传输效率;同时,全新的测试版传感器 API 首次实现了对相机与激光雷达数据的统一流水线管理,无需再编写繁琐的自定义融合代码。此外,它还增强了对低光照环境的成像质量及位姿跟踪的鲁棒性,是打造下一代空间智能系统的理想选择。
使用场景
某物流仓储团队正在为自主移动机器人(AMR)开发一套能在动态人流环境中实现高精度导航与避障的系统。
没有 zed-sdk 时
- 感知开发周期漫长:工程师需手动编写复杂的立体匹配算法来计算深度图,耗时数月且难以在低纹理的仓库地面保持精度。
- 多传感器融合困难:想要结合激光雷达与视觉数据,必须自行开发底层驱动和对齐代码,导致系统架构臃肿且极易出现时间同步误差。
- 动态障碍物识别缺失:传统方案仅能检测静态障碍,无法区分静止货架与行走的工人,机器人常因误判而频繁急停或发生碰撞。
- 边缘端算力瓶颈:未优化的算法在 Jetson 等嵌入式设备上 CPU 占用率极高,导致机器人续航大幅缩短且帧率不稳定。
使用 zed-sdk 后
- 快速构建空间感知:直接调用 zed-sdk 内置的深度传感与空间映射 API,几天内即可生成厘米级精度的实时 3D 环境模型。
- 统一传感器管道:利用新版 Sensors API 将 ZED 相机与 Ouster 激光雷达纳入单一数据流,自动完成硬件级同步与融合,无需重复造轮子。
- 智能人体追踪避障:启用身体追踪功能,机器人能精准识别工人的骨骼关节与运动轨迹,实现平滑绕行而非机械式急停。
- 高性能边缘部署:借助针对 Jetson 优化的零拷贝接口与硬件编解码支持,CPU 负载降低 85%,显著提升了机器人的运行效率与续航。
zed-sdk 将原本需要数月攻坚的底层视觉难题转化为可调用的标准模块,让团队能专注于上层业务逻辑,加速了智能机器人的落地交付。
运行环境要求
- Linux (Ubuntu LTS)
- Windows
- Jetson (L4T)
- 必需 NVIDIA GPU,计算能力 (Compute Capability) > 5.0
- Jetson 平台需特定 JetPack 版本支持
未说明

快速开始
ZED SDK
ZED SDK 是一款跨平台的开发库,旨在充分发挥 ZED 相机的性能。本项目提供了教程和代码示例,帮助您快速上手使用 ZED SDK API。
:tada: ZED SDK 5.2 已发布!
ZED SDK 5.2 在 Jetson 平台上实现了显著的性能提升,CPU 负载降低多达 85%;在 200 Hz IMU 采样率下,GMSL 驱动程序的可靠性也得到了改进;同时,在低分辨率模式下图像更加清晰锐利。此外,该版本还新增了对 Jetson 上高级零拷贝 NV12 接口的支持。
本次发布还引入了全新的 Sensors API(sl::Sensors)测试版,这是一个统一的接口,用于在一个管道中同时管理 ZED 相机和 Ouster LiDAR 设备,从而取代了以往需要分别调用不同 API 和编写自定义融合代码的做法。
此外,此版本新增了对 JetPack 7.1 / L4T 38.4 的支持,解锁了 Jetson Thor 上的硬件视频编解码功能。除了这些平台更新外,5.2 版本还在定位跟踪的鲁棒性、Python API 以及 SDK 的其他多个方面进行了重要改进,并修复了大量 bug 和功能增强。
更多详细信息,请参阅最新版本的 发行说明。
概览
| 深度感知 | 对象检测 | 人体追踪 |
|---|---|---|
![]() |
![]() |
![]() |
| 位置跟踪 | 全局定位 | 空间映射 |
|---|---|---|
![]() |
![]() |
![]() |
| 相机控制 | 平面检测 | 多摄像头融合 |
|---|---|---|
![]() |
![]() |
![]() |
为什么选择 ZED?
- 🎯 提供端到端的空间感知平台,实现类人感知能力。
- ⚡ 实时性能:ZED SDK 中的所有算法均经过精心设计和优化,可在实时环境中运行。
- 📷 凭借我们为多种应用场景量身打造的全面且开箱即用的软硬件解决方案,缩短产品上市时间。
- 📖 用户友好且直观,提供易于使用的集成方式和文档完善的 API,助力开发流程高效顺畅。
- 🛠️ 支持广泛的平台,从桌面设备到嵌入式 PC 均可兼容。
开始使用
ZED SDK 包含驱动您的相机所需的所有库,同时还提供工具让您能够试验其各项功能和设置。
开始使用步骤:
- 从 Stereolabs 商店购买 ZED 相机
- 下载 ZED SDK
- 在 Windows、Linux 或 Jetson 上安装 ZED SDK
- 开始体验 ZED SDK 的教程
文档 和 API 参考文档 是深入了解 ZED SDK 及其众多模块的绝佳起点。
示例
此仓库包含开箱即用的示例代码,只需几行代码即可开始使用 ZED SDK。这些示例按 ZED SDK 模块组织:
教程 - 一系列基础教程,演示如何使用每个 API 模块。
相机控制 - 此示例展示了如何调整 ZED 相机参数。
相机流传输 - 此示例展示了如何在本地网络中 流式传输 并接收 ZED 的视频流。
深度感知 - 此示例展示了如何捕获 3D 点云 并使用 OpenGL 进行显示。它还演示了如何以不同格式保存深度数据。
位置跟踪 - 此示例展示了如何使用 位置跟踪 功能,并通过 OpenGL 显示结果。
全局定位 - 此示例展示了如何将 ZED SDK 的 位置跟踪与 GNSS 数据 融合,实现全球定位。
空间建图 - 此示例展示了如何使用 ZED 捕获 3D 网格,并使用 OpenGL 进行显示。支持经典网格与点云融合。
目标检测 - 此示例展示了如何使用 ZED 的 目标检测 API 模块。
人体追踪 - 此示例展示了如何使用 ZED 的 人体追踪 API。
录制 - 此示例展示了如何以 SVO 格式 录制 和 回放 视频文件。SVO 文件允许您在未连接 ZED 的情况下使用 ZED SDK 的所有功能。
支持的平台
以下是最新版本 ZED SDK 支持的所有操作系统的列表。请参阅推荐配置,以确保您的配置与 ZED SDK 兼容。
| Ubuntu LTS | Windows | Jetson |
|---|---|---|
ZED SDK 需要使用具有 计算能力 > 5 的 NVIDIA GPU。
如果您不熟悉 NVIDIA JetPack SDK 和 Jetson Linux 之间的对应版本关系,请查看我们的 博客文章。
集成
ZED SDK 可以轻松集成到使用以下编程语言的项目中:
| C++ | Python | C# | C |
|---|---|---|---|
凭借其全面的 API,ZED 相机可以与 多个第三方库 和环境进行对接。
| Unity | Unreal Engine 5 | OpenCV | ROS | ROS 2 |
|---|---|---|---|---|
| Pytorch | YOLO | Matlab | Isaac SIM | Touch Designer |
|---|---|---|---|---|
社区
加入讨论,与其他 ZED SDK 用户交流,分享创意、解决问题,共同让 ZED SDK 更加出色。我们的目标是让大家与我们沟通变得无比便捷。
Discourse 是我们的论坛,所有 ZED 用户都可以在这里交流互动。这里是探讨 ZED 相机、ZED SDK 软件以及其他 Stereolabs 产品的好去处。欢迎注册账号,提出你的问题,或者分享你精彩的项目!
Twitter 关注 Stereolabs @Stereolabs3D,获取官方新闻和发布公告。
GitHub 如果你发现了 bug,请在这个 GitHub 仓库 中提交 issue。
电子邮件 如果你想直接与 Stereolabs 沟通,最简单的方式就是发送邮件至 support@stereolabs.com。
版本历史
5.2.12026/03/035.2.02026/02/105.0.32025/07/225.0.22025/07/225.0.1_RC2025/05/164.2.12024/11/064.1.32024/07/164.1.22024/05/274.1.12024/05/074.1.02024/05/025.1.22025/12/175.1.12025/11/125.1.02025/10/245.0.72025/09/235.0.62025/09/095.0.52025/07/295.0.42025/07/224.0.82023/04/07v3.82023/04/07v2.X2020/01/24常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

























