[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Unity-Technologies--com.unity.perception":3,"tool-Unity-Technologies--com.unity.perception":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":93,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":106,"github_topics":107,"view_count":10,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":118,"updated_at":119,"faqs":120,"releases":151},3588,"Unity-Technologies\u002Fcom.unity.perception","com.unity.perception","Perception toolkit for sim2real training and validation in Unity","com.unity.perception 是 Unity 官方推出的一套感知工具包，专为计算机视觉领域设计，旨在通过虚拟仿真环境高效生成大规模合成数据集。它主要解决了真实世界数据标注成本高昂、场景覆盖不全以及隐私敏感等痛点，让开发者能够在 Unity 中快速构建包含精确标注信息的训练与验证数据，从而加速“从仿真到现实”（Sim2Real）的模型落地过程。\n\n这款工具特别适合 AI 研究人员、计算机视觉工程师以及需要定制数据的开发者使用。即使没有深厚的图形学背景，用户也能借助其详细的教程轻松上手，完成从项目搭建到数据生成的全流程。com.unity.perception 的核心亮点在于强大的域随机化（Domain Randomization）功能，可自动变化光照、纹理和物体位置，提升模型的泛化能力；同时支持人体姿态关键点标注及动画随机化。此外，它还提供了完善的生态配套，包括用于数据分析的 pysolotools Python 库，以及一键转换为 COCO 等主流格式的功能，方便直接对接各类深度学习框架。需要注意的是，该项目目前已停止官方维护，转为社区支持模式，但其成熟的功能体系依然是合成","com.unity.perception 是 Unity 官方推出的一套感知工具包，专为计算机视觉领域设计，旨在通过虚拟仿真环境高效生成大规模合成数据集。它主要解决了真实世界数据标注成本高昂、场景覆盖不全以及隐私敏感等痛点，让开发者能够在 Unity 中快速构建包含精确标注信息的训练与验证数据，从而加速“从仿真到现实”（Sim2Real）的模型落地过程。\n\n这款工具特别适合 AI 研究人员、计算机视觉工程师以及需要定制数据的开发者使用。即使没有深厚的图形学背景，用户也能借助其详细的教程轻松上手，完成从项目搭建到数据生成的全流程。com.unity.perception 的核心亮点在于强大的域随机化（Domain Randomization）功能，可自动变化光照、纹理和物体位置，提升模型的泛化能力；同时支持人体姿态关键点标注及动画随机化。此外，它还提供了完善的生态配套，包括用于数据分析的 pysolotools Python 库，以及一键转换为 COCO 等主流格式的功能，方便直接对接各类深度学习框架。需要注意的是，该项目目前已停止官方维护，转为社区支持模式，但其成熟的功能体系依然是合成数据生成领域的重要参考方案。","**IMPORTANT: This project has been discontinued and is no longer supported by Unity. Please use the Github issues page to seek community support.**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_8bebbab90f79.png\" align=\"middle\" width=\"600\"\u002F>\n\u003C\u002Fp>\n\u003Cdiv align=\"center\">\n  \u003Ch1>Perception Package\u003C\u002Fh1>\n  \u003Cspan>by \u003C\u002Fspan>\u003Ca href=\"https:\u002F\u002Funity.com\u002Fcomputer-vision\" target=\"_blank\">Unity Computer Vision\u003C\u002Fa>\n\u003C\u002Fdiv>\n\u003Cbr \u002F>\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Fbadge-proxy.cds.internal.unity3d.com\u002F5ab9a162-9dd0-4ba1-ba41-cf25378a927a\" alt=\"Perception production version\" \u002F>\n  \u003Ca href=\".\u002FLICENSE.md\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache--2.0-green.svg\" alt=\"License Badge\" \u002F>\n  \u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Funity-2021.3-green.svg?style=flat-square\" alt=\"unity 2021.3\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Funity-2022.1-green.svg?style=flat-square\" alt=\"unity 2022.1\">\n\u003C\u002Fp>\n\n\u003Cblockquote>\n  \u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fcreate.unity.com\u002Fcomputer-vision-newsletter-sign-up?_gl=1*m30uzd*_gcl_aw*R0NMLjE2NDE4MzcyMjAuQ2p3S0NBaUF6LS1PQmhCSUVpd0FHMXJJT2tyQnYwaFFpQUtBQ1pwdXlzeklPbkdtRHp4dnVVOXNSem1EY0dwaTdLOFRra3FQc2gwLTFSb0NHQlFRQXZEX0J3RQ..*_gcl_dc*R0NMLjE2NDE4MzcyMjAuQ2p3S0NBaUF6LS1PQmhCSUVpd0FHMXJJT2tyQnYwaFFpQUtBQ1pwdXlzeklPbkdtRHp4dnVVOXNSem1EY0dwaTdLOFRra3FQc2gwLTFSb0NHQlFRQXZEX0J3RQ\">Join our Mailing List!\u003C\u002Fa> Sign up to stay up-to-date on our latest feature release, community events, blog posts, and more!\n  \u003C\u002Fp>\n\u003C\u002Fblockquote>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_05d492c855c4.jpg\" align=\"center\" \u002F>\n\u003C\u002Fp>\n\nThe Perception package provides a toolkit for generating large-scale synthetic datasets for computer vision training and validation. \n## Getting Started with the Perception Package\n**[🌟 Perception Synthetic Data Tutorial 🌟](com.unity.perception\u002FDocumentation~\u002FTutorial\u002FTUTORIAL.md)**  \nIdeal for those new to either Unity, the Perception package, or synthetic data in general. Detailed instructions covering all the important steps: installing the Unity Editor, creating your first synthetic data generation project, adding domain randomization, visualizing, and analyzing your generated datasets. **No prior experience required.**\n\n**[Quick Start Guide](com.unity.perception\u002FDocumentation~\u002FSetupSteps.md)**  \nInstructions for adding the Perception package to your existing project. Recommended for users already familiar with Unity and the Perception package. If this is the first time exploring our toolset, we highly recommend briefly going through the **[Perception Synthetic Data Tutorial](com.unity.perception\u002FDocumentation~\u002FTutorial\u002FTUTORIAL.md)**  below!\n\n\n**[Human Pose Labeling and Randomization Tutorial](com.unity.perception\u002FDocumentation~\u002FHumanPose\u002FTUTORIAL.md)**  \nStep by step instructions for using the keypoint, pose, and animation randomization tools included in the Perception package. We recommend that you complete the Perception Tutorial above before diving into this guide!\n\n**[Analyzing Datasets with Pysolotools](com.unity.perception\u002FDocumentation~\u002FTutorial\u002Fpysolotools.md)**  \nIntroduction to Unity's [pysolotools](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fpysolotools) - a python package for parsing, converting, and analyzing a SOLO dataset. Step by step instructions on how to parse a SOLO dataset and look at the dataset statistics in a [jupyter notebook](https:\u002F\u002Fjupyter.org\u002F).\n\n**[Visualizing a Dataset with Voxel51 Viewer](com.unity.perception\u002FDocumentation~\u002FTutorial\u002Fpysolotools-fiftyone.md)**  \nWe will walk through using [Voxel51](https:\u002F\u002Fvoxel51.com\u002F) with our [custom SOLO importer](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fpysolotools-fiftyone) to visualize a dataset.\n\n**[Converting to COCO](com.unity.perception\u002FDocumentation~\u002FTutorial\u002Fconvert_to_coco.md)**  \nWe will use [pysolotools](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fpysolotools) to convert a SOLO dataset into the [COCO](https:\u002F\u002Fcocodataset.org\u002F#home) format.\n\n## Frequently Asked Questions\n \n[Check out our FAQ](com.unity.perception\u002FDocumentation~\u002FFAQ\u002FFAQ.md) for a list of common questions, tips, tricks, and sample code for common code patterns.\n\n## Reference Documentation\n\nIn-depth documentation on specific components of the package. For the full set of feature-based documentation, take a look at the [Features](com.unity.perception\u002FDocumentation~\u002FFeatures\u002Findex.md) page.\n\n| Feature                                                                                 | Description                                                                                                                                                                     |\n|-----------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| [Labeling](com.unity.perception\u002FDocumentation~\u002FGroundTruthLabeling.md)                  | A component that marks a GameObject and its descendants with a set of labels                                                                                                    |\n| [Label Config](com.unity.perception\u002FDocumentation~\u002FGroundTruthLabeling.md#label-config) | An asset that defines a taxonomy of labels for ground truth generation                                                                                                          |\n| [Perception Camera](com.unity.perception\u002FDocumentation~\u002FPerceptionCamera.md)            | Captures RGB images and ground truth from a [Camera](https:\u002F\u002Fdocs.unity3d.com\u002FManual\u002Fclass-Camera.html).                                                                        |\n| [Dataset Capture](com.unity.perception\u002FDocumentation~\u002FDatasetCapture.md)                | Ensures sensors are triggered at proper rates and accepts data for the JSON dataset.                                                                                            |\n| [Accumulation \u002F Path Tracing](com.unity.perception\u002FDocumentation~\u002FAccumulation.md)      | Accumulation is a feature that can be used for rendering techniques that require frames to be accumulated, such as path tracing.                                                                                          |\n| [Randomization](com.unity.perception\u002FDocumentation~\u002FRandomization\u002Findex.md)             | The Randomization tool set lets you integrate domain randomization principles into your simulation.                                                                             |\n| [Output Endpoint and Dataset Schema](com.unity.perception\u002FDocumentation~\u002FOutputs.md)    | An endpoint is responsible for delivering the generated data to the user. Currently supported output endpoints are: Solo endpoint (default), Perception endpoint, and No Output.|\n\n## Datasets and Sample Projects\n\n### Synthetic Homes\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_84c7d40c32b6.jpg\" width=\"800\"\u002F>\n\u003C\u002Fp>\n\nHead over to the [Synthetic Homes repository](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002FSyntheticHomes) for a 100K image dataset of annotated synthetic home interiors for the purpose of training computer vision models, as well as a configurable Unity based stand alone application for generating such datasets. \n\n### Synthetic Humans\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.cv.synthetichumans\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_80b8d0a2b60c.png\" align=\"center\" width=\"800\" >\u003C\u002Fa>\n\u003C\u002Fp>\n\nThe [Synthetic Humans](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.cv.synthetichumans) package gives you the ability to procedurally generate and realistically place diverse groups of synthetic humans in your Unity Computer Vision projects.\n\n### People Sans People\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Funity-technologies.github.io\u002FPeopleSansPeople\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_6171635a0ffd.gif\" align=\"center\" width=\"800\" >\u003C\u002Fa>\n\u003C\u002Fp>\n\n[PeopleSansPeople](https:\u002F\u002Funity-technologies.github.io\u002FPeopleSansPeople\u002F) is a human-centric privacy-preserving synthetic data generator with highly parametrized domain randomization. This dataset generator contains simulation-ready 3D human assets, a parameterized lighting and camera system, and generates 2D and 3D bounding box, instance and semantic segmentation, and COCO pose labels.\n\n### SynthDet\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_d30439bf0b67.png\" width=\"800\"\u002F>\n\u003C\u002Fp>\n\n[**SynthDet**](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002FSynthDet) is an end-to-end solution for training a 2D object detection model using synthetic data.\n\n### Robotics Object Pose Estimation Demo\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_794f2d8fecd6.png\" width=\"800\"\u002F>\n\u003C\u002Fp>\n\nThe [**Robotics Object Pose Estimation**](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002FRobotics-Object-Pose-Estimation) project demonstrates pick-and-place with a robot arm in Unity. It includes using ROS with Unity, importing URDF models, collecting labeled training data using the Perception package, and training and deploying a deep learning model.\n\n## Community and Support\n\nThis project has been discontinued and is no longer supported by Unity. Please use the Github issues page to seek community support.\n\n## License & Citation\nThe Perception package is licensed under [Apache License Version 2.0](LICENSE.md).  If you find this package useful, consider citing it using:\n```\n@misc{unity-perception2022,\n    title={Unity {P}erception Package},\n    author={{Unity Technologies}},\n    howpublished={\\url{https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception}},\n    year={2020}\n}\n```\n","**重要提示：该项目已停止维护，Unity 不再提供支持。请使用 GitHub 问题页面寻求社区帮助。**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_8bebbab90f79.png\" align=\"middle\" width=\"600\"\u002F>\n\u003C\u002Fp>\n\u003Cdiv align=\"center\">\n  \u003Ch1>Perception 包\u003C\u002Fh1>\n  \u003Cspan>由 \u003C\u002Fspan>\u003Ca href=\"https:\u002F\u002Funity.com\u002Fcomputer-vision\" target=\"_blank\">Unity 计算机视觉团队\u003C\u002Fa> 提供\n\u003C\u002Fdiv>\n\u003Cbr \u002F>\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Fbadge-proxy.cds.internal.unity3d.com\u002F5ab9a162-9dd0-4ba1-ba41-cf25378a927a\" alt=\"Perception 生产版本\" \u002F>\n  \u003Ca href=\".\u002FLICENSE.md\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache--2.0-green.svg\" alt=\"许可证徽章\" \u002F>\n  \u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Funity-2021.3-green.svg?style=flat-square\" alt=\"Unity 2021.3\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Funity-2022.1-green.svg?style=flat-square\" alt=\"Unity 2022.1\">\n\u003C\u002Fp>\n\n\u003Cblockquote>\n  \u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fcreate.unity.com\u002Fcomputer-vision-newsletter-sign-up?_gl=1*m30uzd*_gcl_aw*R0NMLjE2NDE4MzcyMjAuQ2p3S0NBaUF6LS1PQmhCSUVpd0FHMXJJT2tyQnYwaFFpQUtBQ1pwdXlzeklPbkdtRHp4dnVVOXNSem1EY0dwaTdLOFRra3FQc2gwLTFSb0NHQlFRQXZEX0J3RQ..*_gcl_dc*R0NMLjE2NDE4MzcyMjAuQ2p3S0NBaUF6LS1PQmhCSUVpd0FHMXJJT2tyQnYwaFFpQUtBQ1pwdXlzeklPbkdtRHp4dnVVOXNSem1EY0dwaTdLOFRra3FQc2gwLTFSb0NHQlFRQXZEX0J3RQ\">加入我们的邮件列表！\u003C\u002Fa> 注册以获取我们最新功能发布、社区活动、博客文章等信息！\n  \u003C\u002Fp>\n\u003C\u002Fblockquote>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_05d492c855c4.jpg\" align=\"center\" \u002F>\n\u003C\u002Fp>\n\nPerception 包提供了一套工具集，用于生成大规模的合成数据集，以供计算机视觉模型的训练和验证使用。 \n## 开始使用 Perception 包\n**[🌟 Perception 合成数据教程 🌟](com.unity.perception\u002FDocumentation~\u002FTutorial\u002FTUTORIAL.md)**  \n非常适合初次接触 Unity、Perception 包或合成数据的用户。本教程详细介绍了所有关键步骤：安装 Unity 编辑器、创建第一个合成数据生成项目、添加领域随机化、可视化以及分析生成的数据集。**无需任何先验经验。**\n\n**[快速入门指南](com.unity.perception\u002FDocumentation~\u002FSetupSteps.md)**  \n介绍如何将 Perception 包添加到现有项目中。建议已经熟悉 Unity 和 Perception 包的用户使用。如果您是第一次探索我们的工具集，强烈建议您先简要阅读下方的 **[Perception 合成数据教程](com.unity.perception\u002FDocumentation~\u002FTutorial\u002FTUTORIAL.md)**！\n\n**[人体姿态标注与随机化教程](com.unity.perception\u002FDocumentation~\u002FHumanPose\u002FTUTORIAL.md)**  \n逐步指导如何使用 Perception 包中包含的关键点、姿态和动画随机化工具。我们建议您在开始本指南之前，先完成上述 Perception 教程！\n\n**[使用 Pysolotools 分析数据集](com.unity.perception\u002FDocumentation~\u002FTutorial\u002Fpysolotools.md)**  \n介绍 Unity 的 [pysolotools](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fpysolotools)——一个用于解析、转换和分析 SOLO 数据集的 Python 库。本教程将逐步说明如何解析 SOLO 数据集，并在 [Jupyter Notebook](https:\u002F\u002Fjupyter.org\u002F) 中查看数据集统计信息。\n\n**[使用 Voxel51 查看器可视化数据集](com.unity.perception\u002FDocumentation~\u002FTutorial\u002Fpysolotools-fiftyone.md)**  \n我们将演示如何结合 [Voxel51](https:\u002F\u002Fvoxel51.com\u002F) 和我们的 [自定义 SOLO 导入器](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fpysolotools-fiftyone)，来可视化数据集。\n\n**[转换为 COCO 格式](com.unity.perception\u002FDocumentation~\u002FTutorial\u002Fconvert_to_coco.md)**  \n我们将使用 [pysolotools](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fpysolotools) 将 SOLO 数据集转换为 [COCO](https:\u002F\u002Fcocodataset.org\u002F#home) 格式。\n\n## 常见问题解答\n \n请查看我们的 [常见问题解答](com.unity.perception\u002FDocumentation~\u002FFAQ\u002FFAQ.md)，其中包含了常见问题、技巧、窍门以及常见代码模式的示例代码。\n\n## 参考文档\n\n关于包中特定组件的深入文档。如需完整的功能文档，请参阅 [功能](com.unity.perception\u002FDocumentation~\u002FFeatures\u002Findex.md) 页面。\n\n| 功能                                                                                 | 描述                                                                                                                                                                     |\n|-----------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| [标注](com.unity.perception\u002FDocumentation~\u002FGroundTruthLabeling.md)                  | 一个可以为 GameObject 及其子对象打上标签的组件                                                                                                    |\n| [标签配置](com.unity.perception\u002FDocumentation~\u002FGroundTruthLabeling.md#label-config) | 定义用于生成真实标签的标签分类体系的资源                                                                                                          |\n| [Perception 摄像头](com.unity.perception\u002FDocumentation~\u002FPerceptionCamera.md)            | 从 [摄像机](https:\u002F\u002Fdocs.unity3d.com\u002FManual\u002Fclass-Camera.html)捕获 RGB 图像和真实标签。                                                                        |\n| [数据集采集](com.unity.perception\u002FDocumentation~\u002FDatasetCapture.md)                | 确保传感器以适当的速度触发，并接收 JSON 数据集的数据。                                                                                            |\n| [累积 \u002F 光线追踪](com.unity.perception\u002FDocumentation~\u002FAccumulation.md)      | 累积功能可用于需要帧累积的渲染技术，例如光线追踪。                                                                                          |\n| [随机化](com.unity.perception\u002FDocumentation~\u002FRandomization\u002Findex.md)             | 随机化工具集允许您将领域随机化的原则集成到您的模拟场景中。                                                                             |\n| [输出端点和数据集架构](com.unity.perception\u002FDocumentation~\u002FOutputs.md)    | 输出端点负责将生成的数据传递给用户。目前支持的输出端点包括：Solo 端点（默认）、Perception 端点和无输出。|\n\n## 数据集和示例项目\n\n### 合成家居\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_84c7d40c32b6.jpg\" width=\"800\"\u002F>\n\u003C\u002Fp>\n\n请前往 [Synthetic Homes 仓库](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002FSyntheticHomes)，获取包含标注的合成家居室内场景的 10 万张图像数据集，用于训练计算机视觉模型；同时，该仓库还提供一个可配置的基于 Unity 的独立应用程序，用于生成此类数据集。\n\n### 合成人类\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.cv.synthetichumans\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_80b8d0a2b60c.png\" align=\"center\" width=\"800\" >\u003C\u002Fa>\n\u003C\u002Fp>\n\n[Synthetic Humans](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.cv.synthetichumans) 包使您能够在 Unity 计算机视觉项目中以程序化方式生成并逼真地放置多样化的合成人类群体。\n\n### 无他人人群\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Funity-technologies.github.io\u002FPeopleSansPeople\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_6171635a0ffd.gif\" align=\"center\" width=\"800\" >\u003C\u002Fa>\n\u003C\u002Fp>\n\n[PeopleSansPeople](https:\u002F\u002Funity-technologies.github.io\u002FPeopleSansPeople\u002F) 是一款以人为本、注重隐私保护的合成数据生成器，具备高度参数化的领域随机化功能。该数据集生成器包含可用于仿真的 3D 人体资产、参数化光照与相机系统，并能生成 2D 和 3D 边界框、实例分割、语义分割以及 COCO 姿态标签。\n\n### SynthDet\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_d30439bf0b67.png\" width=\"800\"\u002F>\n\u003C\u002Fp>\n\n[**SynthDet**](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002FSynthDet) 是一种使用合成数据训练 2D 物体检测模型的端到端解决方案。\n\n### 机器人物体位姿估计演示\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_readme_794f2d8fecd6.png\" width=\"800\"\u002F>\n\u003C\u002Fp>\n\n[**机器人物体位姿估计**](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002FRobotics-Object-Pose-Estimation) 项目展示了在 Unity 中利用机械臂进行抓取与放置的操作。该项目包括将 ROS 与 Unity 集成、导入 URDF 模型、使用 Perception 包收集带标注的训练数据，以及训练和部署深度学习模型。\n\n## 社区与支持\n\n本项目已停止维护，不再由 Unity 提供支持。如需社区支持，请访问 GitHub 问题页面。\n\n## 许可与引用\nPerception 包采用 [Apache License Version 2.0](LICENSE.md) 许可协议。如果您认为本包有用，请考虑使用以下格式引用：\n```\n@misc{unity-perception2022,\n    title={Unity {P}erception Package},\n    author={{Unity Technologies}},\n    howpublished={\\url{https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception}},\n    year={2020}\n}\n```","# Unity Perception 快速上手指南\n\n> **⚠️ 重要提示**：该项目已由 Unity 官方停止维护，不再提供官方支持。如需帮助，请通过 GitHub Issues 页面寻求社区支持。本文档仅作为历史版本参考。\n\nUnity Perception 是一个用于生成大规模合成数据集的工具包，专为计算机视觉模型的训练和验证设计。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **Unity 编辑器版本**：\n    *   Unity 2021.3 (LTS)\n    *   Unity 2022.1 或更高版本\n*   **操作系统**：Windows, macOS 或 Linux\n*   **前置依赖**：\n    *   熟悉 Unity 编辑器基本操作\n    *   （可选）Python 环境：用于后续使用 `pysolotools` 分析生成的数据集\n    *   （可选）Jupyter Notebook：用于数据可视化与分析\n\n## 2. 安装步骤\n\n您可以通过 Unity 的包管理器将 Perception 包添加到现有项目中。\n\n### 方法一：通过包管理器界面安装（推荐）\n\n1.  打开 Unity 项目。\n2.  点击顶部菜单栏的 **Window** > **Package Manager**。\n3.  点击左上角的 **+** 号按钮，选择 **Add package by name...**。\n4.  在弹出的对话框中输入包名称：\n    ```text\n    com.unity.perception\n    ```\n5.  点击 **Add** 按钮等待安装完成。\n\n### 方法二：通过 manifest.json 安装\n\n1.  找到项目根目录下的 `Packages\u002Fmanifest.json` 文件。\n2.  在 `dependencies` 块中添加以下行：\n    ```json\n    \"com.unity.perception\": \"latest\"\n    ```\n    *(注：如需指定特定版本，可将 \"latest\" 替换为具体版本号)*\n3.  保存文件，Unity 将自动下载并安装该包。\n\n## 3. 基本使用\n\n以下是最简单的数据生成流程示例，涵盖从场景设置到数据捕获的核心步骤。\n\n### 步骤 1: 配置标签 (Labeling)\n\nPerception 需要知道场景中哪些物体需要被标记。\n\n1.  在Hierarchy中选中需要标记的 GameObject（例如一个立方体）。\n2.  点击 **Add Component**，搜索并添加 **Labeling** 组件。\n3.  在 Inspector 面板中，点击 **Add New Label**，输入标签名称（例如 `\"Box\"`）。\n    *   *注意：您也可以创建 **Label Config** 资产来统一管理标签分类体系。*\n\n### 步骤 2: 设置感知相机 (Perception Camera)\n\n标准的 Unity Camera 无法直接输出标注数据，需替换为 Perception Camera。\n\n1.  选中场景中的主相机 (Main Camera)。\n2.  点击 **Add Component**，搜索并添加 **Perception Camera** 组件。\n3.  该组件会自动关联当前的 Camera 组件，并开始准备捕获 RGB 图像及对应的真值数据（Ground Truth）。\n\n### 步骤 3: 配置数据集捕获 (Dataset Capture)\n\n控制数据生成的频率和输出格式。\n\n1.  在场景中创建一个空 GameObject，命名为 `DatasetCapture`。\n2.  添加 **Dataset Capture** 组件。\n3.  在该组件的设置中：\n    *   **Simulation Frames**: 设置要生成的帧数（例如 `100`）。\n    *   **Frames Between Captures**: 设置每隔多少帧捕获一次数据（例如 `1` 表示每帧都捕获）。\n    *   **Output Endpoints**: 默认使用 **Solo endpoint**，这将生成 SOLO 格式的数据集（包含 JSON 标注和图像文件夹）。\n\n### 步骤 4: 运行并生成数据\n\n1.  点击 Unity 编辑器顶部的 **Play** 按钮。\n2.  相机将根据设定自动捕获图像和标注信息。\n3.  运行结束后，生成的数据集通常位于项目目录下的 `PerceptionOutputs` 文件夹中。\n    *   结构示例：\n        ```text\n        PerceptionOutputs\u002F\n        ├── \u003Cdataset_name>\u002F\n        │   ├── images\u002F       # 生成的 RGB 图像\n        │   ├── labels.json   # 对应的标注文件\n        │   └── ...\n        ```\n\n### 后续处理（可选）\n\n生成数据后，您可以使用 Unity 提供的 Python 工具库 `pysolotools` 进行解析或格式转换（如转换为 COCO 格式）：\n\n```bash\npip install pysolotools\n```\n\n然后在 Python 脚本或 Jupyter Notebook 中加载数据：\n\n```python\nimport pysolotools\n\n# 加载数据集\ndataset = pysolotools.load_dataset('path\u002Fto\u002FPerceptionOutputs\u002F\u003Cdataset_name>')\n\n# 查看基本信息\nprint(dataset.summary())\n```\n\n---\n*更多高级功能（如域随机化 Domain Randomization、人体姿态生成等），请参考官方文档中的详细教程。*","一家自动驾驶初创公司正在训练其车辆感知系统，需要海量带有精确标注的道路场景数据来识别行人和障碍物。\n\n### 没有 com.unity.perception 时\n- **数据采集成本高昂**：团队依赖实地路测采集数据，不仅耗时耗力，还难以覆盖暴雨、深夜或极端交通事故等罕见危险场景。\n- **人工标注效率低下**：获取视频后需雇佣大量人员进行逐帧手工标注，周期长达数周且容易出现人为误差，导致模型训练延迟。\n- **场景多样性不足**：真实世界的数据分布不均，难以凑齐足够多的边缘案例（Corner Cases），导致模型在特殊路况下泛化能力差。\n- **迭代验证困难**：每次调整算法后，无法快速生成针对性的测试数据集来验证改进效果，研发反馈循环极慢。\n\n### 使用 com.unity.perception 后\n- **低成本生成稀缺场景**：利用 Unity 引擎快速构建虚拟城市，一键生成暴雨、强光眩目或复杂交通流等现实中难以捕捉的极端场景数据。\n- **自动化完美标注**：工具直接输出带有像素级语义分割、3D 边界框和关键点信息的合成数据集，彻底消除人工标注环节，实现“零误差”与“即时可用”。\n- **域随机化提升泛化性**：通过自动随机变换光照、纹理、物体位置及天气参数，瞬间创造出百万级多样化样本，显著增强模型应对未知环境的能力。\n- **加速仿真到现实迁移**：内置的 SOLO 格式支持与 Python 分析工具链无缝对接，让团队能在几小时内完成从数据生成、格式转换到模型验证的全流程。\n\ncom.unity.perception 将原本需要数月才能完成的数据准备周期压缩至几天，以极低的成本解决了自动驾驶训练中数据稀缺与标注昂贵的核心瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FUnity-Technologies_com.unity.perception_05d492c8.jpg","Unity-Technologies","Unity Technologies","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FUnity-Technologies_d8ebbff4.png","",null,"http:\u002F\u002Funity.com","https:\u002F\u002Fgithub.com\u002FUnity-Technologies",[81,85],{"name":82,"color":83,"percentage":84},"C#","#178600",99,{"name":86,"color":87,"percentage":88},"ShaderLab","#222c37",1,990,186,"2026-03-31T02:22:33","NOASSERTION",4,"未说明 (依赖 Unity Editor 支持的平台)","未说明 (依赖 Unity Editor 及渲染管线需求)","未说明",{"notes":98,"python":99,"dependencies":100},"1. 该项目已停止维护，Unity 官方不再提供支持，需通过 GitHub Issues 寻求社区帮助。\n2. 核心运行环境为 Unity Editor，具体支持的操作系统取决于所安装的 Unity 版本（通常支持 Windows, macOS, Linux）。\n3. 主要功能是生成合成数据集，本身不直接包含深度学习训练框架，但提供的辅助工具（如 pysolotools）需要 Python 环境。\n4. 推荐使用 Unity 2021.3 或 2022.1 及以上版本。","未说明 (配套工具 pysolotools 通常需 Python 3.x)",[101,102,103,104,105],"Unity 2021.3+","Unity 2022.1+","pysolotools (可选，用于数据集分析)","Jupyter Notebook (可选，用于数据分析)","Voxel51 FiftyOne (可选，用于数据可视化)",[15,14,16],[108,109,110,111,112,113,114,115,116,117],"perception","object-detection","detection","computer-vision","deep-learning","synthetic-dataset-generation","domain-randomization","pose-estimation","machine-learning","segmentation","2026-03-27T02:49:30.150509","2026-04-11T18:29:37.098766",[121,126,131,136,141,146],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},16426,"如何在 Unity Perception 中获取深度图像（Depth Image）？","可以通过访问 PerceptionCamera 的深度通道来获取深度纹理。具体代码如下：\nvar outputTexture = perceptionCamera.GetChannel\u003CDepthChannel>().outputTexture;\n这允许你在 C# 脚本中直接读取实时捕获的深度数据，而无需创建复杂的自定义节点。","https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fissues\u002F96",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},16427,"为什么生成的深度图（Depth Map）显示为全红色？","深度图通常以高动态范围（HDR）格式（如 .exr）存储，直接用普通图片查看器打开可能会显示为异常颜色（如全红）。这是正常的，因为深度值超出了标准 0-255 的显示范围。\n要正确使用这些数据（例如转换为点云），需要使用支持浮点格式的库（如 OpenCV 的 IMREAD_UNCHANGED 标志）读取 .exr 文件，并结合相机内参和像素位置信息进行计算。不要试图通过调整颜色映射来“修复”它，而应在后处理阶段正确解析数值。","https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fissues\u002F558",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},16428,"当使用 Randomizer 动态生成预制体（Prefab）时，为什么 2D 边界框（Bounding Box）不显示或未被标记？","这通常发生在动态实例化的对象未正确注册到标签系统时。对于像 UMA 这样复杂的预制体，确保标签组件（Labeling）已正确添加到运行时实例化的对象上。\n如果自动添加失败，可以尝试以下变通方案：\n1. 检查预制体是否包含必要的碰撞体（Collider），因为边界框通常依赖碰撞体计算。\n2. 如果是程序化添加标签组件，确保在实例化后立即添加并配置 Label Config。\n3. 对于需要不同标签的情况，可能需要为每种标签类型创建单独的脚本变体或在运行时动态设置标签 ID。","https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fissues\u002F348",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},16429,"在 HDRP 项目中，动态实例化（Instantiate）的对象为何无法被 Perception Camera 标记？","在 HDRP（高清渲染管线）中，感知相机对对象生命周期的同步要求比 URP 更严格。如果在 Update 循环中频繁销毁并重新实例化对象，可能导致标记丢失。\n解决方案：\n1. 确保使用的是最新版本的 Unity Perception 包，旧版本存在 HDRP 下的已知问题。\n2. 尝试将实例化逻辑从 Update 移至 FixedUpdate，但这可能降低频率。\n3. 最佳实践是避免每帧销毁对象，而是使用对象池（Object Pooling）技术复用对象，或者确保在对象完全初始化并进入场景后再触发相机的捕获逻辑。","https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fissues\u002F306",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},16430,"是否支持同时渲染多个 Perception Camera 以捕获同一时刻的不同视角？","早期版本不支持多相机并行渲染，会导致文件冲突或数据覆盖。\n但在较新的 Unity 版本（2020.3.17f1 及以上）和更新的 Perception 包中，该问题已得到改善。如果您遇到编译错误（如 ISampler.cs 中的修饰符错误），请确保：\n1. 升级 Unity 编辑器至 2020.3.17f1 或更高版本。\n2. 更新 Perception 包到最新版本。\n注意：虽然技术上可行，但仍需确保每个相机配置唯一的输出路径，以防止异步写入时的潜在冲突。","https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fissues\u002F54",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},16431,"如何在场景中随机化背景图像（如 HDRI）？","要实现背景图像的随机化，可以创建一个自定义的 Randomizer 脚本。\n基本步骤如下：\n1. 在项目中准备一个包含多个 HDRI 文件的文件夹。\n2. 创建一个继承自 `ScriptableRandomizer` 的 C# 脚本。\n3. 在脚本中定义一个公共字段来存储 HDRI 文件列表（或使用文件夹路径动态加载）。\n4. 在 `OnIterationStart` 或类似方法中，随机选择一个 HDRI 并将其赋值给场景中的 Skybox 材质或 Volume 组件。\n5. 将该脚本添加到场景中的 Randomization 配置中。\n这样每一帧或每次迭代时，系统都会自动切换不同的背景环境。","https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fissues\u002F435",[152,157,162,167,172,177,182,187,192,197,202,207,212,217,222,227],{"id":153,"version":154,"summary_zh":155,"released_at":156},98772,"1.0.0-preview.1","### 升级说明\n\nPerception 软件包已升级，现支持 Unity 编辑器 2021.3 及更高版本以及 2022.1 及更高版本。与此同时，对 Unity 编辑器 2020 版本的支持已被弃用。现有使用 Perception 软件包的 Unity 2020 项目需要升级，以确保与 Perception 软件包的兼容性。\n\n分类参数类型专用类（例如 GameObjectParameter）已被弃用，需替换为其模板等效类（例如 CategoricalParameter\u003CGameObject>)。\n\n### 新增功能\n\n为捕获的 JSON 输出重新添加了 `timestamp` 字段。\n\n新增了累积功能，适用于需要累积帧数的渲染技术，主要用例为路径追踪。\n\n关键点标注工具现在可以配置为在实时可视化过程中，为被遮挡的关键点显示图标。\n\n新增了不同标注工具的示例场景。\n\n3D 边界框标注工具现已全面支持 SkinnedMeshRenderer，能够在人体、动物及其他动画角色上生成紧密贴合的边界框。\n\n新增了元数据标注工具。\n\n可同时存在多个语义分割标注工具。\n\nRenderedObjectInfo 和边界框标注工具现在会报告所有渲染对象的层次关系（如父级、子级等的实例 ID）。\n\n在 IMessageBuilder 中新增了对 IEnumerable 的支持。\n\nUnity 相机传感器新增了超分辨率选项。\n\n为 PerceptionCamera 添加了新的“传感器类型”字段，使用户能够在 Perception 框架内创作、选择并捕获来自不同相机传感器类型和投影方式的数据。\n\n为实例分割标注中报告的每个对象新增了标签 ID 和标签名称。\n\n新增了每个关键点在相机空间中的笛卡尔坐标位置。\n\n新增了编辑器和运行时设置，可用于将配置从编辑器传递到运行时。\n\n数据集生成现在可以恢复进行。\n\nPerception 端点现在会序列化实现 IMessageProvider 接口的标注数据。\n\n新增了消费者端点验证功能，用于检查端点属性是否有效。消费者端点现在会调用端点验证，并向用户显示错误信息。\n\n为 PerceptionCamera 新增了 alphaThreshold 参数，用于配置半透明材质在分割图像中的显示效果。\n\n为 PerceptionCamera 新增了 layerMaskOverride 参数，用于在标注工具捕获数据时配置对象过滤。\n\n新增了检查功能，当 URP 项目中存在多个 GroundTruthRenderFeatures 时，会向用户发出警告。\n\n### 变更内容\n\n将默认序列化格式由 perception 更改为 Solo。\n\nPerception 软件包已升级，现支持 Unity 编辑器 2021.3.7 及更高版本以及 2022.1 及更高版本。\n\n对 Unity 编辑器 2020 版本的支持已被弃用。\n\n将 PerceptionCamera 的“超分辨率”功能更名为“超级采样”，以更清晰地说明用于生成抗锯齿效果的具体技术。\n\n创作新型基于像素的真实标签数据已","2022-11-22T19:14:05",{"id":158,"version":159,"summary_zh":160,"released_at":161},98773,"Release-0.11.2-preview.2","### 已修复\r\n\r\n在 Mac 上安装并打开数据可视化工具\r\n\r\n文档","2022-04-28T20:31:00",{"id":163,"version":164,"summary_zh":165,"released_at":166},98774,"Release-0.11.1-preview.1","### 新增\n\n新增了通过命令行参数 `--output-path` 定义独立播放器输出路径的功能。\n\n### 变更\n\n随机器中抛出的异常现在将终止运行。\n\n已检查并报告分类参数中的重复项。\n\n用户输出路径现在会写入用户的设置中。\n\n### 修复\n\n修复了在多种情况下捕获的 RGB 图像出现上下颠倒或过暗的问题。\n\n修复了项目中包含大量随机器时的 UI 显示问题。\n\n修复了移除最后一个随机器时的场景 UI 显示问题。\n\n修复了 Visualizer 的安装错误，Visualizer 现在可以正常安装和打开。\n\n## 变更内容\n* 在 https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fpull\u002F452 中，@csun 补充了缺失的教程和图片。\n\n## 新贡献者\n* @csun 在 https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fpull\u002F452 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fcompare\u002FRelease-0.10.0-preview.1...Release-0.11.1-preview.1","2022-04-14T19:44:12",{"id":168,"version":169,"summary_zh":170,"released_at":171},98775,"Release-0.10.0-preview.1","### 新增\n\n新增了对消费者端点的支持，允许用户定义生成的数据如何序列化。\n\n新增了感知项目设置，以便修改不同的感知配置，包括选择活动的端点。\n\n为固定长度场景添加了进度条。\n\n为分类参数增加了直接拖放项目到 UI 的功能。\n\n为所有 CameraLabeler 添加了必填的 `labelerId` 字段。\n\n新增了适用于布尔值、布尔值数组和 Vector3 的通用指标。\n\n### 变更\n\n将数据集采集包改为使用消费者端点，不再仅限于序列化为感知格式。\n\n将数据集采集改为按帧报告数据。\n\n将 com.unity.collections 包的依赖版本升级为非预览版。\n\n移除了对 com.unity.simulation 包的依赖。\n\n将 FixedFrameScenario 改为不再特定于云端。\n\n### 移除\n\n移除了 com.unity.simulation.capture 包的依赖。\n\n移除了 com.unity.simulation.core 及其相关依赖。\n\n移除了“在 Unity Simulation 窗口中运行”选项。\n\n### 修复\n\n处理了当标注器具有空标注配置时来自分析模块的异常。\n\n更新了文档，以反映 3D 边界框标注器不支持蒙皮网格渲染器。\n\nPoissonDiskSampling 将不再为编辑器版本 2020.3.27f1 及以上版本生成空点列表。\n\n修复了感知端点以支持多摄像头。\n\n修复了可能存在的竞争条件问题，即注释在异步 Lambda 作业中注册的情况。与图像相关的注释现在将在 ImageEncoder 作业完成后执行的回调中，在主线程上进行注册。\n\nPerceptionCamera UI 现在会在检测到缺失或为空的标注器时显示警告。","2022-03-19T03:14:28",{"id":173,"version":174,"summary_zh":175,"released_at":176},98776,"Release-0.9.0.preview.2","## [0.9.0-preview.2] - 2021-11-02\n\n### 升级说明\n\n最低要求的 Unity 编辑器版本已升级至 2020.3.16f1。\n\n由于场景序列化和反序列化的更新，使用旧版本生成的场景 JSON 配置需要手动更新。\n\n### 已知问题\n\n### 新增功能\n\n新增了一个可视化工具，可在浏览器窗口中可视化捕获信息，例如边界框和分割结果。\n\n增加了对多摄像头同时捕获的支持（目前暂不支持可视化）。\n\n用户现在可以通过调用当前场景的 `DelayIteration` 函数，在随机化器中将当前迭代延迟一帧。\n\n用户现在可以选择用于存储生成数据集的基准文件夹位置。\n\n为场景 JSON 配置新增了配置选项。其中包括在数值标量和采样器上添加 `limits` 块，以指定有效范围；以及在随机化器上添加 `state` 块，以便从配置中启用或禁用它们。\n\n新增了 `AssetSource` 类，用于在随机化器中从通用资源源加载资源。\n\n在捕获传感器元数据中新增了 `projection` 字段。其值可以是“透视”或“正交”。\n\n为场景配置新增了使用情况分析功能。收集的信息仅限于默认（即包含在 `com.unity.perception` 包中的）标签器和随机化器及其配置。如需禁用使用情况分析，请参阅以下页面：[docs.unity3d.com\u002FManual\u002FEditorAnalytics.html](https:\u002F\u002Fdocs.unity3d.com\u002FManual\u002FEditorAnalytics.html)\n\n### 变更\n\n将捕获包的依赖版本升级至 0.0.10-preview.24。此更新修复了在 macOS 上启用 MSAA 并禁用后期处理时，RGB 图像显示为空白的问题。\n\n将法线采样器标准差属性的 JSON 序列化键从 “standardDeviation” 更改为 “stddev”。\n\n将场景中随机化器的 JSON 序列化方式更改为按组排列的数组，而非字典。\n\n### 已弃用\n\n### 已移除\n\n### 修复\n\n修复了 IdLabelConfig 编辑器中的索引问题。当在启用了自动分配 ID 的空 Id 标签配置中添加新标签时，起始 ID（0 或 1）会被忽略，新标签始终被分配 ID 0。","2021-11-03T22:19:06",{"id":178,"version":179,"summary_zh":180,"released_at":181},98777,"Release-0.8.0.preview.4","## [0.8.0-preview.4] - 2021-07-05\n\n### 升级说明\n\n### 已知问题\n\n在 macOS 上使用 URP 时，如果相机启用了 MSAA 而后处理选项被禁用，可能会导致输出的 RGB 图像为空白。作为临时解决方案，在问题修复之前，可以关闭 MSAA 并改用 FXAA。\n\n### 新增功能\n\n在编辑器中新增了“step”按钮支持。\n\n在“Run in Unity”模拟窗口中新增了随机种子字段。\n\n### 变更\n\n增加了实例分割图像的颜色多样性。\n\nPoissonDiskSampling 工具现在会先采样一个更大的点云区域，然后再裁剪到目标区域的大小，以避免边缘情况带来的偏差。\n\n将捕获包的依赖版本升级至 0.0.10-preview.23，以修复两个问题：(1) 在 URP 中捕获图像时未包含后处理效果；(2) 当启用后处理效果且禁用 FXAA 时，RGB 图像会倒置。\n\n### 已弃用\n\n### 移除\n\n### 修复\n\n修复了在禁用可视化时的关键点标注错误。\n\n修复了当 Perception Camera 的 Simulation Delta Time 值大于 100 秒时，会导致捕获调度行为不正确的问题。\n\n修复了分类参数有时会尝试获取 `i = categories.Count` 处的项，从而引发异常的问题。","2021-07-06T15:04:56",{"id":183,"version":184,"summary_zh":185,"released_at":186},98778,"Release-0.8.0-preview.3","## [0.8.0-preview.3] - 2021-03-24\r\n### 变更\r\n\r\n扩展了关键点标记器的文档\r\n更新了关键点标记器的逻辑，默认仅报告可见对象的关键点\r\n增加了实例分割图像的颜色多样性\r\n\r\n### 修复\r\n\r\n修复了在 2020.1 及更高版本中启用 HDRP 的项目中的编译器警告\r\n修复了法线采样器的一个 bug：当随机值分别非常接近 0 或 1 时，该采样器会返回小于传入最小值或大于传入最大值的结果。","2021-03-24T23:21:57",{"id":188,"version":189,"summary_zh":190,"released_at":191},98779,"Release-0.8.0-preview.2","## [0.8.0-preview.2] - 2021-03-15\n\n### 升级说明\n\n所有出现的 `KeyPoint` 术语已重命名为 `Keypoint`。如果您有依赖于这些重命名类型或名称的代码，请确保将其修改为使用新的名称。此外，如果您创建了自定义关键点模板，请使用文本编辑器打开模板资源，并将 `keyPoints:` 行替换为 `keypoints:`。\n\n`ScenarioBase` 的 `Awake()`、`Start()` 和 `Update()` 函数现为私有。如果您之前曾使用过这些函数，请将其用法替换为 `OnAwake()`、`OnStart()` 和 `OnUpdate()`。\n\n### 已知问题\n\n### 新增功能\n\n新增当检测到缺失 Randomizer 脚本时的错误提示信息。\n\n场景序列化已更新，以包含 Randomizer 和 Parameter 上的标量值。\n\n新增 `ScenarioBase` 虚拟生命周期钩子：`OnAwake()`、`OnStart()`、`OnUpdate()`、`OnComplete()` 和 `OnIdle()`。\n\n添加了关键点遮挡功能。如果标记的资产完全位于相机视锥之外，则不会记录该关键点的信息。\n\n新增了用于测试关键点状态的新测试用例。\n\n关键点和连接线的颜色现在会报告在关键点模板的标注定义 JSON 文件中。\n\n新增了 `PerceptionScenario` 抽象类，用于将感知数据采集相关功能从原生场景生命周期中抽象出来。\n\n新添加的 `LabelManager` 类现在允许自定义标注者访问场景中已注册的 `Labeling` 组件列表。\n\n改进了 `KeypointTemplate` 的 UI，并为关键点和骨骼定义添加了有用的默认颜色。\n\n新增了在运行时通过启用或禁用对象的 `Labeling` 组件来切换其真值标注开关的功能。\n\n### 变更内容\n\n将类型和名称中所有出现的 `KeyPoint` 术语重命名为 `Keypoint`。\n\n`ScenarioBase` 的 `Awake()`、`Start()` 和 `Update()` 方法现为私有。请使用新添加的虚拟生命周期钩子作为替代。\n\n改进了“在 Unity 模拟中运行”窗口的 UI。\n\n“在 Unity 模拟中运行”窗口现在接受可选的场景 JSON 配置文件，以覆盖现有的场景编辑器 UI 设置。\n\n`ScenarioBase` 的 `GetRandomizer()` 和 `CreateRandomizer()` 方法已被增强或替换为更通用的基于列表索引的访问器。\n\n场景检视器中的序列化和反序列化按钮已重构为打开文件浏览器，以便用户可以选择保存生成的 JSON 配置文件的位置，或选择要导入配置文件的文件。\n\n`RandomizerTags` 现在使用 `OnEnable()` 和 `OnDisable()` 来管理其生命周期。这使得用户可以在编辑器中轻松地启用或禁用它们。\n\n升级了 `com.unity.simulation.capture` 包的依赖项，以集成新的更改，从而防止在新 URP 项目中打开项目设置窗口时 API 更新程序陷入无限循环。\n\n`CameraLabeler` 方法 `On","2021-03-16T00:04:12",{"id":193,"version":194,"summary_zh":195,"released_at":196},98780,"Release-0.7.0-preview.2","## 新增\n\n向 RandomizerTag API 添加了 Register() 和 Unregister() 方法，以便用户实现与 RandomizerTag 兼容的 GameObject 缓存。\n\n## 变更\n\n将场景 MonoBehaviour 生命周期函数（Awake、Start、Update）的访问修饰符由 private 改为 protected，以使用户在继承 Scenario 类时能够定义自己的重写。\n\nGameObjectOneWayCache 现已设为 public，供用户在其自定义随机器中缓存 GameObject。\n\n## 修复\n\n修复了在每个 Unity Simulation 实例反序列化应用参数后，直接对迭代索引进行数学偏移的问题。\n\nRandomizerTagManager 现在使用 LinkedHashSet 数据结构来注册标签，以在 Unity Simulation 中保持插入顺序的确定性。\n\nGameObjectOneWayCache 现在能够正确地在缓存的 GameObject 上注册和注销 RandomizerTag。","2021-02-09T02:28:16",{"id":198,"version":199,"summary_zh":200,"released_at":201},98781,"Release-0.7.0-preview.1","## 升级说明\n\n#### 随机化命名空间变更\n随机化工具集已从 Experimental 命名空间中移出。升级到本版本 Perception 包后，请按照以下步骤操作：\n* 在您的 C# 代码中，将所有对 `UnityEngine.Experimental.Perception.Randomization` 的引用替换为 `UnityEngine.Perception.Randomization`。\n* 使用文本编辑器打开您的 Unity 场景文件，将所有出现的 `UnityEngine.Experimental.Perception.Randomization` 替换为 `UnityEngine.Perception.Randomization`，并保存文件。\n\n#### 随机种子生成\n在自定义随机化器代码中，将 `ScenarioBase.GenerateRandomSeed()` 的用法替换为 `SamplerState.NextRandomState()`。\n\n#### 采样器范围\n在将项目升级到本版本 Perception 包之前，请务必记录您添加的随机化器中的**所有采样器范围**。由于采样器范围的序列化方式发生了变化，**升级到本版本后，所有 Perception 自带采样器（均匀采样器和正态采样器）的范围都将被重置**，需要用户手动恢复。\n\n#### 标签查询\n`RandomizerTagManager.Query\u003CT>` 函数现在返回标签对象本身，而不是其附加的 GameObject。您需要对自定义随机化器进行轻微修改以适应该更改。请参考随附的示例随机化器作为参考。\n\n## 已知问题\n\n边界框 3D 标注工具无法与使用蒙皮网格渲染器的标注资源一起工作。这类资源通常用于动画模型。\n\n## 新增功能\n\n新增关键点真值标注功能  \n新增动画随机化功能  \n新增用于所有场景常量对象的基类 `ScenarioConstants`  \n新增 `ScenarioBase.SerializeToConfigFile()` 方法  \n随机化器标签现支持继承  \n新增 `AnimationCurveSampler`，该采样器会根据用户提供的 AnimationCurve 定义的范围和概率分布返回随机值。  \n新增 `ParameterUIElementsEditor` 类，使自定义 ScriptableObject 和 MonoBehaviour 能够在其检视器窗口中正确渲染 `Parameter` 和 `Sampler` 类型的公共字段。  \n为 Perception 相机新增了新的采集选项：\n* 现可在两次采集之间渲染中间帧。\n* 采集现在可通过函数调用手动触发，而不再依赖于定时自动采集。\n\n新增 3D 边界框可视化工具  \n分类参数将在运行时验证其指定选项是否唯一。\n\n## 变更内容\n\n随机化器现在通过静态属性 `activeScenario` 访问其父场景。\n每个采样器的唯一种子已被一个全局随机种子取代，该种子通过场景的 `ScenarioConstants` 进行配置。\n采样器现在从静态类 `SamplerState` 获取随机状态，而非从单个场景获取，以便参数和采样器可以在场景上下文之外使用。\n将 `ScenarioBase.GenerateRandomSeed()` 替换为 `SamplerState.NextRando`。","2021-02-06T10:21:53",{"id":203,"version":204,"summary_zh":205,"released_at":206},98782,"Release-0.6.0-preview.1","## Added\r\n\r\n * All-new editor interface for the Labeling component and Label Configuration assets. The new UI improves upon various parts of the label specification and configuration workflow, making it more efficient and less error-prone to setup a new Perception project.\r\n\r\n * Added support for labeling Terrain objects. Trees and details are not labeled but will occlude other objects.\r\n\r\n * Added instance segmentation labeler.\r\n\r\n * Added support for full screen visual overlays and overlay manager.\r\n\r\n * Added Assets->Perception menu for current and future asset preparation and validation tools. Currently contains one function which lets the user create prefabs out of multiple selected models with one click, removing the need for going through all models individually.\r\n\r\n## Changed\r\n\r\n * Updated dependencies to com.unity.simulation.capture:0.0.10-preview.14, com.unity.simulation.core:0.0.10-preview.20, and com.unity.burst:1.3.9.\r\n\r\n * Changed InstanceSegmentationImageReadback event to provide a NativeArray\\\u003CColor32\\> instead of NativeArray\\\u003Cuint\\>.\r\n\r\n * Expanded all Unity Simulation references from USim to Unity Simulation.\r\n\r\n * Uniform and Normal samplers now serialize their random seeds.\r\n\r\n * The ScenarioBase's GenerateIterativeRandomSeed() method has been renamed to GenerateRandomSeedFromIndex().\r\n\r\n## Fixed\r\n\r\n\r\n * UnitySimulationScenario now correctly deserializes app-params before offsetting the current scenario iteration when executing on Unity Simulation.\r\n\r\n * Fixed Unity Simulation nodes generating one extra empty image before generating their share of the randomization scenario iterations.\r\n\r\n * Fixed enumeration in the CategoricalParameter.categories property.\r\n\r\n * The GenerateRandomSeedFromIndex method now correctly hashes the current scenario iteration into the random seed it generates.\r\n\r\n * Corrupted .meta files have been rebuilt and replaced.\r\n\r\n * The Randomizer list inspector UI now updates appropriately when a user clicks undo.","2020-12-07T23:53:36",{"id":208,"version":209,"summary_zh":210,"released_at":211},98783,"Release-0.5.0-preview.1","To install, follow the [installation instructions](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fblob\u002Fmaster\u002Fcom.unity.perception\u002FDocumentation~\u002FSetupSteps.md) or the [Perception tutorial](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fblob\u002Fmaster\u002Fcom.unity.perception\u002FDocumentation~\u002FTutorial\u002FTUTORIAL.md).\r\n\r\n# Known Issues\r\n\r\nCreating a new 2020.1.x project and adding the perception package to the project causes a memory error that is a [known issue in 2020.1 editors](https:\u002F\u002Fissuetracker.unity3d.com\u002Fissues\u002Fwild-memory-leaks-leading-to-stackallocator-walkallocations-crashes). Users can remedy this issue by closing and reopening the editor.\r\n\r\n# Added\r\n\r\n- Randomization tools were redesigned. With this release we introduce the new Randomizers and RandomizerTags. These tools gather all your randomizations in one place, making it easier to control the order of operations and switch between different randomization strategies quickly. This will enable you to iterate and experiment more efficiently, and reuse your randomization scenarios in different Unity projects. In addition, the tools are now more flexible and can be easily extended or customized for specific use-cases through code. \r\n\r\n- You can now easily run your projects on Unity Simulation using the new “Run in USim” window, which lets you choose the number of iterations in your Randomization scenario, as well as the number of simulation nodes the job will be distributed on. \r\n\r\n- Added support for generating 3D bounding box ground truth data\r\n\r\nFollow the new [Perception tutorial](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fblob\u002Fmaster\u002Fcom.unity.perception\u002FDocumentation~\u002FTutorial\u002FTUTORIAL.md) for instructions on how to utilize the new Randomization tools and \"Run in USim\" window.\r\n\r\n# Removed\r\n\r\nRemoved ParameterConfigurations (replaced with Randomizers)\r\n\r\n# Fixed\r\n\r\nFixed visualization issue where object count and pixel count labelers were shown stale values\r\nFixed visualization issue where HUD entry labels could be too long and take up the entire panel","2020-10-20T18:17:05",{"id":213,"version":214,"summary_zh":215,"released_at":216},98784,"Release-0.4.0-preview.1","To install, follow the [getting started guide](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fblob\u002Fmaster\u002Fcom.unity.perception\u002FDocumentation~\u002FGettingStarted.md).\r\n\r\n## Added\r\nAdded new experimental randomization tools\r\n\r\nAdded support for 2020.1\r\n\r\nAdded Labeling.RefreshLabeling(), which can be used to update ground truth generators after the list of labels or the renderers is changed\r\n\r\nAdded support for renderers with MaterialPropertyBlocks assigned to individual materials\r\n\r\n## Changed\r\nChanged the way realtime visualizers rendered to avoid rendering conflicts\r\n\r\nChanged default labeler ids to be lower-case to be consistent with the ids in the dataset\r\n\r\nSwitched to latest versions of com.unity.simulation.core and com.unity.simulation.capture\r\n\r\n\r\n## Fixed\r\nFixed 2d bounding boxes being reported for objects that do not match the label config.\r\n\r\nFixed a categorical parameter UI error in which deleting an individual option would successfully remove the option from the UI but only serialize the option to null during serialization instead of removing it\r\n\r\nFixed the \"Application Frequency\" parameter UI field not initializing to a default value\r\n\r\nFixed the IterateSeed() method where certain combinations of indices and random seeds would produce a random state value of zero, causing Unity.Mathematics.Random to throw an exception\r\n\r\nFixed labeler editor to allow for editing multiple labelers at a time\r\n\r\nFixed labeler editor to ensure that when duplicating prefabs all labeler entries are also duplicated\r\n\r\nFixed colors in semantic segmentation images being darker than those specified in the label config\r\n\r\nFixed objects being incorrectly labeled when they do not match any entries in the label config\r\n\r\nFixed lens distortion in URP and HDRP now being applied to ground truth","2020-09-04T06:06:05",{"id":218,"version":219,"summary_zh":220,"released_at":221},98785,"Release-0.3.0-preview.2","To install, follow the [getting started guide](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fcom.unity.perception\u002Fblob\u002FRelease-0.3.0-preview.2\u002Fcom.unity.perception\u002FDocumentation~\u002FGettingStarted.md).\r\n\r\n### Added\r\nAdded realtime visualization capability to the perception package.\r\nAdded visualizers for built-in labelers: Semantic Segmentation, 2D Bounding Boxes, Object Count, and Rendered Object Info.\r\nAdded references to example projects in manual.\r\nAdded notification when an HDRP project is in Deferred Only mode, which is not supported by the labelers.\r\n\r\n### Changed\r\nUpdated to com.unity.simulation.capture version 0.0.10-preview.10 and com.unity.simulation.core version 0.0.10-preview.17\r\nChanged default labeler IDs to be lower-case to be consistent with the dataset.\r\n\r\n### Fixed\r\nFixed errors in example script when exiting play mode\r\nFixed colors in semantic segmentation output not matching config","2020-08-07T13:34:47",{"id":223,"version":224,"summary_zh":225,"released_at":226},98786,"Release-0.2.0-preview.2","To install, follow the [getting started guide](com.unity.perception\u002FDocumentation~\u002FGettingStarted.md).\r\n\r\n### Fixed\r\nFixed bug that prevented RGB captures to be written out to disk\r\nFixed compatibility with com.unity.simulation.capture@0.0.10-preview.8","2020-07-16T14:27:57",{"id":228,"version":229,"summary_zh":230,"released_at":231},98787,"Release-0.2.0-preview.1","To install, follow the [getting started guide](com.unity.perception\u002FDocumentation~\u002FGettingStarted.md).\r\n\r\n### Added\r\nAdded CameraLabeler, an extensible base type for all forms of dataset output from a camera.\r\nAdded LabelConfig\\\u003CT\\>, a base class for mapping labels to data used by a labeler. There are two new derived types - ID label config and semantic segmentation label config.\r\n### Changed\r\nMoved the various forms of ground truth from PerceptionCamera into various subclasses of CameraLabeler.\r\nRenamed SimulationManager to DatasetCapture.\r\nChanged Semantic Segmentation to take a SemanticSegmentationLabelConfig, which maps labels to color pixel values.","2020-07-02T23:30:07"]