[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Cartucho--vision_blender":3,"tool-Cartucho--vision_blender":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":23,"env_os":96,"env_gpu":97,"env_ram":98,"env_deps":99,"category_tags":105,"github_topics":80,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":106,"updated_at":107,"faqs":108,"releases":139},3726,"Cartucho\u002Fvision_blender","vision_blender","A Blender addon for generating synthetic ground truth data for Computer Vision applications ","vision_blender 是一款专为计算机视觉领域设计的 Blender 插件，旨在帮助用户高效生成带有精确“真值”（Ground Truth）标注的合成数据集。在训练深度学习模型时，获取大量带有深度、分割掩码或光流等完美标注的真实数据往往成本高昂且耗时，而 vision_blender 巧妙地利用 Blender 强大的 3D 渲染能力，一键自动生成这些难以手动标注的数据，从而解决了合成数据标注难、成本高的问题。\n\n这款工具非常适合计算机视觉研究人员、算法开发者以及需要构建基准测试数据集的工程师使用。通过其集成在 Blender 界面中的控制面板，用户无需编写复杂代码，即可轻松配置并输出单目或立体视频序列。其生成的数据不仅包含常规图像，还同步提供深度图、视差图、实例分割掩码、表面法线、光流场、物体姿态及相机参数等多种高精度标注信息。\n\nvision_blender 的技术亮点在于其灵活性与专业性：它支持 Cycles 和 Eevee 两种渲染引擎，用户可根据需求在追求物理真实感（如分割掩码、光流）或渲染速度之间自由切换；所有生成的物理量均以米为标准单位，确保了数据的科学严谨性。此","vision_blender 是一款专为计算机视觉领域设计的 Blender 插件，旨在帮助用户高效生成带有精确“真值”（Ground Truth）标注的合成数据集。在训练深度学习模型时，获取大量带有深度、分割掩码或光流等完美标注的真实数据往往成本高昂且耗时，而 vision_blender 巧妙地利用 Blender 强大的 3D 渲染能力，一键自动生成这些难以手动标注的数据，从而解决了合成数据标注难、成本高的问题。\n\n这款工具非常适合计算机视觉研究人员、算法开发者以及需要构建基准测试数据集的工程师使用。通过其集成在 Blender 界面中的控制面板，用户无需编写复杂代码，即可轻松配置并输出单目或立体视频序列。其生成的数据不仅包含常规图像，还同步提供深度图、视差图、实例分割掩码、表面法线、光流场、物体姿态及相机参数等多种高精度标注信息。\n\nvision_blender 的技术亮点在于其灵活性与专业性：它支持 Cycles 和 Eevee 两种渲染引擎，用户可根据需求在追求物理真实感（如分割掩码、光流）或渲染速度之间自由切换；所有生成的物理量均以米为标准单位，确保了数据的科学严谨性。此外，该项目背后的研究成果曾荣获 MICCAI 2020 研讨会最佳论文奖，是学术界与工业界公认的高质量数据生成方案。","# vision_blender\n\n[![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FCartucho\u002Fvision_blender.svg?style=social&label=Stars)](https:\u002F\u002Fgithub.com\u002FCartucho\u002Fvision_blender)\n\nA Blender user-interface to generate synthetic ground truth data (benchmarks) for Computer Vision applications.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_942a9e0e5c40.png\" width=\"100%\">\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_a86ee3e216a1.png\" width=\"100%\">\n\nVisionBlender is a synthetic computer vision dataset generator that adds a user interface to Blender, allowing users to generate monocular\u002Fstereo video sequences with ground truth maps of depth, disparity, segmentation masks, surface normals, optical flow, object pose, and camera parameters.\n\n[![Presentation video](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_8985f2f82f76.png)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=LHpogw6INgU \"Tutorial - Click to Watch!\")\n[YouTube link](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=LHpogw6INgU)\n\n## Installation\n\nTo install the addon simply go to `Edit > Preferences > Add-on tab > Install an add-on`\n, then select the file `path\u002Fto\u002Fvision_blender\u002Faddon_ground_truth_generation.py` and click `Install Add-on`.\nFinally you have to enable the add-on; Search `VisionBlender` and tick the check-box.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_8552098c5658.gif\" width=\"50%\">\n\nYou should now be able to find the `VisionBlender UI` in the bottom of the `Output Properties`.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_30a29231c1f5.gif\" width=\"50%\">\n\n## How to generate ground truth data?\n\n### 1. Select render engine\n\nIf you want to get ground truth `Segmentation masks` or `Optical flow` you need first to set blender to use the `Cycles` Render Engine. Otherwise, use `Eevee` (it will be faster!) which is set by default.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_04ba0805f30e.gif\" width=\"50%\">\n\n##### How to set-up segmentation masks? #####\n\nTo set-up the segmentation masks you need to choose a pass index other than zero (!= 0) for each object:\n    `Object Properties > Relations > Pass Index`\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_ef02c5215f10.gif\" width=\"50%\">\n\nEach integer (e.g., `Pass Index = 1`) represents a class of objects to be segmented.\n\n##### How to set-up optical flow? #####\n\nYou will only have optical flow if the camera or the objects are moving during an animation. In the following gif, I show you an example of how to move an object between frames:\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_ffcb7547290c.gif\" width=\"50%\">\n\n### 2. Set output path\n\nSet up the output path in `Output Properties > Output > Output Path`. This is the path where both your rendered images and ground truth will be saved.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_b9a14962855f.gif\" width=\"50%\">\n\n### 3. Select ground truth maps and render\n\nFirst, tick the boxes of what you want to save as ground truth in the `VisionBlender UI`. Then, start rendering. To start rendering you click `Render > Render Image` or `Render > Render Animation...`, alternatively you can click `F12` for image and `Ctrl F12` for animation.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_99b77f9a01f5.gif\" width=\"50%\">\n\nNote: The ground-truth maps are always calculated using meters [m] as unit of distance.\n\n### How to read the data after generating it?\n\nYou simply have to load the numpy arrays from thr `.npz` files.\nGo to [vision_blender\u002Fsamples](https:\u002F\u002Fgithub.com\u002FCartucho\u002Fvision_blender\u002Ftree\u002Fmaster\u002Fsamples) and have a look at the example there!\n\n## Paper\n\nThis work received the best paper award at a MICCAI 2020 workshop!\n\nThe paper can be found at [this link](https:\u002F\u002Fwww.tandfonline.com\u002Fdoi\u002Ffull\u002F10.1080\u002F21681163.2020.1835546)\n\nIf you use this tool please consider citing our paper:\n\n```bibtex\n@article{cartucho2020visionblender,\n  title={VisionBlender: a tool to efficiently generate computer vision datasets for robotic surgery},\n  author={Cartucho, Jo{\\~a}o and Tukra, Samyakh and Li, Yunpeng and S. Elson, Daniel and Giannarou, Stamatia},\n  journal={Computer Methods in Biomechanics and Biomedical Engineering: Imaging \\& Visualization},\n  pages={1--8},\n  year={2020},\n  publisher={Taylor \\& Francis}\n}\n```\n","# vision_blender\n\n[![GitHub 星标](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FCartucho\u002Fvision_blender.svg?style=social&label=Stars)](https:\u002F\u002Fgithub.com\u002FCartucho\u002Fvision_blender)\n\n一个基于 Blender 的用户界面，用于为计算机视觉应用生成合成的真值数据（基准测试）。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_942a9e0e5c40.png\" width=\"100%\">\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_a86ee3e216a1.png\" width=\"100%\">\n\nVisionBlender 是一款合成计算机视觉数据集生成器，它为 Blender 添加了一个用户界面，使用户能够生成带有深度、视差、分割掩码、表面法线、光流、物体位姿和相机参数等真值地图的单目\u002F立体视频序列。\n\n[![演示视频](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_8985f2f82f76.png)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=LHpogw6INgU \"教程 - 点击观看！\")\n[YouTube 链接](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=LHpogw6INgU)\n\n## 安装\n\n要安装此插件，只需前往 `编辑 > 首选项 > 插件选项卡 > 安装插件`，然后选择文件 `path\u002Fto\u002Fvision_blender\u002Faddon_ground_truth_generation.py` 并点击 `安装插件`。最后，您需要启用该插件；搜索 `VisionBlender` 并勾选复选框。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_8552098c5658.gif\" width=\"50%\">\n\n现在您应该能够在 `输出属性` 的底部找到 `VisionBlender UI`。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_30a29231c1f5.gif\" width=\"50%\">\n\n## 如何生成真值数据？\n\n### 1. 选择渲染引擎\n\n如果您希望获取真值 `分割掩码` 或 `光流`，则首先需要将 Blender 设置为使用 `Cycles` 渲染引擎。否则，请使用默认设置的 `Eevee`（速度更快！）。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_04ba0805f30e.gif\" width=\"50%\">\n\n##### 如何设置分割掩码？ #####\n\n要设置分割掩码，您需要为每个对象选择非零的通道索引（!= 0）：\n    `对象属性 > 关系 > 通道索引`\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_ef02c5215f10.gif\" width=\"50%\">\n\n每个整数（例如，`通道索引 = 1`）代表一个待分割的对象类别。\n\n##### 如何设置光流？ #####\n\n只有当摄像机或物体在动画过程中移动时，才会产生光流。在下面的动图中，我向您展示如何在帧之间移动一个对象：\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_ffcb7547290c.gif\" width=\"50%\">\n\n### 2. 设置输出路径\n\n在 `输出属性 > 输出 > 输出路径` 中设置输出路径。这是保存渲染图像和真值数据的路径。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_b9a14962855f.gif\" width=\"50%\">\n\n### 3. 选择真值地图并渲染\n\n首先，在 `VisionBlender UI` 中勾选您希望保存为真值的地图选项。然后开始渲染。您可以点击 `渲染 > 渲染图像` 或 `渲染 > 渲染动画...` 来开始渲染，或者分别按 `F12` 键进行图像渲染，按 `Ctrl F12` 键进行动画渲染。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_readme_99b77f9a01f5.gif\" width=\"50%\">\n\n注意：真值地图始终以米 [m] 作为距离单位进行计算。\n\n### 生成数据后如何读取？\n\n您只需从 `.npz` 文件中加载 NumPy 数组即可。\n请访问 [vision_blender\u002Fsamples](https:\u002F\u002Fgithub.com\u002FCartucho\u002Fvision_blender\u002Ftree\u002Fmaster\u002Fsamples)，查看其中的示例！\n\n## 论文\n\n这项工作在 MICCAI 2020 的一个研讨会上获得了最佳论文奖！\n\n论文可在 [此链接](https:\u002F\u002Fwww.tandfonline.com\u002Fdoi\u002Ffull\u002F10.1080\u002F21681163.2020.1835546) 找到。\n\n如果您使用此工具，请考虑引用我们的论文：\n\n```bibtex\n@article{cartucho2020visionblender,\n  title={VisionBlender: 一种高效生成机器人手术用计算机视觉数据集的工具},\n  author={Cartucho, Jo{\\~a}o and Tukra, Samyakh and Li, Yunpeng and S. Elson, Daniel and Giannarou, Stamatia},\n  journal={生物力学与生物医学工程中的计算机方法：成像与可视化},\n  pages={1--8},\n  year={2020},\n  publisher={Taylor \\& Francis}\n}\n```","# VisionBlender 快速上手指南\n\nVisionBlender 是一个为 Blender 添加用户界面的插件，旨在生成用于计算机视觉应用的合成真值（Ground Truth）数据集。它支持生成单目\u002F立体视频序列，并输出深度、视差、分割掩码、表面法线、光流、物体姿态及相机参数等真值地图。\n\n## 环境准备\n\n*   **操作系统**：Windows, macOS, 或 Linux\n*   **核心软件**：[Blender](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002F) (建议使用最新稳定版)\n*   **依赖库**：\n    *   Python (Blender 内置)\n    *   NumPy (通常 Blender 已预装，若报错需手动安装到 Blender 的 Python 环境中)\n*   **渲染引擎**：\n    *   **Eevee**：默认引擎，速度快，适用于深度、法线等基础数据。\n    *   **Cycles**：若需生成 **分割掩码 (Segmentation masks)** 或 **光流 (Optical flow)**，必须切换至此引擎。\n\n## 安装步骤\n\n1.  下载 `vision_blender` 源码包。\n2.  打开 Blender，进入菜单栏：`Edit` > `Preferences`。\n3.  在左侧选择 `Add-ons` 标签页，点击顶部的 `Install...` 按钮。\n4.  浏览并选中下载包中的以下文件：\n    ```text\n    path\u002Fto\u002Fvision_blender\u002Faddon_ground_truth_generation.py\n    ```\n5.  点击 `Install Add-on`。\n6.  在插件列表中搜索 `VisionBlender`，勾选复选框以启用插件。\n7.  启用后，可在右侧属性面板底部的 `Output Properties` (输出属性) 中找到 `VisionBlender UI` 面板。\n\n## 基本使用\n\n### 1. 配置渲染引擎与对象属性\n\n根据所需生成的数据类型进行设置：\n\n*   **通用设置**：若只需深度或法线图，保持默认的 `Eevee` 引擎即可。\n*   **分割掩码 (Segmentation Masks)**：\n    1.  将渲染引擎切换为 `Cycles`。\n    2.  选中场景中的物体，进入 `Object Properties` (物体属性) > `Relations`。\n    3.  设置 `Pass Index` 为非零整数 (例如 `1`)。每个整数代表一个分割类别。\n*   **光流 (Optical Flow)**：\n    1.  将渲染引擎切换为 `Cycles`。\n    2.  确保相机或物体在动画帧之间存在移动（需设置关键帧动画）。\n\n### 2. 设置输出路径\n\n在 `Output Properties` (输出属性) > `Output` 中，设置 `Output Path`。渲染图像和真值数据 (.npz 文件) 都将保存到此目录。\n\n### 3. 选择真值类型并渲染\n\n1.  在底部 `VisionBlender UI` 面板中，勾选你需要生成的真值地图（如 Depth, Segmentation, Optical Flow 等）。\n    *   *注意：所有距离单位的真值地图均以米 [m] 为单位计算。*\n2.  开始渲染：\n    *   **渲染单帧图像**：点击 `Render` > `Render Image` 或按快捷键 `F12`。\n    *   **渲染动画序列**：点击 `Render` > `Render Animation...` 或按快捷键 `Ctrl + F12`。\n\n### 4. 读取生成的数据\n\n渲染完成后，输出目录下将包含图像文件和 `.npz` 格式的真值数据文件。使用 Python 加载数据示例：\n\n```python\nimport numpy as np\n\n# 加载 .npz 文件\ndata = np.load('path\u002Fto\u002Fyour\u002Foutput\u002Fframe_0001.npz')\n\n# 查看包含的数组名称\nprint(data.files)\n\n# 访问具体数据，例如深度图\ndepth_map = data['depth']\n```\n\n更多详细示例请参考官方仓库中的 [samples](https:\u002F\u002Fgithub.com\u002FCartucho\u002Fvision_blender\u002Ftree\u002Fmaster\u002Fsamples) 目录。","某自动驾驶初创公司的算法团队正在训练一个用于城市道路场景的语义分割模型，急需大量带有精确像素级标注的训练数据。\n\n### 没有 vision_blender 时\n- **标注成本极高**：团队需雇佣人工对数万张街景图片进行逐像素描边标注，耗时数月且费用昂贵。\n- **极端场景缺失**：难以获取暴雨、夜间强光或罕见交通事故等长尾场景的真实数据，导致模型在特殊工况下表现不稳定。\n- **真值精度受限**：人工标注难免存在边缘模糊或分类错误，缺乏深度、表面法向量等难以肉眼判断的物理属性真值。\n- **迭代周期漫长**：每当模型发现新缺陷，重新采集真实数据并再次标注的循环严重拖慢研发进度。\n\n### 使用 vision_blender 后\n- **自动化生成真值**：利用 Blender 构建虚拟城市，通过 vision_blender 一键渲染出自带完美语义分割掩码、深度图及光流图的合成数据集，零人工标注成本。\n- **按需定制场景**：轻松模拟大雪、浓雾或传感器故障等极端条件，快速补充训练集中的稀缺样本，显著提升模型鲁棒性。\n- **多维物理真值**：直接输出高精度的物体姿态、相机参数和表面法向量等多模态真值，为多任务学习提供丰富监督信号。\n- **敏捷迭代优化**：针对模型弱点即时调整虚拟场景参数并重新生成数据，将数据准备周期从数周缩短至数小时。\n\nvision_blender 通过将高保真 3D 渲染转化为自动化数据工厂，彻底解决了计算机视觉领域高质量标注数据稀缺且昂贵的核心瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCartucho_vision_blender_8985f2f8.png","Cartucho","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FCartucho_4c5fae40.png","GSoC 2016 and 2017","Imperial College London",null,"https:\u002F\u002Fgithub.com\u002FCartucho\u002Fcurriculum\u002Fblob\u002Fmaster\u002Fjoao_cartucho_cv.pdf","https:\u002F\u002Fgithub.com\u002FCartucho",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",98.9,{"name":89,"color":90,"percentage":91},"CMake","#DA3434",1.1,530,28,"2026-03-17T23:31:46","Apache-2.0","未说明 (作为 Blender 插件，支持 Blender 运行的所有平台：Windows, macOS, Linux)","非必需 (取决于渲染引擎：使用 Eevee 无需高性能 GPU；使用 Cycles 进行分割掩码或光流生成时，建议使用支持 CUDA 的 NVIDIA GPU 以加速，具体型号和显存未说明)","未说明",{"notes":100,"python":101,"dependencies":102},"该工具是 Blender 的插件，并非独立运行的 Python 脚本。安装时需通过 Blender 界面导入 'addon_ground_truth_generation.py'。若需生成分割掩码或光流数据，必须将渲染引擎设置为 'Cycles'，否则可使用默认的 'Eevee' 以获得更快速度。生成的真值数据（如深度、光流）单位均为米 (m)。输出数据保存为 .npz 格式，需使用 NumPy 读取。","未说明 (跟随所安装的 Blender 版本内置的 Python 环境)",[103,104],"Blender (需安装 Cycles 或 Eevee 渲染引擎)","NumPy (用于读取 .npz 输出文件)",[14,34,36,37],"2026-03-27T02:49:30.150509","2026-04-06T08:42:07.197151",[109,114,119,124,129,134],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},17068,"光流数据（Optical Flow）的通道代表什么含义？如何获取反向光流？","更新后的版本中，光流数据只包含 2 个通道：\n- 通道 0 (Channel 0)：代表从当前帧到下一帧的 X 方向位移 (∆x)。\n- 通道 1 (Channel 1)：代表从当前帧到下一帧的 Y 方向位移 (∆y)。\n\n如果需要获取反向光流（从当前帧到前一帧），可以读取前一帧的光流数据并将向量取反。计算公式为：若 t+1 时刻的点为 (u, v)，则 t 时刻的点为 (u - round(flow_x), v - round(flow_y))，其中 flow_x 和 flow_y 是 t 时刻的光流值。","https:\u002F\u002Fgithub.com\u002FCartucho\u002Fvision_blender\u002Fissues\u002F7",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},17069,"渲染后没有生成 .npz 真值数据文件，只生成了图像，怎么办？","这通常是因为脚本逻辑问题。.npz 文件是为每个动画帧生成的。如果你通过脚本渲染单张图像，请确保正确设置帧范围并逐帧渲染。参考以下修正后的代码示例：\n\n```python\nimport bpy\nimport os\n\nscene = bpy.data.scenes['Scene']\ncamera_object = bpy.data.objects['Camera']\nout_folder = \"C:\u002FUsers\u002FYourName\u002FDesktop\u002Foutput\u002F\"\n\n# 启用保存真值数据选项\nbpy.context.scene.vision_blender.bool_save_gt_data = True\n\n# 设置总帧数\nscene.frame_end = 10\n\n# 逐帧渲染循环\nfor frame_n in range(1, 11): \n    scene.frame_set(frame_n)\n    # 更新相机位置或其他属性\n    camera_object.location = (frame_n+10, 0, 20)\n    # 设置输出路径\n    scene.render.filepath = os.path.join(out_folder, '{0:04}.png'.format(frame_n))\n    # 执行渲染（注意：单帧渲染不要加 animation=True，除非是渲染动画序列）\n    bpy.ops.render.render(write_still=True)\n```\n确保 `bool_save_gt_data` 为 True，并且是在每一帧渲染前设置好场景状态。","https:\u002F\u002Fgithub.com\u002FCartucho\u002Fvision_blender\u002Fissues\u002F17",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},17070,"为什么无法获取深度图、法线图或分割掩码等真值输出？","最常见的原因是输出格式设置错误。请检查 Blender 的渲染输出设置：\n1. 确保输出格式设置为图像格式（如 PNG 或 JPG）。\n2. **不要**选择 FFMPEG Video 或其他视频编码格式，视频格式会导致真值数据无法生成。\n3. 如果使用的是旧版本插件，可能存在 Bug，建议更新到最新版本。\n4. 检查临时文件夹（如 \u002Ftmp\u002F），有时文件会先写入那里，但主要问题通常是输出格式不对。","https:\u002F\u002Fgithub.com\u002FCartucho\u002Fvision_blender\u002Fissues\u002F11",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},17071,"报错 KeyError: 'Render Layers' not found 是什么原因？","这个错误通常发生在合成器（Compositor）节点树中没有找到名为 \"Render Layers\" 的节点时。虽然插件假设该节点总是存在，但在某些特定设置或手动修改过节点树的场景中可能缺失。\n解决方法：\n1. 打开 Blender 的 Compositing 工作区。\n2. 确保启用了 \"Use Nodes\"（使用节点）。\n3. 检查是否存在 \"Render Layers\" 节点。如果缺失，请按 Shift+A 添加一个 Render Layers 节点。\n4. 重新运行渲染。插件会在每次渲染时尝试重新设置节点，确保路径和节点配置正确。","https:\u002F\u002Fgithub.com\u002FCartucho\u002Fvision_blender\u002Fissues\u002F19",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},17072,"光流图像被保存到了临时目录（tmp），而不是指定的场景渲染路径，如何解决？","这个问题通常与 Blender 的启动方式或节点配置有关。维护者已修复此问题，现在的逻辑是：每当用户点击渲染时，插件会重新设置合成节点。\n这意味着：\n1. 即使你更改了输出路径，插件也会自动适配新的路径。\n2. 即使节点被手动修改，渲染时也会被重置为正确配置。\n如果你仍遇到此问题，请确保使用的是最新版本的插件。旧版本可能在处理非源码编译安装的 Blender 实例时，无法正确获取当前工作目录（os.getcwd()）。","https:\u002F\u002Fgithub.com\u002FCartucho\u002Fvision_blender\u002Fissues\u002F13",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},17073,"如何使用 Vision Blender 生成斯坦福兔子（Stanford Bunny）的分割数据？具体步骤是什么？","以下是生成物体分割真值数据的标准步骤：\n1. 将模型（如斯坦福兔子）导入 Blender。\n2. 将物体放置在相机前方合适的位置。\n3. 按照 README 安装并启用 Vision Blender 插件。\n4. 将渲染引擎（Render Engine）设置为 Cycles。\n5. **关键步骤**：在物体属性面板中，将该物体的 \"Pass Index\"（通道索引）设置为一个非 0 的整数（例如 1）。\n6. 渲染图像。\n7. 渲染完成后，使用提供的示例代码加载生成的 .npz 文件即可获取分割掩码数据。\n如果在任何一步遇到困难，可检查是否漏设了 Pass Index 或渲染引擎是否正确。","https:\u002F\u002Fgithub.com\u002FCartucho\u002Fvision_blender\u002Fissues\u002F10",[]]