[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-tensorflow--graphics":3,"tool-tensorflow--graphics":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":115,"forks":116,"last_commit_at":117,"license":118,"difficulty_score":119,"env_os":120,"env_gpu":120,"env_ram":120,"env_deps":121,"category_tags":125,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":126,"updated_at":127,"faqs":128,"releases":159},2463,"tensorflow\u002Fgraphics","graphics","TensorFlow Graphics: Differentiable Graphics Layers for TensorFlow","TensorFlow Graphics 是 Google 推出的一款开源库，旨在将计算机图形学的专业知识融入深度学习框架。它提供了一系列可微分的图形层和几何操作模块，如相机模型、反射模型、空间变换器以及网格卷积等，让开发者能够直接在 TensorFlow 中构建结合了几何先验知识的神经网络架构。\n\n传统机器学习在处理复杂的 3D 视觉任务时，往往依赖大量昂贵且难以获取的标注数据。TensorFlow Graphics 通过引入“分析合成”（Analysis by Synthesis）的理念，巧妙地将计算机视觉与计算机图形学相结合。在这种模式下，视觉系统负责从图像中提取场景参数（如物体位置、材质），而图形系统则利用这些参数重新渲染图像。如果渲染结果与原图一致，即证明提取准确。这种机制使得模型能够在几乎无需人工标注的情况下进行自监督学习，极大地降低了对大规模标注数据的依赖，同时提升了训练的鲁棒性和效率。\n\n此外，TensorFlow Graphics 还集成了实用的 3D 可视化工具（如 3D TensorBoard），帮助用户更直观地调试和监控模型状态。\n\n这款工具主要面向人工智能研究人","TensorFlow Graphics 是 Google 推出的一款开源库，旨在将计算机图形学的专业知识融入深度学习框架。它提供了一系列可微分的图形层和几何操作模块，如相机模型、反射模型、空间变换器以及网格卷积等，让开发者能够直接在 TensorFlow 中构建结合了几何先验知识的神经网络架构。\n\n传统机器学习在处理复杂的 3D 视觉任务时，往往依赖大量昂贵且难以获取的标注数据。TensorFlow Graphics 通过引入“分析合成”（Analysis by Synthesis）的理念，巧妙地将计算机视觉与计算机图形学相结合。在这种模式下，视觉系统负责从图像中提取场景参数（如物体位置、材质），而图形系统则利用这些参数重新渲染图像。如果渲染结果与原图一致，即证明提取准确。这种机制使得模型能够在几乎无需人工标注的情况下进行自监督学习，极大地降低了对大规模标注数据的依赖，同时提升了训练的鲁棒性和效率。\n\n此外，TensorFlow Graphics 还集成了实用的 3D 可视化工具（如 3D TensorBoard），帮助用户更直观地调试和监控模型状态。\n\n这款工具主要面向人工智能研究人员、计算机视觉工程师以及对 3D 深度学习感兴趣的开发者。如果你正在探索神经渲染、3D 重建、姿态估计或希望提升模型对三维世界理解能力的项目，TensorFlow Graphics 能提供强大的底层支持。它不仅是一个工具库，更是连接传统图形学理论与现代深度学习实践的桥梁，适合那些希望在模型中显式建模几何约束，以实现更高效、更智能视觉系统的专业人士使用。","# TensorFlow Graphics\n\n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-blue.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0)\n[![Build](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fworkflows\u002FBuild\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Factions)\n[![Code coverage](https:\u002F\u002Fimg.shields.io\u002Fcoveralls\u002Fgithub\u002Ftensorflow\u002Fgraphics.svg)](https:\u002F\u002Fcoveralls.io\u002Fgithub\u002Ftensorflow\u002Fgraphics)\n[![PyPI project status](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fstatus\u002Ftensorflow-graphics.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftensorflow-graphics\u002F)\n[![Supported Python version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Ftensorflow-graphics.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftensorflow-graphics\u002F)\n[![PyPI release version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Ftensorflow-graphics.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftensorflow-graphics\u002F)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorflow_graphics_readme_f617c87ed07f.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Ftensorflow-graphics)\n\nThe last few years have seen a rise in novel differentiable graphics layers\nwhich can be inserted in neural network architectures. From spatial transformers\nto differentiable graphics renderers, these new layers leverage the knowledge\nacquired over years of computer vision and graphics research to build new and\nmore efficient network architectures. Explicitly modeling geometric priors and\nconstraints into neural networks opens up the door to architectures that can be\ntrained robustly, efficiently, and more importantly, in a self-supervised\nfashion.\n\n## Overview\n\nAt a high level, a computer graphics pipeline requires a representation of 3D\nobjects and their absolute positioning in the scene, a description of the\nmaterial they are made of, lights and a camera. This scene description is then\ninterpreted by a renderer to generate a synthetic rendering.\n\n\u003Cdiv align=\"center\">\n  \u003Cimg border=\"0\"  src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fgit\u002Freadme\u002Fgraphics.jpg\" width=\"600\">\n\u003C\u002Fdiv>\n\nIn comparison, a computer vision system would start from an image and try to\ninfer the parameters of the scene. This allows the prediction of which objects\nare in the scene, what materials they are made of, and their three-dimensional\nposition and orientation.\n\n\u003Cdiv align=\"center\">\n  \u003Cimg border=\"0\"  src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fgit\u002Freadme\u002Fcv.jpg\" width=\"600\">\n\u003C\u002Fdiv>\n\nTraining machine learning systems capable of solving these complex 3D vision\ntasks most often requires large quantities of data. As labelling data is a\ncostly and complex process, it is important to have mechanisms to design machine\nlearning models that can comprehend the three dimensional world while being\ntrained without much supervision. Combining computer vision and computer\ngraphics techniques provides a unique opportunity to leverage the vast amounts\nof readily available unlabelled data. As illustrated in the image below, this\ncan, for instance, be achieved using analysis by synthesis where the vision\nsystem extracts the scene parameters and the graphics system renders back an\nimage based on them. If the rendering matches the original image, the vision\nsystem has accurately extracted the scene parameters. In this setup, computer\nvision and computer graphics go hand in hand, forming a single machine learning\nsystem similar to an autoencoder, which can be trained in a self-supervised\nmanner.\n\n\u003Cdiv align=\"center\">\n  \u003Cimg border=\"0\"  src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fgit\u002Freadme\u002Fcv_graphics.jpg\" width=\"600\">\n\u003C\u002Fdiv>\n\nTensorflow Graphics is being developed to help tackle these types of challenges\nand to do so, it provides a set of differentiable graphics and geometry layers\n(e.g. cameras, reflectance models, spatial transformations, mesh convolutions)\nand 3D viewer functionalities (e.g. 3D TensorBoard) that can be used to train\nand debug your machine learning models of choice.\n\n## Installing TensorFlow Graphics\n\nSee the [install](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fg3doc\u002Finstall.md)\ndocumentation for instructions on how to install TensorFlow Graphics.\n\n## API Documentation\n\nYou can find the API documentation\n[here](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fg3doc\u002Fapi_docs\u002Fpython\u002Ftfg.md).\n\n## Compatibility\n\nTensorFlow Graphics is fully compatible with the latest stable release of\nTensorFlow, tf-nightly, and tf-nightly-2.0-preview. All the functions are\ncompatible with graph and eager execution.\n\n## Debugging\n\nTensorflow Graphics heavily relies on L2 normalized tensors, as well as having\nthe inputs to specific function be in a pre-defined range. Checking for all of\nthis takes cycles, and hence is not activated by default. It is recommended to\nturn these checks on during a couple epochs of training to make sure that\neverything behaves as expected. This\n[page](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fg3doc\u002Fdebug_mode.md)\nprovides the instructions to enable these checks.\n\n## Colab tutorials\n\nTo help you get started with some of the functionalities provided by TF\nGraphics, some Colab notebooks are available below and roughly ordered by\ndifficulty. These Colabs touch upon a large range of topics including, object\npose estimation, interpolation, object materials, lighting, non-rigid surface\ndeformation, spherical harmonics, and mesh convolutions.\n\nNOTE: the tutorials are maintained carefully. However, they are not considered\npart of the API and they can change at any time without warning. It is not\nadvised to write code that takes dependency on them.\n\n### Beginner\n\n\u003Cdiv align=\"center\">\n  \u003Ctable>\n    \u003Ctr>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002F6dof_alignment.ipynb\">Object pose estimation\u003C\u002Fa>\u003C\u002Fth>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fintrinsics_optimization.ipynb\">Camera intrinsics optimization\u003C\u002Fa>\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002F6dof_alignment.ipynb\">\u003Cimg border=\"0\"  src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002F6dof_pose\u002Fthumbnail.jpg\" width=\"200\" height=\"200\">\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n              \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fintrinsics_optimization.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Fintrinsics\u002Fintrinsics_thumbnail.png\" width=\"200\" height=\"200\">\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n### Intermediate\n\n\u003Cdiv align=\"center\">\n  \u003Ctable>\n    \u003Ctr>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Finterpolation.ipynb\">B-spline and slerp interpolation\u003C\u002Fa>\u003C\u002Fth>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Freflectance.ipynb\">Reflectance\u003C\u002Fa>\u003C\u002Fth>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fnon_rigid_deformation.ipynb\">Non-rigid surface deformation\u003C\u002Fa>\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Finterpolation.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Finterpolation\u002Fthumbnail.png\" width=\"200\" height=\"200\"> \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Freflectance.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Freflectance\u002Fthumbnail.png\" width=\"200\" height=\"200\">\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fnon_rigid_deformation.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Fnon_rigid_deformation\u002Fthumbnail.jpg\" width=\"200\" height=\"200\">\n      \u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n### Advanced\n\n\u003Cdiv align=\"center\">\n  \u003Ctable>\n    \u003Ctr>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fspherical_harmonics_approximation.ipynb\">Spherical harmonics rendering\u003C\u002Fa>\u003C\u002Fth>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fspherical_harmonics_optimization.ipynb\">Environment map optimization\u003C\u002Fa>\u003C\u002Fth>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fmesh_segmentation_demo.ipynb\">Semantic mesh segmentation\u003C\u002Fa>\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fspherical_harmonics_approximation.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Fsh_rendering\u002Fthumbnail.png\" width=\"200\" height=\"200\">\n      \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fspherical_harmonics_optimization.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Fenvironment_lighting\u002Fthumbnail.png\" width=\"200\" height=\"200\">\n      \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fmesh_segmentation_demo.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Fmesh_segmentation\u002Fthumbnail.jpg\" width=\"200\" height=\"200\">\n      \u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n## TensorBoard 3D\n\nVisual debugging is a great way to assess whether an experiment is going in the\nright direction. To this end, TensorFlow Graphics comes with a TensorBoard\nplugin to interactively visualize 3D meshes and point clouds.\n[This demo](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Ftensorboard\u002Fblob\u002Fmaster\u002Ftensorboard\u002Fplugins\u002Fmesh\u002FMesh_Plugin_Tensorboard.ipynb)\nshows how to use the plugin. Follow\n[these instructions](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fg3doc\u002Ftensorboard.md)\nto install and configure TensorBoard 3D. Note that TensorBoard 3D is currently\nnot compatible with eager execution nor TensorFlow 2.\n\n\u003Cdiv align=\"center\">\n  \u003Cimg border=\"0\"  src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fgit\u002Freadme\u002Ftensorboard_plugin.jpg\" width=\"1280\">\n\u003C\u002Fdiv>\n\n## Coming next...\n\nAmong many things, we are hoping to release resamplers, additional 3D\nconvolution and pooling operators, and a differentiable rasterizer!\n\nFollow us on [Twitter](https:\u002F\u002Ftwitter.com\u002F_TFGraphics_) to hear about the\nlatest updates!\n\n## Additional Information\n\nYou may use this software under the\n[Apache 2.0 License](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002FLICENSE).\n\n## Community\n\nAs part of TensorFlow, we're committed to fostering an open and welcoming\nenvironment.\n\n*   [Stack Overflow](https:\u002F\u002Fstackoverflow.com\u002Fquestions\u002Ftagged\u002Ftensorflow): Ask\n    or answer technical questions.\n*   [GitHub](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fissues): Report bugs or make\n    feature requests.\n*   [TensorFlow Blog](https:\u002F\u002Fblog.tensorflow.org\u002F): Stay up to date on content\n    from the TensorFlow team and best articles from the community.\n*   [Youtube Channel](http:\u002F\u002Fyoutube.com\u002Ftensorflow\u002F): Follow TensorFlow shows.\n\n## References\n\nIf you use TensorFlow Graphics in your research, please reference it as:\n\n    @inproceedings{TensorflowGraphicsIO2019,\n       author = {Oztireli, Cengiz and Valentin, Julien and Keskin, Cem and Pidlypenskyi, Pavel and Makadia, Ameesh and Sud, Avneesh and Bouaziz, Sofien},\n       title = {TensorFlow Graphics: Computer Graphics Meets Deep Learning},\n       year = {2019}\n    }\n\n### Contact\n\nWant to reach out? E-mail us at tf-graphics-contact@google.com!\n\n### Contributors - in alphabetical order\n\n-   Sofien Bouaziz (sofien@google.com)\n-   Jay Busch\n-   Forrester Cole\n-   Ambrus Csaszar\n-   Boyang Deng\n-   Ariel Gordon\n-   Christian Häne\n-   Cem Keskin\n-   Ameesh Makadia\n-   Cengiz Öztireli\n-   Rohit Pandey\n-   Romain Prévost\n-   Pavel Pidlypenskyi\n-   Stefan Popov\n-   Konstantinos Rematas\n-   Omar Sanseviero\n-   Aviv Segal\n-   Avneesh Sud\n-   Andrea Tagliasacchi\n-   Anastasia Tkach\n-   Julien Valentin\n-   He Wang\n-   Yinda Zhang\n","# TensorFlow Graphics\n\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-blue.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0)\n[![构建](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fworkflows\u002FBuild\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Factions)\n[![代码覆盖率](https:\u002F\u002Fimg.shields.io\u002Fcoveralls\u002Fgithub\u002Ftensorflow\u002Fgraphics.svg)](https:\u002F\u002Fcoveralls.io\u002Fgithub\u002Ftensorflow\u002Fgraphics)\n[![PyPI 项目状态](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fstatus\u002Ftensorflow-graphics.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftensorflow-graphics\u002F)\n[![支持的 Python 版本](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Ftensorflow-graphics.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftensorflow-graphics\u002F)\n[![PyPI 发布版本](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Ftensorflow-graphics.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftensorflow-graphics\u002F)\n[![下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorflow_graphics_readme_f617c87ed07f.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Ftensorflow-graphics)\n\n近年来，新型可微分图形层不断涌现，这些层可以嵌入到神经网络架构中。从空间变换器到可微分图形渲染器，这些新层利用多年来计算机视觉和图形学研究积累的知识，构建出全新且更高效的网络架构。通过将几何先验和约束显式地建模到神经网络中，我们可以设计出能够鲁棒、高效地训练，更重要的是以自监督方式训练的网络架构。\n\n## 概述\n\n从高层次来看，计算机图形管线需要对3D对象及其在场景中的绝对位置进行表示，还需要描述它们的材质、光源和相机。然后，渲染器会解释这一场景描述，生成合成图像。\n\n\u003Cdiv align=\"center\">\n  \u003Cimg border=\"0\"  src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fgit\u002Freadme\u002Fgraphics.jpg\" width=\"600\">\n\u003C\u002Fdiv>\n\n相比之下，计算机视觉系统则从一张图像出发，尝试推断场景的参数。这使得系统能够预测场景中有哪些物体、它们由什么材质构成，以及它们的三维位置和姿态。\n\n\u003Cdiv align=\"center\">\n  \u003Cimg border=\"0\"  src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fgit\u002Freadme\u002Fcv.jpg\" width=\"600\">\n\u003C\u002Fdiv>\n\n训练能够解决这些复杂3D视觉任务的机器学习系统通常需要大量数据。由于标注数据是一个成本高昂且复杂的过程，因此设计能够在较少监督下训练，同时又能理解三维世界的机器学习模型至关重要。结合计算机视觉和计算机图形技术，为我们提供了一个独特的机会，可以充分利用大量现成的未标注数据。如图所示，例如可以通过“分析合成”的方法实现：视觉系统提取场景参数，而图形系统则根据这些参数重新渲染图像。如果渲染结果与原始图像一致，则说明视觉系统准确地提取了场景参数。在这种设置下，计算机视觉和计算机图形学相辅相成，形成一个类似于自编码器的单一机器学习系统，可以以自监督的方式进行训练。\n\n\u003Cdiv align=\"center\">\n  \u003Cimg border=\"0\"  src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fgit\u002Freadme\u002Fcv_graphics.jpg\" width=\"600\">\n\u003C\u002Fdiv>\n\nTensorFlow Graphics 正在开发中，旨在帮助应对这类挑战。为此，它提供了一系列可微分的图形和几何层（例如相机、反射率模型、空间变换、网格卷积）以及3D查看器功能（例如3D TensorBoard），可用于训练和调试您选择的机器学习模型。\n\n## 安装 TensorFlow Graphics\n\n请参阅 [安装文档](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fg3doc\u002Finstall.md)，了解如何安装 TensorFlow Graphics 的说明。\n\n## API 文档\n\n您可以在此处找到 API 文档：\n[API 文档](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fg3doc\u002Fapi_docs\u002Fpython\u002Ftfg.md)。\n\n## 兼容性\n\nTensorFlow Graphics 与 TensorFlow 的最新稳定版、tf-nightly 以及 tf-nightly-2.0-preview 完全兼容。所有函数都兼容图模式和急切执行模式。\n\n## 调试\n\nTensorFlow Graphics 大量依赖于 L2 归一化的张量，并且要求特定函数的输入处于预定义范围内。检查这些内容会消耗计算资源，因此默认情况下并未启用。建议在训练的前几个周期内开启这些检查，以确保一切按预期运行。此\n[页面](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fg3doc\u002Fdebug_mode.md)\n提供了启用这些检查的说明。\n\n## Colab 教程\n\n为了帮助您快速上手 TF Graphics 提供的一些功能，以下是一些按难度大致排序的 Colab 笔记本。这些 Colab 涉及广泛的主题，包括物体位姿估计、插值、物体材质、光照、非刚性表面变形、球面调和函数以及网格卷积等。\n\n注意：这些教程会得到精心维护，但它们并不被视为 API 的一部分，可能会随时更改而不另行通知。不建议编写依赖于这些教程的代码。\n\n### 初学者\n\n\u003Cdiv align=\"center\">\n  \u003Ctable>\n    \u003Ctr>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002F6dof_alignment.ipynb\">物体位姿估计\u003C\u002Fa>\u003C\u002Fth>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fintrinsics_optimization.ipynb\">相机内参优化\u003C\u002Fa>\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002F6dof_alignment.ipynb\">\u003Cimg border=\"0\"  src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002F6dof_pose\u002Fthumbnail.jpg\" width=\"200\" height=\"200\">\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n              \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fintrinsics_optimization.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Fintrinsics\u002Fintrinsics_thumbnail.png\" width=\"200\" height=\"200\">\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n### 中级\n\n\u003Cdiv align=\"center\">\n  \u003Ctable>\n    \u003Ctr>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Finterpolation.ipynb\">B样条与球面线性插值\u003C\u002Fa>\u003C\u002Fth>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Freflectance.ipynb\">反射特性\u003C\u002Fa>\u003C\u002Fth>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fnon_rigid_deformation.ipynb\">非刚性表面变形\u003C\u002Fa>\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Finterpolation.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Finterpolation\u002Fthumbnail.png\" width=\"200\" height=\"200\"> \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Freflectance.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Freflectance\u002Fthumbnail.png\" width=\"200\" height=\"200\">\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fnon_rigid_deformation.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Fnon_rigid_deformation\u002Fthumbnail.jpg\" width=\"200\" height=\"200\">\n      \u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n### 高级\n\n\u003Cdiv align=\"center\">\n  \u003Ctable>\n    \u003Ctr>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fspherical_harmonics_approximation.ipynb\">球谐函数渲染\u003C\u002Fa>\u003C\u002Fth>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fspherical_harmonics_optimization.ipynb\">环境贴图优化\u003C\u002Fa>\u003C\u002Fth>\n      \u003Cth style=\"text-align:center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fmesh_segmentation_demo.ipynb\">语义网格分割\u003C\u002Fa>\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fspherical_harmonics_approximation.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Fsh_rendering\u002Fthumbnail.png\" width=\"200\" height=\"200\">\n      \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fspherical_harmonics_optimization.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Fenvironment_lighting\u002Fthumbnail.png\" width=\"200\" height=\"200\">\n      \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002Fmesh_segmentation_demo.ipynb\">\u003Cimg border=\"0\" src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fnotebooks\u002Fmesh_segmentation\u002Fthumbnail.jpg\" width=\"200\" height=\"200\">\n      \u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n## TensorBoard 3D\n\n可视化调试是评估实验是否朝着正确方向发展的好方法。为此，TensorFlow Graphics 提供了一个 TensorBoard 插件，用于交互式地可视化 3D 网格和点云。\n[这个示例](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Ftensorboard\u002Fblob\u002Fmaster\u002Ftensorboard\u002Fplugins\u002Fmesh\u002FMesh_Plugin_Tensorboard.ipynb)\n展示了如何使用该插件。请按照\n[这些说明](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fg3doc\u002Ftensorboard.md)\n安装并配置 TensorBoard 3D。请注意，TensorBoard 3D 目前不兼容急切执行模式或 TensorFlow 2。\n\n\u003Cdiv align=\"center\">\n  \u003Cimg border=\"0\"  src=\"https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow-graphics\u002Fgit\u002Freadme\u002Ftensorboard_plugin.jpg\" width=\"1280\">\n\u003C\u002Fdiv>\n\n## 接下来...\n\n在众多计划中，我们希望发布重采样器、额外的 3D 卷积和池化算子，以及可微分光栅化器！\n\n请在 [Twitter](https:\u002F\u002Ftwitter.com\u002F_TFGraphics_) 上关注我们，以获取最新动态！\n\n## 其他信息\n\n您可以在\n[Apache 2.0 许可证](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002FLICENSE) 下使用本软件。\n\n## 社区\n\n作为 TensorFlow 的一部分，我们致力于营造开放且友好的环境。\n\n*   [Stack Overflow](https:\u002F\u002Fstackoverflow.com\u002Fquestions\u002Ftagged\u002Ftensorflow): 提问或回答技术问题。\n*   [GitHub](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fissues): 报告错误或提出功能请求。\n*   [TensorFlow 博客](https:\u002F\u002Fblog.tensorflow.org\u002F): 及时了解来自 TensorFlow 团队的内容及社区中的优秀文章。\n*   [YouTube 频道](http:\u002F\u002Fyoutube.com\u002Ftensorflow\u002F): 关注 TensorFlow 的各类节目。\n\n## 参考文献\n\n如果您在研究中使用了 TensorFlow Graphics，请按以下方式引用：\n\n    @inproceedings{TensorflowGraphicsIO2019,\n       author = {Oztireli, Cengiz and Valentin, Julien and Keskin, Cem and Pidlypenskyi, Pavel and Makadia, Ameesh and Sud, Avneesh and Bouaziz, Sofien},\n       title = {TensorFlow Graphics: 计算机图形学与深度学习的结合},\n       year = {2019}\n    }\n\n### 联系方式\n\n想联系我们吗？请发送邮件至 tf-graphics-contact@google.com！\n\n### 贡献者（按字母顺序排列）\n\n-   Sofien Bouaziz (sofien@google.com)\n-   Jay Busch\n-   Forrester Cole\n-   Ambrus Csaszar\n-   Boyang Deng\n-   Ariel Gordon\n-   Christian Häne\n-   Cem Keskin\n-   Ameesh Makadia\n-   Cengiz Öztireli\n-   Rohit Pandey\n-   Romain Prévost\n-   Pavel Pidlypenskyi\n-   Stefan Popov\n-   Konstantinos Rematas\n-   Omar Sanseviero\n-   Aviv Segal\n-   Avneesh Sud\n-   Andrea Tagliasacchi\n-   Anastasia Tkach\n-   Julien Valentin\n-   He Wang\n-   Yinda Zhang","# TensorFlow Graphics 快速上手指南\n\nTensorFlow Graphics 提供了一套可微分的图形学和几何学层（如相机模型、反射模型、空间变换、网格卷积等），旨在将计算机视觉与计算机图形学相结合，帮助开发者构建能够理解三维世界的机器学习模型，并支持自监督学习。\n\n## 环境准备\n\n*   **Python 版本**：支持 Python 3.x（具体支持版本请参考 PyPI 页面）。\n*   **核心依赖**：\n    *   TensorFlow：完全兼容最新稳定版 TensorFlow、`tf-nightly` 以及 `tf-nightly-2.0-preview`。\n    *   所有函数均兼容 Graph 模式和 Eager Execution 模式。\n*   **系统要求**：支持 Linux、macOS 和 Windows。\n\n## 安装步骤\n\n推荐使用 pip 进行安装。为了获得更快的下载速度，国内用户可以使用清华源或阿里源。\n\n### 1. 标准安装\n\n```bash\npip install tensorflow-graphics\n```\n\n### 2. 使用国内镜像源加速（推荐）\n\n```bash\npip install tensorflow-graphics -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n> **注意**：请确保已预先安装 compatible 版本的 TensorFlow。如果尚未安装，可以先执行 `pip install tensorflow`。\n\n## 基本使用\n\nTensorFlow Graphics 的核心在于其提供的可微分层。以下是一个简单的概念性示例，展示如何导入库并使用其中的几何工具（例如旋转矩阵）。\n\n### 代码示例：使用旋转工具\n\n```python\nimport tensorflow as tf\nfrom tensorflow_graphics.geometry.transformation import rotation_matrix_3d\n\n# 创建一个简单的旋转角度 (弧度)\n# 假设绕 Z 轴旋转 90 度\nangle_z = tf.constant([3.14159 \u002F 2.0])\n\n# 生成 3D 旋转矩阵\nrotation_mat = rotation_matrix_3d.from_euler_angles(\n    eulerAngles=tf.constant([[0.0, 0.0, angle_z[0]]])\n)\n\nprint(\"Rotation Matrix:\\n\", rotation_mat.numpy())\n```\n\n### 调试建议\n\nTensorFlow Graphics 严重依赖 L2 归一化张量，并要求特定函数的输入在预定义范围内。由于检查这些条件会消耗计算资源，默认情况下是关闭的。\n\n建议在训练的几个初始 epoch 中开启调试检查，以确保数据行为符合预期：\n\n```python\n# 启用调试模式（具体配置请参考官方 debug_mode 文档）\nimport tensorflow_graphics\ntensorflow_graphics.enable_debug_mode()\n```\n\n## 进阶学习与可视化\n\n*   **Colab 教程**：官方提供了从入门到高级的多个 Colab 笔记本，涵盖物体姿态估计、相机内参优化、插值、反射模型、非刚性表面变形、球谐函数渲染及网格分割等主题。建议从 [Object pose estimation](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Ftensorflow\u002Fgraphics\u002Fblob\u002Fmaster\u002Ftensorflow_graphics\u002Fnotebooks\u002F6dof_alignment.ipynb) 开始。\n*   **TensorBoard 3D**：TF Graphics 包含一个 TensorBoard 插件，用于交互式可视化 3D 网格和点云。\n    *   *注意*：TensorBoard 3D 目前不支持 Eager Execution 和 TensorFlow 2，主要用于基于 Graph 模式的调试。","某自动驾驶初创公司的算法团队正致力于开发一套单目深度估计系统，旨在仅通过车载摄像头画面精准还原周围环境的三维结构，以提升车辆在复杂路况下的感知能力。\n\n### 没有 graphics 时\n- **数据标注成本极高**：为了训练模型理解3D空间，团队必须依赖昂贵的激光雷达采集真值数据或人工逐帧标注深度图，导致数据集规模受限且迭代缓慢。\n- **几何一致性差**：纯深度学习模型往往缺乏对物理世界的几何约束，预测出的物体形状容易扭曲，且在视角变换时出现不自然的形变，难以满足安全驾驶要求。\n- **调试黑盒化**：当模型预测出错时，开发人员只能观察最终的2D深度图误差，无法直观拆解是相机参数估计错误、光照建模偏差还是几何变换出了问题，排查效率极低。\n- **泛化能力弱**：由于过度依赖特定场景的标注数据，模型在遇到未见过的光照条件或新城市环境时，性能大幅下降，缺乏鲁棒性。\n\n### 使用 graphics 后\n- **实现自监督训练**：利用 graphics 提供的可微分渲染层，团队构建了“分析-by-合成”架构。模型预测3D参数后重绘图像，通过与原图对比计算损失，从而直接利用海量无标签视频数据进行训练，大幅降低数据成本。\n- **嵌入几何先验**：通过集成可微分的相机模型和空间变换器，将严格的几何约束直接植入神经网络，确保预测结果符合物理规律，显著提升了3D重建的结构准确性和视角一致性。\n- **可视化调试增强**：借助内置的 3D TensorBoard 功能，开发者能实时可视化中间层的3D网格、法向量和光照参数，快速定位是几何编码还是渲染环节导致了误差，调试周期缩短一半以上。\n- **鲁棒性显著提升**：结合可微分反射模型，系统能更好地解耦材质与光照，使得模型在不同天气和光照条件下仍能保持稳定的深度预测性能。\n\n核心价值在于 graphics 将计算机图形学的物理规则融入深度学习，让模型在无需昂贵标注的情况下，也能学会像人类一样理解真实的三维世界。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorflow_graphics_ca5e9f87.png","tensorflow","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftensorflow_07ed5093.png","",null,"github-admin@tensorflow.org","http:\u002F\u002Fwww.tensorflow.org","https:\u002F\u002Fgithub.com\u002Ftensorflow",[84,88,92,96,100,104,108,112],{"name":85,"color":86,"percentage":87},"Python","#3572A5",84.6,{"name":89,"color":90,"percentage":91},"Jupyter Notebook","#DA5B0B",9.3,{"name":93,"color":94,"percentage":95},"C++","#f34b7d",4.4,{"name":97,"color":98,"percentage":99},"JavaScript","#f1e05a",0.8,{"name":101,"color":102,"percentage":103},"Cython","#fedf5b",0.5,{"name":105,"color":106,"percentage":107},"Shell","#89e051",0.2,{"name":109,"color":110,"percentage":111},"C","#555555",0.1,{"name":113,"color":114,"percentage":111},"Starlark","#76d275",2782,370,"2026-03-30T01:52:53","Apache-2.0",1,"未说明",{"notes":122,"python":120,"dependencies":123},"1. 兼容性：完全兼容最新稳定版 TensorFlow、tf-nightly 和 tf-nightly-2.0-preview；所有函数均兼容图模式（graph）和即时执行模式（eager execution）。\n2. TensorBoard 3D 限制：TensorBoard 3D 插件目前不兼容即时执行模式（eager execution）以及 TensorFlow 2。\n3. 调试建议：由于库严重依赖 L2 归一化张量及特定输入范围，建议在训练初期开启调试检查以确保行为符合预期，默认情况下这些检查是关闭的以节省计算资源。",[124],"tensorflow (latest stable, tf-nightly, or tf-nightly-2.0-preview)",[14,13,54],"2026-03-27T02:49:30.150509","2026-04-06T06:56:48.208499",[129,134,139,144,149,154],{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},11339,"在 TensorFlow 2.0+ 中使用 tensorflow-graphics 时出现 'int' object has no attribute 'value' 错误怎么办？","这是由于 TF2 中 tensor.shape 返回的是整数而非 Dimension 对象导致的兼容性问题。虽然该问题已在 GitHub 源码版本中修复，但在正式发布包更新前，可以使用以下代码作为临时补丁：\n\n```python\nimport sys\nimport tensorflow as tf\n\nmodule = sys.modules['tensorflow_graphics.util.shape']\ndef _get_dim(tensor, axis):\n    \"\"\"Returns dimensionality of a tensor for a given axis.\"\"\"\n    return tf.compat.v1.dimension_value(tensor.shape[axis])\n\nmodule._get_dim = _get_dim\nsys.modules['tensorflow_graphics.util.shape'] = module\n```\n此代码通过 monkey-patch 替换了内部函数以使用兼容的 API。","https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fissues\u002F15",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},11340,"如何将 .obj 等常见 3D 格式文件转换为 TensorFlow 可用的数据格式（如 tfrecords）？","目前官方没有提供直接的转换工具，但你可以编写脚本解析 .obj 文件。解析时需注意两点关键细节：\n1. 即使 .obj 文件没有标签，也需要初始化一个标签 tensor。\n2. .obj 文件中的面（face\u002Ftriangle）索引是从 1 开始的，而 TensorFlow Graphics 库中索引是从 0 开始的，因此需要将索引减 1。\n\n解析示例逻辑如下：\n```python\ndef parse_obj(file_path):\n    vertices = []\n    triangles = []\n    with open(file_path) as fp:\n        for line in fp:\n            parsed = _parse_vertex_or_triangle(line)\n            if parsed[0] == 'v':\n                vertices.append(parsed[1])\n            if parsed[0] == 'f':\n                # 注意：这里需要处理索引从1到0的转换\n                triangles.append(parsed[1]) \n    # 转换为 constant 或存入 tfrecords\n    vertices = tf.constant(np.vstack(vertices))\n    triangles = tf.constant(np.vstack(triangles))\n    return vertices, triangles\n```","https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fissues\u002F14",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},11341,"如何计算三角化点（triangulated points）的不确定性或权重？","`triangulate` 函数本身不直接返回输出的不确定性，但你可以通过计算三角化点到原始射线的距离来评估其质量。可以使用 `distance_to_ray` 函数来实现。以下代码片段展示了如何计算加权平均距离：\n\n```python\nimport tensorflow as tf\nfrom tensorflow_graphics.geometry.representation.point import distance_to_ray\nfrom tensorflow_graphics.geometry.representation.ray import triangulate\n\n# 假设已初始化 startpoints, endpoints 和 weights\nintersection_points = triangulate(startpoints, endpoints, weights)\n\n# distance_to_ray API 假设每个距离计算对应一个点，因此需要扩展维度以匹配射线数量\nintersection_points_expanded = tf.tile(\n    tf.expand_dims(intersection_points, axis=-2), \n    (1, 1, startpoints.shape[-2], 1)\n)\n\n# 计算距离\ndists = distance_to_ray(intersection_points_expanded, startpoints, endpoints)\n# 后续可根据 dists 计算权重或置信度\n```","https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fissues\u002F129",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},11342,"TensorFlow Graphics 是否支持可微分渲染器（Differentiable Rasterizer）？","是的，项目计划并正在开发基于 OpenGL 的高效 GPU 可微分光栅化器。早期的演示主要基于光线追踪（ray tracer），效率较低。维护者确认正在完成可微分光栅化器的打包工作，这将是未来的核心功能之一，用于替代或补充现有的基于球体和三角形相交的光线追踪实现。","https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fissues\u002F11",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},11343,"如何在 TensorFlow Graphics 中使用 .obj 文件？","TensorFlow Graphics 本身不提供 .obj 文件解析器。你需要使用第三方的 .obj 解析库读取文件，然后将提取的顶点（vertices）和面（faces\u002Ftriangles）数据转换为 TensorFlow Graphics 所需的张量格式输入即可。这两个步骤是独立的。","https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fissues\u002F23",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},11344,"TensorFlow Graphics 的开发路线图和未来计划是什么？","根据维护者的说明，主要发展方向包括：\n1. 完成可微分光栅化器（differentiable rasterizer）的封装和发布。\n2. 启动特别兴趣小组（SIG），重点关注可微分渲染、神经渲染、前后处理工具和网络实现。\n3. 建立文件夹模型，允许贡献者以子模块的形式提交他们的出版物和研究代码。\n具体路线图曾发布在 Issue #340 中供社区参考。","https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fgraphics\u002Fissues\u002F132",[160],{"id":161,"version":162,"summary_zh":163,"released_at":164},61847,"1.0.0","TensorFlow Graphics 初次发布。","2019-05-09T10:06:22"]