[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-tensorflow--transform":3,"tool-tensorflow--transform":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":100,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":101,"updated_at":102,"faqs":103,"releases":124},9064,"tensorflow\u002Ftransform","transform","Input pipeline framework","TensorFlow Transform 是一个专为 TensorFlow 打造的数据预处理框架，旨在解决机器学习流程中训练与服务阶段数据不一致的难题。在传统工作流中，开发者往往需要分别编写训练时的数据处理代码和服务时的推理代码，这种割裂容易导致“训练 - 服务偏差”，进而影响模型效果。\n\n该工具的核心优势在于支持“全量遍历”式的数据处理。它不仅能像普通 TensorFlow 操作那样处理单个样本或批次数据，更能对整个数据集进行扫描，从而计算出全局统计信息（如均值、标准差），并据此执行归一化、构建词汇表或将连续数值分桶等操作。最关键的是，TensorFlow Transform 会将这些预处理逻辑导出为一个统一的 TensorFlow 计算图。这意味着训练环境和线上服务环境复用同一套转换逻辑，从根源上消除了因代码不一致引发的偏差。\n\n由于底层依赖 Apache Beam 进行分布式计算，它能够高效处理大规模数据集。这款工具非常适合从事机器学习工程化的开发者、数据科学家以及研究人员使用，特别是那些需要在生产环境中部署高可靠性 TensorFlow 模型的用户。如果你希望构建严谨、可复现且","TensorFlow Transform 是一个专为 TensorFlow 打造的数据预处理框架，旨在解决机器学习流程中训练与服务阶段数据不一致的难题。在传统工作流中，开发者往往需要分别编写训练时的数据处理代码和服务时的推理代码，这种割裂容易导致“训练 - 服务偏差”，进而影响模型效果。\n\n该工具的核心优势在于支持“全量遍历”式的数据处理。它不仅能像普通 TensorFlow 操作那样处理单个样本或批次数据，更能对整个数据集进行扫描，从而计算出全局统计信息（如均值、标准差），并据此执行归一化、构建词汇表或将连续数值分桶等操作。最关键的是，TensorFlow Transform 会将这些预处理逻辑导出为一个统一的 TensorFlow 计算图。这意味着训练环境和线上服务环境复用同一套转换逻辑，从根源上消除了因代码不一致引发的偏差。\n\n由于底层依赖 Apache Beam 进行分布式计算，它能够高效处理大规模数据集。这款工具非常适合从事机器学习工程化的开发者、数据科学家以及研究人员使用，特别是那些需要在生产环境中部署高可靠性 TensorFlow 模型的用户。如果你希望构建严谨、可复现且无偏差的端到端机器学习流水线，TensorFlow Transform 将是不可或缺的基础设施。","\u003C!-- See: www.tensorflow.org\u002Ftfx\u002Ftransform\u002F -->\n\n# TensorFlow Transform\n\n[![Python](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython%7C3.9%7C3.10%7C3.11-blue)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform)\n[![PyPI](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Ftensorflow-transform.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Ftensorflow-transform)\n[![Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fapi-reference-blue.svg)](https:\u002F\u002Fwww.tensorflow.org\u002Ftfx\u002Ftransform\u002Fapi_docs\u002Fpython\u002Ftft)\n\n*TensorFlow Transform* is a library for preprocessing data with TensorFlow.\n`tf.Transform` is useful for data that requires a full-pass, such as:\n\n* Normalize an input value by mean and standard deviation.\n* Convert strings to integers by generating a vocabulary over all input values.\n* Convert floats to integers by assigning them to buckets based on the observed\n  data distribution.\n\nTensorFlow has built-in support for manipulations on a single example or a batch\nof examples. `tf.Transform` extends these capabilities to support full-passes\nover the example data.\n\nThe output of `tf.Transform` is exported as a\n[TensorFlow graph](http:\u002F\u002Ftensorflow.org\u002Fguide\u002Fgraphs) to use for training and\nserving. Using the same graph for both training and serving can prevent skew\nsince the same transformations are applied in both stages.\n\nFor an introduction to `tf.Transform`, see the `tf.Transform` section of the\nTFX Dev Summit talk on TFX\n([link](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vdG7uKQ2eKk&feature=youtu.be&t=199)).\n\n## Installation\n\nThe `tensorflow-transform`\n[PyPI package](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftensorflow-transform\u002F) is the\nrecommended way to install `tf.Transform`:\n\n```bash\npip install tensorflow-transform\n```\n\n### Build TFT from source\n\nTo build from source follow the following steps:\nCreate a virtual environment by running the commands\n\n```bash\npython -m venv \u003Cvirtualenv_name>\nsource \u003Cvirtualenv_name>\u002Fbin\u002Factivate\ngit clone https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform.git\ncd transform\npip install .\n```\n\nIf you are doing development on the TFT repo, replace\n\n```bash\npip install .\n```\n\nwith\n\n```bash\npip install -e .\n```\n\nThe `-e` flag causes TFT to be installed in [development mode](https:\u002F\u002Fsetuptools.pypa.io\u002Fen\u002Flatest\u002Fuserguide\u002Fdevelopment_mode.html).\n\n### Nightly Packages\n\nTFT also hosts nightly packages at https:\u002F\u002Fpypi-nightly.tensorflow.org on\nGoogle Cloud. To install the latest nightly package, please use the following\ncommand:\n\n```bash\npip install --extra-index-url https:\u002F\u002Fpypi-nightly.tensorflow.org\u002Fsimple tensorflow-transform\n```\n\nThis will install the nightly packages for the major dependencies of TFT such\nas TensorFlow Metadata (TFMD), TFX Basic Shared Libraries (TFX-BSL).\n\n### Running Tests\n\nTo run TFT tests, run the following command from the root of the repository:\n\n```bash\npytest\n```\n\n### Notable Dependencies\n\nTensorFlow is required.\n\n[Apache Beam](https:\u002F\u002Fbeam.apache.org\u002F) is required; it's the way that efficient\ndistributed computation is supported. By default, Apache Beam runs in local\nmode but can also run in distributed mode using\n[Google Cloud Dataflow](https:\u002F\u002Fcloud.google.com\u002Fdataflow\u002F) and other Apache\nBeam\n[runners](https:\u002F\u002Fbeam.apache.org\u002Fdocumentation\u002Frunners\u002Fcapability-matrix\u002F).\n\n[Apache Arrow](https:\u002F\u002Farrow.apache.org\u002F) is also required. TFT uses Arrow to\nrepresent data internally in order to make use of vectorized numpy functions.\n\n## Compatible versions\n\nThe following table is the `tf.Transform` package versions that are\ncompatible with each other. This is determined by our testing framework, but\nother *untested* combinations may also work.\n\ntensorflow-transform                                                            | apache-beam[gcp] | pyarrow | tensorflow        | tensorflow-metadata | tfx-bsl |\n------------------------------------------------------------------------------- | -----------------| --------|-------------------|---------------------|---------|\n[GitHub master](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fmaster\u002FRELEASE.md) | 2.65.0           | 10.0.1  | nightly (2.x)     | 1.17.1              | 1.17.1  |\n[1.17.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.17.0\u002FRELEASE.md)       | 2.65.0           | 10.0.1  | 2.17              | 1.17.1              | 1.17.1  |\n[1.16.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.16.0\u002FRELEASE.md)       | 2.60.0           | 10.0.1  | 2.16              | 1.16.1              | 1.16.1  |\n[1.15.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.15.0\u002FRELEASE.md)       | 2.47.0           | 10.0.0  | 2.15              | 1.15.0              | 1.15.1  |\n[1.14.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.14.0\u002FRELEASE.md)       | 2.47.0           | 10.0.0  | 2.13              | 1.14.0              | 1.14.0  |\n[1.13.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.13.0\u002FRELEASE.md)       | 2.41.0           | 6.0.0   | 2.12              | 1.13.1              | 1.13.0  |\n[1.12.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.12.0\u002FRELEASE.md)       | 2.41.0           | 6.0.0   | 2.11              | 1.12.0              | 1.12.0  |\n[1.11.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.11.0\u002FRELEASE.md)       | 2.41.0           | 6.0.0   | 1.15.5 \u002F 2.10     | 1.11.0              | 1.11.0  |\n[1.10.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.10.0\u002FRELEASE.md)       | 2.40.0           | 6.0.0   | 1.15.5 \u002F 2.9      | 1.10.0              | 1.10.0  |\n[1.9.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.9.0\u002FRELEASE.md)         | 2.38.0           | 5.0.0   | 1.15.5 \u002F 2.9      | 1.9.0               | 1.9.0   |\n[1.8.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.8.0\u002FRELEASE.md)         | 2.38.0           | 5.0.0   | 1.15.5 \u002F 2.8      | 1.8.0               | 1.8.0   |\n[1.7.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.7.0\u002FRELEASE.md)         | 2.36.0           | 5.0.0   | 1.15.5 \u002F 2.8      | 1.7.0               | 1.7.0   |\n[1.6.1](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.6.1\u002FRELEASE.md)         | 2.35.0           | 5.0.0   | 1.15.5 \u002F 2.8      | 1.6.0               | 1.6.0   |\n[1.6.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.6.0\u002FRELEASE.md)         | 2.35.0           | 5.0.0   | 1.15.5 \u002F 2.7      | 1.6.0               | 1.6.0   |\n[1.5.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.5.0\u002FRELEASE.md)         | 2.34.0           | 5.0.0   | 1.15.2 \u002F 2.7      | 1.5.0               | 1.5.0   |\n[1.4.1](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.4.1\u002FRELEASE.md)         | 2.33.0           | 4.0.1   | 1.15.2 \u002F 2.6      | 1.4.0               | 1.4.0   |\n[1.4.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.4.0\u002FRELEASE.md)         | 2.33.0           | 4.0.1   | 1.15.2 \u002F 2.6      | 1.4.0               | 1.4.0   |\n[1.3.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.3.0\u002FRELEASE.md)         | 2.31.0           | 2.0.0   | 1.15.2 \u002F 2.6      | 1.2.0               | 1.3.0   |\n[1.2.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.2.0\u002FRELEASE.md)         | 2.31.0           | 2.0.0   | 1.15.2 \u002F 2.5      | 1.2.0               | 1.2.0   |\n[1.1.1](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.1.1\u002FRELEASE.md)         | 2.29.0           | 2.0.0   | 1.15.2 \u002F 2.5      | 1.1.0               | 1.1.1   |\n[1.1.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.1.0\u002FRELEASE.md)         | 2.29.0           | 2.0.0   | 1.15.2 \u002F 2.5      | 1.1.0               | 1.1.0   |\n[1.0.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.0.0\u002FRELEASE.md)         | 2.29.0           | 2.0.0   | 1.15 \u002F 2.5        | 1.0.0               | 1.0.0   |\n[0.30.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.30.0\u002FRELEASE.md)       | 2.28.0           | 2.0.0   | 1.15 \u002F 2.4        | 0.30.0              | 0.30.0  |\n[0.29.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.29.0\u002FRELEASE.md)       | 2.28.0           | 2.0.0   | 1.15 \u002F 2.4        | 0.29.0              | 0.29.0  |\n[0.28.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.28.0\u002FRELEASE.md)       | 2.28.0           | 2.0.0   | 1.15 \u002F 2.4        | 0.28.0              | 0.28.1  |\n[0.27.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.27.0\u002FRELEASE.md)       | 2.27.0           | 2.0.0   | 1.15 \u002F 2.4        | 0.27.0              | 0.27.0  |\n[0.26.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.26.0\u002FRELEASE.md)       | 2.25.0           | 0.17.0  | 1.15 \u002F 2.3        | 0.26.0              | 0.26.0  |\n[0.25.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.25.0\u002FRELEASE.md)       | 2.25.0           | 0.17.0  | 1.15 \u002F 2.3        | 0.25.0              | 0.25.0  |\n[0.24.1](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.24.1\u002FRELEASE.md)       | 2.24.0           | 0.17.0  | 1.15 \u002F 2.3        | 0.24.0              | 0.24.1  |\n[0.24.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.24.0\u002FRELEASE.md)       | 2.23.0           | 0.17.0  | 1.15 \u002F 2.3        | 0.24.0              | 0.24.0  |\n[0.23.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.23.0\u002FRELEASE.md)       | 2.23.0           | 0.17.0  | 1.15 \u002F 2.3        | 0.23.0              | 0.23.0  |\n[0.22.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.22.0\u002FRELEASE.md)       | 2.20.0           | 0.16.0  | 1.15 \u002F 2.2        | 0.22.0              | 0.22.0  |\n[0.21.2](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.21.2\u002FRELEASE.md)       | 2.17.0           | 0.15.0  | 1.15 \u002F 2.1        | 0.21.0              | 0.21.3  |\n[0.21.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.21.0\u002FRELEASE.md)       | 2.17.0           | 0.15.0  | 1.15 \u002F 2.1        | 0.21.0              | 0.21.0  |\n[0.15.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.15.0\u002FRELEASE.md)       | 2.16.0           | 0.14.0  | 1.15 \u002F 2.0        | 0.15.0              | 0.15.0  |\n[0.14.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.14.0\u002FRELEASE.md)       | 2.14.0           | 0.14.0  | 1.14              | 0.14.0              | n\u002Fa     |\n[0.13.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.13.0\u002FRELEASE.md)       | 2.11.0           | n\u002Fa     | 1.13              | 0.12.1              | n\u002Fa     |\n[0.12.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.12.0\u002FRELEASE.md)       | 2.10.0           | n\u002Fa     | 1.12              | 0.12.0              | n\u002Fa     |\n[0.11.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.11.0\u002FRELEASE.md)       | 2.8.0            | n\u002Fa     | 1.11              | 0.9.0               | n\u002Fa     |\n[0.9.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.9.0\u002FRELEASE.md)         | 2.6.0            | n\u002Fa     | 1.9               | 0.9.0               | n\u002Fa     |\n[0.8.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.8.0\u002FRELEASE.md)         | 2.5.0            | n\u002Fa     | 1.8               | n\u002Fa                 | n\u002Fa     |\n[0.6.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.6.0\u002FRELEASE.md)         | 2.4.0            | n\u002Fa     | 1.6               | n\u002Fa                 | n\u002Fa     |\n[0.5.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.5.0\u002FRELEASE.md)         | 2.3.0            | n\u002Fa     | 1.5               | n\u002Fa                 | n\u002Fa     |\n[0.4.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.4.0\u002FRELEASE.md)         | 2.2.0            | n\u002Fa     | 1.4               | n\u002Fa                 | n\u002Fa     |\n[0.3.1](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.3.1\u002FRELEASE.md)         | 2.1.1            | n\u002Fa     | 1.3               | n\u002Fa                 | n\u002Fa     |\n[0.3.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.3.0\u002FRELEASE.md)         | 2.1.1            | n\u002Fa     | 1.3               | n\u002Fa                 | n\u002Fa     |\n[0.1.10](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.1.10\u002FRELEASE.md)       | 2.0.0            | n\u002Fa     | 1.0               | n\u002Fa                 | n\u002Fa     |\n\n## Questions\n\nPlease direct any questions about working with `tf.Transform` to\n[Stack Overflow](https:\u002F\u002Fstackoverflow.com) using the\n[tensorflow-transform](https:\u002F\u002Fstackoverflow.com\u002Fquestions\u002Ftagged\u002Ftensorflow-transform)\ntag.\n","\u003C!-- 参见：www.tensorflow.org\u002Ftfx\u002Ftransform\u002F -->\n\n# TensorFlow Transform\n\n[![Python](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython%7C3.9%7C3.10%7C3.11-blue)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform)\n[![PyPI](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Ftensorflow-transform.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Ftensorflow-transform)\n[![Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fapi-reference-blue.svg)](https:\u002F\u002Fwww.tensorflow.org\u002Ftfx\u002Ftransform\u002Fapi_docs\u002Fpython\u002Ftft)\n\n*TensorFlow Transform* 是一个用于使用 TensorFlow 预处理数据的库。\n`tf.Transform` 对于需要完整遍历的数据非常有用，例如：\n\n* 根据均值和标准差对输入值进行归一化。\n* 通过在所有输入值上生成词汇表，将字符串转换为整数。\n* 根据观察到的数据分布，将浮点数分配到不同的桶中以转换为整数。\n\nTensorFlow 内置支持对单个样本或一批样本的操作。`tf.Transform` 扩展了这些功能，使其能够支持对整个数据集的完整遍历。\n\n`tf.Transform` 的输出会导出为一个\n[TensorFlow 图](http:\u002F\u002Ftensorflow.org\u002Fguide\u002Fgraphs)，用于训练和推理阶段。在训练和推理阶段使用相同的图可以避免数据偏移，因为两个阶段应用了相同的转换。\n\n有关 `tf.Transform` 的介绍，请参阅 TFX 开发者峰会关于 TFX 的演讲中的 `tf.Transform` 部分\n([链接](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vdG7uKQ2eKk&feature=youtu.be&t=199))。\n\n## 安装\n\n推荐使用 `tensorflow-transform`\n[PyPI 包](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftensorflow-transform\u002F) 来安装 `tf.Transform`：\n\n```bash\npip install tensorflow-transform\n```\n\n### 从源代码构建 TFT\n\n要从源代码构建，请按照以下步骤操作：\n首先创建一个虚拟环境，运行以下命令：\n\n```bash\npython -m venv \u003Cvirtualenv_name>\nsource \u003Cvirtualenv_name>\u002Fbin\u002Factivate\ngit clone https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform.git\ncd transform\npip install .\n```\n\n如果您正在开发 TFT 仓库，请将\n\n```bash\npip install .\n```\n\n替换为\n\n```bash\npip install -e .\n```\n\n`-e` 标志会使 TFT 以 [开发模式](https:\u002F\u002Fsetuptools.pypa.io\u002Fen\u002Flatest\u002Fuserguide\u002Fdevelopment_mode.html) 安装。\n\n### 每日构建包\n\nTFT 还在 Google Cloud 上的 https:\u002F\u002Fpypi-nightly.tensorflow.org 提供每日构建包。要安装最新的每日构建包，请使用以下命令：\n\n```bash\npip install --extra-index-url https:\u002F\u002Fpypi-nightly.tensorflow.org\u002Fsimple tensorflow-transform\n```\n\n这将安装 TFT 主要依赖项的每日构建包，例如 TensorFlow Metadata (TFMD) 和 TFX Basic Shared Libraries (TFX-BSL)。\n\n### 运行测试\n\n要运行 TFT 测试，请从仓库根目录运行以下命令：\n\n```bash\npytest\n```\n\n### 重要依赖项\n\n需要 TensorFlow。\n\n还需要 [Apache Beam](https:\u002F\u002Fbeam.apache.org\u002F)；它是支持高效分布式计算的方式。默认情况下，Apache Beam 以本地模式运行，但也可以使用\n[Google Cloud Dataflow](https:\u002F\u002Fcloud.google.com\u002Fdataflow\u002F) 和其他 Apache Beam\n[运行器](https:\u002F\u002Fbeam.apache.org\u002Fdocumentation\u002Frunners\u002Fcapability-matrix\u002F) 以分布式模式运行。\n\n此外，还需要 [Apache Arrow](https:\u002F\u002Farrow.apache.org\u002F)。TFT 使用 Arrow 在内部表示数据，以便利用向量化 numpy 函数。\n\n## 兼容版本\n\n下表列出了彼此兼容的 `tf.Transform` 包版本。这是由我们的测试框架确定的，但其他未经过测试的组合也可能有效。\n\ntensorflow-transform                                                            | apache-beam[gcp] | pyarrow | tensorflow        | tensorflow-metadata | tfx-bsl |\n------------------------------------------------------------------------------- | -----------------| --------|-------------------|---------------------|---------|\n[GitHub master](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fmaster\u002FRELEASE.md) | 2.65.0           | 10.0.1  | nightly (2.x)     | 1.17.1              | 1.17.1  |\n[1.17.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.17.0\u002FRELEASE.md)       | 2.65.0           | 10.0.1  | 2.17              | 1.17.1              | 1.17.1  |\n[1.16.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.16.0\u002FRELEASE.md)       | 2.60.0           | 10.0.1  | 2.16              | 1.16.1              | 1.16.1  |\n[1.15.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.15.0\u002FRELEASE.md)       | 2.47.0           | 10.0.0  | 2.15              | 1.15.0              | 1.15.1  |\n[1.14.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.14.0\u002FRELEASE.md)       | 2.47.0           | 10.0.0  | 2.13              | 1.14.0              | 1.14.0  |\n[1.13.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.13.0\u002FRELEASE.md)       | 2.41.0           | 6.0.0   | 2.12              | 1.13.1              | 1.13.0  |\n[1.12.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.12.0\u002FRELEASE.md)       | 2.41.0           | 6.0.0   | 2.11              | 1.12.0              | 1.12.0  |\n[1.11.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.11.0\u002FRELEASE.md)       | 2.41.0           | 6.0.0   | 1.15.5 \u002F 2.10     | 1.11.0              | 1.11.0  |\n[1.10.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.10.0\u002FRELEASE.md)       | 2.40.0           | 6.0.0   | 1.15.5 \u002F 2.9      | 1.10.0              | 1.10.0  |\n[1.9.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.9.0\u002FRELEASE.md)         | 2.38.0           | 5.0.0   | 1.15.5 \u002F 2.9      | 1.9.0               | 1.9.0   |\n[1.8.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.8.0\u002FRELEASE.md)         | 2.38.0           | 5.0.0   | 1.15.5 \u002F 2.8      | 1.8.0               | 1.8.0   |\n[1.7.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.7.0\u002FRELEASE.md)         | 2.36.0           | 5.0.0   | 1.15.5 \u002F 2.8      | 1.7.0               | 1.7.0   |\n[1.6.1](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.6.1\u002FRELEASE.md)         | 2.35.0           | 5.0.0   | 1.15.5 \u002F 2.8      | 1.6.0               | 1.6.0   |\n[1.6.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.6.0\u002FRELEASE.md)         | 2.35.0           | 5.0.0   | 1.15.5 \u002F 2.7      | 1.6.0               | 1.6.0   |\n[1.5.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.5.0\u002FRELEASE.md)         | 2.34.0           | 5.0.0   | 1.15.2 \u002F 2.7      | 1.5.0               | 1.5.0   |\n[1.4.1](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.4.1\u002FRELEASE.md)         | 2.33.0           | 4.0.1   | 1.15.2 \u002F 2.6      | 1.4.0               | 1.4.0   |\n[1.4.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.4.0\u002FRELEASE.md)         | 2.33.0           | 4.0.1   | 1.15.2 \u002F 2.6      | 1.4.0               | 1.4.0   |\n[1.3.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.3.0\u002FRELEASE.md)         | 2.31.0           | 2.0.0   | 1.15.2 \u002F 2.6      | 1.2.0               | 1.3.0   |\n[1.2.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.2.0\u002FRELEASE.md)         | 2.31.0           | 2.0.0   | 1.15.2 \u002F 2.5      | 1.2.0               | 1.2.0   |\n[1.1.1](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.1.1\u002FRELEASE.md)         | 2.29.0           | 2.0.0   | 1.15.2 \u002F 2.5      | 1.1.0               | 1.1.1   |\n[1.1.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.1.0\u002FRELEASE.md)         | 2.29.0           | 2.0.0   | 1.15.2 \u002F 2.5      | 1.1.0               | 1.1.0   |\n[1.0.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv1.0.0\u002FRELEASE.md)         | 2.29.0           | 2.0.0   | 1.15 \u002F 2.5        | 1.0.0               | 1.0.0   |\n[0.30.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.30.0\u002FRELEASE.md)       | 2.28.0           | 2.0.0   | 1.15 \u002F 2.4        | 0.30.0              | 0.30.0  |\n[0.29.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.29.0\u002FRELEASE.md)       | 2.28.0           | 2.0.0   | 1.15 \u002F 2.4        | 0.29.0              | 0.29.0  |\n[0.28.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.28.0\u002FRELEASE.md)       | 2.28.0           | 2.0.0   | 1.15 \u002F 2.4        | 0.28.0              | 0.28.1  |\n[0.27.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.27.0\u002FRELEASE.md)       | 2.27.0           | 2.0.0   | 1.15 \u002F 2.4        | 0.27.0              | 0.27.0  |\n[0.26.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.26.0\u002FRELEASE.md)       | 2.25.0           | 0.17.0  | 1.15 \u002F 2.3        | 0.26.0              | 0.26.0  |\n[0.25.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.25.0\u002FRELEASE.md)       | 2.25.0           | 0.17.0  | 1.15 \u002F 2.3        | 0.25.0              | 0.25.0  |\n[0.24.1](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.24.1\u002FRELEASE.md)       | 2.24.0           | 0.17.0  | 1.15 \u002F 2.3        | 0.24.0              | 0.24.1  |\n[0.24.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.24.0\u002FRELEASE.md)       | 2.23.0           | 0.17.0  | 1.15 \u002F 2.3        | 0.24.0              | 0.24.0  |\n[0.23.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.23.0\u002FRELEASE.md)       | 2.23.0           | 0.17.0  | 1.15 \u002F 2.3        | 0.23.0              | 0.23.0  |\n[0.22.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.22.0\u002FRELEASE.md)       | 2.20.0           | 0.16.0  | 1.15 \u002F 2.2        | 0.22.0              | 0.22.0  |\n[0.21.2](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.21.2\u002FRELEASE.md)       | 2.17.0           | 0.15.0  | 1.15 \u002F 2.1        | 0.21.0              | 0.21.3  |\n[0.21.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.21.0\u002FRELEASE.md)       | 2.17.0           | 0.15.0  | 1.15 \u002F 2.1        | 0.21.0              | 0.21.0  |\n[0.15.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.15.0\u002FRELEASE.md)       | 2.16.0           | 0.14.0  | 1.15 \u002F 2.0        | 0.15.0              | 0.15.0  |\n[0.14.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.14.0\u002FRELEASE.md)       | 2.14.0           | 0.14.0  | 1.14              | 0.14.0              | 无数据     |\n[0.13.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.13.0\u002FRELEASE.md)       | 2.11.0           | 无数据     | 1.13              | 0.12.1              | 无数据     |\n[0.12.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.12.0\u002FRELEASE.md)       | 2.10.0           | 无数据     | 1.12              | 0.12.0              | 无数据     |\n[0.11.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.11.0\u002FRELEASE.md)       | 2.8.0            | 无数据     | 1.11              | 0.9.0               | 无数据     |\n[0.9.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.9.0\u002FRELEASE.md)         | 2.6.0            | 无数据     | 1.9               | 0.9.0               | 无数据     |\n[0.8.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.8.0\u002FRELEASE.md)         | 2.5.0            | 无数据     | 1.8               | 无数据                 | 无数据     |\n[0.6.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.6.0\u002FRELEASE.md)         | 2.4.0            | 无数据     | 1.6               | 无数据                 | 无数据     |\n[0.5.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.5.0\u002FRELEASE.md)         | 2.3.0            | 无数据     | 1.5               | 无数据                 | 无数据     |\n[0.4.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.4.0\u002FRELEASE.md)         | 2.2.0            | 无数据     | 1.4               | 无数据                 | 无数据     |\n[0.3.1](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.3.1\u002FRELEASE.md)         | 2.1.1            | 无数据     | 1.3               | 无数据                 | 无数据     |\n[0.3.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.3.0\u002FRELEASE.md)         | 2.1.1            | 无数据     | 1.3               | 无数据                 | 无数据     |\n[0.1.10](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fblob\u002Fv0.1.10\u002FRELEASE.md)       | 2.0.0            | 无数据     | 1.0               | 无数据                 | 无数据     |\n\n## 问题\n\n如有关于使用 `tf.Transform` 的任何问题，请前往 [Stack Overflow](https:\u002F\u002Fstackoverflow.com)，并使用 [tensorflow-transform](https:\u002F\u002Fstackoverflow.com\u002Fquestions\u002Ftagged\u002Ftensorflow-transform) 标签提问。","# TensorFlow Transform 快速上手指南\n\nTensorFlow Transform (TFT) 是一个用于在 TensorFlow 中预处理数据的库。它专为需要**全量数据遍历**（full-pass）的场景设计，例如计算全局均值\u002F标准差进行归一化、基于全量数据生成词汇表将字符串转为整数、或根据数据分布进行分桶。\n\nTFT 的核心优势在于它将预处理逻辑导出为 TensorFlow 图，确保**训练阶段**和**服务阶段**使用完全相同的转换逻辑，从而有效防止训练与服务之间的数据偏差（Skew）。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS, 或 Windows (推荐 Linux)\n*   **Python 版本**: 3.9, 3.10, 或 3.11\n*   **核心依赖**:\n    *   **TensorFlow**: 必须安装，版本需与 TFT 严格对应（见下文兼容性说明）。\n    *   **Apache Beam**: 用于支持高效的分布式计算（默认本地运行，也可配置为 Google Cloud Dataflow 等分布式模式）。\n    *   **Apache Arrow**: 用于内部数据表示以利用向量化 NumPy 函数。\n\n> **注意**：不同版本的 `tensorflow-transform` 对 TensorFlow 和其他库有严格的版本依赖。建议参考官方兼容性矩阵选择对应的版本组合。例如，TFT 1.17.0 通常需要 TensorFlow 2.17 和 Apache Beam 2.65.0。\n\n## 安装步骤\n\n### 方式一：通过 PyPI 安装（推荐）\n\n这是最稳定的安装方式。如果您在中国大陆地区，建议使用国内镜像源加速下载。\n\n```bash\npip install tensorflow-transform -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 方式二：从源码构建（开发模式）\n\n如果您需要修改 TFT 源码或体验最新功能，可以从 GitHub 克隆并安装。\n\n```bash\n# 1. 创建虚拟环境\npython -m venv tft_env\nsource tft_env\u002Fbin\u002Factivate  # Windows 用户请使用: tft_env\\Scripts\\activate\n\n# 2. 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform.git\ncd transform\n\n# 3. 安装依赖并进入开发模式\n# 使用 -e 标志可让代码修改即时生效\npip install -e . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 方式三：安装夜间构建版 (Nightly)\n\n如需测试最新特性（可能不稳定），可安装夜间版本：\n\n```bash\npip install --extra-index-url https:\u002F\u002Fpypi-nightly.tensorflow.org\u002Fsimple tensorflow-transform\n```\n\n## 基本使用\n\nTFT 的工作流程通常分为两个阶段：\n1.  **分析阶段 (Analyze)**: 遍历整个数据集，计算统计信息（如均值、词汇表）。\n2.  **转换阶段 (Transform)**: 利用分析得到的统计信息，对数据进行实际转换，并生成可用于训练和服务的 TensorFlow 图。\n\n以下是一个最简单的示例，演示如何将字符串特征转换为整数索引，并将数值特征归一化：\n\n```python\nimport tensorflow as tf\nimport tensorflow_transform as tft\nfrom tensorflow_transform.tf_metadata import dataset_metadata, schema_utils\n\n# 1. 定义输入数据的 Schema\nraw_data_metadata = dataset_metadata.DatasetMetadata(\n    schema_utils.schema_from_feature_spec({\n        'rating': tf.io.FixedLenFeature([], tf.float32),\n        'comment': tf.io.FixedLenFeature([], tf.string),\n    }))\n\n# 2. 定义预处理函数 (Preprocessing Function)\ndef preprocessing_fn(inputs):\n    \"\"\"定义转换逻辑。\"\"\"\n    outputs = inputs.copy()\n    \n    # 将字符串 'comment' 转换为整数索引 (基于全量数据生成词汇表)\n    outputs['comment_idx'] = tft.compute_and_apply_vocabulary(inputs['comment'])\n    \n    # 将浮点数 'rating' 归一化到 0-1 之间 (基于全量数据计算 min\u002Fmax)\n    outputs['rating_normalized'] = tft.scale_to_0_1(inputs['rating'])\n    \n    return outputs\n\n# 3. 执行转换\n# 在实际生产中，这里通常使用 Apache Beam Pipeline 读取数据并运行 transform_beam.run()\n# 此处仅为逻辑展示，具体运行需结合 Beam Runner (如 DirectRunner)\nimport apache_beam as beam\nfrom tensorflow_transform.beam import impl as beam_impl\nfrom tensorflow_transform.beam import tft_beam\n\nraw_data = [\n    {'rating': 4.5, 'comment': 'Great movie!'},\n    {'rating': 2.0, 'comment': 'Too slow.'},\n    {'rating': 5.0, 'comment': 'Perfect.'},\n]\n\nwith beam.Pipeline() as pipeline:\n    with tft_beam.Context(temp_dir='.\u002Ftemp'):\n        # 将原始数据转换为 Beam PCollection 并应用转换\n        transformed_dataset, transform_fn = (\n            (raw_data, raw_data_metadata)\n            | tft_beam.AnalyzeAndTransformDataset(preprocessing_fn)\n        )\n\n# transformed_dataset 包含转换后的数据和新的 metadata\n# transform_fn 是导出的 TensorFlow 图，可直接用于训练模型或服务端推理\nprint(\"转换完成。transform_fn 可保存并加载到 Serving 环境中。\")\n```\n\n**关键点说明：**\n*   `tft.compute_and_apply_vocabulary` 和 `tft.scale_to_0_1` 是典型的“全量”操作，它们会在后台自动触发数据分析过程。\n*   生成的 `transform_fn` 是一个标准的 TensorFlow SavedModel，您可以直接在 TensorFlow Serving 中加载它，确保线上推理时的预处理逻辑与训练时完全一致。","某电商数据团队正在构建用户点击率预测模型，需要处理包含数百万条历史日志的训练数据，其中涉及商品类别文本映射和价格数值归一化。\n\n### 没有 transform 时\n- **训练与服务逻辑不一致**：工程师在训练脚本中手动计算均值和方差进行归一化，但在部署服务时重新硬编码了这些统计值，一旦数据分布漂移，线上预测立即失效。\n- **词汇表构建困难**：将商品类别字符串转换为整数 ID 时，难以在分布式环境下高效地遍历全量数据生成全局词表，常因内存溢出导致任务失败。\n- **特征工程代码冗余**：为了保持逻辑同步，不得不维护两套几乎相同的数据预处理代码（一套用于离线训练，一套用于在线推理），维护成本极高且容易出错。\n- **分桶操作不精确**：基于局部批次数据而非全量分布进行数值分桶，导致特征分布失真，严重影响模型收敛效果。\n\n### 使用 transform 后\n- **消除训练服务偏差**：transform 将预处理逻辑导出为统一的 TensorFlow 计算图，确保训练和线上服务执行完全相同的变换，彻底根除数据倾斜问题。\n- **高效全量数据处理**：依托 Apache Beam 分布式能力，轻松遍历海量数据生成全局词汇表和精确的统计量（如均值、分位数），稳定处理大规模数据集。\n- **单一事实来源**：只需定义一次预处理函数，transform 自动将其应用于训练管道和服务端，大幅减少重复代码，提升迭代效率。\n- **精准特征离散化**：基于观测到的完整数据分布进行浮点数分桶，确保输入模型的特征分布真实反映业务现状，显著提升模型准确率。\n\ntransform 通过统一离线训练与在线服务的预处理逻辑，从根本上解决了机器学习工程中最为棘手的数据不一致难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorflow_transform_3ad79356.png","tensorflow","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftensorflow_07ed5093.png","",null,"github-admin@tensorflow.org","http:\u002F\u002Fwww.tensorflow.org","https:\u002F\u002Fgithub.com\u002Ftensorflow",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,990,223,"2026-04-12T13:01:58","Apache-2.0",4,"未说明",{"notes":92,"python":93,"dependencies":94},"该工具依赖 Apache Beam 进行分布式计算（默认本地模式，也可配置为 Google Cloud Dataflow 等分布式模式）。内部使用 Apache Arrow 表示数据以利用向量化 NumPy 函数。输出为 TensorFlow 计算图，用于训练和服务以防止数据偏差。不同版本的 tensorflow-transform 需要严格匹配对应的依赖库版本（见兼容性表）。","3.9, 3.10, 3.11",[95,96,97,98,99],"tensorflow (版本需匹配，如 2.17)","apache-beam[gcp] (版本需匹配，如 2.65.0)","pyarrow (版本需匹配，如 10.0.1)","tensorflow-metadata (版本需匹配，如 1.17.1)","tfx-bsl (版本需匹配，如 1.17.1)",[14,16],"2026-03-27T02:49:30.150509","2026-04-18T22:33:43.521564",[104,109,114,119],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},40660,"tensorflow-transform 支持哪些 Python 版本？在 Python 3 上安装失败怎么办？","该库目前支持 Python 2.7 以及 Python 3.5 到 3.7（自 tf.transform 0.14 版本起）。如果您使用的是 tensorflow_transform >= 0.14 但在 Python 3 上遇到问题，请确认版本兼容性。对于更新的 Python 版本（如 3.10），官方可能尚未直接支持，用户可能需要通过安装旧版 Python（如 3.8）或使用特定的 workaround 脚本来解决依赖问题。","https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fissues\u002F1",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},40661,"使用 `scale_to_z_score_per_key` 时遇到 'Op type not registered' 错误或维度不兼容错误如何解决？","如果遇到此类错误，建议尝试使用 `tft_layer = tf_transform.transform_features_layer()` 来应用转换，这通常能解决问题。如果设置 `force_tf_compat_v1=False` 导致 \"Dimensions X and Y are not compatible\" 错误，可能是因为某些操作在兼容模式下行为不同。维护者已修复了相关的维度不兼容问题（见提交记录），升级到最新的 TFT 版本通常可以解决。若无法升级，暂时避免使用 `force_tf_compat_v1=False` 或改用 `transform_features_layer` 是有效的临时方案。","https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fissues\u002F174",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},40662,"如何在 Python 3.10 环境中安装和使用 tensorflow-transform（当官方尚未支持时）？","由于 tensorflow-transform 可能尚未正式支持 Python 3.10，一个可行的变通方法是安装 Python 3.8 环境。具体步骤包括：\n1. 安装 Python 3.8 及相关开发包：`sudo apt install python3.8 python3.8-distutils python3.8-dev`\n2. 设置默认 Python 版本：`update-alternatives --install \u002Fusr\u002Fbin\u002Fpython3 python3 \u002Fusr\u002Fbin\u002Fpython3.8 3`\n3. 重新安装 pip 并安装 TFX\u002FTFT。\n此外，需要注意 TFX 依赖旧版的 google-api-core，安装时可能需要手动调整 requirements 文件（例如排除 google-auth 冲突，确保包含 httplib2），并将 google.colab 包符号链接到 Python 3.8 的路径下。","https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fissues\u002F293",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},40663,"在 Databricks 或 Spark 环境中运行 TF Transform 时遇到 \"TypeError: unhashable type: 'ConfigProto'\" 错误是什么原因？","该错误的根本原因通常不是 TF Transform 本身，而是 Spark 对 `collections.namedtuple` 子类反序列化后的行为影响（参考 Apache Spark JIRA: SPARK-22674）。这会导致自定义的 `__hash__` 函数失效。如果在代码中使用了 `bucketize` 或 `quantiles` 等涉及 `_QuantilesGraphStateOptions`（它是 namedtuple 的子类）的功能，就会触发此错误。目前的解决方案是等待 Spark 修复，或者在本地修改代码，将涉及的 `collections.namedtuple` 子类替换为功能等效但非 namedtuple 的普通类定义。","https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftransform\u002Fissues\u002F188",[125,130,135,140,145,150,155,160,165,170,175,180,185,190,195,200,205,210,215,220],{"id":126,"version":127,"summary_zh":128,"released_at":129},324156,"v1.17.0","## 主要特性与改进\n\n*   无\n\n## 错误修复及其他变更\n\n*   依赖 `tensorflow 2.17`\n*   对于 Python 3.11，依赖 `protobuf>=4.25.2,\u003C6.0.0`；对于 Python 3.9 和 3.10，依赖 `protobuf>4.21.6,\u003C6.0.0`。\n*   对于 Python 3.11，依赖 `apache-beam[gcp]>=2.53.0,\u003C3`；对于 Python 3.9 和 3.10，依赖 `apache-beam[gcp]>=2.50.0,\u003C2.51.0`。\n*   由于缺少 ARM64 支持，macOS 的 wheel 包发布暂时暂停。\n\n## 破坏性变更\n\n*   无\n\n## 已弃用功能\n\n*   无\n","2025-06-13T22:49:45",{"id":131,"version":132,"summary_zh":133,"released_at":134},324157,"v1.16.0","## 主要特性与改进\n*   无\n## 错误修复及其他变更\n*   依赖 `tensorflow 2.16`\n*   放宽对 Protobuf 的版本限制，支持 5.x 版本\n## 中断性变更\n*   无\n## 已弃用功能\n*   无","2024-10-28T22:13:18",{"id":136,"version":137,"summary_zh":138,"released_at":139},324158,"v1.15.0","## 主要特性与改进\n\n*   在 AMI 词汇表计算中新增了对稀疏标签的支持。\n\n## 错误修复及其他变更\n\n*   将 `tensorflow_transform` 的测试所用 Ubuntu 版本升级至 20.04（此前为 16.04）。\n*   如果已安装 Keras 3，则显式使用 Keras 2 或 `tf_keras`。\n*   新增对 Python 3.11 的支持。\n*   依赖于 `tensorflow 2.15`。\n*   允许将 `tf.saved_model.SaveOptions` 传递给模型保存功能。\n*   Census 和情感分析示例已更新，仅使用 Keras 而不再使用 estimator。\n*   对于 Python 3.11，依赖于 `apache-beam[gcp]>=2.53.0,\u003C3`；对于 3.9 和 3.10，则依赖于 `apache-beam[gcp]>=2.47.0,\u003C3`。\n*   对于 Python 3.11，依赖于 `protobuf>=4.25.2,\u003C5`；对于 3.9 和 3.10，则依赖于 `protobuf>3.20.3,\u003C5`。\n\n## 破坏性变更\n\n*   现有的分析器缓存会自动失效。\n\n## 已弃用的功能\n\n*   已弃用对 Python 3.8 的支持。","2024-04-24T22:37:16",{"id":141,"version":142,"summary_zh":143,"released_at":144},324159,"v1.14.0","## 主要功能与改进\n\n*   在词汇表 API 中新增 `reserved_tokens` 参数，该参数是一个标记列表，这些标记必须出现在词汇表中，并且在词汇表的开头保持其顺序。\n\n## 错误修复及其他变更\n\n*   `approximate_vocabulary` 现在会以反向字典序返回频率相同的标记（与 `tft.vocabulary` 类似）。\n*   如果转换后的数据批次大小超过 200MB，现在会将其切分为更小的块。\n*   依赖 `pyarrow>=10,\u003C11`。\n*   依赖 `apache-beam>=2.47,\u003C3`。\n*   依赖 `numpy>=1.22.0`。\n*   依赖 `tensorflow>=2.13.0,\u003C3`。\n\n## 破坏性变更\n\n*   与词汇表相关的 API 现在要求使用关键字参数来传递非位置参数。\n\n## 弃用内容\n\n*   无","2023-08-11T22:59:18",{"id":146,"version":147,"summary_zh":148,"released_at":149},324160,"v1.13.0","## 主要功能与改进\n\n*   现在可以通过在 TFMD 模式中设置 `represent_variable_length_as_ragged=true`，自动推断可变长度特征的 `RaggedTensor`。\n*   新增用于标注稀疏输出张量的实验性 API：`tft.experimental.annotate_sparse_output_shape` 和 `tft.experimental.annotate_true_sparse_output`。\n*   添加了 `DatasetKey.non_cacheable`，允许部分数据集不生成缓存。这在处理大量滚动范围的数据集时，逐步生成缓存可能会很有用。\n*   由 `compute_and_apply_vocabulary` 生成的词汇表现在可以存储词频。此功能由 `store_frequency` 参数控制。\n\n## 错误修复及其他变更\n\n*   依赖 `numpy~=1.22.0`。\n*   依赖 `tensorflow>=2.12.0,\u003C2.13`。\n*   依赖 `protobuf>=3.20.3,\u003C5`。\n*   依赖 `tensorflow-metadata>=1.13.1,\u003C1.14.0`。\n*   依赖 `tfx-bsl>=1.13.0,\u003C1.14.0`。\n*   修改了 `get_vocabulary_size_by_name`，使其返回值至少为 1。\n\n## 中断性变更\n\n*   无\n\n## 已弃用功能\n\n*   停止支持 Python 3.7。","2023-04-13T22:11:06",{"id":151,"version":152,"summary_zh":153,"released_at":154},324161,"v1.12.0","## 主要特性与改进\n\n*   无\n\n## 错误修复及其他变更\n\n*   依赖 `tensorflow>=2.11,\u003C2.12`\n*   依赖 `tensorflow-metadata>=1.12.0,\u003C1.13.0`。\n*   依赖 `tfx-bsl>=1.12.0,\u003C1.13.0`。\n\n## 破坏性变更\n\n*   无\n\n## 已弃用内容\n\n*   无\n","2022-12-08T21:00:35",{"id":156,"version":157,"summary_zh":158,"released_at":159},324162,"v1.11.0","## 主要功能与改进\n\n*   这是最后一个支持 TensorFlow 1.15.x 的版本。在下一个版本中将移除对 TF 1.15.x 的支持。请查阅 [TF2 迁移指南](https:\u002F\u002Fwww.tensorflow.org\u002Fguide\u002Fmigrate)，以迁移到 TF2。\n\n*   引入了 `tft.experimental.document_frequency` 和 `tft.experimental.idf`，它们会将每个词映射为其在文档中的词频和逆文档频率，且顺序与文档中词的顺序一致。\n*   `schema_utils.schema_as_feature_spec` 现在支持结构化特征，用于描述 `tf.SequenceExample` 数据。\n*   在模式中用于 `schema_utils.schema_as_feature_spec` 的 TensorRepresentations 现在可以与其源特征共享名称。\n*   引入了 `tft_beam.EncodeTransformedDataset`，可用于轻松编码转换后的数据，以便进行物化处理。\n\n## 错误修复及其他变更\n\n*   依赖于 `tensorflow>=1.15.5,\u003C2` 或 `tensorflow>=2.10,\u003C2.11`。\n*   依赖于 `apache-beam[gcp]>=2.41,\u003C3`。\n\n## 中断性变更\n\n*   无\n\n## 已弃用的功能\n\n*   无\n","2022-11-15T18:47:37",{"id":161,"version":162,"summary_zh":163,"released_at":164},324163,"v1.10.1","## 主要特性与改进\n\n*   无\n\n## 错误修复及其他变更\n\n*   依赖 `tfx-bsl>=1.10.1,\u003C1.11.0`。\n\n## 破坏性变更\n\n*   无\n\n## 已弃用功能\n\n*   无\n","2022-08-29T19:40:51",{"id":166,"version":167,"summary_zh":168,"released_at":169},324164,"v1.10.0","## 主要特性与改进\n\n*   无\n\n## Bug 修复及其他变更\n\n*   在深度复制优化中，为原始 PTransform 和克隆的 PTransform 分别分配不同的 `close_to_resources` 资源提示。添加这些资源提示的原因是防止由深度复制生成的根级 Read 因公共子表达式消除而被合并。\n*   依赖 `apache-beam[gcp]>=2.40,\u003C3`。\n*   依赖 `pyarrow>=6,\u003C7`。\n*   依赖 `tensorflow-metadata>=1.10.0,\u003C1.11.0`。\n*   依赖 `tfx-bsl>=1.10.0,\u003C1.11.0`。\n\n## 中断性变更\n\n*   无\n\n## 已弃用内容\n\n*   无\n","2022-08-25T21:28:01",{"id":171,"version":172,"summary_zh":173,"released_at":174},324165,"v1.9.0","## 主要功能与改进\r\n\r\n*   为 `scale_by_min_max_per_key`、`scale_to_0_1_per_key` 和 `scale_to_z_score_per_key` 添加了逐元素缩放支持，适用于 `key_vocabulary_filename = None` 的情况。\r\n\r\n## 错误修复及其他变更\r\n\r\n*   依赖 `tensorflow>=1.15.5,\u003C2` 或 `tensorflow>=2.9,\u003C2.10`。\r\n*   依赖 `tensorflow-metadata>=1.9.0,\u003C1.10.0`。  \r\n*   依赖 `tfx-bsl>=1.9.0,\u003C1.10.0`。\r\n\r\n## 破坏性变更\r\n\r\n*   无\r\n\r\n## 已弃用内容\r\n\r\n*   无\r\n","2022-06-29T07:22:35",{"id":176,"version":177,"summary_zh":178,"released_at":179},324166,"v1.8.0","## Major Features and Improvements\r\n\r\n*   Adds `tft.DatasetMetadata` and its factory method `from_feature_spec` as\r\n    public APIs to be used when using the \"instance dict\" data format.\r\n\r\n## Bug Fixes and Other Changes\r\n\r\n*   Depends on `apache-beam[gcp]>=2.38,\u003C3`.\r\n*   Depends on\r\n    `tensorflow>=1.15.5,!=2.0.*,!=2.1.*,!=2.2.*,!=2.3.*,!=2.4.*,!=2.5.*,!=2.6.*,!=2.7.*,\u003C2.9`.\r\n*   Depends on `tensorflow-metadata>=1.8.0,\u003C1.9.0`.\r\n*   Depends on `tfx-bsl>=1.8.0,\u003C1.9.0`.\r\n\r\n## Breaking Changes\r\n\r\n*   N\u002FA\r\n\r\n## Deprecations\r\n\r\n*   N\u002FA","2022-05-13T07:01:01",{"id":181,"version":182,"summary_zh":183,"released_at":184},324167,"v1.6.1","## Major Features and Improvements\r\n\r\n*   N\u002FA\r\n\r\n## Bug Fixes and Other Changes\r\n\r\n*   Depends on\r\n    `tensorflow>=1.15.5,!=2.0.*,!=2.1.*,!=2.2.*,!=2.3.*,!=2.4.*,!=2.5.*,!=2.6.*,\u003C2.9`.\r\n\r\n## Breaking Changes\r\n\r\n*   N\u002FA\r\n\r\n## Deprecations\r\n\r\n*   N\u002FA","2022-03-30T18:58:31",{"id":186,"version":187,"summary_zh":188,"released_at":189},324168,"v1.7.0","## Major Features and Improvements\r\n\r\n*   Introduced `tft.experimental.compute_and_apply_approximate_vocabulary` which\r\n    computes and applies an approximate vocabulary.\r\n\r\n## Bug Fixes and Other Changes\r\n\r\n*   Fix an issue when `tft.experimental.approximate_vocabulary` with `text`\r\n    output format would not filter out tokens with newline characters.\r\n*   Add a dummy value to the result of `tft.experimental.approximate_vocabulary`\r\n    as is done for the exact variant, in order for downstream code to easily\r\n    handle it.\r\n*   Update `tft.get_analyze_input_columns` to ensure its output includes\r\n    `preprocessing_fn` inputs which are not used in any TFT analyzers, but end\r\n    up in a control dependency (automatic control dependencies are not present\r\n    in TF1, hence this change will only affect the native TF2 implementation).\r\n*   Assign different resource hint tags to both orginal and cloned PTransforms\r\n    in deep copy optimization. The reason of adding these tags is to prevent\r\n    root Reads that are generated from deep copy being merged due to common\r\n    subexpression elimination.\r\n*   Fixed an issue when large int64 values would be incorrectly bucketized in\r\n    `tft.apply_buckets`.\r\n*   Depends on `apache-beam[gcp]>=2.36,\u003C3`.\r\n*   Depends on\r\n    `tensorflow>=1.15.5,!=2.0.*,!=2.1.*,!=2.2.*,!=2.3.*,!=2.4.*,!=2.5.*,!=2.6.*,!=2.7.*,\u003C2.9`.\r\n*   Depends on `tensorflow-metadata>=1.7.0,\u003C1.8.0`.\r\n*   Depends on `tfx-bsl>=1.7.0,\u003C1.8.0`.\r\n\r\n## Breaking Changes\r\n\r\n*   N\u002FA\r\n\r\n## Deprecations\r\n\r\n*   N\u002FA","2022-03-03T20:13:11",{"id":191,"version":192,"summary_zh":193,"released_at":194},324169,"v1.4.1","## Major Features and Improvements\r\n\r\n*   N\u002FA\r\n\r\n## Bug Fixes and Other Changes\r\n\r\n*   Depends on `future` package.\r\n\r\n## Breaking Changes\r\n\r\n*   N\u002FA\r\n\r\n## Deprecations\r\n\r\n*   N\u002FA","2022-02-23T19:35:29",{"id":196,"version":197,"summary_zh":198,"released_at":199},324170,"v1.6.0","\r\n## Major Features and Improvements\r\n\r\n*   Introduced `tft.experimental.get_vocabulary_size_by_name` that can retrieve\r\n    the size of a vocabulary computed using `tft.vocabulary` within the\r\n    `preprocessing_fn`.\r\n*   `tft.experimental.ptransform_analyzer` now supports analyzer cache using the\r\n    newly added `tft.experimental.CacheablePTransformAnalyzer` container.\r\n*   `tft.bucketize_per_key` now supports weights.\r\n\r\n## Bug Fixes and Other Changes\r\n\r\n*   Depends on `numpy>=1.16,\u003C2`.\r\n*   Depends on `apache-beam[gcp]>=2.35,\u003C3`.\r\n*   Depends on `absl-py>=0.9,\u003C2.0.0`.\r\n*   Depends on `tensorflow-metadata>=1.6.0,\u003C1.7.0`.\r\n*   Depends on `tfx-bsl>=1.6.0,\u003C1.7.0`.\r\n*   Depends on\r\n    `tensorflow>=1.15.5,!=2.0.*,!=2.1.*,!=2.2.*,!=2.3.*,!=2.4.*,!=2.5.*,!=2.6.*,\u003C3`.\r\n\r\n## Breaking Changes\r\n\r\n*   N\u002FA\r\n\r\n## Deprecations\r\n\r\n*   N\u002FA","2022-01-21T18:08:38",{"id":201,"version":202,"summary_zh":203,"released_at":204},324171,"v1.5.0","## Major Features and Improvements\r\n\r\n*   Introduced `tft.experimental.approximate_vocabulary` analyzer that is an\r\n    approximate version of `tft.vocabulary` which is more efficient with smaller\r\n    number of unique elements or `top_k` threshold.\r\n\r\n## Bug Fixes and Other Changes\r\n\r\n*   Raise a RuntimeError if order of analyzers in traced Tensorflow Graph is\r\n    non-deterministic in TF2.\r\n*   Fix issue where a `tft.experimental.ptransform_analyzer`'s output dtype\r\n    could be propagated incorrectly if it was a primitive as opposed to\r\n    `np.ndarray`.\r\n*   Depends on `apache-beam[gcp]>=2.34,\u003C3`.\r\n*   Depends on\r\n    `tensorflow>=1.15.2,!=2.0.*,!=2.1.*,!=2.2.*,!=2.3.*,!=2.4.*,!=2.5.*,!=2.6.*,\u003C2.8`.\r\n*   Depends on `tensorflow-metadata>=1.5.0,\u003C1.6.0`.\r\n*   Depends on `tfx-bsl>=1.5.0,\u003C1.6.0`.\r\n\r\n## Breaking Changes\r\n\r\n*   N\u002FA\r\n\r\n## Deprecations\r\n\r\n*   N\u002FA\r\n","2021-12-02T20:53:21",{"id":206,"version":207,"summary_zh":208,"released_at":209},324172,"v1.4.0","## Major Features and Improvements\r\n\r\n*   Added `tf.RaggedTensor` support to all analyzers and mappers with\r\n    `reduce_instance_dims=True`.\r\n\r\n## Bug Fixes and Other Changes\r\n\r\n*   Fix re-loading a transform graph containing pyfuncs exported as a TF1\r\n    SavedModel(added using `tft.apply_pyfunc`) in TF2.\r\n*   Depends on `pyarrow>=1,\u003C6`.\r\n*   Depends on `tensorflow-metadata>=1.4.0,\u003C1.5.0`.\r\n*   Depends on `tfx-bsl>=1.4.0,\u003C1.5.0`.\r\n*   Depends on `apache-beam[gcp]>=2.33,\u003C3`.\r\n\r\n## Breaking Changes\r\n\r\n*   N\u002FA\r\n\r\n## Deprecations\r\n\r\n*   Deprecated python 3.6 support.","2021-11-05T18:25:35",{"id":211,"version":212,"summary_zh":213,"released_at":214},324173,"v1.3.0","## Major Features and Improvements\r\n\r\n*   N\u002FA\r\n\r\n## Bug Fixes and Other Changes\r\n\r\n*   `tft.quantiles`, `tft.mean` and `tft.var` now ignore NaNs and infinite input\r\n    values. Previously, these would lead to incorrect output calculation.\r\n*   Improved error message for `tft_beam.AnalyzeDataset`,\r\n    `tft_beam.AnalyzeAndTransformDataset` and `tft_beam.AnalyzeDatasetWithCache`\r\n    when the input metadata is empty.\r\n*   Added best-effort TensorFlow Decision Forests (TF-DF) and Struct2Tensor op\r\n    registration when loading transformation graphs.\r\n*   Depends on\r\n    `tensorflow>=1.15.2,!=2.0.*,!=2.1.*,!=2.2.*,!=2.3.*,!=2.4.*,!=2.5.*,\u003C2.7`.\r\n*   Depends on `tfx-bsl>=1.3.0,\u003C1.4.0`.\r\n\r\n## Breaking Changes\r\n\r\n*   Existing `tft.mean` and `tft.var` caches are automatically invalidated.\r\n\r\n## Deprecations\r\n\r\n*   N\u002FA","2021-08-25T19:47:44",{"id":216,"version":217,"summary_zh":218,"released_at":219},324174,"v1.2.0","## Major Features and Improvements\r\n\r\n*   Added `RaggedTensor` support to output schema inference and transformed\r\n    tensors conversion to instance dicts and `pa.RecordBatch` with TF 2.x.\r\n\r\n## Bug Fixes and Other Changes\r\n\r\n*   Depends on `apache-beam[gcp]>=2.31,\u003C3`.\r\n*   Depends on `tensorflow-metadata>=1.2.0,\u003C1.3.0`.\r\n*   Depends on `tfx-bsl>=1.2.0,\u003C1.3.0`.\r\n\r\n## Breaking Changes\r\n\r\n*   N\u002FA\r\n\r\n## Deprecations\r\n\r\n*   N\u002FA\r\n","2021-07-29T00:07:36",{"id":221,"version":222,"summary_zh":223,"released_at":224},324175,"v1.1.1","## Major Features and Improvements\r\n\r\n*   N\u002FA\r\n\r\n## Bug Fixes and Other Changes\r\n\r\n*   Depends on `google-cloud-bigquery>=1.28.0,\u003C2.21`.\r\n*   Depends on `tfx-bsl>=1.1.1,\u003C1.2.0`.\r\n\r\n## Breaking Changes\r\n\r\n*   N\u002FA\r\n\r\n## Deprecations\r\n\r\n*   N\u002FA\r\n","2021-07-16T22:07:49"]