tau-bench
tau-bench 是一个专注于评估 AI 智能体在真实场景中工具使用能力的基准测试平台。它通过模拟用户(由大语言模型扮演)与具备特定领域 API 工具及策略指南的智能体之间的动态对话,来检验智能体处理复杂任务的表现。目前主要涵盖航空和零售两大领域,旨在解决现有评测难以还原真实世界多轮交互、规则约束及工具调用挑战的问题。
该工具特别适合 AI 研究人员和开发者使用,帮助他们量化不同模型(如 GPT-4o、Claude 系列等)在“工具调用”策略下的实际效能,并通过详细的排行榜对比各类算法(如 ReAct、Act)的优劣。其独特亮点在于构建了高仿真的交互环境,不仅要求智能体正确调用工具,还需严格遵守业务政策指南,从而更准确地反映落地应用中的可靠性。
需要注意的是,当前仓库版本包含的任务数据已不再更新,官方建议有最新评测需求的用户转向其升级版 τ³-bench,后者新增了银行领域、语音评估模态,并修复了原有任务的问题。对于希望深入探索智能体在垂直行业落地能力的团队,tau-bench 系列提供了严谨的实验框架和丰富的数据支持。
使用场景
某大型电商平台的 AI 团队正在开发新一代智能客服代理,该代理需直接调用订单、库存和物流 API 来处理用户复杂的退换货请求。
没有 tau-bench 时
- 评估维度单一:团队仅能测试模型是否成功调用 API,无法验证其在多轮对话中是否严格遵守“仅限 7 天内可退”等业务策略。
- 缺乏真实交互模拟:人工构造的测试用例过于理想化,难以覆盖用户突然改变需求或提供模糊信息等动态场景。
- 策略合规性黑盒:模型可能在成功执行操作的同时违反公司政策(如错误批准超额赔偿),这种风险在上线前难以被量化发现。
- 迭代效率低下:每次调整 Prompt 或更换基座模型后,缺乏统一的基准测试集来快速对比性能提升幅度。
使用 tau-bench 后
- 全链路策略验证:利用 tau-bench 内置的零售领域任务,不仅能测通工具调用,还能精准评估模型在复杂约束下的策略遵循率(Pass@k 指标)。
- 动态用户模拟:通过 tau-bench 提供的 LLM 模拟用户,自动生成包含打断、反问和情绪变化的逼真对话流,暴露出模型在长上下文中的逻辑漏洞。
- 量化合规风险:借助基准测试中的明确评分标准,团队能直观看到模型在“错误退款”等关键违规项上的具体失败案例,从而针对性优化。
- 科学选型依据:基于 tau-bench 排行榜数据,团队快速验证了 Claude 3.5 Sonnet 在零售场景下优于 GPT-4o,为生产环境模型选型提供了坚实的数据支撑。
tau-bench 将原本模糊的“智能体好不好用”转化为可量化的策略执行分数,帮助团队在安全合规的前提下加速 AI 代理落地。
运行环境要求
- 未说明
未说明
未说明

快速开始
τ-bench:面向真实世界领域的工具-智能体-用户交互基准测试
⚠️ 注意:本仓库中的任务未更新。 该仓库包含过时的航空和零售任务版本。请使用 τ³-bench 获取最新修复的任务及新增领域。
❗新闻:τ²-bench 仓库已更新为 τ³-bench,其中新增了 banking 领域、voice 评估模态,并对 airline 和 retail 领域的任务进行了修复。请前往 τ³-bench 仓库 使用该基准测试的最新版本。
我们提出了 τ-bench,这是一个模拟由语言模型模拟的用户与配备领域特定 API 工具和策略指南的语言智能体之间动态对话的基准测试。
排行榜
航空
| 策略 | Pass^1 | Pass^2 | Pass^3 | Pass^4 |
|---|---|---|---|---|
| TC (claude-3-5-sonnet-20241022) | 0.460 | 0.326 | 0.263 | 0.225 |
| TC (gpt-4o) | 0.420 | 0.273 | 0.220 | 0.200 |
| TC (claude-3-5-sonnet-20240620) | 0.360 | 0.224 | 0.169 | 0.139 |
| TC (mistral-large-2407) | ?? | ?? | ?? | ?? |
| TC (gpt-4o-mini) | 0.225 | 0.140 | 0.110 | 0.100 |
| Act (gpt-4o) | 0.365 | 0.217 | 0.160 | 0.140 |
| ReAct (gpt-4o) | 0.325 | 0.233 | 0.185 | 0.160 |
零售
| 策略 | Pass^1 | Pass^2 | Pass^3 | Pass^4 |
|---|---|---|---|---|
| TC (claude-3-5-sonnet-20241022) | 0.692 | 0.576 | 0.509 | 0.462 |
| TC (gpt-4o) | 0.604 | 0.491 | 0.430 | 0.383 |
| TC (claude-3-5-sonnet-20240620) | 0.626 | 0.506 | 0.435 | 0.387 |
| TC (mistral-large-2407) | ?? | ?? | ?? | ?? |
| TC (gpt-4o-mini) | ?? | ?? | ?? | ?? |
| Act (gpt-4o) | ?? | ?? | ?? | ?? |
| ReAct (gpt-4o) | ?? | ?? | ?? | ?? |
*TC = tool-calling 策略(论文中报告的功能调用策略)
设置
- 克隆此仓库:
git clone https://github.com/sierra-research/tau-bench && cd ./tau-bench
- 从源代码安装(同时安装所需依赖):
pip install -e .
- 将您的 OpenAI / Anthropic / Google / Mistral / AnyScale API 密钥设置为环境变量。
OPENAI_API_KEY=...
ANTHROPIC_API_KEY=...
GOOGLE_API_KEY=...
MISTRAL_API_KEY=...
运行
在 τ-retail 环境上运行一个工具调用智能体:
python run.py --agent-strategy tool-calling --env retail --model gpt-4o --model-provider openai --user-model gpt-4o --user-model-provider openai --user-strategy llm --max-concurrency 10
请根据您的 API 限制设置最大并发数。
要运行特定任务,可以使用 --task-ids 标志。例如:
python run.py --agent-strategy tool-calling --env retail --model gpt-4o --model-provider openai --user-model gpt-4o --user-model-provider openai --user-strategy llm --max-concurrency 10 --task-ids 2 4 6
此命令将仅运行 ID 为 2、4 和 6 的任务。
用户模拟器
默认情况下,我们使用 gpt-4o 作为用户模拟器,策略为 llm。您可以通过设置 --user-model 标志来使用其他模型,或通过设置 --user-strategy 标志来使用其他策略。例如,使用 claude 用户模拟器运行工具调用智能体:
python run.py --agent-strategy tool-calling --env retail --model gpt-4o --model-provider openai --max-concurrency 10 --user-model claude-3-5-sonnet-20240620 --user-model-provider anthropic --user-strategy llm
其他策略:
要运行 react 用户模拟器:
python run.py --agent-strategy tool-calling --env retail --model gpt-4o --model-provider openai --max-concurrency 10 --user-model gpt-4o --user-model-provider openai --user-strategy react
react 用户响应示例:
Thought:
我应该提供我的姓名和邮政编码,因为我没有被给予电子邮件地址。
User Response:
当然,我叫尤素夫·罗西,我的邮政编码是 19122。
要运行 verify 用户模拟器:
python run.py --agent-strategy tool-calling --env retail --model gpt-4o --model-provider openai --max-concurrency 10 --user-model gpt-4o --user-model-provider openai --user-strategy verify
该策略会使用后续的 LLM 验证步骤来检查用户模拟器的响应是否令人满意。如果不满意,用户模拟器将被提示生成新的响应。
要运行 reflection 用户模拟器:
python run.py --agent-strategy tool-calling --env retail --model gpt-4o --model-provider openai --max-concurrency 10 --user-model gpt-4o --user-model-provider openai --user-strategy reflection
该策略会使用后续的 LLM 验证步骤来检查用户模拟器的响应是否令人满意。如果不满意,用户模拟器将被提示反思其响应并生成新的响应。
自动错误识别
通常情况下,手动识别轨迹中的具体错误位置既困难又耗时,因为轨迹可能很长,约束条件也可能非常复杂。为此,我们提供了一个自动错误识别工具,它可以完成以下任务:
- 故障归属:确定导致故障的责任方(用户、智能体、环境)。
- 故障类型分类:对故障类型进行分类(目标部分完成、使用了错误工具、使用了错误工具参数、执行了非预期动作)。
这两个标签均附有描述。
要运行自动错误识别,请执行以下命令:
python auto_error_identification.py --env <airline/retail> --platform openai --results-path <此处填写您的结果文件路径> --max-concurrency 16 --output-path test-auto-error-identification --max-num-failed-results 10
请注意,此功能依赖于大语言模型,因此可能会出现不准确的错误识别结果。
*注意:如果由于结果文件的结构问题引发错误,您可能需要重新运行基准测试以生成新的结果文件。我们最近对基准测试进行了重写,使其更具类型安全性并易于扩展。
历史轨迹
运行 τ-bench 可能成本较高。为此,我们在 ./historical_trajectories 中提供了航空和零售环境的历史轨迹集。
如果您希望为本基准测试贡献自己的历史轨迹,请提交一个 Pull Request!
许可证
请参阅 ./LICENSE 文件。
联系方式
如果您在使用基准测试时遇到任何问题,请提交 Issue 或 Pull Request。
引用
@misc{yao2024tau,
title={$\tau$-bench: A Benchmark for Tool-Agent-User Interaction in Real-World Domains},
author={Shunyu Yao and Noah Shinn and Pedram Razavi and Karthik Narasimhan},
year={2024},
eprint={2406.12045},
archivePrefix={arXiv},
primaryClass={cs.AI},
url={https://arxiv.org/abs/2406.12045},
}
@misc{barres2025tau2,
title={$\tau^2$-Bench: Evaluating Conversational Agents in a Dual-Control Environment},
author={Victor Barres and Honghua Dong and Soham Ray and Xujie Si and Karthik Narasimhan},
year={2025},
eprint={2506.07982},
archivePrefix={arXiv},
primaryClass={cs.AI},
url={https://arxiv.org/abs/2506.07982},
}
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备