lit
LIT(Learning Interpretability Tool)是一款可视化、交互式的机器学习模型理解工具,旨在帮助开发者深入洞察模型行为。它支持文本、图像和表格数据,既能作为独立服务器运行,也能无缝集成到 Colab、Jupyter 等笔记本环境中。
面对“模型为何做出特定预测”、“在哪些样本上表现不佳”或“修改输入后结果是否一致”等常见困惑,LIT 提供了直观的解答方案。通过浏览器界面,用户可以查看局部解释(如显著性热力图)、进行聚合分析以发现数据偏差,甚至利用反事实生成动态创建新样本来测试模型鲁棒性。其独特的并排对比模式,允许同时比较多个模型或同一模型在不同输入下的表现,极大提升了调试效率。
LIT 特别适合 AI 研究人员、算法工程师及数据科学家使用。它的核心亮点在于高度的扩展性与框架无关性:不仅原生支持分类、回归、序列标注等多种任务类型,还能兼容 TensorFlow、PyTorch 等主流深度学习框架。无论是排查对抗性攻击风险,还是分析训练数据中的不良先验,LIT 都能以灵活、开源的方式协助用户构建更可信的 AI 系统。
使用场景
某电商公司的算法团队正在优化一款基于 BERT 的商品评论情感分析模型,急需排查模型为何频繁误判包含反讽语气的负面评论。
没有 lit 时
- 开发者只能依赖静态日志和聚合准确率指标,难以定位具体是哪些“反讽”样本导致了模型性能下降。
- 当模型将一句明显的反话(如“这手机电池真耐用,半天就没了”)预测为正面时,无法直观看到是哪些词汇误导了模型判断。
- 想要验证模型是否对特定句式敏感,必须手动编写脚本构造对抗样本并重新运行推理,迭代周期长达数小时。
- 对比不同版本模型的表现时,缺乏并排可视化的界面,只能靠肉眼比对分散的实验数据表格。
使用 lit 后
- 利用 lit 的切片与分箱功能,团队迅速筛选出所有包含转折词的低置信度样本,精准锁定了反讽语句这一主要错误簇。
- 通过交互式显著性热力图,直接高亮显示模型过度关注了“耐用”而忽略了“半天就没了”,瞬间理解了误判归因。
- 在侧边栏直接手动修改文本或启用反事实生成插件,实时观察模型预测变化,几分钟内即可验证模型对语气改变的鲁棒性。
- 开启并排模式,同时加载旧版与新版模型,直观对比两者在同一批反讽样本上的预测差异,快速确认优化效果。
lit 将原本黑盒且耗时的模型调试过程,转变为透明、即时且可交互的探索体验,极大提升了算法迭代效率。
运行环境要求
- Linux
- macOS
- Windows
未说明 (支持通过 Docker/Podman 使用加速器,但未指定具体型号或显存要求)
未说明

快速开始
🔥 学习可解释性工具 (LIT)
学习可解释性工具(🔥LIT,前身为语言可解释性工具)是一款可视化、交互式的机器学习模型理解工具,支持文本、图像和表格数据。它可以作为独立服务器运行,也可以在 Colab、Jupyter 和 Google Cloud Vertex AI 笔记本等笔记本环境中使用。
LIT 的设计旨在回答以下问题:
- 我的模型在哪些类型的示例上表现不佳?
- 为什么我的模型做出了这个预测? 这个预测是否可以归因于对抗性行为,或者训练集中存在的不良先验?
- 如果我改变文本风格、动词时态或代词性别等因素,我的模型的行为是否一致?

LIT 通过基于浏览器的用户界面支持多种调试工作流。其功能包括:
- 局部解释:通过显著性图和丰富的模型预测可视化来实现。
- 聚合分析:包括自定义指标、切片与分箱,以及嵌入空间的可视化。
- 反事实生成:通过手动编辑或生成器插件动态创建并评估新的示例。
- 并排模式:用于比较两个或多个模型,或同一模型在一对示例上的表现。
- 高度可扩展:适用于新的模型类型,包括分类、回归、跨度标注、序列到序列模型和语言建模。开箱即用即可支持多头模型和多个输入特征。
- 框架无关:兼容 TensorFlow、PyTorch 等多种框架。
LIT 拥有一个网站,提供实时演示、教程、安装指南等内容。
请加入lit-announcements 邮件列表,以获取 LIT 的最新动态。
文档
下载与安装
LIT 可以通过 pip 安装,也可以从源代码构建。如果您希望对代码进行修改,则需要从源代码构建。
使用 pip 从 PyPI 安装
pip install lit-nlp
默认的 pip 安装会安装所有必要的包,以便使用 LIT 的 Python API、内置的可解释性组件和 Web 应用程序。若要安装提供的演示或测试套件所需的依赖项,请使用相应的可选依赖项安装 LIT。
# 安装判别式 AI 示例(GLUE、企鹅)所需的依赖项
pip install 'lit-nlp[examples-discriminative-ai]'
# 安装生成式 AI 示例(提示调试)所需的依赖项
pip install 'lit-nlp[examples-generative-ai]'
# 安装所有示例及测试套件所需的依赖项
pip install 'lit-nlp[test]'
从源代码安装
克隆仓库:
git clone https://github.com/PAIR-code/lit.git
cd lit
注意:请确保您正在使用 Python 3.9 或更高版本。如果您系统中安装的是其他版本,请按照下面的 conda 指导设置一个 Python 3.9 环境。
使用 venv(或您偏好的环境管理器)设置 Python 环境。请注意,这些说明假设您将对 LIT 进行代码更改,并包含所有示例和测试套件的完整要求。有关其他可选依赖项的可能性,请参阅使用 pip 安装部分。
python -m venv .venv
source .venv/bin/activate
python -m pip install -e '.[test]'
LIT 仓库不包含可分发的 LIT 应用程序版本。您必须从源代码构建它。
(cd lit_nlp; yarn && yarn build)
注意:如果您在 Ubuntu/Debian 上运行 yarn 时遇到错误,请确保已安装正确的版本。
运行 LIT
您可以在demos 页面上探索一系列托管演示。
使用容器镜像
请参阅容器化指南,了解如何在本地使用 Docker、Podman 等工具运行 LIT。
LIT 还提供了预构建的镜像,可以利用加速器,从而更轻松地处理生成式 AI 和 LLM 相关用例。更多信息请参阅LIT on GCP 文档。
快速入门:分类与回归
要探索来自热门GLUE 基准测试的分类和回归任务:
python -m lit_nlp.examples.glue.demo --port=5432 --quickstart
导航至 http://localhost:5432 即可访问 LIT 用户界面。
您的默认视图将是一个基于BERT的小型模型,该模型在斯坦福情感树库上进行了微调。不过,您可以通过工具栏或右上角的齿轮图标切换到STS-B或MultiNLI。
然后导航至 http://localhost:5432 即可访问用户界面。
笔记本使用
在lit_nlp/examples/notebooks中可以找到展示 LIT 在笔记本中使用的 Colab 笔记本。
我们提供了一个简单的Colab 演示。运行所有单元格即可在笔记本中查看 LIT 在示例分类模型上的应用。
更多示例
请参阅lit_nlp/examples。大多数示例的运行方式与上述快速入门示例类似:
python -m lit_nlp.examples.<example_name>.demo --port=5432 [optional --args]
用户指南
添加您自己的模型或数据
您可以通过创建一个类似于lit_nlp/examples中的自定义 demo.py 启动脚本来轻松运行 LIT。基本步骤如下:
- 编写遵循
DatasetAPI的数据加载器。 - 编写遵循
ModelAPI的模型封装器。 - 将模型、数据集以及任何额外的组件传递给 LIT 服务器类。
有关完整流程,请参阅添加模型和数据。
使用新组件扩展 LIT
LIT 非常易于扩展,可以在前端或后端添加新的可解释性组件、生成器等。请参阅我们的文档以开始使用。
拉取请求流程
如需对 LIT 进行代码更改,请基于 dev 分支进行开发,并针对该分支创建拉取请求(PR)。main 分支用于发布稳定版本,而 dev 分支应始终领先于 main 分支。
我们鼓励使用草稿 PR,尤其是对于首次贡献者或正在处理复杂任务的贡献者(例如 Google Summer of Code 的参与者)。除了通过问题讨论外,还请使用草稿 PR 与 LIT 团队沟通您的想法和实现方案。
在提交 PR 或将草稿 PR 标记为“准备评审”之前,请务必运行 Python 和 TypeScript 的代码检查工具,以确保代码符合 Google 的Python 和 TypeScript 代码风格指南。
# 在本仓库根目录下运行以下命令以检查 Python 代码
(cd lit_nlp; pylint)
# 在本仓库根目录下运行以下命令以检查 TypeScript 代码
(cd lit_nlp; yarn lint)
引用 LIT
如果您在工作中使用了 LIT,请引用EMNLP 论文或序列显著性论文:
@misc{tenney2020language,
title={The Language Interpretability Tool: Extensible, Interactive Visualizations and Analysis for {NLP} Models},
author={Ian Tenney and James Wexler and Jasmijn Bastings and Tolga Bolukbasi and Andy Coenen and Sebastian Gehrmann and Ellen Jiang and Mahima Pushkarna and Carey Radebaugh and Emily Reif and Ann Yuan},
booktitle = "Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations",
year = "2020",
publisher = "Association for Computational Linguistics",
pages = "107--118",
url = "https://www.aclweb.org/anthology/2020.emnlp-demos.15",
}
@article{tenney2024interactive,
title={Interactive prompt debugging with sequence salience},
author={Tenney, Ian and Mullins, Ryan and Du, Bin and Pandya, Shree and Kahng, Minsuk and Dixon, Lucas},
journal={arXiv preprint arXiv:2404.07498},
year={2024}
}
免责声明
本项目并非 Google 官方产品。
LIT 是一个由小型团队积极开发中的研究项目。我们希望 LIT 能成为一个开放平台,而非封闭的生态系统,并非常欢迎您的建议和反馈——请报告任何错误或在讨论页上与我们联系。
版本历史
v1.3.12024/12/20v1.32024/10/22v1.22024/06/26v1.1.12024/04/09v1.12024/02/21v1.0.22023/11/08v1.0.12023/09/22v0.52022/12/02v0.4.12021/12/21v0.42021/11/09v0.32021/04/05v0.22020/11/17v0.1.12020/09/10v0.12020/08/13常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器