[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-openai--transformer-debugger":3,"tool-openai--transformer-debugger":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",149489,2,"2026-04-10T11:32:46",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":65,"owner_location":65,"owner_email":65,"owner_twitter":65,"owner_website":76,"owner_url":77,"languages":78,"stars":101,"forks":102,"last_commit_at":103,"license":104,"difficulty_score":105,"env_os":106,"env_gpu":106,"env_ram":106,"env_deps":107,"category_tags":117,"github_topics":65,"view_count":32,"oss_zip_url":65,"oss_zip_packed_at":65,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":147},6284,"openai\u002Ftransformer-debugger","transformer-debugger",null,"Transformer Debugger 是由 OpenAI 超级对齐团队开发的一款开源工具，旨在帮助研究人员深入探究小型语言模型的具体行为机制。它主要解决了“黑盒”难题，让用户无需编写复杂代码，就能快速回答诸如“模型为何在此处输出特定词汇”或“某个注意力头为何关注特定位置”等关键问题。\n\n这款工具特别适合 AI 研究人员、可解释性工程师以及对大模型内部原理感兴趣的开发者使用。其独特之处在于巧妙结合了自动化可解释性技术与稀疏自编码器（Sparse Autoencoders）。Transformer Debugger 不仅能定位影响模型行为的具体组件（如神经元、注意力头），还能自动生成这些组件激活原因的通俗解释，并追踪组件间的连接以发现潜在的逻辑电路。通过可视化的界面，用户可以直接干预模型的前向传播过程，实时观察变化对结果的影响，从而高效地拆解和分析模型内部的运作逻辑，是进行模型诊断和安全研究的得力助手。","# Transformer Debugger\n\nTransformer Debugger (TDB) is a tool developed by OpenAI's [Superalignment\nteam](https:\u002F\u002Fopenai.com\u002Fblog\u002Fintroducing-superalignment) with the goal of\nsupporting investigations into specific behaviors of small language models. The tool combines\n[automated interpretability](https:\u002F\u002Fopenai.com\u002Fresearch\u002Flanguage-models-can-explain-neurons-in-language-models)\ntechniques with [sparse autoencoders](https:\u002F\u002Ftransformer-circuits.pub\u002F2023\u002Fmonosemantic-features).\n\nTDB enables rapid exploration before needing to write code, with the ability to intervene in the\nforward pass and see how it affects a particular behavior. It can be used to answer questions like,\n\"Why does the model output token A instead of token B for this prompt?\" or \"Why does attention head\nH attend to token T for this prompt?\" It does so by identifying specific components (neurons,\nattention heads, autoencoder latents) that contribute to the behavior, showing automatically\ngenerated explanations of what causes those components to activate most strongly, and tracing\nconnections between components to help discover circuits.\n\nThese videos give an overview of TDB and show how it can be used to investigate [indirect object\nidentification in GPT-2 small](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.00593):\n\n- [Introduction](https:\u002F\u002Fwww.loom.com\u002Fshare\u002F721244075f12439496db5d53439d2f84?sid=8445200e-c49e-4028-8b8e-3ea8d361dec0)\n- [Neuron viewer pages](https:\u002F\u002Fwww.loom.com\u002Fshare\u002F21b601b8494b40c49b8dc7bfd1dc6829?sid=ee23c00a-9ede-4249-b9d7-c2ba15993556)\n- [Example: Investigating name mover heads, part 1](https:\u002F\u002Fwww.loom.com\u002Fshare\u002F3478057cec484a1b85471585fef10811?sid=b9c3be4b-7117-405a-8d31-0f9e541dcfb6)\n- [Example: Investigating name mover heads, part 2](https:\u002F\u002Fwww.loom.com\u002Fshare\u002F6bd8c6bde84b42a98f9a26a969d4a3ad?sid=4a09ac29-58a2-433e-b55d-762414d9a7fa)\n\n## What's in the release?\n\n- [Neuron viewer](neuron_viewer\u002FREADME.md): A React app that hosts TDB as well as pages with information about individual model components (MLP neurons, attention heads and autoencoder latents for both).\n- [Activation server](neuron_explainer\u002Factivation_server\u002FREADME.md): A backend server that performs inference on a subject model to provide data for TDB. It also reads and serves data from public Azure buckets.\n- [Models](neuron_explainer\u002Fmodels\u002FREADME.md): A simple inference library for GPT-2 models and their autoencoders, with hooks to grab activations.\n- [Collated activation datasets](datasets.md): top-activating dataset examples for MLP neurons, attention heads and autoencoder latents.\n\n## Setup\n\nFollow these steps to install the repo.  You'll first need python\u002Fpip, as well as node\u002Fnpm.\n\nThough optional, we recommend you use a virtual environment or equivalent:\n\n```sh\n# If you're already in a venv, deactivate it.\ndeactivate\n# Create a new venv.\npython -m venv ~\u002F.virtualenvs\u002Ftransformer-debugger\n# Activate the new venv.\nsource ~\u002F.virtualenvs\u002Ftransformer-debugger\u002Fbin\u002Factivate\n```\n\nOnce your environment is set up, follow the following steps:\n```sh\ngit clone git@github.com:openai\u002Ftransformer-debugger.git\ncd transformer-debugger\n\n# Install neuron_explainer\npip install -e .\n\n# Set up the pre-commit hooks.\npre-commit install\n\n# Install neuron_viewer.\ncd neuron_viewer\nnpm install\ncd ..\n```\n\nTo run the TDB app, you'll then need to follow the instructions to set up the [activation server backend](neuron_explainer\u002Factivation_server\u002FREADME.md) and [neuron viewer frontend](neuron_viewer\u002FREADME.md).\n\n## Making changes\n\nTo validate changes:\n\n- Run `pytest`\n- Run `mypy --config=mypy.ini .`\n- Run activation server and neuron viewer and confirm that basic functionality like TDB and neuron\n  viewer pages is still working\n\n\n## Links\n\n- [Terminology](terminology.md)\n\n## How to cite\n\nPlease cite as:\n\n```\nMossing, et al., “Transformer Debugger”, GitHub, 2024.\n```\n\nBibTex citation:\n\n```\n@misc{mossing2024tdb,\n  title={Transformer Debugger},\n  author={Mossing, Dan and Bills, Steven and Tillman, Henk and Dupré la Tour, Tom and Cammarata, Nick and Gao, Leo and Achiam, Joshua and Yeh, Catherine and Leike, Jan and Wu, Jeff and Saunders, William},\n  year={2024},\n  publisher={GitHub},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002Fopenai\u002Ftransformer-debugger}},\n}\n```\n","# Transformer调试器\n\nTransformer调试器（TDB）是由OpenAI的[超对齐团队](https:\u002F\u002Fopenai.com\u002Fblog\u002Fintroducing-superalignment)开发的一款工具，旨在支持对小型语言模型特定行为的研究。该工具结合了[自动化可解释性](https:\u002F\u002Fopenai.com\u002Fresearch\u002Flanguage-models-can-explain-neurons-in-language-models)技术和[稀疏自编码器](https:\u002F\u002Ftransformer-circuits.pub\u002F2023\u002Fmonosemantic-features)。\n\nTDB允许在无需编写代码的情况下快速进行探索，并能够在前向传播过程中进行干预，观察其如何影响特定行为。它可以用来回答诸如“为什么模型会为这个提示输出token A而不是token B？”或“为什么注意力头H会在这个提示中关注token T？”这样的问题。它通过识别对行为有贡献的特定组件（神经元、注意力头、自编码器潜在变量），自动生成这些组件被最强烈激活的原因解释，并追踪组件之间的连接，以帮助发现相关回路。\n\n以下视频概述了TDB，并展示了如何使用它来研究[GPT-2小型模型中的间接宾语识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.00593)：\n\n- [简介](https:\u002F\u002Fwww.loom.com\u002Fshare\u002F721244075f12439496db5d53439d2f84?sid=8445200e-c49e-4028-8b8e-3ea8d361dec0)\n- [神经元查看页面](https:\u002F\u002Fwww.loom.com\u002Fshare\u002F21b601b8494b40c49b8dc7bfd1dc6829?sid=ee23c00a-9ede-4249-b9d7-c2ba15993556)\n- [示例：研究名称移动头，第1部分](https:\u002F\u002Fwww.loom.com\u002Fshare\u002F3478057cec484a1b85471585fef10811?sid=b9c3be4b-7117-405a-8d31-0f9e541dcfb6)\n- [示例：研究名称移动头，第2部分](https:\u002F\u002Fwww.loom.com\u002Fshare\u002F6bd8c6bde84b42a98f9a26a969d4a3ad?sid=4a09ac29-58a2-433e-b55d-762414d9a7fa)\n\n## 本次发布包含哪些内容？\n\n- [神经元查看器](neuron_viewer\u002FREADME.md)：一个React应用，承载TDB以及关于单个模型组件（MLP神经元、注意力头和自编码器潜在变量）信息的页面。\n- [激活服务器](neuron_explainer\u002Factivation_server\u002FREADME.md)：一个后端服务器，用于对目标模型进行推理以提供TDB所需的数据。它还从公共Azure存储桶读取并提供数据。\n- [模型](neuron_explainer\u002Fmodels\u002FREADME.md)：一个简单的GPT-2模型及其自编码器的推理库，带有获取激活值的钩子。\n- [整理后的激活数据集](datasets.md)：MLP神经元、注意力头和自编码器潜在变量的顶部激活数据集示例。\n\n## 设置步骤\n\n请按照以下步骤安装此仓库。您首先需要Python\u002Fpip以及Node\u002Fnpm。\n\n虽然不是必须的，但我们建议您使用虚拟环境或其他等效方式：\n\n```sh\n# 如果您已经在虚拟环境中，请先退出。\ndeactivate\n# 创建一个新的虚拟环境。\npython -m venv ~\u002F.virtualenvs\u002Ftransformer-debugger\n# 激活新的虚拟环境。\nsource ~\u002F.virtualenvs\u002Ftransformer-debugger\u002Fbin\u002Factivate\n```\n\n环境设置完成后，请执行以下步骤：\n```sh\ngit clone git@github.com:openai\u002Ftransformer-debugger.git\ncd transformer-debugger\n\n# 安装neuron_explainer。\npip install -e .\n\n# 设置pre-commit钩子。\npre-commit install\n\n# 安装neuron_viewer。\ncd neuron_viewer\nnpm install\ncd ..\n```\n\n要运行TDB应用，您还需要按照说明设置[激活服务器后端](neuron_explainer\u002Factivation_server\u002FREADME.md)和[神经元查看器前端](neuron_viewer\u002FREADME.md)。\n\n## 进行更改\n\n为了验证更改：\n\n- 运行`pytest`\n- 运行`mypy --config=mypy.ini .`\n- 启动激活服务器和神经元查看器，确认TDB和神经元查看页面等基本功能仍然正常工作\n\n## 链接\n\n- [术语表](terminology.md)\n\n## 如何引用\n\n请按以下方式引用：\n\n```\nMossing等，“Transformer Debugger”，GitHub，2024年。\n```\n\nBibTex引用：\n\n```\n@misc{mossing2024tdb,\n  title={Transformer Debugger},\n  author={Mossing, Dan and Bills, Steven and Tillman, Henk and Dupré la Tour, Tom and Cammarata, Nick and Gao, Leo and Achiam, Joshua and Yeh, Catherine and Leike, Jan and Wu, Jeff and Saunders, William},\n  year={2024},\n  publisher={GitHub},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002Fopenai\u002Ftransformer-debugger}},\n}\n```","# Transformer Debugger 快速上手指南\n\nTransformer Debugger (TDB) 是由 OpenAI 超级对齐团队开发的工具，旨在帮助研究者探索小型语言模型的具体行为。它结合了自动化可解释性技术和稀疏自编码器（SAE），允许用户在不编写代码的情况下快速干预模型前向传播，分析神经元、注意力头及潜在特征对模型输出的影响。\n\n## 环境准备\n\n在开始之前，请确保您的系统已安装以下基础依赖：\n\n*   **操作系统**：Linux 或 macOS（Windows 用户建议使用 WSL2）\n*   **Python**：推荐 Python 3.8+\n*   **Node.js & npm**：用于前端界面构建\n*   **Git**：版本控制工具\n\n> **国内加速建议**：\n> *   **Python 包**：建议使用清华或阿里镜像源加速 `pip` 安装。\n> *   **Node 包**：建议配置 `npm` 使用淘宝镜像 (`cnpm` 或 `registry.npmmirror.com`) 以加快依赖下载速度。\n\n## 安装步骤\n\n### 1. 创建虚拟环境（推荐）\n为避免依赖冲突，建议先创建并激活独立的 Python 虚拟环境：\n\n```sh\n# 如果已在其他虚拟环境中，先退出\ndeactivate\n\n# 创建新环境\npython -m venv ~\u002F.virtualenvs\u002Ftransformer-debugger\n\n# 激活环境\nsource ~\u002F.virtualenvs\u002Ftransformer-debugger\u002Fbin\u002Factivate\n```\n\n### 2. 克隆代码库\n```sh\ngit clone git@github.com:openai\u002Ftransformer-debugger.git\ncd transformer-debugger\n```\n\n### 3. 安装后端依赖\n使用国内镜像源安装 Python 依赖包：\n\n```sh\n# 使用清华源加速安装\npip install -e . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装预提交钩子\npre-commit install\n```\n\n### 4. 安装前端依赖\n进入前端目录并安装 Node 依赖（建议使用国内镜像）：\n\n```sh\ncd neuron_viewer\n\n# 配置临时 npm 镜像源并安装\nnpm config set registry https:\u002F\u002Fregistry.npmmirror.com\nnpm install\n\ncd ..\n```\n\n## 基本使用\n\n安装完成后，TDB 由**后端激活服务器**和**前端查看器**两部分组成，需分别启动。\n\n### 第一步：启动激活服务器 (Backend)\n后端负责运行模型推理并提供数据支持。请参考 `neuron_explainer\u002Factivation_server\u002FREADME.md` 中的具体指令启动服务。通常需要指定模型路径和数据集：\n\n```sh\n# 示例命令（具体参数需参考后端文档配置）\ncd neuron_explainer\u002Factivation_server\npython -m activation_server.main --model-name gpt2-small\n```\n*注：首次运行可能需要下载模型权重和预计算的激活数据集。*\n\n### 第二步：启动神经元查看器 (Frontend)\n在后端服务运行后，启动前端 React 应用：\n\n```sh\ncd neuron_viewer\nnpm start\n```\n\n### 第三步：开始调试\n1. 打开浏览器访问前端地址（通常为 `http:\u002F\u002Flocalhost:3000`）。\n2. 在界面中输入提示词（Prompt），观察模型输出。\n3. 点击特定的输出 Token，查看是哪些**神经元 (Neurons)**、**注意力头 (Attention Heads)** 或 **自编码器潜在特征 (Autoencoder Latents)** 导致了该结果。\n4. 利用自动生成的解释和电路追踪功能，深入分析模型行为原因（例如：“为什么模型在此处输出了 Token A 而不是 B？”）。\n\n> **提示**：更多详细功能演示（如间接宾语识别调查）可参考项目 README 中提供的 Loom 视频链接。","某 AI 安全研究员正在调查一个小型语言模型为何在特定提示下频繁产生有害偏见，试图定位引发该行为的具体内部机制。\n\n### 没有 transformer-debugger 时\n- 研究人员必须手动编写大量 Python 代码来提取模型中间层的激活值，过程繁琐且容易出错。\n- 面对成千上万个神经元和注意力头，只能靠猜测或随机采样来排查，难以精准锁定导致偏见的关键组件。\n- 即使找到了高激活的神经元，也无法直观理解其具体功能，需要人工阅读大量文本示例进行归纳，耗时极长。\n- 想要验证某个假设（如“干预该神经元是否消除偏见”），需重新修改推理代码并重启实验，迭代周期以天计算。\n- 缺乏可视化的电路追踪能力，难以理清不同组件之间是如何协作产生最终有害输出的。\n\n### 使用 transformer-debugger 后\n- 无需编写任何底层代码，直接在交互式界面中加载模型，即可实时查看任意输入下的神经元和注意力头激活情况。\n- 工具自动识别并对导致偏见行为贡献最大的组件进行排序，让研究人员能瞬间聚焦于最可疑的“名称移动头”或特定神经元。\n- 系统自动生成自然语言解释，说明哪些输入特征导致了这些组件的强烈激活，帮助快速理解其语义功能。\n- 支持在前向传播过程中直接干预（如置零）特定组件，即时观察输出变化，将假设验证时间从几天缩短到几分钟。\n- 通过可视化连接关系，清晰展示从输入 token 到最终偏见解码的完整因果电路，揭示了隐藏的协同机制。\n\ntransformer-debugger 将原本需要数周的黑盒摸索工作，转变为小时级的透明化因果分析，极大加速了对模型行为的理解与安全对齐。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_transformer-debugger_27342250.png","openai","OpenAI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fopenai_1960bbf4.png","","https:\u002F\u002Fopenai.com\u002F","https:\u002F\u002Fgithub.com\u002Fopenai",[79,83,87,91,95,98],{"name":80,"color":81,"percentage":82},"Python","#3572A5",81,{"name":84,"color":85,"percentage":86},"TypeScript","#3178c6",18.9,{"name":88,"color":89,"percentage":90},"HTML","#e34c26",0.1,{"name":92,"color":93,"percentage":94},"Shell","#89e051",0,{"name":96,"color":97,"percentage":94},"CSS","#663399",{"name":99,"color":100,"percentage":94},"JavaScript","#f1e05a",4111,237,"2026-04-10T04:52:43","MIT",4,"未说明",{"notes":108,"python":109,"dependencies":110},"该工具由后端激活服务器（Python）和前端神经元查看器（Node.js\u002FReact）组成。README 未明确列出具体的 Python 版本、GPU 型号或内存需求，仅指出需要安装 python\u002Fpip 和 node\u002Fnpm。建议使用虚拟环境（venv）进行隔离。主要功能是针对 GPT-2 小型模型及其稀疏自编码器进行可解释性分析，运行前需按照文档分别配置后端推理服务和前端展示界面。","未说明 (需安装 python\u002Fpip)",[111,112,113,114,115,116],"torch (隐含，用于 GPT-2 推理)","transformers (隐含，用于模型加载)","React\u002FNode.js (前端依赖)","pytest (测试依赖)","mypy (类型检查依赖)","pre-commit (开发依赖)",[35,14,118],"其他","2026-03-27T02:49:30.150509","2026-04-10T22:19:08.620848",[122,127,132,137,142],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},28443,"启动 Neuron Viewer 时出现错误：'Unable to look up model info. Are you sure you're running an activation server for this dataset?'，如何解决？","这通常是由于激活服务器 URL 配置不正确导致的。请尝试以下解决方案：\n1. 确保在启动 viewer 时正确设置了环境变量，例如：`NEURON_VIEWER_ACTIVATION_SERVER_URL=http:\u002F\u002Flocalhost:8005 npm start`（将端口号替换为你实际运行的端口）。\n2. 如果问题仍然存在，可以修改源代码文件 `neuron_viewer\u002Fsrc\u002Frequests\u002Fpaths.ts`，将 `getActivationServerUrl` 函数中的默认返回值从 `0.0.0.0` 改为 `localhost`，或者确保其正确读取环境变量：\n```typescript\nexport function getActivationServerUrl(): string {\n  if (process.env.NEURON_VIEWER_ACTIVATION_SERVER_URL) {\n    return process.env.NEURON_VIEWER_ACTIVATION_SERVER_URL;\n  }\n  return \"http:\u002F\u002Flocalhost:8000\"; \u002F\u002F 确保这里是 localhost 而不是 0.0.0.0\n}\n```\n某些网络环境（如学校或公司网络）可能无法解析 `0.0.0.0`。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Ftransformer-debugger\u002Fissues\u002F22",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},28444,"Transformer Debugger 是否支持非 OpenAI 的模型或其他架构的 Transformer 模型？","是的，该工具理论上可以支持其他模型，但需要用户自行实现适配。核心要求是您的模型实现需要支持类似的 hooks（钩子）结构，以便工具能够拦截和查看神经元激活值。官方目前不直接提供对其他架构（如 HuggingFace 模型）的开箱即用支持，您可以参考源码进行 fork 和自定义开发。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Ftransformer-debugger\u002Fissues\u002F17",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},28445,"如何为自己的 Transformer 模型创建自定义的神经元数据集以在 Neuron Viewer 中显示？","虽然官方未直接提供通用的数据集整理脚本，但用户可以通过映射 hooks 来调试自己的模型。根据社区反馈，用户需要自行编写脚本来收集激活数据并格式化为工具所需的数据集结构。建议参考项目中现有的数据集生成逻辑（通常在 `neuron_explainer` 相关目录下），模仿其数据格式为自己的模型生成对应的数据集文件。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Ftransformer-debugger\u002Fissues\u002F28",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},28446,"文档中提到的 MLP 神经元索引范围（例如 3084）与实际计算值（4 * d_model = 3072）不符，哪个是正确的？","这是文档中的一个错误。正确的神经元大小应该是 `4 * d_model`。例如，如果 `d_model` 是 768，那么神经元数量应为 3072，而不是文档中误写的 3084。维护者已确认此为文档笔误，欢迎用户提交 PR 修复文档。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Ftransformer-debugger\u002Fissues\u002F27",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},28447,"Transformer Debugger 是否支持 Whisper 模型？","官方明确表示不会添加对 Whisper 模型的原生支持。如果您需要在 Whisper 模型上使用该工具，需要自行 fork 项目代码并尝试实现适配。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Ftransformer-debugger\u002Fissues\u002F24",[]]