[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-TransformerLensOrg--TransformerLens":3,"tool-TransformerLensOrg--TransformerLens":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",156804,2,"2026-04-15T11:34:33",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":75,"languages":76,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":32,"env_os":97,"env_gpu":98,"env_ram":97,"env_deps":99,"category_tags":103,"github_topics":74,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":105,"updated_at":106,"faqs":107,"releases":137},7828,"TransformerLensOrg\u002FTransformerLens","TransformerLens","A library for mechanistic interpretability of GPT-style language models","TransformerLens 是一个专为探索 GPT 类语言模型内部机制而设计的开源库。它的核心目标是帮助研究者“逆向工程”已经训练好的模型，通过分析模型权重和内部激活状态，揭示模型在训练过程中究竟学到了怎样的算法逻辑，从而打开深度学习黑箱。\n\n传统上，理解大模型的决策过程极为困难，而 TransformerLens 通过提供便捷的接口，让用户能够轻松加载 50 多种开源预训练模型（如 GPT-2 系列），并实时查看、缓存甚至干预模型运行时的每一层激活值。这种对内部状态的精细控制，使得分析特定神经元功能或追踪信息流动路径成为可能。\n\n这款工具特别适合 AI 研究人员、机器学习工程师以及对可解释性感兴趣的高级开发者使用。如果你希望深入探究模型为何会生成特定内容，或者想要验证关于模型内部电路的假设，TransformerLens 能提供强大的实验支持。其独特的技术亮点在于灵活的“钩子（Hook）”机制，允许用户在模型前向传播过程中动态注入自定义函数，实现了对模型行为的精细化编辑与调试，极大地降低了机械可解释性研究的门槛。","# TransformerLens\n\n\u003C!-- Status Icons -->\n[![Pypi](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Ftransformer-lens?color=blue)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftransformer-lens\u002F)\n![Pypi Total Downloads](https:\u002F\u002Fimg.shields.io\u002Fpepy\u002Fdt\u002Ftransformer_lens?color=blue) ![PyPI -\nLicense](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fl\u002Ftransformer_lens?color=blue) [![Release\nCD](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Factions\u002Fworkflows\u002Frelease.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Factions\u002Fworkflows\u002Frelease.yml)\n[![Tests\nCD](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Factions\u002Fworkflows\u002Fchecks.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Factions\u002Fworkflows\u002Fchecks.yml)\n[![Docs\nCD](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Factions\u002Fworkflows\u002Fpages\u002Fpages-build-deployment\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Factions\u002Fworkflows\u002Fpages\u002Fpages-build-deployment)\n\nA Library for Mechanistic Interpretability of Generative Language Models. Maintained by [Bryce Meyer](https:\u002F\u002Fgithub.com\u002Fbryce13950) and created by [Neel Nanda](https:\u002F\u002Fneelnanda.io\u002Fabout)\n\n[![Read the Docs\nHere](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-Read%20the%20Docs%20Here-blue?style=for-the-badge&logo=Read-the-Docs&logoColor=white&link=https:\u002F\u002FTransformerLensOrg.github.io\u002FTransformerLens\u002F)](https:\u002F\u002FTransformerLensOrg.github.io\u002FTransformerLens\u002F)\n\nThis is a library for doing [mechanistic\ninterpretability](https:\u002F\u002Fdistill.pub\u002F2020\u002Fcircuits\u002Fzoom-in\u002F) of GPT-2 Style language models. The\ngoal of mechanistic interpretability is to take a trained model and reverse engineer the algorithms\nthe model learned during training from its weights.\n\nTransformerLens lets you load in 50+ different open source language models, and exposes the internal\nactivations of the model to you. You can cache any internal activation in the model, and add in\nfunctions to edit, remove or replace these activations as the model runs.\n\n## Quick Start\n\n### Install\n\n```shell\npip install transformer_lens\n```\n\n### Use\n\n```python\nimport transformer_lens\n\n# Load a model (eg GPT-2 Small)\nmodel = transformer_lens.HookedTransformer.from_pretrained(\"gpt2-small\")\n\n# Run the model and get logits and activations\nlogits, activations = model.run_with_cache(\"Hello World\")\n```\n\n## Key Tutorials\n\n* [Introduction to the Library and Mech\n  Interp](https:\u002F\u002Farena-chapter1-transformer-interp.streamlit.app\u002F[1.2]_Intro_to_Mech_Interp)\n* [Demo of Main TransformerLens Features](https:\u002F\u002Fneelnanda.io\u002Ftransformer-lens-demo)\n\n## Gallery\n\nResearch done involving TransformerLens:\n\n\u003C!-- If you change this also change docs\u002Fsource\u002Fcontent\u002Fgallery.md -->\n* [Progress Measures for Grokking via Mechanistic\n  Interpretability](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.05217) (ICLR Spotlight, 2023) by Neel Nanda, Lawrence\n  Chan, Tom Lieberum, Jess Smith, Jacob Steinhardt\n* [Finding Neurons in a Haystack: Case Studies with Sparse\n  Probing](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01610) by Wes Gurnee, Neel Nanda, Matthew Pauly, Katherine\n  Harvey, Dmitrii Troitskii, Dimitris Bertsimas\n* [Towards Automated Circuit Discovery for Mechanistic\n  Interpretability](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14997) by Arthur Conmy, Augustine N. Mavor-Parker,\n  Aengus Lynch, Stefan Heimersheim, Adrià Garriga-Alonso\n* [Actually, Othello-GPT Has A Linear Emergent World Representation](https:\u002F\u002Fneelnanda.io\u002Fothello)\n  by Neel Nanda\n* [A circuit for Python docstrings in a 4-layer attention-only\n  transformer](https:\u002F\u002Fwww.alignmentforum.org\u002Fposts\u002Fu6KXXmKFbXfWzoAXn\u002Fa-circuit-for-python-docstrings-in-a-4-layer-attention-only)\n  by Stefan Heimersheim and Jett Janiak\n* [A Toy Model of Universality](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03025) (ICML, 2023) by Bilal Chughtai,\n  Lawrence Chan, Neel Nanda\n* [N2G: A Scalable Approach for Quantifying Interpretable Neuron Representations in Large Language\n  Models](https:\u002F\u002Fopenreview.net\u002Fforum?id=ZB6bK6MTYq) (2023, ICLR Workshop RTML) by Alex Foote, Neel\n  Nanda, Esben Kran, Ioannis Konstas, Fazl Barez\n* [Eliciting Latent Predictions from Transformers with the Tuned\n  Lens](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08112) by Nora Belrose, Zach Furman, Logan Smith, Danny Halawi,\n  Igor Ostrovsky, Lev McKinney, Stella Biderman, Jacob Steinhardt\n\nUser contributed examples of the library being used in action:\n\n* [Induction Heads Phase Change\n  Replication](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fckkissane\u002Finduction-heads-transformer-lens\u002Fblob\u002Fmain\u002FInduction_Heads_Phase_Change.ipynb):\n  A partial replication of [In-Context Learning and Induction\n  Heads](https:\u002F\u002Ftransformer-circuits.pub\u002F2022\u002Fin-context-learning-and-induction-heads\u002Findex.html)\n  from Connor Kissane\n* [Decision Transformer\n  Interpretability](https:\u002F\u002Fgithub.com\u002FjbloomAus\u002FDecisionTransformerInterpretability): A set of\n  scripts for training decision transformers which uses transformer lens to view intermediate\n  activations, perform attribution and ablations. A write up of the initial work can be found\n  [here](https:\u002F\u002Fwww.lesswrong.com\u002Fposts\u002FbBuBDJBYHt39Q5zZy\u002Fdecision-transformer-interpretability).\n\nCheck out [our demos folder](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Ftree\u002Fmain\u002Fdemos) for\nmore examples of TransformerLens in practice\n\n## Getting Started in Mechanistic Interpretability\n\nMechanistic interpretability is a very young and small field, and there are a _lot_ of open\nproblems. This means there's both a lot of low-hanging fruit, and that the bar for entry is low - if\nyou would like to help, please try working on one! The standard answer to \"why has no one done this\nyet\" is just that there aren't enough people! Key resources:\n\n* [A Guide to Getting Started in Mechanistic Interpretability](https:\u002F\u002Fneelnanda.io\u002Fgetting-started)\n* [ARENA Mechanistic Interpretability Tutorials](https:\u002F\u002Farena3-chapter1-transformer-interp.streamlit.app\u002F) from\n  Callum McDougall. A comprehensive practical introduction to mech interp, written in\n  TransformerLens - full of snippets to copy and they come with exercises and solutions! Notable\n  tutorials:\n  * [Coding GPT-2 from\n    scratch](https:\u002F\u002Farena3-chapter1-transformer-interp.streamlit.app\u002F[1.1]_Transformer_from_Scratch), with\n    accompanying video tutorial from me ([1](https:\u002F\u002Fneelnanda.io\u002Ftransformer-tutorial)\n    [2](https:\u002F\u002Fneelnanda.io\u002Ftransformer-tutorial-2)) - a good introduction to transformers\n  * [Introduction to Mech Interp and\n    TransformerLens](https:\u002F\u002Farena3-chapter1-transformer-interp.streamlit.app\u002F[1.2]_Intro_to_Mech_Interp): An\n    introduction to TransformerLens and mech interp via studying induction heads. Covers the\n    foundational concepts of the library\n  * [Indirect Object\n    Identification](https:\u002F\u002Farena3-chapter1-transformer-interp.streamlit.app\u002F[1.3]_Indirect_Object_Identification):\n    a replication of interpretability in the wild, that covers standard techniques in mech interp\n    such as [direct logit\n    attribution](https:\u002F\u002Fdynalist.io\u002Fd\u002Fn2ZWtnoYHrU1s4vnFSAQ519J#z=disz2gTx-jooAcR0a5r8e7LZ),\n    [activation patching and path\n    patching](https:\u002F\u002Fwww.lesswrong.com\u002Fposts\u002Fxh85KbTFhbCz7taD4\u002Fhow-to-think-about-activation-patching)\n* [Mech Interp Paper Reading List](https:\u002F\u002Fneelnanda.io\u002Fpaper-list)\n* [200 Concrete Open Problems in Mechanistic\n  Interpretability](https:\u002F\u002Fneelnanda.io\u002Fconcrete-open-problems)\n* [A Comprehensive Mechanistic Interpretability Explainer](https:\u002F\u002Fneelnanda.io\u002Fglossary): To look\n  up all the jargon and unfamiliar terms you're going to come across!\n* [Neel Nanda's Youtube channel](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCBMJ0D-omcRay8dh4QT0doQ): A range\n  of mech interp video content, including [paper\n  walkthroughs](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=KV5gbOmHbjU&list=PL7m7hLIqA0hpsJYYhlt1WbHHgdfRLM2eY&index=1),\n  and [walkthroughs of doing\n  research](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=yo4QvDn-vsU&list=PL7m7hLIqA0hr4dVOgjNwP2zjQGVHKeB7T)\n\n## Support & Community\n\n[![Contributing\nGuide](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-Contributing%20Guide-blue?style=for-the-badge&logo=GitHub&logoColor=white)](https:\u002F\u002FTransformerLensOrg.github.io\u002FTransformerLens\u002Fcontent\u002Fcontributing.html)\n\nIf you have issues, questions, feature requests or bug reports, please search the issues to check if\nit's already been answered, and if not please raise an issue!\n\nYou're also welcome to join the open source mech interp community on\n[Slack](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fopensourcemechanistic\u002Fshared_invite\u002Fzt-2n26nfoh1-TzMHrzyW6HiOsmCESxXtyw).\nPlease use issues for concrete discussions about the package, and Slack for higher bandwidth\ndiscussions about eg supporting important new use cases, or if you want to make substantial\ncontributions to the library and want a maintainer's opinion. We'd also love for you to come and\nshare your projects on the Slack!\n\n| :exclamation:  HookedSAETransformer Removed   |\n|-----------------------------------------------|\n\nHooked SAE has been removed from TransformerLens in version 2.0. The functionality is being moved to\n[SAELens](http:\u002F\u002Fgithub.com\u002FjbloomAus\u002FSAELens). For more information on this release, please see the\naccompanying\n[announcement](https:\u002F\u002Ftransformerlensorg.github.io\u002FTransformerLens\u002Fcontent\u002Fnews\u002Frelease-2.0.html)\nfor details on what's new, and the future of TransformerLens.\n\n## Credits\n\nThis library was created by **[Neel Nanda](https:\u002F\u002Fneelnanda.io)** and is maintained by **[Bryce Meyer](https:\u002F\u002Fgithub.com\u002Fbryce13950)**.\n\nThe core features of TransformerLens were heavily inspired by the interface to [Anthropic's\nexcellent Garcon tool](https:\u002F\u002Ftransformer-circuits.pub\u002F2021\u002Fgarcon\u002Findex.html). Credit to Nelson\nElhage and Chris Olah for building Garcon and showing the value of good infrastructure for enabling\nexploratory research!\n\n### Creator's Note (Neel Nanda)\n\nI (Neel Nanda) used to work for the [Anthropic interpretability team](transformer-circuits.pub), and\nI wrote this library because after I left and tried doing independent research, I got extremely\nfrustrated by the state of open source tooling. There's a lot of excellent infrastructure like\nHuggingFace and DeepSpeed to _use_ or _train_ models, but very little to dig into their internals\nand reverse engineer how they work. **This library tries to solve that**, and to make it easy to get\ninto the field even if you don't work at an industry org with real infrastructure! One of the great\nthings about mechanistic interpretability is that you don't need large models or tons of compute.\nThere are lots of important open problems that can be solved with a small model in a Colab notebook!\n\n### Citation\n\nPlease cite this library as:\n\n```BibTeX\n@misc{nanda2022transformerlens,\n    title = {TransformerLens},\n    author = {Neel Nanda and Joseph Bloom},\n    year = {2022},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens}},\n}\n```\n","# TransformerLens\n\n\u003C!-- 状态图标 -->\n[![Pypi](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Ftransformer-lens?color=blue)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftransformer-lens\u002F)\n![Pypi 总下载量](https:\u002F\u002Fimg.shields.io\u002Fpepy\u002Fdt\u002Ftransformer_lens?color=blue) ![PyPI -\n许可证](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fl\u002Ftransformer_lens?color=blue) [![发布\nCD](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Factions\u002Fworkflows\u002Frelease.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Factions\u002Fworkflows\u002Frelease.yml)\n[![测试\nCD](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Factions\u002Fworkflows\u002Fchecks.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Factions\u002Fworkflows\u002Fchecks.yml)\n[![文档\nCD](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Factions\u002Fworkflows\u002Fpages\u002Fpages-build-deployment\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Factions\u002Fworkflows\u002Fpages\u002Fpages-build-deployment)\n\n用于生成式语言模型机制可解释性的库。由 [Bryce Meyer](https:\u002F\u002Fgithub.com\u002Fbryce13950) 维护，由 [Neel Nanda](https:\u002F\u002Fneelnanda.io\u002Fabout) 创建。\n\n[![在此阅读文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-在此阅读文档-blue?style=for-the-badge&logo=Read-the-Docs&logoColor=white&link=https:\u002F\u002FTransformerLensOrg.github.io\u002FTransformerLens\u002F)](https:\u002F\u002FTransformerLensOrg.github.io\u002FTransformerLens\u002F)\n\n这是一个用于对 GPT-2 风格语言模型进行 [机制可解释性](https:\u002F\u002Fdistill.pub\u002F2020\u002Fcircuits\u002Fzoom-in\u002F) 的库。机制可解释性的目标是从训练好的模型权重中逆向工程出模型在训练过程中学到的算法。\n\nTransformerLens 允许你加载 50 多种不同的开源语言模型，并将模型的内部激活暴露给你。你可以缓存模型中的任何内部激活，并在模型运行时添加函数来编辑、移除或替换这些激活。\n\n## 快速入门\n\n### 安装\n\n```shell\npip install transformer_lens\n```\n\n### 使用\n\n```python\nimport transformer_lens\n\n# 加载一个模型（例如 GPT-2 Small）\nmodel = transformer_lens.HookedTransformer.from_pretrained(\"gpt2-small\")\n\n# 运行模型并获取 logits 和 activations\nlogits, activations = model.run_with_cache(\"Hello World\")\n```\n\n## 重点教程\n\n* [库和机制可解释性简介](https:\u002F\u002Farena-chapter1-transformer-interp.streamlit.app\u002F[1.2]_Intro_to_Mech_Interp)\n* [TransformerLens 主要功能演示](https:\u002F\u002Fneelnanda.io\u002Ftransformer-lens-demo)\n\n## 作品集\n\n使用 TransformerLens 完成的研究：\n\n\u003C!-- 如果你更改此处，请同时更改 docs\u002Fsource\u002Fcontent\u002Fgallery.md -->\n* [通过机制可解释性实现 Grokking 的进展度量](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.05217)（ICLR Spotlight, 2023），作者：Neel Nanda、Lawrence Chan、Tom Lieberum、Jess Smith、Jacob Steinhardt\n* [在干草堆中寻找神经元：稀疏探测案例研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01610)，作者：Wes Gurnee、Neel Nanda、Matthew Pauly、Katherine Harvey、Dmitrii Troitskii、Dimitris Bertsimas\n* [迈向机制可解释性的自动化电路发现](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14997)，作者：Arthur Conmy、Augustine N. Mavor-Parker、Aengus Lynch、Stefan Heimersheim、Adrià Garriga-Alonso\n* [实际上，Othello-GPT 拥有线性涌现的世界表征](https:\u002F\u002Fneelnanda.io\u002Fothello)，作者：Neel Nanda\n* [一个仅含注意力机制的四层变压器中的 Python 文档字符串电路](https:\u002F\u002Fwww.alignmentforum.org\u002Fposts\u002Fu6KXXmKFbXfWzoAXn\u002Fa-circuit-for-python-docstrings-in-a-4-layer-attention-only)，作者：Stefan Heimersheim 和 Jett Janiak\n* [普适性的一个玩具模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03025)（ICML, 2023），作者：Bilal Chughtai、Lawrence Chan、Neel Nanda\n* [N2G：一种可扩展的方法，用于量化大型语言模型中的可解释神经元表征](https:\u002F\u002Fopenreview.net\u002Fforum?id=ZB6bK6MTYq)（2023, ICLR Workshop RTML），作者：Alex Foote、Neel Nanda、Esben Kran、Ioannis Konstas、Fazl Barez\n* [利用调谐透镜从变压器中提取潜在预测](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08112)，作者：Nora Belrose、Zach Furman、Logan Smith、Danny Halawi、Igor Ostrovsky、Lev McKinney、Stella Biderman、Jacob Steinhardt\n\n用户贡献的关于该库实际应用的示例：\n\n* [归纳头相变复现](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fckkissane\u002Finduction-heads-transformer-lens\u002Fblob\u002Fmain\u002FInduction_Heads_Phase_Change.ipynb)：Connor Kissane 对 [上下文学习与归纳头](https:\u002F\u002Ftransformer-circuits.pub\u002F2022\u002Fin-context-learning-and-induction-heads\u002Findex.html) 的部分复现\n* [决策变压器可解释性](https:\u002F\u002Fgithub.com\u002FjbloomAus\u002FDecisionTransformerInterpretability)：一组用于训练决策变压器的脚本，使用 transformer lens 查看中间激活、进行归因分析和消融实验。初步工作的总结可以在这里找到 [这里](https:\u002F\u002Fwww.lesswrong.com\u002Fposts\u002FbBuBDJBYHt39Q5zZy\u002Fdecision-transformer-interpretability)。\n\n更多 TransformerLens 实际应用的示例，请查看 [我们的演示文件夹](https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Ftree\u002Fmain\u002Fdemos)。\n\n## 机制可解释性入门\n\n机制可解释性是一个非常年轻且规模较小的领域，仍然存在大量未解决的问题。这意味着既有许多容易入手的任务，进入门槛也相对较低——如果你愿意贡献力量，不妨尝试解决其中一个！对于“为什么至今还没有人去做这件事”这个问题，标准的回答往往就是：缺乏足够的人手！以下是几个关键资源：\n\n* [机制可解释性入门指南](https:\u002F\u002Fneelnanda.io\u002Fgetting-started)\n* 来自 Callum McDougall 的 [ARENA 机制可解释性教程](https:\u002F\u002Farena3-chapter1-transformer-interp.streamlit.app\u002F)。这是一份全面的实践性入门指南，基于 TransformerLens 编写，包含大量可直接复制的代码片段，并配有练习题和答案！其中一些值得关注的教程：\n  * [从零开始编码 GPT-2](https:\u002F\u002Farena3-chapter1-transformer-interp.streamlit.app\u002F[1.1]_Transformer_from_Scratch)，并附有我的配套视频教程（[1](https:\u002F\u002Fneelnanda.io\u002Ftransformer-tutorial)、[2](https:\u002F\u002Fneelnanda.io\u002Ftransformer-tutorial-2))——这是了解 Transformer 架构的良好起点。\n  * [机制可解释性与 TransformerLens 简介](https:\u002F\u002Farena3-chapter1-transformer-interp.streamlit.app\u002F[1.2]_Intro_to_Mech_Interp)：通过研究归纳头来介绍 TransformerLens 和机制可解释性，涵盖了该库的基础概念。\n  * [间接宾语识别](https:\u002F\u002Farena3-chapter1-transformer-interp.streamlit.app\u002F[1.3]_Indirect_Object_Identification)：这是一个对现有可解释性研究的复现，覆盖了机制可解释性的标准技术，例如 [直接 logits 归因](https:\u002F\u002Fdynalist.io\u002Fd\u002Fn2ZWtnoYHrU1s4vnFSAQ519J#z=disz2gTx-jooAcR0a5r8e7LZ)、[激活插补与路径插补](https:\u002F\u002Fwww.lesswrong.com\u002Fposts\u002Fxh85KbTFhbCz7taD4\u002Fhow-to-think-about-activation-patching)。\n* [机制可解释性论文阅读清单](https:\u002F\u002Fneelnanda.io\u002Fpaper-list)\n* [机制可解释性中的 200 个具体开放问题](https:\u002F\u002Fneelnanda.io\u002Fconcrete-open-problems)\n* [机制可解释性综合解释器](https:\u002F\u002Fneelnanda.io\u002Fglossary)：用于查阅你在学习过程中遇到的各种术语和陌生概念！\n* [Neel Nanda 的 YouTube 频道](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCBMJ0D-omcRay8dh4QT0doQ)：提供了丰富的机制可解释性视频内容，包括 [论文解读](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=KV5gbOmHbjU&list=PL7m7hLIqA0hpsJYYhlt1WbHHgdfRLM2eY&index=1)以及 [研究过程演示](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=yo4QvDn-vsU&list=PL7m7hLIqA0hr4dVOgjNwP2zjQGVHKeB7T)。\n\n## 支持与社区\n\n[![贡献指南](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-Contributing%20Guide-blue?style=for-the-badge&logo=GitHub&logoColor=white)](https:\u002F\u002FTransformerLensOrg.github.io\u002FTransformerLens\u002Fcontent\u002Fcontributing.html)\n\n如果你遇到问题、有疑问、功能需求或 bug 报告，请先在 issue 列表中搜索是否已有解答；如果没有，请提交一个新的 issue！\n\n你也可以加入开源机制可解释性社区的 Slack 讨论组：[Slack 链接](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fopensourcemechanistic\u002Fshared_invite\u002Fzt-2n26nfoh1-TzMHrzyW6HiOsmCESxXtyw)。请将关于软件包的具体讨论放在 issue 中，而将更高带宽的交流（例如支持重要的新用例，或希望对库做出重大贡献并征求维护者意见）留在 Slack 上。我们也非常欢迎你在 Slack 上分享你的项目进展！\n\n| :exclamation: HookedSAETransformer 已移除   |\n|-----------------------------------------------|\n\nHooked SAE 已在 TransformerLens 2.0 版本中被移除。其功能现已迁移到 [SAELens](http:\u002F\u002Fgithub.com\u002FjbloomAus\u002FSAELens)。有关此次发布的更多信息，请参阅随附的 [公告](https:\u002F\u002Ftransformerlensorg.github.io\u002FTransformerLens\u002Fcontent\u002Fnews\u002Frelease-2.0.html)，了解新功能及 TransformerLens 的未来发展方向。\n\n## 致谢\n\n本库由 **[Neel Nanda](https:\u002F\u002Fneelnanda.io)** 创建，并由 **[Bryce Meyer](https:\u002F\u002Fgithub.com\u002Fbryce13950)** 维护。\n\nTransformerLens 的核心功能深受 Anthropic 优秀工具 Garcon 接口的启发（[Garcon 工具页面](https:\u002F\u002Ftransformer-circuits.pub\u002F2021\u002Fgarcon\u002Findex.html)）。感谢 Nelson Elhage 和 Chris Olah 打造了 Garcon，并展示了良好的基础设施对于推动探索性研究的重要性！\n\n### 作者注（Neel Nanda）\n\n我曾就职于 Anthropic 的可解释性团队（[transformer-circuits.pub](transformer-circuits.pub)），离开后尝试独立开展研究时，我对当前开源工具的状态感到极为沮丧。虽然像 HuggingFace 和 DeepSpeed 这样的框架为模型的使用和训练提供了优秀的基础设施，但用于深入挖掘模型内部机制、反向工程其工作原理的工具却少之又少。**本库正是为了解决这一问题而设计的**，旨在让即使没有大型基础设施的企业背景的人也能轻松进入这一领域！机制可解释性的优势之一在于，它并不需要庞大的模型或大量的计算资源。许多重要的开放问题仅需一台小型模型和一个 Colab 笔记本即可解决。\n\n### 引用方式\n\n请按以下格式引用本库：\n\n```BibTeX\n@misc{nanda2022transformerlens,\n    title = {TransformerLens},\n    author = {Neel Nanda 和 Joseph Bloom},\n    year = {2022},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens}},\n}\n```","# TransformerLens 快速上手指南\n\nTransformerLens 是一个用于对生成式语言模型（如 GPT-2 风格）进行**机械可解释性（Mechanistic Interpretability）**研究的开源库。它允许用户加载 50+ 种开源模型，访问、缓存、编辑或替换模型内部的激活值，从而逆向工程模型学到的算法。\n\n## 环境准备\n\n*   **系统要求**：支持 Linux、macOS 和 Windows。\n*   **Python 版本**：建议 Python 3.8 及以上版本。\n*   **前置依赖**：需安装 PyTorch。TransformerLens 将自动处理其他依赖（如 `transformers`, `einops` 等）。\n*   **网络环境**：首次运行加载预训练模型时需要访问 Hugging Face。国内用户若遇到下载缓慢问题，建议配置 Hugging Face 镜像源：\n    ```bash\n    export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n    ```\n\n## 安装步骤\n\n使用 pip 直接安装最新稳定版：\n\n```shell\npip install transformer_lens\n```\n\n若需加速下载，可指定国内镜像源（如清华源）：\n\n```shell\npip install transformer_lens -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n以下是最简单的使用示例，展示如何加载预训练模型（以 GPT-2 Small 为例），运行前向传播并缓存内部激活值。\n\n```python\nimport transformer_lens\n\n# 加载预训练模型 (例如: gpt2-small)\nmodel = transformer_lens.HookedTransformer.from_pretrained(\"gpt2-small\")\n\n# 运行模型并获取 logits 和所有内部激活值\nlogits, activations = model.run_with_cache(\"Hello World\")\n\n# 查看输出维度\nprint(logits.shape) \n# 查看特定层的激活值 (例如: 第 0 层的残差流)\nprint(activations[\"hook_resid_post\", 0].shape)\n```\n\n**核心功能说明：**\n*   `from_pretrained`: 一键加载支持的开源模型。\n*   `run_with_cache`: 执行推理并自动记录所有中间层的激活状态，返回的 `activations` 字典可用于后续的分析、干预或可视化。","某 AI 安全团队在审查开源大模型时，需要排查模型为何会在特定诱导下输出有害内容或产生“幻觉”。\n\n### 没有 TransformerLens 时\n- **黑盒猜测**：只能观察输入和最终输出，无法得知模型内部哪一层注意力头或哪个神经元触发了错误逻辑，排查全靠猜。\n- **修改困难**：若想验证某个假设（如“移除第 5 层的某特征是否有效”），必须重新修改模型权重文件并重启整个推理进程，效率极低。\n- **数据缺失**：难以一次性获取模型运行过程中所有中间层的激活值，导致无法复现和分析特定的故障路径。\n- **门槛过高**：手动构建钩子（Hooks）来拦截内部状态需要深厚的框架底层知识，新成员上手极慢。\n\n### 使用 TransformerLens 后\n- **透视内部**：直接加载预训练模型并一键缓存所有内部激活值，精准定位到是具体的“注意力头”在处理有害指令时被异常激活。\n- **动态干预**：利用内置的编辑功能，在不改变权重的情况下，实时将可疑神经元的激活值置零或替换，瞬间验证修复效果。\n- **电路还原**：通过可视化工具逆向工程出模型内部的“欺骗电路”，清晰展示错误信息是如何从输入层传递到输出层的。\n- **快速迭代**：只需几行代码即可对 50+ 种不同架构的模型进行相同的机理分析，大幅降低了可解释性研究的工程成本。\n\nTransformerLens 将大模型从不可知的“黑盒”变成了可拆解、可调试的透明系统，让开发者能像外科医生一样精准修复模型缺陷。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTransformerLensOrg_TransformerLens_6d1e85de.png","TransformerLensOrg","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FTransformerLensOrg_9c8d811f.png",null,"https:\u002F\u002Fgithub.com\u002FTransformerLensOrg",[77,81,85,89],{"name":78,"color":79,"percentage":80},"Python","#3572A5",91.9,{"name":82,"color":83,"percentage":84},"Jupyter Notebook","#DA5B0B",7.9,{"name":86,"color":87,"percentage":88},"Makefile","#427819",0.2,{"name":90,"color":91,"percentage":92},"Dockerfile","#384d54",0.1,3312,552,"2026-04-15T10:53:36","MIT","未说明","未说明 (库用于加载和运行预训练模型，通常建议使用支持 CUDA 的 NVIDIA GPU 以加速计算，但 README 中未明确具体型号或显存要求)",{"notes":100,"python":97,"dependencies":101},"README 中仅提供了 'pip install transformer_lens' 的安装指令，未详细列出具体的系统依赖（如 PyTorch 版本）、Python 版本要求或硬件配置。该库主要用于加载 50+ 种开源语言模型并进行机械可解释性分析，实际资源需求取决于所加载模型的大小（例如加载大模型需要更多显存和内存）。建议参考官方文档或 PyPI 页面获取详细的依赖列表。",[102],"transformer_lens",[35,14,104],"其他","2026-03-27T02:49:30.150509","2026-04-16T01:43:01.880856",[108,113,118,123,128,133],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},35068,"如何在 GitHub Actions 中运行需要 GPU 的教程测试？","在 GitHub Actions 中运行需要 Nvidia 驱动的教程是一个挑战。用户发现许多演示脚本仅在 Google Colab 环境中自动安装依赖，而在本地或其他环境会因缺少依赖而失败。目前社区正在探讨如何在 GitHub Actions 中配置连接 Nvidia GPU 的运行器，但这需要特定的基础设施支持，尚未有标准的简单解决方案。","https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fissues\u002F213",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},35065,"如何加载本地下载的模型而不访问 Hugging Face？","目前直接通过 `HookedTransformer.from_pretrained` 加载本地模型较为困难，用户尝试过以下方法但均未能完全阻止联网下载：\n1. 先用 Transformers 库加载模型，再转换为 HookedTransformer。\n2. 设置环境变量 `os.environ['HF_HUB_HOME']` 指向本地模型存储路径。\n3. 修改源代码（参考 Issue #754）。\n如果必须离线使用，可能需要直接强制模型在离线模式下加载，或等待官方进一步支持。","https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fissues\u002F655",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},35066,"为什么 Mixtral 模型生成的内容是无意义的乱码？","这通常是一个已修复的 Bug。维护者确认在合并修复到开发分支（dev）并发布新版本后，问题已解决。用户反馈在新版本中进行多次生成测试（如 \"Hello my name is\" 和 \"Once upon a time\"），结果正常且无明显退化。如果遇到此问题，请确保升级到最新版本。","https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fissues\u002F570",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},35067,"TransformerLens 是否支持 BERT 或 T5 等编码器 - 解码器模型？","目前 TransformerLens 主要支持解码器-only 架构，原生不支持 BERT 或 T5 等编码器 - 解码器模型。社区曾提出构建 `HookedEncoderDecoder` 类的计划以支持此类架构（包括交叉注意力机制），但尚未完全实现。对于需要处理机器翻译等任务的用户，建议关注相关开发进度，或者考虑使用更轻量级且支持任意 PyTorch 模型的 `nnsight` 库作为替代方案。","https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fissues\u002F258",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},35069,"如何从视觉语言模型中提取纯语言模型部分（例如从 Llama 3.2 11B Vision 提取 8B 语言模型）？","可以使用社区提供的脚本进行提取。例如，有用户成功使用了特定脚本从 11B 视觉语言模型中提取出 8B 语言模型。相关的转换脚本可以在 Hugging Face 上找到（如 `32to31.py`），或者参考 `Sumandora\u002Fremove-refusals-with-transformers` 仓库中的相关讨论和代码。注意提取后的模型可能需要进一步处理才能在某些场景下正常工作。","https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fissues\u002F691",{"id":134,"question_zh":135,"answer_zh":136,"source_url":112},35070,"为什么在本地运行教程笔记时会因为缺少依赖而失败？","大多数演示笔记本顶部都有检查是否在 Colab 中运行的代码。如果是 Colab 环境，它会自动安装所需的依赖项；如果不是（如在本地或 GitHub Actions 中），则不会安装，导致因缺少依赖而失败。解决方法是手动在本地环境中预先安装这些依赖，或者修改笔记本代码以在非 Colab 环境下也执行依赖安装步骤。",[138,143,148,153,158,163,168,173,178,183,188,193,198,203,208,213,218,223,228,233],{"id":139,"version":140,"summary_zh":141,"released_at":142},273840,"v2.18.0","## 变更内容\n* 隔离演示依赖，并为缓解 CVE-2025-67221 漏洞而固定 orjson 版本，由 @evcyen 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1173 中完成\n* 功能：添加 LIT 集成，用于交互式模型分析 (#121)，由 @HetanshWaghela 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1163 中完成\n* 修复：为 TinyStories 模型设置 n_ctx=512，由 @puranikyashaswin 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1162 中完成\n* 修复\u002Ftokenize_and_concatenate 处理无效标记的问题，由 @evcyen 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1179 中完成\n* 移除 tokenize_and_concatenate 的误报警告，由 @evcyen 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1177 中完成\n* 将 MMLU 基准评估添加到评测中，由 @CarlG0123 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1183 中完成\n* 修复\u002F1076 logit lens 层归一化问题，由 @evcyen 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1180 中完成\n* 更新交互式神经镜和 CI，以正确安装演示，由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1205 中完成\n* 修复 tokenize_and_concatenate 在块边界处分割标记的问题，由 @brainsnog 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1201 中完成\n* 修复演示笔记本中已弃用的 IPython magic() 调用（问题 #1036），由 @brainsnog 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1203 中完成\n* 在 HookedTransformer.from_pretrained 中暴露 n_ctx 覆盖选项（问题 #1006），由 @brainsnog 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1204 中完成\n* 添加针对 MPS 使用的警告标志，由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1182 中完成\n* 添加 GPT-OSS-20B 模型支持，由 @CarlG0123 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1195 中完成\n* 修复 ActivationCache.accumulated_resid 内部的 logit lens 实现，使其与文献中的标准定义以及文档字符串和文档中所预期和定义的行为一致，由 @hartigel 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1077 中完成\n* 添加 Apertus 模型支持，采用 XIeLU 激活函数，由 @sinievanderben 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1197 中完成\n* 修复 torch 2.8.0 下在 MPS 上的注意力计算问题，由 @BrownianNotion 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1068 中完成\n* 推出 HuBERT 支持，由 @david-wei-01001 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1111 中完成\n* 进行预发布测试，由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1210 中完成\n* 修复反向钩子运行时错误，由 @evcyen 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1175 中完成\n* 发布 v2.18.0 版本，由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1211 中完成\n\n## 新贡献者\n* @evcyen 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1173 中完成了首次贡献\n* @HetanshWaghela 在 https:\u002F\u002Fgithub.com","2026-03-24T17:03:36",{"id":144,"version":145,"summary_zh":146,"released_at":147},273841,"v3.0.0b3","## 变更内容\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1186 中实现，支持在 TransformerBridge.add_hook() 中使用可调用的过滤器\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1187 中更新打补丁钩子，以避免引发冲突\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1188 中防止过时的联合 QKV 值在 Layer Norm 应用后被纳入权重折叠\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1189 中更新代码，移除硬编码的 .cpu() 处理\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1190 中返回正确的初始批次大小信息\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1191 中修复 hook_result 和 Hook 别名相关问题\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1014 中更新探索性分析演示中的加载方式，使用 transformer bridge\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1021 中更新 patchscopes 生成演示中的加载方式，使用 transformer bridge\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1192 中进行额外的探索性分析演示修复\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1015 中更新 BERT 演示中的加载方式，使用 transformer bridge\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1025 中更新 Qwen 演示中的加载方式，使用 transformer bridge\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1011 中更新激活打补丁演示中的加载方式，使用 transformer bridge\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1022 中更新 T5 演示中的加载方式，使用 transformer bridge\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1013 中更新归因打补丁演示中的加载方式，使用 transformer bridge\n* v3.0.0b3 – 笔记本演示更新及错误修复，由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1196 中完成\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1199 中验证更多模型\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1200 中添加多模态架构适配器功能\n* 由 @speediedan 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1198 中修复联合 QKV 桥注意力重建中布尔型 4D 注意力掩码的处理问题\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1202 中添加 LLaVA Next 和 OneVision 变体功能\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv3.0.0b2...v3.0.0b3","2026-03-13T16:36:46",{"id":149,"version":150,"summary_zh":151,"released_at":152},273842,"v3.0.0b2","## 变更内容\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F945 中发布的 2.16 版本\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F952 中发布的 2.16.1 版本\n* 由 @jmole 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F957 中更新的 README.md 文件\n* 由 @mivanit 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F769 中改进的文档中模型属性表格\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F958 中发布的 v2.16.2 版本\n* 由 @huseyincavusbi 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1149 中新增对 Gemma 3 和 MedGemma 模型的支持\n* 由 @MattAlp 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F983 中为 2.0 版本发布公告添加时间戳\n* 由 @mtaran 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1075 中新增对 Qwen\u002FQwen3-0.6B-Base 模型的支持\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1157 中修复因近期贡献而导致失败的测试\n* 由 @kapedalex 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1155 中修复问题 934\n* 由 @kapedalex 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1154 中修复问题 1130 和 1102\n* 由 @nikolaystanishev 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F981 中修复针对 n_heads 与 n_key_value_heads 不同的模型的关键和值头打补丁问题\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1158 中更新兼容性笔记本\n* 新版本 – v2.17.0，由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1159 中发布\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1166 中集成 v2.17.0 第一阶段\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1167 中支持 transformers v5\n* 由 @speediedan 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1143 中通过双 PyTorch\u002FTransformerLens 参数访问 API 改进 TransformerBridge 优化器的兼容性\n* 由 @speediedan 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1144 中将 HuggingFace ModelOutput 支持添加到 TransformerLens 生成 API\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1168 中测试 R1 Distills，以确认其在 TransformerLens 中的功能正常\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1171 中实现 StableLM 架构适配器\n* 由 @taziksh 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1081 中完成对 OLMo 支持的类型检查（基于 #816）\n* 由 @etomoscow 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1170 中新增对 Olmo3 的支持\n* 由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1174 中设置并测试了 OLMo 架构适配器\n* 由 @evcyen 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1173 中隔离演示依赖项，并锁定 orjson 以缓解 CVE-2025-67221 漏洞\n* 功能：添加 LIT int","2026-02-26T19:25:42",{"id":154,"version":155,"summary_zh":156,"released_at":157},273843,"v2.17.0","我们推出了一项令人振奋的新版本，其中包含多款全新模型！Gemma 3、MedGemma 和 Qwen3-0.6B-Base 现已加入模型选项中。除了这些新模型外，还修复了一些 bug，并进行了一些其他小的非破坏性改动。\n\n## 变更内容\n* 更新 README.md，由 @jmole 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F957 中完成  \n* 改进文档中的模型属性表格，由 @mivanit 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F769 中完成  \n* 发布 v2.16.2 版本，由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F958 中完成  \n* 添加对 Gemma 3 和 MedGemma 模型的支持，由 @huseyincavusbi 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1149 中完成  \n* 为 2.0 版本公告添加时间戳 [文档]，由 @MattAlp 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F983 中完成  \n* 添加对 Qwen\u002FQwen3-0.6B-Base 模型的支持，由 @mtaran 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1075 中完成  \n* 修复因近期贡献而导致失败的测试，由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1157 中完成  \n* 修复问题 #934，由 @kapedalex 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1155 中完成  \n* 修复问题 #1130 和 #1102，由 @kapedalex 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1154 中完成  \n* 修复 n_heads 与 n_key_value_heads 不同的模型中 key 和 value heads 的补丁问题，由 @nikolaystanishev 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F981 中完成  \n* 更新兼容性笔记本，由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1158 中完成  \n* 新版本 – v2.17.0，由 @jlarson4 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1159 中完成  \n\n## 新贡献者\n* @jmole 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F957 中完成了首次贡献  \n* @huseyincavusbi 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1149 中完成了首次贡献  \n* @MattAlp 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F983 中完成了首次贡献  \n* @mtaran 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1075 中完成了首次贡献  \n* @kapedalex 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1155 中完成了首次贡献  \n* @nikolaystanishev 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F981 中完成了首次贡献  \n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv2.16.1...v2.17.0","2026-01-21T23:32:41",{"id":159,"version":160,"summary_zh":161,"released_at":162},273844,"v3.0.0b1","## 变更内容\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1051 中正确注册了钩子\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1046 中对 QKV 桥接进行了小幅优化\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1044 中添加了对层归一化和偏置折叠的支持\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1049 中更新了获取参数的逻辑，以便在需要时填充零值\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1047 中使 TransformerBridge 的设备选择与 HookedTransformer 保持一致\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1054 中提升了 TransformerBridge 钩子与 HookedTransformers 的兼容性\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1048 中启用了缓存钩子的设置功能\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1055 中为 Phi 1 的每个模块创建了桥接\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1056 中将 Neo 桥接的命名调整为符合新的命名规范\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1057 中将 Mixtral 桥接的命名调整为符合新的命名规范\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1058 中添加了测试，并确保反向钩子正常工作\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1059 中从 phi 组件映射中移除了第二个层归一化\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1060 中为 pythia 的每个模块创建了桥接\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1061 中为 Qwen 2 的每个模块创建了桥接\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1053 中实现了处理函数\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1063 中尝试匹配处理逻辑\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1064 中完成了处理恢复\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1065 中添加了缺失的配置参数\n* 由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1066 中在初始化组件中正确设置了 normalization_type 和 layer_norm_folding 属性\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1067 中提升了处理精度\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1070 中对 Hugging Face 权重进行了消融实验\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1072 中修复了 CI 相关问题\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1073 中增加了额外的前向传递\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLen 中提高了测试覆盖率","2025-12-07T16:37:09",{"id":164,"version":165,"summary_zh":166,"released_at":167},273845,"v3.0.0a8","另一项更新，进一步完善了我们新模块的 API\n\n## 变更内容\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1042 中创建了新的基础配置类\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1035 中确保检查嵌套钩子\n* @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1041 中修复了在兼容模式关闭时别名的警告\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1045 中实现了 KV 缓存功能\n* @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1043 中针对具有联合 QKV 矩阵的模型，改为拆分权重而非 logits\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv3.0.0a7...v3.0.0a8","2025-09-07T22:51:25",{"id":169,"version":170,"summary_zh":171,"released_at":172},273846,"v3.0.0a7","## 变更内容\n* 将 `hook_pos_embed` 映射到 `rotary_emb`，并允许 `hook_aliases` 为列表，由 @hijohnnylin 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1034 中实现。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv3.0.0a6...v3.0.0a7","2025-08-28T22:00:40",{"id":174,"version":175,"summary_zh":176,"released_at":177},273847,"v3.0.0a6","重大发布！进行了大量优化，并对 TransformerBridge 的某些部分进行了二次改进，使我们更接近 Beta 版本。\n\n## 变更内容\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1009 中为桥接层添加了 setter 方法和钩子工具函数。\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1026 中更新了属性访问方式。\n* 功能：Bridge.boot 现在允许使用模型别名，但会显示弃用警告，由 @hijohnnylin 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1028 中实现。\n* 将 QKV 分离逻辑移至封装 QKV 矩阵的桥接层中，由 @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1027 中完成。\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1030 中移除了不必要的导入。\n* 由 @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1029 中实现了注意力模式形状的相关调整。\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1032 中为钩子收集添加了缓存层。\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1031 中提升了桥接层单元测试的兼容性覆盖率。\n* @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1017 中更新了交互式神经显微镜演示中的加载逻辑，使其使用 Transformer 桥接层。\n\n## 新贡献者\n* @hijohnnylin 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1028 中完成了他们的首次贡献。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv3.0.0a5...v3.0.0a6","2025-08-26T20:16:32",{"id":179,"version":180,"summary_zh":181,"released_at":182},273848,"v3.0.0a5","TransformerBridge 的首个全新架构，距离 Beta 版又近了一大步！\n\n## 变更内容\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F996 中进行了权重转换的命名调整\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F997 中实现了注意力形状的归一化处理\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1001 中优化了联合钩子的处理逻辑\n* @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F998 中新增了 `compatibility_mode` 功能\n* @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1004 中增加了对 GPT-OSS 的支持\n* @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F1007 中修复了 GPT-OSS 的初始化错误\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv3.0.0a4...v3.0.0a5","2025-08-16T09:29:11",{"id":184,"version":185,"summary_zh":186,"released_at":187},273849,"v3.0.0a4","重大更新，使我们离 Beta 版更近一步！本次更新为旧版 hooked root 模块的大量遗留属性添加了兼容层。\n\n## 变更内容\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F991 中统一了别名\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F992 中修复了钩子别名的位置问题\n* @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F984 中为 Mixtral 的每个模块创建了桥接\n* @bryce13950 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F994 中移除了 NumPy 的上限限制\n* @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F990 中确保了钩子和属性与 HookedTransformer 的向后兼容性\n* @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F995 中为 Neox 的每个模块创建了桥接\n* @degenfabian 在 https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F987 中为 Neo 的每个模块创建了桥接\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv3.0.0a3...v3.0.0a4","2025-08-05T15:37:35",{"id":189,"version":190,"summary_zh":191,"released_at":192},273850,"v3.0.0a3","New Alpha release! A whole bunch of changes have been added. Some more HookedTransformer functionality has been imported, and a whole bunch of architectures have been improved to give more options in our new module. These changes have resulted in a very noticeable improvement with compatibility of old HookedTransformer based code.\r\n\r\n## What's Changed\r\n* Setup deprecated hook aliases and got the majority of the main demo running properly by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F976\r\n* Linear test coverage by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F977\r\n* Create Bridge for every Gemma 3 module by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F966\r\n* Add Bridges for every module in GPT2 by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F967\r\n* Cache hook aliases & stop at layer by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F978\r\n* Create Bridges for every module in Bloom models by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F970\r\n* Create Bridges for every module in Gemma 2 by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F971\r\n* Create bridges for every module in Gemma 1 by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F972\r\n* Create bridges for every module in Mistral by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F979\r\n* Remove that output_attention flag defaults to true in boot function by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F982\r\n* Create bridge for every module in GPT-J by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F974\r\n* Create bridge for every module in Llama by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F975\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv3.0.0a2...v3.0.0a3","2025-07-27T21:04:07",{"id":194,"version":195,"summary_zh":196,"released_at":197},273851,"v3.0.0a2","This release is inconsequential. The first alpha release showed that the CI was not capable of publishing to pip with pep style alpha tags. This release makes that possible. Please consult the release notes for v3.0.0a1 for full information on 3.x alpha.\r\n\r\n## What's Changed\r\n* Pre release version publishing by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F973\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv3.0.0a1...v3.0.0a2 ","2025-07-21T22:04:52",{"id":199,"version":200,"summary_zh":201,"released_at":202},273852,"v3.0.0a1","Big release coming up! This release will add a new module named TransformerBridge, which will greatly increase flexibility and expandability of TransformerLens. This is a very experimental module right now, but we are looking for people who are ready to test it. This version already supports more models than any of the existing HookedModules, and we are in the middle of working through a number of scripts to assure full compatibility with any existing code utilized any of those HookedModules. \r\n\r\nIf you are interested in helping as test some of this, let us know on the slack channel! If you want to be able to use any models not currently supported in HookedModules, then please feel free to submit any scripts currently running with an existing HookedModule to https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FBridgeComaptibilityScripts. All scripts in this repo will be confirmed to be running, and matching the current HookedTransformer output before the final 3.0.0 release is published.\r\n\r\n## What's Changed\r\n* Refactor the utilities file into utilities folder by @starship006 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F628\r\n* Raise exception when BERT is loaded with HookedTransformer instead of… by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F795\r\n* Circular dependency resolution by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F803\r\n* fixed corner param by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F817\r\n* bumped python min version by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F802\r\n* Updates torch to use the most recent version by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F822\r\n* updated python requirements by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F821\r\n* Recent releases by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F841\r\n* updated mypy limit by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F880\r\n* Activation utils cleanup by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F879\r\n* Restore consistency of hook_normalized between LayerNorm and RMSNorm by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F770\r\n* Fix that padding_side always defaults to \"right\" when no value is explicitly passed by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F814\r\n* Unified conversions by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F881\r\n* Flatten state dictionary for proper weight loading by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F860\r\n* enabled actions on action pr by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F882\r\n* Add weight conversion for Phi model by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F863\r\n* Add weight conversion for T5 models by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F859\r\n* Visualize weight conversions by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F852\r\n* Fixed test for ensuring weight conversions are provided by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F883\r\n* Drop python 3.9 by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F885\r\n* Conversion improved test coverage by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F886\r\n* Component test coverage by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F890\r\n* Bug new loading by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F891\r\n* Weight conversion llama by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F892\r\n* Refactor supported models module by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F893\r\n* Bug neox by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F895\r\n* added conditional check for hugging face by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F919\r\n* created a seperate list of models to test for public PRs by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F920\r\n* added alternative when hf token is not included by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F921\r\n* shrunk loss test by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F922\r\n* Fix broken test, per issue #913 by @JasonBenn in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F914\r\n* Fix loading on specific device by @mntss in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F906\r\n* Feature model adapter by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F928\r\n* added test for making sure formatting works well by @bryce13950 in htt","2025-07-18T17:29:11",{"id":204,"version":205,"summary_zh":206,"released_at":207},273853,"v2.16.1","Minor release with security dependency bumps\r\n\r\n## What's Changed\r\n* updated sphinx by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F948\r\n* removed dependency by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F951\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv2.16.0...v2.16.1","2025-06-19T13:20:13",{"id":209,"version":210,"summary_zh":211,"released_at":212},273854,"v2.16.0","## What's Changed\r\n* added conditional check for hugging face by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F919\r\n* created a seperate list of models to test for public PRs by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F920\r\n* added alternative when hf token is not included by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F921\r\n* shrunk loss test by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F922\r\n* Fix broken test, per issue #913 by @JasonBenn in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F914\r\n* Fix loading on specific device by @mntss in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F906\r\n* Add qwen3 by @mntss in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F937\r\n* Improve ActivationCache docs by @BorisTheBrave in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F901\r\n* Feature: Get the value for rotary base from the hugging face config, only for Qwen for now. by @Gusanidas in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F887\r\n* updated mypy by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F940\r\n* updated numpy dependency by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F943\r\n* upated torch by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F942\r\n* updated transformers by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F939\r\n* Fixed Qwen 3 docs issues by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F946\r\n\r\n## New Contributors\r\n* @JasonBenn made their first contribution in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F914\r\n* @BorisTheBrave made their first contribution in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F901\r\n* @Gusanidas made their first contribution in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F887\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv2.15.4...v2.16.0","2025-06-12T18:19:58",{"id":214,"version":215,"summary_zh":216,"released_at":217},273855,"v2.15.4","## What's Changed\r\n* passed secret explicitly by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F927\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv2.15.3...v2.15.4","2025-05-15T21:47:12",{"id":219,"version":220,"summary_zh":221,"released_at":222},273856,"v2.15.3","## What's Changed\r\n* updated triggers to enforce secrets by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F926\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv2.15.2...v2.15.3","2025-05-15T21:40:44",{"id":224,"version":225,"summary_zh":226,"released_at":227},273857,"v2.15.2","## What's Changed\r\n* fixed wrapping by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F925\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv2.15.1...v2.15.2","2025-05-15T21:16:48",{"id":229,"version":230,"summary_zh":231,"released_at":232},273858,"v2.15.1","Minor fix to LLaMA rope compatibility and a fix for the CI\r\n\r\n## What's Changed\r\n* added full hf token authentication by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F916\r\n* Fix LLama RoPE by @mntss in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F910\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv2.15.0...v2.15.1","2025-05-05T16:14:20",{"id":234,"version":235,"summary_zh":236,"released_at":237},273859,"v2.15.0","Nice little update! This one improves compatibility for LLaMA 3.3 70B, adds a new mistral mode, and introduces a number of utilities for Bert.\r\n\r\n## What's Changed\r\n* Fixes compatibility with Llama 3.3 70B by @thisnick in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F856\r\n* Extend Bert support by @degenfabian in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F829\r\n* fixed bert indenting by @bryce13950 in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F875\r\n\r\n## New Contributors\r\n* @thisnick made their first contribution in https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fpull\u002F856\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FTransformerLensOrg\u002FTransformerLens\u002Fcompare\u002Fv2.14.1...v2.15.0","2025-02-20T00:35:30"]