[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-sachinhosmani--torchvista":3,"similar-sachinhosmani--torchvista":172},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":17,"owner_location":17,"owner_email":17,"owner_twitter":17,"owner_website":17,"owner_url":18,"languages":19,"stars":28,"forks":29,"last_commit_at":30,"license":31,"difficulty_score":32,"env_os":33,"env_gpu":33,"env_ram":33,"env_deps":34,"category_tags":39,"github_topics":17,"view_count":41,"oss_zip_url":17,"oss_zip_packed_at":17,"status":42,"created_at":43,"updated_at":44,"faqs":45,"releases":76},8478,"sachinhosmani\u002Ftorchvista","torchvista","Interactive Pytorch forward pass visualization in notebooks","torchvista 是一款专为 PyTorch 开发者设计的交互式可视化工具，只需一行代码，即可在 Jupyter、Google Colab 等网页版笔记本中直观呈现模型的前向传播过程。它有效解决了深度学习模型内部结构复杂、数据流向不透明以及调试形状不匹配错误困难等痛点，让原本抽象的计算图变得清晰可见。\n\n该工具特别适合 AI 研究人员、算法工程师及深度学习学生使用，帮助他们快速理解模型架构或排查训练中的维度错误。其核心技术亮点包括：支持拖拽和缩放的交互式图表、可折叠的层级模块展示（便于查看嵌套结构），以及独特的“容错”机制——即使模型因形状不匹配报错，也能生成部分可视化结果以辅助定位问题。此外，用户点击节点即可查看详细的参数与属性信息，并支持将视图导出为图片、SVG 或 HTML 格式。通过简洁的 API 接口，torchvista 让模型诊断变得高效且直观，是提升开发效率的得力助手。","# torchvista\n\nAn interactive tool to visualize the forward pass of a PyTorch model directly in the notebook—with a single line of code. Works with web-based notebooks like Jupyter, Google Colab and Kaggle. Also allows you to export the visualization as image, svg and HTML.\n\n## ✨ Features\n\n### Interactive graph with drag and zoom support\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsachinhosmani_torchvista_readme_99fdc8f3481d.gif)\n\n--------\n\n### Collapsible nodes for hierarchical modules \n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsachinhosmani_torchvista_readme_66b524e9b372.gif)\n\n--------\n\n### Error-tolerant partial visualization when errors arise\n(e.g., shape mismatches) for ease of debugging\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsachinhosmani_torchvista_readme_a4aeecd76c1a.png)\n\n--------\n\n### Click on nodes to view parameter and attribute info\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsachinhosmani_torchvista_readme_593a4313aefa.png)\n\n--------\n\n\n## Tutorials and examples\n\n- Step-by-step tutorial 👉 [here](https:\u002F\u002Fsachinhosmani.github.io\u002Ftorchvista\u002Ftutorials.html)\n- Quick Google Colab tutorial 👉 [here](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1wrWKhpvGiqHhE0Lb1HnFGeOcS4uBqGXw?usp=sharing) (must be logged in to Colab)\n- Check out demos 👉 [here](https:\u002F\u002Fsachinhosmani.github.io\u002Ftorchvista\u002Fdemos.html)\n\n## ⚙️ Usage\n\nInstall via pip\n```\npip install torchvista\n```\n\nAlternatively, install via `conda` (See [`torchvista-feedstock`](https:\u002F\u002Fgithub.com\u002Fconda-forge\u002Ftorchvista-feedstock?tab=readme-ov-file#installing-torchvista) for more information)\n\n```\nconda install -c conda-forge torchvista\n```\n\nRun from your **web-based notebook** (Jupyter, Colab, VSCode notebook, etc)\n\n```\nimport torch\nimport torch.nn as nn\n\n# Import torchvista\nfrom torchvista import trace_model\n\n# Define your module\nclass LinearModel(nn.Module):\n    def __init__(self):\n        super().__init__()\n        self.linear = nn.Linear(10, 5)\n\n    def forward(self, x):\n        return self.linear(x)\n\n# Instantiate the module and tensor input\nmodel = LinearModel()\ninputs = torch.randn(2, 10)\n\n# Trace!\ntrace_model(model, inputs)\n```\n## API: `trace_model`\n\n```python\ntrace_model(\n    model,\n    inputs,\n    show_non_gradient_nodes=True,\n    collapse_modules_after_depth=1,\n    forced_module_tracing_depth=None,\n    height=800,\n    width=None,\n    export_format=None,\n    show_module_attr_names=False,\n    export_path=None,\n    show_compressed_view=False,\n)\n```\n\n| Parameter | Type | Default Value | Category | Description |\n| --- | --- | --- | --- | --- |\n| `model` | `torch.nn.Module` | — | Tracing | Model instance to visualize. |\n| `inputs` | `Any` | — | Tracing | Input(s) forwarded into the model; pass a single input or a tuple. |\n| `show_non_gradient_nodes` | `bool` | `True` | Visual | Display nodes for constants and other values outside the gradient graph. |\n| `collapse_modules_after_depth` | `int` | `1` | Visual | Depth to initially expand nested modules; `0` collapses everything (nodes can still be expanded interactively). |\n| `forced_module_tracing_depth` | `int` | `None` | Tracing | Maximum depth of module internals to trace; `None` traces only user-defined modules. |\n| `height` | `int` | `800` | Visual | Canvas height in pixels. |\n| `width` | `int \\| str` | `None` | Visual | Canvas width; accepts pixels or percentages; defaults to full available width when omitted. |\n| `export_format` | `str` | `None` | Export | Optional export format: `png`, `svg`, or `html` if exporting graph as a file. Otherwise, by default the graph is shown within the notebook.|\n| `show_module_attr_names` | `bool` | `False` | Visual | Display attribute names for modules when available instead of just class names. |\n| `export_path` | `str` | `None` | Export | Custom path if exporting as a file. **Only HTML format** is currently supported with custom export paths. If only file name is specified, it will be created inside the present working directory. |\n| `show_compressed_view` (Experimental) | `bool` | `False` | Visual | Compress the graph by showing repeating nodes of the same type with identical input and output dims in single \"repeat\" blocks. This feature currently only recognises repeating nodes within `Sequential` and `ModuleList`. WARNING: this feature might be expensive on large models. |\n","# torchvista\n\n一款交互式工具，可在笔记本中直接可视化 PyTorch 模型的前向传播过程——只需一行代码即可实现。支持基于 Web 的笔记本环境，如 Jupyter、Google Colab 和 Kaggle。此外，还允许将可视化结果导出为图像、SVG 和 HTML 格式。\n\n## ✨ 功能特性\n\n### 支持拖拽和缩放的交互式图谱\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsachinhosmani_torchvista_readme_99fdc8f3481d.gif)\n\n--------\n\n### 可折叠节点，用于分层模块\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsachinhosmani_torchvista_readme_66b524e9b372.gif)\n\n--------\n\n### 容错性部分可视化（例如形状不匹配时），便于调试\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsachinhosmani_torchvista_readme_a4aeecd76c1a.png)\n\n--------\n\n### 点击节点查看参数和属性信息\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsachinhosmani_torchvista_readme_593a4313aefa.png)\n\n--------\n\n\n## 教程与示例\n\n- 分步教程 👉 [这里](https:\u002F\u002Fsachinhosmani.github.io\u002Ftorchvista\u002Ftutorials.html)\n- 快速 Google Colab 教程 👉 [这里](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1wrWKhpvGiqHhE0Lb1HnFGeOcS4uBqGXw?usp=sharing)（需登录 Colab）\n- 查看演示 👉 [这里](https:\u002F\u002Fsachinhosmani.github.io\u002Ftorchvista\u002Fdemos.html)\n\n## ⚙️ 使用方法\n\n通过 pip 安装：\n```\npip install torchvista\n```\n\n或者通过 `conda` 安装（更多信息请参阅 [`torchvista-feedstock`](https:\u002F\u002Fgithub.com\u002Fconda-forge\u002Ftorchvista-feedstock?tab=readme-ov-file#installing-torchvista)）：\n```\nconda install -c conda-forge torchvista\n```\n\n在您的 **基于 Web 的笔记本**（Jupyter、Colab、VSCode Notebook 等）中运行：\n```\nimport torch\nimport torch.nn as nn\n\n# 导入 torchvista\nfrom torchvista import trace_model\n\n# 定义您的模块\nclass LinearModel(nn.Module):\n    def __init__(self):\n        super().__init__()\n        self.linear = nn.Linear(10, 5)\n\n    def forward(self, x):\n        return self.linear(x)\n\n# 实例化模块和输入张量\nmodel = LinearModel()\ninputs = torch.randn(2, 10)\n\n# 开始追踪！\ntrace_model(model, inputs)\n```\n\n## API：`trace_model`\n\n```python\ntrace_model(\n    model,\n    inputs,\n    show_non_gradient_nodes=True,\n    collapse_modules_after_depth=1,\n    forced_module_tracing_depth=None,\n    height=800,\n    width=None,\n    export_format=None,\n    show_module_attr_names=False,\n    export_path=None,\n    show_compressed_view=False,\n)\n```\n\n| 参数 | 类型 | 默认值 | 分类 | 描述 |\n| --- | --- | --- | --- | --- |\n| `model` | `torch.nn.Module` | — | 追踪 | 要可视化的模型实例。 |\n| `inputs` | `Any` | — | 追踪 | 输入到模型中的数据；可以传入单个输入或元组。 |\n| `show_non_gradient_nodes` | `bool` | `True` | 可视化 | 显示常量和其他不在梯度图中的节点。 |\n| `collapse_modules_after_depth` | `int` | `1` | 可视化 | 初始展开嵌套模块的深度；`0` 表示全部折叠（节点仍可交互式展开）。 |\n| `forced_module_tracing_depth` | `int` | `None` | 追踪 | 要追踪的模块内部的最大深度；`None` 表示仅追踪用户定义的模块。 |\n| `height` | `int` | `800` | 可视化 | 画布高度，单位为像素。 |\n| `width` | `int \\| str` | `None` | 可视化 | 画布宽度；可接受像素或百分比值；省略时默认为可用宽度。 |\n| `export_format` | `str` | `None` | 导出 | 可选的导出格式：`png`、`svg` 或 `html`，用于将图谱保存为文件。若未指定，则默认在笔记本中显示图谱。|\n| `show_module_attr_names` | `bool` | `False` | 可视化 | 在可能的情况下，显示模块的属性名称，而非仅显示类名。 |\n| `export_path` | `str` | `None` | 导出 | 自定义导出路径。目前仅支持以 HTML 格式进行自定义路径导出。若仅指定文件名，则会在当前工作目录下创建该文件。 |\n| `show_compressed_view`（实验性功能） | `bool` | `False` | 可视化 | 通过将具有相同输入输出维度且类型相同的重复节点合并为单个“重复”块来压缩图谱。此功能目前仅识别 `Sequential` 和 `ModuleList` 中的重复节点。警告：该功能在大型模型上可能会消耗较多资源。|","# torchvista 快速上手指南\n\ntorchvista 是一款交互式工具，只需一行代码即可在 Notebook（如 Jupyter、Google Colab、Kaggle）中直接可视化 PyTorch 模型的前向传播过程。它支持拖拽缩放、层级折叠、错误容错显示以及节点详情查看，并支持导出为图片、SVG 或 HTML。\n\n## 环境准备\n\n- **操作系统**：Windows \u002F macOS \u002F Linux\n- **运行环境**：基于 Web 的 Notebook 环境（推荐 Jupyter Lab、Jupyter Notebook、Google Colab 或 VS Code Notebook）\n- **前置依赖**：\n  - Python 3.8+\n  - PyTorch (`torch`)\n  - `torchvision` (可选，视模型需求而定)\n\n## 安装步骤\n\n推荐使用 pip 进行安装。国内用户可使用清华源加速下载：\n\n```bash\npip install torchvista -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n或者使用 conda 安装：\n\n```bash\nconda install -c conda-forge torchvista\n```\n\n## 基本使用\n\n在 Notebook 单元格中运行以下代码，即可生成模型结构的交互式可视化图表：\n\n```python\nimport torch\nimport torch.nn as nn\n\n# 导入 torchvista\nfrom torchvista import trace_model\n\n# 定义一个简单的模型\nclass LinearModel(nn.Module):\n    def __init__(self):\n        super().__init__()\n        self.linear = nn.Linear(10, 5)\n\n    def forward(self, x):\n        return self.linear(x)\n\n# 实例化模型和输入张量\nmodel = LinearModel()\ninputs = torch.randn(2, 10)\n\n# 执行追踪并可视化\ntrace_model(model, inputs)\n```\n\n运行后，你将看到一个可交互的计算图：\n- **拖拽与缩放**：自由浏览复杂结构。\n- **点击节点**：查看参数形状、属性等详细信息。\n- **折叠\u002F展开**：点击层级模块可折叠或展开内部结构。\n- **错误调试**：即使发生形状不匹配等错误，也能显示部分图谱辅助定位问题。\n\n如需导出图像，可在 `trace_model` 中指定 `export_format` 参数（如 `\"png\"`, `\"svg\"`, `\"html\"`）。","一位深度学习工程师正在 Google Colab 中调试一个包含多层嵌套 `Sequential` 模块的复杂图像分割模型，突然遇到了张量形状不匹配的运行时错误。\n\n### 没有 torchvista 时\n- 开发者只能依赖冗长的终端报错堆栈，在数百行代码中盲目定位出错的具体层级，效率极低。\n- 想要确认中间层的输出维度是否符合预期，必须手动插入大量 `print` 语句或打断点逐层检查，严重打断思路。\n- 面对复杂的模型架构，难以直观理解数据流向，尤其是当自定义模块内部结构不透明时，排查如同“黑盒摸索”。\n- 若需向团队成员展示模型结构以协助会诊，只能截取静态代码片段或手绘草图，缺乏交互性和细节支撑。\n\n### 使用 torchvista 后\n- 只需调用 `trace_model` 一行代码，即可生成交互式计算图，即使发生形状错误也能显示部分拓扑，直接高亮断裂的数据流路径。\n- 点击图中任意节点即可弹窗查看详细的参数信息与输入输出维度，无需修改任何代码即可验证中间状态。\n- 支持折叠与展开层级模块，既能宏观把握整体架构，又能深入查看嵌套子模块的内部连接，逻辑一目了然。\n- 可将生成的动态图表导出为 HTML 或高清图片，轻松分享给同事，对方也能通过拖拽缩放自主探索模型细节。\n\ntorchvista 将原本晦涩抽象的前向传播过程转化为可视化的交互体验，让模型调试从“猜谜游戏”变成了直观的“透视分析”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsachinhosmani_torchvista_593a4313.png","sachinhosmani","Sachin Hosmani","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsachinhosmani_09262c3c.png",null,"https:\u002F\u002Fgithub.com\u002Fsachinhosmani",[20,24],{"name":21,"color":22,"percentage":23},"Python","#3572A5",72.4,{"name":25,"color":26,"percentage":27},"HTML","#e34c26",27.6,719,31,"2026-04-16T12:09:24","GPL-3.0",1,"未说明",{"notes":35,"python":33,"dependencies":36},"该工具主要用于在基于 Web 的 Notebook（如 Jupyter, Google Colab, Kaggle, VSCode Notebook）中交互式可视化 PyTorch 模型的前向传播过程。支持通过 pip 或 conda 安装。可将可视化结果导出为图片 (png)、矢量图 (svg) 或 HTML 文件。具有容错功能，即使发生形状不匹配等错误也能进行部分可视化以辅助调试。实验性功能支持压缩视图以简化重复节点的显示。",[37,38],"torch","torch.nn",[40],"开发框架",2,"ready","2026-03-27T02:49:30.150509","2026-04-17T21:45:04.011143",[46,51,56,61,66,71],{"id":47,"question_zh":48,"answer_zh":49,"source_url":50},37959,"如何在输出图像中显示层名称以便区分相同类型的层？","该功能已在 v0.2.7 版本中发布。更新后，输出图像会在括号中显示层名称，帮助用户在分析具有多个相同类型层的模型时进行区分。请确保升级到最新版本：`pip install torchvista --upgrade`。","https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fissues\u002F20",{"id":52,"question_zh":53,"answer_zh":54,"source_url":55},37960,"如何将模型可视化结果导出为独立的 HTML 文件？","可以使用 `export_format` 参数将结果导出为 HTML。只需在调用 `trace_model` 时设置 `export_format='html'`，例如：`trace_model(model, dummy_input, export_format='html')`。生成的 HTML 文件会保存在当前工作目录，并且界面会提供一个按钮在新标签页中打开该文件，方便用户另存到其他位置。支持的格式还包括 'svg' 和 'png'，若不设置该参数则默认在 Notebook 中直接显示。","https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fissues\u002F17",{"id":57,"question_zh":58,"answer_zh":59,"source_url":60},37961,"在 VS Code 或 PyCharm 的 .ipynb 文件中无法正确显示图像，只输出 `\u003CIPython.core.display.HTML object>` 怎么办？","这是早期版本在特定 IDE 中加载 JS 库的问题，已在 torchvista 0.1.8 版本中修复。请将库升级到最新版本：`pip install torchvista==0.1.8`（或更高版本）。升级后，在 VS Code 和 PyCharm 中应能正常渲染图像。如果问题依旧，请检查 IDE 是否允许执行 JavaScript 或尝试重启内核。","https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fissues\u002F8",{"id":62,"question_zh":63,"answer_zh":64,"source_url":65},37962,"如何在信息面板中显示模型参数的变量名（如 mWq, mWk 等）？","该功能已在 torchvista 0.2.11 版本中实现。请确保安装的是 0.2.11 或更高版本（可通过 `conda-forge` 或 pip 安装）。更新后，在可视化界面的信息面板中会自动显示层属性的变量名称，方便追踪具体参数。注意：GitHub Release 页面可能滞后，请以实际安装包版本为准。","https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fissues\u002F32",{"id":67,"question_zh":68,"answer_zh":69,"source_url":70},37963,"如何通过 conda 安装 torchvista？","torchvista 已发布到 `conda-forge` 频道。您可以使用以下命令进行安装：`conda install -c conda-forge torchvista`。该方式适用于需要管理复杂依赖环境的用户，尤其推荐在使用 Anaconda 或 Miniconda 的项目中使用。","https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fissues\u002F13",{"id":72,"question_zh":73,"answer_zh":74,"source_url":75},37964,"为什么图中缺少某些连接（如自注意力机制中的连线）？","部分复杂结构（如自定义的前向计算逻辑、动态生成的张量操作）可能不会被自动追踪为显式连接。目前工具主要基于 `torch.jit.trace` 捕获静态计算图。若发现缺失连接，建议检查模型是否包含非模块化的操作（如直接在 forward 中使用 `@` 矩阵乘法而未封装为 nn.Module）。维护者正在持续优化对复杂结构的解析能力，可关注后续版本更新。如遇具体案例，建议在 Issue 中提供最小复现代码以便进一步排查。","https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fissues\u002F30",[77,82,87,92,97,102,107,112,117,122,127,132,137,142,147,152,157,162,167],{"id":78,"version":79,"summary_zh":80,"released_at":81},306113,"v0.2.11","- nn.Parameter 节点的颜色变化","2026-02-02T22:15:17",{"id":83,"version":84,"summary_zh":85,"released_at":86},306114,"v0.2.10","- 以不同方式显示 `nn.Parameter` 节点，使其与普通张量区分开来\n- 在模块的信息弹出窗口中显示属性名称","2026-01-17T20:23:32",{"id":88,"version":89,"summary_zh":90,"released_at":91},306115,"v0.2.9","- 修复以支持对存储为模块属性的操作进行跟踪\n","2026-01-17T20:17:09",{"id":93,"version":94,"summary_zh":95,"released_at":96},306116,"v0.2.8","- 添加对压缩视图的支持\n- 清理模型缓冲区，移除 _tensor_source_name。这使得我们可以在同一模型上两次调用 trace_model，即使该模型使用了诸如批归一化之类的缓冲区\n- 为 .T、.mT、.H 属性添加跟踪功能，这些属性并非典型的“操作”\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fcompare\u002Fv0.2.7...v0.2.8","2026-01-11T00:29:38",{"id":98,"version":99,"summary_zh":100,"released_at":101},306117,"v0.2.7","## 变更内容\n- 添加 `show_attr_name` 参数，用于在模块节点上显示属性名，而不仅仅是模块的类名。\n- 如果张量以字典形式传递或返回，则使用字典中的路径作为张量节点的名称。\n- 添加 `export_path` 参数，用于指定保存输出文件的路径。目前仅支持 HTML 格式。\n- 增加 SVG 和 PNG 格式的下载按钮。\n\n\n## 新贡献者\n* @petroselo 在 https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fpull\u002F24 中完成了首次贡献。\n* @insaneyilin 在 https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fpull\u002F23 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fcompare\u002Fv0.2.6...v0.2.7","2025-12-13T15:49:41",{"id":103,"version":104,"summary_zh":105,"released_at":106},306118,"v0.2.6","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fcompare\u002Fv0.2.4...v0.2.6\n\n- 暴露一个 `export_format` 标志，支持 SVG、HTML 和 PNG 格式的输出\n- 添加 `width` 参数","2025-08-21T23:04:13",{"id":108,"version":109,"summary_zh":110,"released_at":111},306119,"v0.2.4","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fcompare\u002Fv0.2.3...v0.2.5\n\n- 增加了对更多算子的支持\n- 弃用了 `max_module_expansion_depth` 参数，改用 `collapse_modules_after_depth` 参数。","2025-08-10T13:00:34",{"id":113,"version":114,"summary_zh":115,"released_at":116},306120,"v0.2.3","**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fcompare\u002Fv0.2.2...v0.2.3\n\n主要修复了 https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fissues\u002F14 中的问题，以支持来自 `__setitem__` 节点的“隐式”边。","2025-08-09T00:37:59",{"id":118,"version":119,"summary_zh":120,"released_at":121},306121,"v0.2.2","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fcompare\u002Fv0.2.1...v0.2.2\n\nUI 优化：新增工具提示和建议，提示用户使用 `forced_module_tracing_depth` 参数，并添加了一个信息按钮。","2025-08-08T16:38:07",{"id":123,"version":124,"summary_zh":125,"released_at":126},306122,"v0.2.1","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fcompare\u002Fv0.2.0...v0.2.1\n\n- 对图像生成界面进行了小幅UI调整\n- 在发现标准模块时隐藏警告信息","2025-07-27T21:42:21",{"id":128,"version":129,"summary_zh":130,"released_at":131},306123,"v0.2.0","Add support for exporting png image","2025-07-26T17:16:49",{"id":133,"version":134,"summary_zh":135,"released_at":136},306124,"v0.1.9","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fcompare\u002Fv0.1.8...v0.1.9\r\n\r\nResource loading fix to support older Python versions up to 3.8","2025-07-24T04:04:07",{"id":138,"version":139,"summary_zh":140,"released_at":141},306125,"v0.1.8","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fcompare\u002Fv0.1.7...v0.1.8\r\n\r\nFix for VSCode","2025-07-19T14:26:51",{"id":143,"version":144,"summary_zh":145,"released_at":146},306126,"v0.1.7","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fcompare\u002Fv0.1.6...v0.1.7\r\n\r\n- Added support for vscode-jupyter\r\n- Expose a `height` parameter to control the height of the canvas\r\n- Small UI fixes","2025-07-11T21:30:36",{"id":148,"version":149,"summary_zh":150,"released_at":151},306127,"v0.1.6","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fsachinhosmani\u002Ftorchvista\u002Fcompare\u002Fv0.1.5...v0.1.6\r\n\r\n- Enabled forced_module_tracing_depth\r\n- Added support for a couple of torchvision ops\r\n- Support operations that use kwargs as inputs","2025-07-10T01:11:10",{"id":153,"version":154,"summary_zh":155,"released_at":156},306128,"v0.1.5","- Several visual improvements including edge labels that should almost never clash with other elements\r\n- Don't show suffixes on nodes\r\n- Improved zoom level determination upon expansion of module","2025-06-10T00:40:53",{"id":158,"version":159,"summary_zh":160,"released_at":161},306129,"v0.14","- Better presentation in the info-popup when you click on nodes, including collapsible json in a syntax highlited json viewer\r\n- Show popup info for collapsed nodes\r\n- Isolate CSS rules by suffixing a unique ID for all elements to avoid conflicts with the notebook\r\n- Lots of small UI improvements\r\n- Fixes in edge labels (dims) when multiple edges exist between a pair of nodes\r\n- Support for showing\u002Fhiding non-gradient nodes","2025-06-01T14:18:45",{"id":163,"version":164,"summary_zh":165,"released_at":166},306130,"v0.1.2","Support for max module expansion depth control using `max_module_expansion_depth`","2025-05-24T02:07:16",{"id":168,"version":169,"summary_zh":170,"released_at":171},306131,"v0.1.1","First proper release","2025-05-17T07:36:45",[173,185,193,202,210,219],{"id":174,"name":175,"github_repo":176,"description_zh":177,"stars":178,"difficulty_score":179,"last_commit_at":180,"category_tags":181,"status":42},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[182,40,183,184],"Agent","图像","数据工具",{"id":186,"name":187,"github_repo":188,"description_zh":189,"stars":190,"difficulty_score":179,"last_commit_at":191,"category_tags":192,"status":42},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[40,183,182],{"id":194,"name":195,"github_repo":196,"description_zh":197,"stars":198,"difficulty_score":41,"last_commit_at":199,"category_tags":200,"status":42},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159267,"2026-04-17T11:29:14",[40,182,201],"语言模型",{"id":203,"name":204,"github_repo":205,"description_zh":206,"stars":207,"difficulty_score":41,"last_commit_at":208,"category_tags":209,"status":42},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[40,183,182],{"id":211,"name":212,"github_repo":213,"description_zh":214,"stars":215,"difficulty_score":41,"last_commit_at":216,"category_tags":217,"status":42},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[218,182,183,40],"插件",{"id":220,"name":221,"github_repo":222,"description_zh":223,"stars":224,"difficulty_score":41,"last_commit_at":225,"category_tags":226,"status":42},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[218,40]]