[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mert-kurttutan--torchview":3,"tool-mert-kurttutan--torchview":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":73,"owner_location":73,"owner_email":76,"owner_twitter":73,"owner_website":73,"owner_url":77,"languages":78,"stars":83,"forks":84,"last_commit_at":85,"license":86,"difficulty_score":32,"env_os":87,"env_gpu":88,"env_ram":89,"env_deps":90,"category_tags":96,"github_topics":97,"view_count":32,"oss_zip_url":73,"oss_zip_packed_at":73,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":138},9235,"mert-kurttutan\u002Ftorchview","torchview","torchview: visualize pytorch models","torchview 是一款专为 PyTorch 打造的模型可视化工具，它能将复杂的神经网络结构自动转化为直观的图形。对于深度学习开发者而言，理解模型内部的数据流向和层级关系往往充满挑战，尤其是当模型包含复杂的自定义模块时。torchview 完美解决了这一痛点，它不仅能展示模块连接，还能详细呈现张量（Tensor）在各个层级的输入输出形状、涉及的函数及参数信息，堪称 PyTorch 领域的 Keras `plot_model` 增强版。\n\n这款工具特别适合 AI 研究人员、算法工程师以及正在学习深度学习的学生使用。无论是调试计算机视觉模型还是自然语言处理架构，用户只需几行代码，即可生成清晰的拓扑图，快速定位维度不匹配等常见错误。其独特的技术亮点在于支持 `device='meta'` 模式，这意味着在生成可视化图表时无需实际占用显存进行计算，极大地提升了在大模型上的运行效率与便捷性。此外，它还兼容多种 PyTorch 版本，并能灵活适应不同的开发环境。通过 torchview，你可以轻松“看见”模型的内部逻辑，让模型分析与文档编写变得更加高效透明。","# torchview\n\n[![Python 3.9+](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.9+-blue.svg)](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F)\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Ftorchview.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Ftorchview)\n[![Conda version](https:\u002F\u002Fimg.shields.io\u002Fconda\u002Fvn\u002Fconda-forge\u002Ftorchview)](https:\u002F\u002Fanaconda.org\u002Fconda-forge\u002Ftorchview)\n[![Build Status](https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview\u002Factions\u002Fworkflows\u002Ftest.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview\u002Factions\u002Fworkflows\u002Ftest.yml)\n[![GitHub license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fmert-kurttutan\u002Ftorchview)](https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview\u002Fblob\u002Fmain\u002FLICENSE)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fmert-kurttutan\u002Ftorchview\u002Fbranch\u002Fmain\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fmert-kurttutan\u002Ftorchview)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmert-kurttutan_torchview_readme_6113b5c1d6d3.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Ftorchview)\n\nTorchview provides visualization of pytorch models in the form of visual graphs. Visualization includes tensors, modules, torch.functions and info such as input\u002Foutput shapes.\n\nPytorch version of `plot_model of keras` (and more)\n\nSupports PyTorch versions $\\geq$ 1.7.\n\n## Useful features\n\n\u003Cp align=\"center\">\n  \u003Cpicture align=\"center\">\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F88637659\u002F213171745-7acf07df-6578-4a50-a106-1a7b368f8d6c.svg\">\n    \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F88637659\u002F213173736-6e91724c-8de1-4568-9d52-297b4b5ff0d2.svg\">\n    \u003Cimg alt=\"Shows a bar chart with benchmark results.\" src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F88637659\u002F213173736-6e91724c-8de1-4568-9d52-297b4b5ff0d2.svg\">\n  \u003C\u002Fpicture>\n\u003C\u002Fp>\n\n\n\n## Installation\n\nFirst, you need to install graphviz,\n\n```Bash\n# uv\nuv add graphviz\n\n# pip\npip install graphviz\n```\n\nFor python interface of graphiz to work, you need to have dot layout command working in your system. If it isn't already installed, I suggest you run the following depeding on your OS,\n\nDebian-based Linux distro (e.g. Ubuntu):\n\n```Bash\napt-get install graphviz\n```\n\nWindows:\n\n```Bash\nchoco install graphviz\n```\n\nmacOS\n\n```Bash\nbrew install graphviz\n```\n\nsee more details [here](https:\u002F\u002Fgraphviz.readthedocs.io\u002Fen\u002Fstable\u002Fmanual.html)\n\nThen, continue with installing torchview using uv (or pip)\n\n```Bash\n# uv\nuv add torchview\n\n# pip\npip install torchview\n```\n\nor if you want via conda\n\n```Bash\nconda install -c conda-forge torchview\n```\n\nor if you want most up-to-date version, install directly from repo\n\n```Bash\n# uv\nuv add git+https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview.git\n\n# pip\npip install git+https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview.git\n```\n\n## How To Use\n\n```python\nfrom torchview import draw_graph\n\nmodel = MLP()\nbatch_size = 2\n# device='meta' -> no memory is consumed for visualization\nmodel_graph = draw_graph(model, input_size=(batch_size, 128), device='meta')\nmodel_graph.visual_graph\n```\n\n![output](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmert-kurttutan_torchview_readme_e2a43e4ff565.png)\n\n## Notebook Examples\n\nFor more examples, see colab notebooks below,\n\n**Introduction Notebook:** [![Introduction](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmert-kurttutan\u002Ftorchview\u002Fblob\u002Fmain\u002Fdocs\u002Fdocs\u002Ftutorial\u002Fnotebook\u002Fexample_introduction.ipynb)\n\n**Computer Vision Models:** [![Vision](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmert-kurttutan\u002Ftorchview\u002Fblob\u002Fmain\u002Fdocs\u002Fdocs\u002Ftutorial\u002Fnotebook\u002Fexample_vision.ipynb)\n\n**NLP Models:** [![NLP](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmert-kurttutan\u002Ftorchview\u002Fblob\u002Fmain\u002Fdocs\u002Fdocs\u002Ftutorial\u002Fnotebook\u002Fexample_text.ipynb)\n\n\u003C!-- single_input_all_cols.out -->\n\n**Note:** Output graphviz visuals return images with desired sizes. But sometimes, on VSCode, some shapes are being cropped due to large size and svg rendering on by VSCode. To solve this, I suggest you run the following\n\n```python\nimport graphviz\ngraphviz.set_jupyter_format('png')\n```\n\nThis problem does not occur on other platforms e.g. JupyterLab or Google Colab.\n\n## Supported Features\n\n* Almost all the models, RNN, Sequentials, Skip Connection, Hugging Face Models\n* Support for meta tensors -> no memory consumption (for very Large models) (pytorch version $\\geq$ 1.13) .\n* Shows operations between tensors (in addition to module calls)\n* Rolling\u002FUnrolling feature. Recursively used modules can be rolled visually, see below.\n* Diverse set of inputs\u002Foutput types, e.g. nested data structure (dict, list, etc), huggingface tokenizer outputs\n\n## Documentation\n\n```python\ndef draw_graph(\n    model: nn.Module,\n    input_data: INPUT_DATA_TYPE | None = None,\n    input_size: INPUT_SIZE_TYPE | None = None,\n    graph_name: str = 'model',\n    depth: int | float = 3,\n    device: torch.device | str | None = None,\n    dtypes: list[torch.dtype] | None = None,\n    mode: str | None = None,\n    strict: bool = True,\n    expand_nested: bool = False,\n    graph_dir: str | None = None,\n    hide_module_functions: bool = True,\n    hide_inner_tensors: bool = True,\n    roll: bool = False,\n    show_shapes: bool = True,\n    save_graph: bool = False,\n    filename: str | None = None,\n    directory: str = '.',\n    **kwargs: Any,\n) -> ComputationGraph:\n    '''Returns visual representation of the input Pytorch Module with\n    ComputationGraph object. ComputationGraph object contains:\n\n    1) Root nodes (usually tensor node for input tensors) which connect to all\n    the other nodes of computation graph of pytorch module recorded during forward\n    propagation.\n\n    2) graphviz.Digraph object that contains visual representation of computation\n    graph of pytorch module. This graph visual shows modules\u002F module hierarchy,\n    torch_functions, shapes and tensors recorded during forward prop, for examples\n    see documentation, and colab notebooks.\n\n\n    Args:\n        model (nn.Module):\n            Pytorch model to represent visually.\n\n        input_data (data structure containing torch.Tensor):\n            input for forward method of model. Wrap it in a list for\n            multiple args or in a dict or kwargs\n\n        input_size (Sequence of Sizes):\n            Shape of input data as a List\u002FTuple\u002Ftorch.Size\n            (dtypes must match model input, default is FloatTensors).\n            Default: None\n\n        graph_name (str):\n            Name for graphviz.Digraph object. Also default name graphviz file\n            of Graph Visualization\n            Default: 'model'\n\n        depth (int):\n            Upper limit for depth of nodes to be shown in visualization.\n            Depth is measured how far is module\u002Ftensor inside the module hierarchy.\n            For instance, main module has depth=0, whereas submodule of main module\n            has depth=1, and so on.\n            Default: 3\n\n        device (str or torch.device):\n            Device to place and input tensors. Defaults to\n            gpu if cuda is seen by pytorch, otherwise to cpu.\n            Default: None\n\n        dtypes (list of torch.dtype):\n            Uses dtypes to set the types of input tensor if\n            input size is given.\n\n        mode (str):\n            Mode of model to use for forward prop. Defaults\n            to Eval mode if not given\n            Default: None\n\n        strict (bool):\n            if true, graphviz visual does not allow multiple edges\n            between nodes. Mutiple edge occurs e.g. when there are tensors\n            from module node to module node and hiding those tensors\n            Default: True\n\n        expand_nested(bool):\n            if true shows nested modules with dashed borders\n\n        graph_dir (str):\n            Sets the direction of visual graph\n            'TB' -> Top to Bottom\n            'LR' -> Left to Right\n            'BT' -> Bottom to Top\n            'RL' -> Right to Left\n            Default: None -> TB\n\n        hide_module_function (bool):\n            Determines whether to hide module torch_functions. Some\n            modules consist only of torch_functions (no submodule),\n            e.g. nn.Conv2d.\n            True => Dont include module functions in graphviz\n            False => Include modules function in graphviz\n            Default: True\n\n        hide_inner_tensors (bool):\n            Inner tensor is all the tensors of computation graph\n            but input and output tensors\n            True => Does not show inner tensors in graphviz\n            False => Shows inner tensors in graphviz\n            Default: True\n\n        roll (bool):\n            If true, rolls recursive modules.\n            Default: False\n\n        show_shapes (bool):\n            True => Show shape of tensor, input, and output\n            False => Dont show\n            Default: True\n\n        save_graph (bool):\n            True => Saves output file of graphviz graph\n            False => Does not save\n            Default: False\n\n        filename (str):\n            name of the file to store dot syntax representation and\n            image file of graphviz graph. Defaults to graph_name\n\n        directory (str):\n            directory in which to store graphviz output files.\n            Default: .\n\n    Returns:\n        ComputationGraph object that contains visualization of the input\n        pytorch model in the form of graphviz Digraph object\n    '''\n```\n\n## Examples\n\n### Rolled Version of Recursive Networks\n\n```python\nfrom torchview import draw_graph\n\nmodel_graph = draw_graph(\n    SimpleRNN(), input_size=(2, 3),\n    graph_name='RecursiveNet',\n    roll=True\n)\nmodel_graph.visual_graph\n```\n\n![rnns](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmert-kurttutan_torchview_readme_44c38bd0a80c.png)\n\n### Show\u002FHide intermediate (hidden) tensors and Functionals\n\n```python\n# Show inner tensors and Functionals\nmodel_graph = draw_graph(\n    MLP(), input_size=(2, 128),\n    graph_name='MLP',\n    hide_inner_tensors=False,\n    hide_module_functions=False,\n)\n\nmodel_graph.visual_graph\n```\n\n![download](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmert-kurttutan_torchview_readme_70cefb232302.png)\n\n\n### ResNet \u002F Skip Connection \u002F Support for Torch operations \u002F Nested Modules\n\n```python\nimport torchvision\n\nmodel_graph = draw_graph(resnet18(), input_size=(1,3,32,32), expand_nested=True)\nmodel_graph.visual_graph\n```\n\n![expand_nested_resnet_model gv](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmert-kurttutan_torchview_readme_cb818bed5e4f.png)\n\n## TODO\n\n* [ ] Display Module parameter info\n* [ ] Support for Graph Neural Network (GNN)\n* [ ] Support for Undirected edges for GNNs\n* [ ] Support for torch-based functions[^1]\n\n[^1]: Here, torch-based functions refers to any function that uses only torch functions and modules. This is more general than modules.\n\n## Contribution\n\nAll issues and pull requests are much appreciated!\n\nContributor notes:\n\n* torchview is actively developed using the latest version of Python.\n* Changes should be backward compatible to Python 3.9, and will follow Python's End-of-Life guidance for old versions.\n\n### Setup (uv, recommended)\n\n```bash\nuv sync --group dev --group torch\nuv run prek install\n```\n\n### Setup (pip \u002F venv)\n\n```bash\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate\npip install -e .\n# Install dev\u002Ftest tools as needed (for example: pytest, prek, etc.)\npip install pytest prek torch torchvision torchtext\nprek install\n```\n\n### Run tests\n\n```bash\n# uv\nuv run pytest\nuv run pytest --overwrite\nuv run pytest --no-output\n\n# pip \u002F venv\npytest\npytest --overwrite\npytest --no-output\n```\n\n## References\n\n* Parts related to input processing and validation are taken\u002Finspired from torchinfo repository!!.\n* Many of the software related parts (e.g. testing) are also taken\u002Finspired from torchinfo repository. So big thanks to @TylerYep!!!\n* The algorithm for constructing visual graphs is thanks to `__torch_function__` and subclassing `torch.Tensor`. Big thanks to all those who developed this API!!.\n","# torchview\n\n[![Python 3.9+](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.9+-blue.svg)](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F)\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Ftorchview.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Ftorchview)\n[![Conda version](https:\u002F\u002Fimg.shields.io\u002Fconda\u002Fvn\u002Fconda-forge\u002Ftorchview)](https:\u002F\u002Fanaconda.org\u002Fconda-forge\u002Ftorchview)\n[![Build Status](https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview\u002Factions\u002Fworkflows\u002Ftest.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview\u002Factions\u002Fworkflows\u002Ftest.yml)\n[![GitHub license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fmert-kurttutan\u002Ftorchview)](https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview\u002Fblob\u002Fmain\u002FLICENSE)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fmert-kurttutan\u002Ftorchview\u002Fbranch\u002Fmain\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fmert-kurttutan\u002Ftorchview)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmert-kurttutan_torchview_readme_6113b5c1d6d3.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Ftorchview)\n\nTorchview 提供以可视化图的形式展示 PyTorch 模型的功能。可视化内容包括张量、模块、torch.functions 以及输入输出形状等信息。\n\nKeras 中 `plot_model` 的 PyTorch 版本（且功能更丰富）\n\n支持 PyTorch 1.7 及以上版本。\n\n## 有用特性\n\n\u003Cp align=\"center\">\n  \u003Cpicture align=\"center\">\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F88637659\u002F213171745-7acf07df-6578-4a50-a106-1a7b368f8d6c.svg\">\n    \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F88637659\u002F213173736-6e91724c-8de1-4568-9d52-297b4b5ff0d2.svg\">\n    \u003Cimg alt=\"显示基准测试结果的柱状图。\" src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F88637659\u002F213173736-6e91724c-8de1-4568-9d52-297b4b5ff0d2.svg\">\n  \u003C\u002Fpicture>\n\u003C\u002Fp>\n\n\n\n## 安装\n\n首先，你需要安装 graphviz，\n\n```Bash\n# uv\nuv add graphviz\n\n# pip\npip install graphviz\n```\n\n为了让 graphviz 的 Python 接口正常工作，你的系统中需要有可用的 dot 布局命令。如果尚未安装，建议根据你的操作系统运行以下命令：\n\n基于 Debian 的 Linux 发行版（如 Ubuntu）：\n\n```Bash\napt-get install graphviz\n```\n\nWindows：\n\n```Bash\nchoco install graphviz\n```\n\nmacOS：\n\n```Bash\nbrew install graphviz\n```\n\n更多详情请参阅 [这里](https:\u002F\u002Fgraphviz.readthedocs.io\u002Fen\u002Fstable\u002Fmanual.html)\n\n然后，继续使用 uv（或 pip）安装 torchview：\n\n```Bash\n# uv\nuv add torchview\n\n# pip\npip install torchview\n```\n\n或者如果你希望通过 conda 安装：\n\n```Bash\nconda install -c conda-forge torchview\n```\n\n如果你想获得最新版本，可以直接从仓库安装：\n\n```Bash\n# uv\nuv add git+https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview.git\n\n# pip\npip install git+https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview.git\n```\n\n## 使用方法\n\n```python\nfrom torchview import draw_graph\n\nmodel = MLP()\nbatch_size = 2\n# device='meta' -> 不会为可视化消耗内存\nmodel_graph = draw_graph(model, input_size=(batch_size, 128), device='meta')\nmodel_graph.visual_graph\n```\n\n![output](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmert-kurttutan_torchview_readme_e2a43e4ff565.png)\n\n## 笔记本示例\n\n更多示例，请参阅下方的 Colab 笔记本：\n\n**入门笔记本：** [![Introduction](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmert-kurttutan\u002Ftorchview\u002Fblob\u002Fmain\u002Fdocs\u002Fdocs\u002Ftutorial\u002Fnotebook\u002Fexample_introduction.ipynb)\n\n**计算机视觉模型：** [![Vision](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmert-kurttutan\u002Ftorchview\u002Fblob\u002Fmain\u002Fdocs\u002Fdocs\u002Ftutorial\u002Fnotebook\u002Fexample_vision.ipynb)\n\n**NLP 模型：** [![NLP](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmert-kurttutan\u002Ftorchview\u002Fblob\u002Fmain\u002Fdocs\u002Fdocs\u002Ftutorial\u002Fnotebook\u002Fexample_text.ipynb)\n\n\u003C!-- single_input_all_cols.out -->\n\n**注意：** 输出的 graphviz 可视化图像会以所需尺寸返回。但在某些情况下，由于图像较大且 VSCode 默认启用 SVG 渲染，部分形状可能会被裁剪。为了解决这个问题，建议你运行以下代码：\n\n```python\nimport graphviz\ngraphviz.set_jupyter_format('png')\n```\n\n此问题在其他平台（如 JupyterLab 或 Google Colab）上不会出现。\n\n## 支持的功能\n\n* 几乎所有模型，包括 RNN、Sequential、跳跃连接、Hugging Face 模型\n* 支持 meta 张量 -> 不消耗内存（适用于超大型模型）（PyTorch 1.13 及以上版本）\n* 显示张量之间的操作（除了模块调用之外）\n* 展开\u002F折叠功能。递归使用的模块可以进行可视化展开，如下所示。\n* 多种输入\u002F输出类型，例如嵌套数据结构（字典、列表等）、Hugging Face 分词器输出等\n\n## 文档\n\n```python\ndef draw_graph(\n    model: nn.Module,\n    input_data: INPUT_DATA_TYPE | None = None,\n    input_size: INPUT_SIZE_TYPE | None = None,\n    graph_name: str = 'model',\n    depth: int | float = 3,\n    device: torch.device | str | None = None,\n    dtypes: list[torch.dtype] | None = None,\n    mode: str | None = None,\n    strict: bool = True,\n    expand_nested: bool = False,\n    graph_dir: str | None = None,\n    hide_module_functions: bool = True,\n    hide_inner_tensors: bool = True,\n    roll: bool = False,\n    show_shapes: bool = True,\n    save_graph: bool = False,\n    filename: str | None = None,\n    directory: str = '.',\n    **kwargs: Any,\n) -> ComputationGraph:\n    '''返回输入 PyTorch 模块的可视化表示，以 ComputationGraph 对象的形式。ComputationGraph 对象包含：\n\n    1) 根节点（通常是输入张量的张量节点），这些节点连接到在前向传播过程中记录的 PyTorch 模块计算图中的所有其他节点。\n\n    2) graphviz.Digraph 对象，它包含了 PyTorch 模块计算图的可视化表示。该图展示了模块\u002F模块层次结构、PyTorch 函数、形状以及在前向传播过程中记录的张量等信息，具体示例请参阅文档和 Colab 笔记本。\n\n\n    参数：\n        model (nn.Module):\n            要进行可视化表示的 PyTorch 模型。\n\n        input_data (包含 torch.Tensor 的数据结构):\n            模型 forward 方法的输入。如果是多个参数，请将其包装在列表中；如果是关键字参数，则包装在字典中。\n\n        input_size (尺寸序列):\n            输入数据的形状，以 List\u002FTuple\u002Ftorch.Size 的形式提供。\n            （数据类型必须与模型输入匹配，默认为 FloatTensor）。\n            默认值：None\n\n        graph_name (str):\n            graphviz.Digraph 对象的名称。同时也是图形可视化文件的默认名称。\n            默认值：'model'\n\n        depth (int):\n            可视化中显示的节点深度上限。深度是指模块或张量在模块层次结构中的嵌套程度。例如，主模块的深度为 0，而其子模块的深度为 1，依此类推。\n            默认值：3\n\n        device (str 或 torch.device):\n            用于放置输入张量的设备。如果 PyTorch 检测到 CUDA，则默认使用 GPU，否则使用 CPU。\n            默认值：None\n\n        dtypes (torch.dtype 列表):\n            如果提供了输入尺寸，则使用这些数据类型来设置输入张量的类型。\n\n        mode (str):\n            用于前向传播的模型模式。如果没有指定，则默认使用评估模式。\n            默认值：None\n\n        strict (bool):\n            如果为真，graphviz 可视图不允许节点之间有多条边。例如，当存在从模块节点到模块节点的张量时，就会出现多条边，此时会隐藏这些张量。\n            默认值：True\n\n        expand_nested(bool):\n            如果为真，则以虚线边框显示嵌套模块。\n\n        graph_dir (str):\n            设置可视化图的方向。\n            'TB' -> 从上到下\n            'LR' -> 从左到右\n            'BT' -> 从下到上\n            'RL' -> 从右到左\n            默认值：None -> TB\n\n        hide_module_function (bool):\n            决定是否隐藏模块的 PyTorch 函数。有些模块仅由 PyTorch 函数组成（没有子模块），例如 nn.Conv2d。\n            True => 不将模块函数包含在 graphviz 中\n            False => 将模块函数包含在 graphviz 中\n            默认值：True\n\n        hide_inner_tensors (bool):\n            内部张量是指计算图中除输入和输出张量外的所有张量。\n            True => 不在 graphviz 中显示内部张量\n            False => 在 graphviz 中显示内部张量\n            默认值：True\n\n        roll (bool):\n            如果为真，则展开递归模块。\n            默认值：False\n\n        show_shapes (bool):\n            True => 显示张量、输入和输出的形状\n            False => 不显示\n            默认值：True\n\n        save_graph (bool):\n            True => 保存 graphviz 图的输出文件\n            False => 不保存\n            默认值：False\n\n        filename (str):\n            用于存储 dot 语法表示和 graphviz 图像文件的文件名。默认为 graph_name。\n\n        directory (str):\n            存放 graphviz 输出文件的目录。\n            默认值：.\n\n    返回：\n        包含输入 PyTorch 模型可视化表示的 ComputationGraph 对象，形式为 graphviz Digraph 对象。\n    '''\n```\n\n## 示例\n\n### 递归网络的折叠版本\n\n```python\nfrom torchview import draw_graph\n\nmodel_graph = draw_graph(\n    SimpleRNN(), input_size=(2, 3),\n    graph_name='RecursiveNet',\n    roll=True\n)\nmodel_graph.visual_graph\n```\n\n![rnns](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmert-kurttutan_torchview_readme_44c38bd0a80c.png)\n\n### 显示\u002F隐藏中间（隐藏）张量和函数\n\n```python\n# 显示内部张量和函数\nmodel_graph = draw_graph(\n    MLP(), input_size=(2, 128),\n    graph_name='MLP',\n    hide_inner_tensors=False,\n    hide_module_functions=False,\n)\n\nmodel_graph.visual_graph\n```\n\n![download](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmert-kurttutan_torchview_readme_70cefb232302.png)\n\n\n### ResNet \u002F 跳跃连接 \u002F 对 Torch 操作的支持 \u002F 嵌套模块\n\n```python\nimport torchvision\n\nmodel_graph = draw_graph(resnet18(), input_size=(1,3,32,32), expand_nested=True)\nmodel_graph.visual_graph\n```\n\n![expand_nested_resnet_model gv](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmert-kurttutan_torchview_readme_cb818bed5e4f.png)\n\n## 待办事项\n\n* [ ] 显示模块参数信息\n* [ ] 支持图神经网络 (GNN)\n* [ ] 支持 GNN 的无向边\n* [ ] 支持基于 Torch 的函数[^1]\n\n[^1]: 这里，基于 Torch 的函数指的是仅使用 Torch 函数和模块的任何函数。这比模块的概念更为广泛。\n\n## 贡献\n\n我们非常欢迎所有的问题和拉取请求！\n\n贡献者须知：\n\n* torchview 正在使用最新版本的 Python 积极开发。\n* 更改应与 Python 3.9 向后兼容，并遵循 Python 对旧版本的生命周期支持政策。\n\n### 设置（推荐使用 uv）\n\n```bash\nuv sync --group dev --group torch\nuv run prek install\n```\n\n### 设置（pip \u002F venv）\n\n```bash\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate\npip install -e .\n# 根据需要安装开发\u002F测试工具（例如：pytest、prek 等）\npip install pytest prek torch torchvision torchtext\nprek install\n```\n\n### 运行测试\n\n```bash\n# uv\nuv run pytest\nuv run pytest --overwrite\nuv run pytest --no-output\n\n# pip \u002F venv\npytest\npytest --overwrite\npytest --no-output\n```\n\n## 参考文献\n\n* 与输入处理和验证相关的部分均源自或受 torchinfo 仓库的启发！！。\n* 许多软件相关部分（例如测试）也源自或受 torchinfo 仓库的启发。因此，非常感谢 @TylerYep！！！\n* 构建可视化图的算法得益于 `__torch_function__` 以及对 `torch.Tensor` 的子类化。在此向所有开发这一 API 的人表示衷心的感谢！！。","# torchview 快速上手指南\n\n`torchview` 是一个用于可视化 PyTorch 模型的工具，能够生成包含张量、模块、函数操作以及输入\u002F输出形状信息的计算图。它类似于 Keras 的 `plot_model`，但专为 PyTorch 设计。\n\n## 环境准备\n\n### 系统要求\n- **Python**: 3.9+\n- **PyTorch**: $\\geq$ 1.7 (若需使用 `meta` 设备节省内存，建议 PyTorch $\\geq$ 1.13)\n\n### 前置依赖\n在使用 Python 包之前，必须在系统中安装 **Graphviz** 软件及其命令行工具（`dot`），否则无法渲染图像。\n\n请根据您的操作系统运行以下命令安装 Graphviz：\n\n*   **Debian\u002FUbuntu:**\n    ```Bash\n    apt-get install graphviz\n    ```\n*   **Windows (需先安装 Chocolatey):**\n    ```Bash\n    choco install graphviz\n    ```\n*   **macOS:**\n    ```Bash\n    brew install graphviz\n    ```\n\n> **注意**：仅安装 Python 包 `graphviz` 是不够的，必须确保系统环境变量中可以运行 `dot` 命令。\n\n## 安装步骤\n\n您可以选择以下任意一种方式安装 `torchview`。推荐使用国内镜像源以加速下载。\n\n### 方式一：使用 pip (推荐)\n```Bash\npip install torchview -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n*同时确保已安装 python 接口包（通常上述命令会自动处理，若报错可单独执行）：*\n```Bash\npip install graphviz\n```\n\n### 方式二：使用 Conda\n```Bash\nconda install -c conda-forge torchview\n```\n\n### 方式三：安装最新开发版\n```Bash\npip install git+https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview.git\n```\n\n## 基本使用\n\n以下是最简单的使用示例，展示如何绘制一个 MLP 模型的结构图。\n\n### 代码示例\n\n```python\nfrom torchview import draw_graph\nimport torch.nn as nn\n\n# 定义一个简单的模型示例\nclass MLP(nn.Module):\n    def __init__(self):\n        super().__init__()\n        self.net = nn.Sequential(\n            nn.Linear(128, 64),\n            nn.ReLU(),\n            nn.Linear(64, 10)\n        )\n    \n    def forward(self, x):\n        return self.net(x)\n\nmodel = MLP()\nbatch_size = 2\n\n# 绘制模型图\n# device='meta' 表示使用元张量，可视化过程不消耗显存\u002F内存\nmodel_graph = draw_graph(model, input_size=(batch_size, 128), device='meta')\n\n# 显示图形\nmodel_graph.visual_graph\n```\n\n### 参数说明\n- `model`: 需要可视化的 PyTorch `nn.Module` 实例。\n- `input_size`: 输入数据的形状（不含批次维度的元组或包含批次维度的元组均可，如上例）。\n- `device='meta'`: **关键技巧**。设置为 `'meta'` 可以在不实际分配内存的情况下构建计算图，非常适合超大模型的可视化。\n\n### 在 VSCode 中的注意事项\n如果在 VSCode 中查看生成的 SVG 图片出现裁剪问题，建议在 Notebook 或脚本开头添加以下代码强制使用 PNG 格式渲染：\n\n```python\nimport graphviz\ngraphviz.set_jupyter_format('png')\n```","某计算机视觉算法工程师正在调试一个包含复杂跳跃连接（Skip Connections）和动态分支的自定义 U-Net 变体模型，需要快速确认数据流是否符合设计预期。\n\n### 没有 torchview 时\n- **黑盒调试困难**：面对层层嵌套的 `nn.Module` 和复杂的向前传播逻辑，仅靠阅读代码难以在脑海中构建完整的数据流向图，极易遗漏隐蔽的连接错误。\n- **形状匹配低效**：排查张量维度不匹配（Shape Mismatch）报错时，必须手动在每个关键层后插入 `print(x.shape)`，反复运行代码并清洗控制台输出，效率极低且容易遗漏中间状态。\n- **架构沟通成本高**：向团队成员解释模型结构或撰写技术文档时，只能手绘粗糙的框图，无法提供精确反映输入输出维度及算子类型的标准化视图。\n- **内存浪费风险**：为了打印中间层信息而进行的完整前向推理会占用大量显存，在处理大批次或大模型时容易导致 OOM（内存溢出），干扰正常调试流程。\n\n### 使用 torchview 后\n- **可视化全景透视**：只需一行 `draw_graph` 代码，即可自动生成包含所有模块、函数及跳跃连接的有向无环图，复杂的数据流转路径一目了然。\n- **自动维度标注**：生成的图表直接在每个节点旁清晰标注了输入\u002F输出的张量形状（如 `[2, 512, 64, 64]`），无需手动插桩即可瞬间定位维度变换异常点。\n- **标准化文档输出**：直接导出高分辨率的 SVG 或 PNG 架构图，完美呈现算子类型与数据流向，可直接用于技术评审会议或论文插图，大幅提升沟通专业性。\n- **零内存开销调试**：利用 `device='meta'` 模式，torchview 能在不实际分配显存的情况下完成模型结构分析与绘图，彻底杜绝了调试过程中的显存溢出风险。\n\ntorchview 将繁琐的“打印 - 猜测”式调试转变为直观的图形化分析，让开发者能秒级掌握模型内部机理并精准定位架构缺陷。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmert-kurttutan_torchview_e2a43e4f.png","mert-kurttutan",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmert-kurttutan_be366306.png","Internet, open-source, science","kurttutan.mert@gmail.com","https:\u002F\u002Fgithub.com\u002Fmert-kurttutan",[79],{"name":80,"color":81,"percentage":82},"Python","#3572A5",100,1046,49,"2026-04-17T04:46:48","MIT","Linux, macOS, Windows","非必需。支持 CPU 和 GPU，可通过 device 参数指定（默认优先使用 CUDA，若无则用 CPU）。支持 'meta' 设备以实现零显存消耗的可视化。","未说明",{"notes":91,"python":92,"dependencies":93},"必须安装 Graphviz 系统级工具（不仅限于 Python 包），不同操作系统安装命令不同（Ubuntu: apt-get, Windows: choco, macOS: brew）。PyTorch 版本需 >= 1.7，若使用 meta tensors 功能（零内存消耗）需 PyTorch >= 1.13。在 VSCode 中渲染大图时建议设置 graphviz.set_jupyter_format('png') 以防裁剪。","3.9+",[94,95],"torch>=1.7","graphviz",[14],[98,99,100,101,102,103,104,105],"deep-learning","keras","machine-learning","neural-network","pytorch","visualization","python","torchviz","2026-03-27T02:49:30.150509","2026-04-19T03:06:54.600958",[109,114,119,124,129,134],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},41442,"如何可视化仅有权重文件（.pt）的 YOLO 模型，而不使用 .yaml 配置文件？","可以直接加载 .pt 权重文件进行可视化。关键在于输入尺寸（input_size）必须与模型训练时的尺寸匹配。例如，对于 YOLOv5s6，建议使用输入形状 (1, 3, 384, 640) 或 (1, 3, 352, 352)。如果张量尺寸不匹配导致报错（如 'Sizes of tensors must match'），请尝试调整 input_size 参数以符合模型预期。","https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview\u002Fissues\u002F63",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},41443,"为什么在 Python 3.6 上无法通过 pip 安装 torchview？","该问题是由于项目使用了较新的 pyproject.toml 标准来管理元数据，而 Python 3.6 及其对应的 setuptools 版本兼容性较差。官方建议直接将 Python 环境升级到 3.7 或更高版本来解决此问题，而不是尝试为旧版本编写兼容配置。","https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview\u002Fissues\u002F78",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},41444,"当模型包含大量嵌套模块（如 Residual Blocks）导致生成的图表过长或过于复杂时，如何简化视图？","建议在 draw_graph 函数中设置参数 expand_nested=True。这可以将相同深度的节点放置在相同层级，从而更清晰地展示模块的嵌套结构，避免图表因过度展开子模块而变得冗长难读。这比试图隐藏子模块更能准确反映模型的拓扑结构。","https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview\u002Fissues\u002F59",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},41445,"生成的 PNG 格式图表太小看不清，或者需要更高质量的输出格式（如 SVG 或 PDF），该如何操作？","可以通过以下两步解决：首先调用 resize_graph(scale=数值) 方法放大图表（例如 scale=5.0）；然后在使用 render 方法时指定 format 参数，例如 model_graph.visual_graph.render(format='svg') 或 format='pdf'，以导出矢量图或其他高分辨率格式。","https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview\u002Fissues\u002F64",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},41446,"torchview 是否支持处理复杂的输入结构（如嵌套的字典或元组）？","是的，torchview 是少数能够优雅处理复杂输入结构的可视化工具之一。它完美支持嵌套的 Dictionaries 和 Tuples 作为模型输入，这在推荐系统模型等场景中非常常见，而其他工具在此类情况下往往会失败或生成混乱的图表。","https:\u002F\u002Fgithub.com\u002Fmert-kurttutan\u002Ftorchview\u002Fissues\u002F133",{"id":135,"question_zh":136,"answer_zh":137,"source_url":118},41447,"安装后导入时报错 'ImportError: cannot import name draw_graph' 怎么办？","这通常是因为安装过程不完整或环境缓存问题。请确保先卸载现有版本，然后重新运行 pip install torchview。如果使用的是非常旧的 Python 版本（如 3.6），请务必升级到 Python 3.7+，因为构建后端依赖可能无法在旧版本上正确编译。",[139,144,149,154,159,164,169,174,179],{"id":140,"version":141,"summary_zh":142,"released_at":143},333443,"0.2.6.1","发布用于DOI","2024-10-29T02:47:26",{"id":145,"version":146,"summary_zh":147,"released_at":148},333444,"0.2.6","- 修复 PyPI 上的 README 格式\n- 将 flake8 替换为 ruff（仅与开发相关）","2023-02-14T08:31:55",{"id":150,"version":151,"summary_zh":152,"released_at":153},333445,"0.2.5","- 修复了孤立 Tensor 节点的问题\n    - 问题：#73，PR：#74\n- 完成对 Tensor 创建算子的全覆盖\n    - PR：#74","2023-01-24T03:12:36",{"id":155,"version":156,"summary_zh":157,"released_at":158},333446,"0.2.4","- 修复了会修改可变输入（例如张量列表）的模块中的 bug PR\n  - PR：#70，Issue：#63\n- 通过 #71 对追踪模块的支持非常**有限**，原因请参见 #66\n- #66 也为希望实现并贡献该项目的开发者提供了追踪模块支持的解决方案提示。","2023-01-14T12:21:52",{"id":160,"version":161,"summary_zh":162,"released_at":163},333447,"0.2.3","- 增加了更改图方向的支持\n- 修复了在前向传播过程中创建张量的模块的相关问题","2022-12-26T05:21:54",{"id":165,"version":166,"summary_zh":167,"released_at":168},333448,"0.2.2","- 支持更灵活的架构（输入复用、未使用输入张量）- 增强对 Hugging Face 模型的支持，包括 BERT、GPT-2、Detectron 等。","2022-12-17T20:16:18",{"id":170,"version":171,"summary_zh":172,"released_at":173},333449,"0.2.1","增加了对部分 Hugging Face 分词器的支持","2022-12-10T09:29:39",{"id":175,"version":176,"summary_zh":177,"released_at":178},333450,"0.2.0","* 为嵌套模块新增显示功能（'expand_nested'），与 Keras 的 plot_model 非常相似\n* 新增测试模型\n* 代码清理","2022-12-06T22:57:34",{"id":180,"version":181,"summary_zh":73,"released_at":182},333451,"0.1.0","2022-11-08T23:21:03"]