[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Lyken17--pytorch-memonger":3,"tool-Lyken17--pytorch-memonger":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",145895,2,"2026-04-08T11:32:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":32,"env_os":89,"env_gpu":90,"env_ram":91,"env_deps":92,"category_tags":96,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":97,"updated_at":98,"faqs":99,"releases":135},5538,"Lyken17\u002Fpytorch-memonger","pytorch-memonger","Sublinear memory optimization for deep learning. https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.06174","pytorch-memonger 是一款专为 PyTorch 打造的深度学习内存优化工具，旨在通过“亚线性内存”策略显著降低模型训练时的显存占用。它复现了经典的梯度检查点（Gradient Checkpointing）技术，核心解决了深层神经网络在反向传播过程中因存储大量中间激活值而导致的显存爆炸问题。\n\n该工具特别适合需要在有限显存资源下训练超大模型的研究人员与开发者。其独特之处在于巧妙适配了 PyTorch“动态定义运行”的特性，用户只需将代码中的 `nn.Sequential` 替换为 `SublinearSequential`，即可将反向传播的内存复杂度从 O(N) 降至 O(sqrt(N))。实测数据显示，在 ResNet152 等模型上，它能节省超过 50% 的显存，仅以微小的速度损失换取巨大的空间收益。此外，pytorch-memonger 还贴心地处理了 BatchNorm 和 Dropout 等非确定性层的重计算难题，通过动量重缩放和随机数状态记录等技术，确保了训练过程的数值稳定性与准确性，是让大模型在消费级显卡上跑起来的得力助手。","# pytorch-memonger\n\nThis is a re-implementation of [Training Deep Nets with Sublinear Memory Cost](https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.06174). \nYou may also want to have a look at the [original mxnet implementation](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fmxnet-memonger) and \n[OpenAI's tensorflow implementation](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgradient-checkpointing).\n\n## Speed \u002F Memory Comparision\n\nModel (Batch size 16) | Memory | Speed \n--- | --- | ---\noriginal resnet152\t| 5459MiB | 2.9258 iter\u002Fs\nCheckpoint (Sublinear) | 2455MiB | 2.6273 iter\u002Fs\n\n## How to use \n\nDifferent from TensorFlow and mxnet where the computation graph is static and known before actual computing,\npytorch's philosophy is **define-by-run** and the graph details are not known until forward is finished. This implemention\nonly supports `Sequential` models. By replacing `nn.Sequential` with `memonger.SublinearSequential`, \nthe memory required for backward is reduced from `O(N)` to `O(sqrt(N))`.\n\n```python\n# previous, O(N) memory footprint\nimport torch.nn as nn\nnet1 = nn.Sequential(\n    nn.Conv2d(3, 16, kernel=3, padding=1),\n    nn.BatchNorm2d(16),\n    nn.ReLU(),\n    nn.Conv2d(16, 16, kernel=3, padding=1),\n    nn.BatchNorm2d(16),\n    nn.ReLU(),\n    nn.Conv2d(16, 16, kernel=3, padding=1),\n    nn.BatchNorm2d(16),\n    nn.ReLU(),\n    ...\n)\n\n# optimized, O(sqrt(N)) memory footprint\nfrom memonger import SublinearSequential\nnet2 = SublinearSequential(\n    *list(net1.children())  \n)\n```    \n \n## Caution\n\nSince sublinear memory optimization requires re-forwarding, if your model contains layer with non-derministic behavior \n(e.g, BatchNorm, Dropout), you need to be careful when using the module. I have supported BatchNorm by [re-scaling momentum \n](memonger\u002Fmemonger.py#L24), dropout [by memorizing the random number generator (RNG)](https:\u002F\u002Fgithub.com\u002FLyken17\u002Fpytorch-memonger\u002Fblob\u002Fmaster\u002Fmomonger\u002Fcheckpoint.py#L27).\n","# pytorch-memonger\n\n这是对[以亚线性内存成本训练深度网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.06174)的重新实现。你也可以查看[原始的 mxnet 实现](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fmxnet-memonger)和[OpenAI 的 tensorflow 实现](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgradient-checkpointing)。\n\n## 速度 \u002F 内存对比\n\n模型（批次大小 16） | 内存 | 速度  \n--- | --- | ---\n原始 resnet152 | 5459MiB | 2.9258 次\u002F秒  \n检查点（亚线性） | 2455MiB | 2.6273 次\u002F秒  \n\n## 使用方法  \n\n与 TensorFlow 和 mxnet 不同，在这些框架中计算图是静态的，并且在实际计算之前就已经确定；而 PyTorch 的理念是 **“运行时定义”**，即只有在前向传播完成之后才会知道图的具体细节。因此，本实现仅支持 `Sequential` 模型。通过将 `nn.Sequential` 替换为 `memonger.SublinearSequential`，反向传播所需的内存开销可以从 `O(N)` 降低到 `O(sqrt(N))`。\n\n```python\n# 之前的实现，内存占用 O(N)\nimport torch.nn as nn\nnet1 = nn.Sequential(\n    nn.Conv2d(3, 16, kernel_size=3, padding=1),\n    nn.BatchNorm2d(16),\n    nn.ReLU(),\n    nn.Conv2d(16, 16, kernel_size=3, padding=1),\n    nn.BatchNorm2d(16),\n    nn.ReLU(),\n    nn.Conv2d(16, 16, kernel_size=3, padding=1),\n    nn.BatchNorm2d(16),\n    nn.ReLU(),\n    ...\n)\n\n# 优化后的实现，内存占用 O(sqrt(N))\nfrom memonger import SublinearSequential\nnet2 = SublinearSequential(\n    *list(net1.children())  \n)\n```    \n\n## 注意事项  \n\n由于亚线性内存优化需要重新进行前向传播，如果你的模型包含具有非确定性行为的层（例如 BatchNorm、Dropout），在使用该模块时需要格外小心。我已经通过[重新缩放动量](memonger\u002Fmemonger.py#L24)支持了 BatchNorm，并通过[记忆随机数生成器 (RNG)](https:\u002F\u002Fgithub.com\u002FLyken17\u002Fpytorch-memonger\u002Fblob\u002Fmaster\u002Fmomonger\u002Fcheckpoint.py#L27)支持了 Dropout。","# pytorch-memonger 快速上手指南\n\n`pytorch-memonger` 是论文《Training Deep Nets with Sublinear Memory Cost》的 PyTorch 复现版本。它通过梯度检查点（Gradient Checkpointing）技术，将反向传播所需的内存占用从 $O(N)$ 降低至 $O(\\sqrt{N})$，特别适合显存受限场景下训练深层网络。\n\n## 环境准备\n\n*   **系统要求**：Linux \u002F macOS \u002F Windows\n*   **前置依赖**：\n    *   Python 3.6+\n    *   PyTorch (建议最新稳定版)\n*   **注意**：本工具目前仅支持 `nn.Sequential` 结构的模型。若模型中包含随机性层（如 `BatchNorm`、`Dropout`），库内部已做特殊处理（重缩放动量、记录 RNG 状态），但仍需留意潜在的非确定性行为影响。\n\n## 安装步骤\n\n由于该仓库未直接发布到 PyPI，推荐通过 GitHub 源码安装。国内用户可使用镜像加速或手动克隆。\n\n**方式一：使用 pip 直接安装（推荐）**\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002FLyken17\u002Fpytorch-memonger.git\n```\n\n**方式二：手动克隆安装（网络不稳定时）**\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FLyken17\u002Fpytorch-memonger.git\ncd pytorch-memonger\npip install .\n```\n\n## 基本使用\n\n核心用法非常简单：只需将原有的 `torch.nn.Sequential` 替换为 `memonger.SublinearSequential`，即可自动启用亚线性内存优化。\n\n### 代码示例\n\n```python\nimport torch.nn as nn\nfrom memonger import SublinearSequential\n\n# 1. 定义原始模型 (内存占用 O(N))\noriginal_net = nn.Sequential(\n    nn.Conv2d(3, 16, kernel_size=3, padding=1),\n    nn.BatchNorm2d(16),\n    nn.ReLU(),\n    nn.Conv2d(16, 16, kernel_size=3, padding=1),\n    nn.BatchNorm2d(16),\n    nn.ReLU(),\n    # ... 更多层级\n)\n\n# 2. 转换为优化模型 (内存占用 O(sqrt(N)))\n# 只需 unpack 原有模型的子模块并传入 SublinearSequential\noptimized_net = SublinearSequential(\n    *list(original_net.children())  \n)\n\n# 3. 后续训练流程无需改变\n# loss = criterion(optimized_net(input), target)\n# loss.backward()\n```\n\n### 效果对比\n在 ResNet-152 (Batch size 16) 测试中：\n*   **原始模型**：显存约 5459 MiB\n*   **优化后模型**：显存约 2455 MiB (节省约 55%)\n*   **速度损耗**：轻微下降 (约 10%)，换取显著的显存节省。","某计算机视觉团队在单张 24GB 显存的 GPU 上尝试训练深层 ResNet-152 模型以进行高精度图像分类，却因显存瓶颈陷入停滞。\n\n### 没有 pytorch-memonger 时\n- **显存直接溢出**：随着网络层数加深，反向传播所需的中间激活值呈线性增长（O(N)），导致 batch size 稍大即触发 OOM 错误，无法启动训练。\n- **被迫降低效率**：为了勉强塞进显存，不得不将 batch size 压缩至极小（如 2 或 4），严重拖慢收敛速度并影响模型最终的泛化性能。\n- **硬件升级成本高**：面对内存墙，团队只能考虑购买更昂贵的多卡集群或高显存专业卡，大幅增加了研发预算和部署难度。\n- **代码重构复杂**：若手动实现梯度检查点（Gradient Checkpointing），需深入修改模型前向逻辑，极易引入 Bug 且难以维护。\n\n### 使用 pytorch-memonger 后\n- **显存占用骤降**：通过将 `nn.Sequential` 替换为 `SublinearSequential`，反向传播内存需求从 O(N) 降至 O(√N)，ResNet-152 的显存占用从约 5.4GB 降至 2.4GB 左右。\n- **恢复标准训练配置**：节省出的显存空间允许团队将 batch size 恢复至正常的 16 甚至更高，确保了训练稳定性和模型精度。\n- **无缝兼容现有代码**：无需重写复杂的训练循环，仅需几行代码即可对顺序模型应用亚线性内存优化，极大降低了迁移成本。\n- **智能处理随机层**：pytorch-memonger 自动处理了 BatchNorm 和 Dropout 等非确定性层的重计算问题，通过重缩放动量或记录随机种子保证结果一致性。\n\npytorch-memonger 的核心价值在于以微小的计算速度代价（约 10%），换取了显存使用量的数量级优化，让深层网络在消费级显卡上的训练成为可能。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLyken17_pytorch-memonger_8545f99b.png","Lyken17","Ligeng Zhu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FLyken17_e6343e01.png","Researcher at @Nvidia on efficient large models.  Previously @MIT, @SFU, @ZJU.",null,"Cambridge, MA","lzhu.me","https:\u002F\u002Fgithub.com\u002FLyken17",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,602,55,"2026-04-07T17:51:29","MIT","","未说明（需支持 PyTorch 的 GPU 环境以进行深度学习训练）","未说明",{"notes":93,"python":91,"dependencies":94},"该工具仅支持 nn.Sequential 模型结构。若模型包含非确定性行为层（如 BatchNorm 或 Dropout），工具已通过重缩放动量（re-scaling momentum）和记忆随机数生成器（RNG）状态进行了特殊处理，但使用时仍需谨慎。其原理是通过重新前向传播（re-forwarding）将反向传播的内存占用从 O(N) 降低至 O(sqrt(N))。",[95],"torch",[14],"2026-03-27T02:49:30.150509","2026-04-08T22:11:57.996880",[100,105,110,115,120,125,130],{"id":101,"question_zh":102,"answer_zh":103,"source_url":104},25140,"SublinearSequential 是否支持残差网络（如 ResNet）或包含非顺序结构的模型？","SublinearSequential 的原始设计目的是替换 `nn.Sequential`。如果您的模型包含残差连接或其他非顺序结构（如 ResNet），直接替换通常无法工作。您需要将模型的各个部分手动包装成顺序风格（sequential style）的块，或者仅对模型中纯线性的部分使用 SublinearSequential。对于复杂的拓扑结构，该工具可能不直接适用。","https:\u002F\u002Fgithub.com\u002FLyken17\u002Fpytorch-memonger\u002Fissues\u002F1",{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},25141,"在使用 torchvision 的 VGG 模型时遇到 'in-place operation' 错误怎么办？","这是因为 torchvision 中的 VGG 模型在 ReLU 激活函数中使用了原地操作（in-place operations，即 `inplace=True`），这与内存优化检查点机制冲突。解决方法是修改模型定义，将所有 ReLU 层的 `inplace` 参数设置为 `False`，或者在替换为 SublinearSequential 之前重新构建不包含原地操作的特征提取器。","https:\u002F\u002Fgithub.com\u002FLyken17\u002Fpytorch-memonger\u002Fissues\u002F7",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},25142,"为什么在 ResNet 等模型中使用该工具时会警告 'None of the inputs have requires_grad=True' 导致梯度为 None？","这通常是因为在将模型层传递给 SublinearSequential 时，中间层的输入张量丢失了梯度追踪属性（requires_grad=False）。确保输入数据（input tensor）在传入模型前明确设置了 `requires_grad=True`。此外，检查是否错误地冻结了某些层，或者在封装过程中断开了计算图。如果问题依旧，需要提供最小可复现代码以便进一步排查。","https:\u002F\u002Fgithub.com\u002FLyken17\u002Fpytorch-memonger\u002Fissues\u002F4",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},25143,"遇到 'Expected to mark a variable ready only once' 运行时错误该如何解决？","该错误通常由以下原因引起：1) 在 `forward` 函数之外使用了模型参数；2) 在多个重入式反向传播（reentrant backward passes）中重复使用了相同的参数（例如用多个 checkpoint 包裹模型的同一部分）。请检查代码确保没有共享参数并发执行前向 - 反向传播，并避免对同一模块层进行多重 checkpoint 包装。如果问题持续，请提供最小复现代码。","https:\u002F\u002Fgithub.com\u002FLyken17\u002Fpytorch-memonger\u002Fissues\u002F6",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},25144,"加载预训练参数进行微调时准确率不提升，可能与 BatchNorm 有关吗？","是的，这可能是由于保存的 BatchNorm 参数（特别是运行均值和方差）在加载或处理过程中被错误地缩放或重置。检查保存和加载逻辑，确保 BatchNorm 的 `running_mean` 和 `running_var` 被正确恢复且未被意外修改。如果问题依然存在，建议提供一个最小化的复现案例以确认是否为库的特定行为。","https:\u002F\u002Fgithub.com\u002FLyken17\u002Fpytorch-memonger\u002Fissues\u002F5",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},25145,"如何正确在 ResNet18 等非 Sequential 模型上使用 memonger？","不能直接将整个 ResNet 模型替换为 `SublinearSequential(*list(net.children()))`，因为 ResNet 包含残差连接，不是简单的线性序列。正确的做法是识别模型中可以线性化的子模块，或者按照官方示例，仅对符合 `nn.Sequential` 结构的特定层块使用该工具。直接强行转换会导致前向传播逻辑错误（如跳过残差加法）。","https:\u002F\u002Fgithub.com\u002FLyken17\u002Fpytorch-memonger\u002Fissues\u002F9",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},25146,"报告问题时如果没有提供代码，维护者会如何处理？","维护者明确表示无法通过描述猜测问题根源。如果遇到问题，必须提供一个最小可复现代码案例（minimal case for reproduction）。仅仅陈述“它不工作”而不提供具体代码、错误堆栈或环境信息，通常会导致问题因缺乏活动而被标记为过时并关闭。","https:\u002F\u002Fgithub.com\u002FLyken17\u002Fpytorch-memonger\u002Fissues\u002F3",[]]