[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-tengshaofeng--ResidualAttentionNetwork-pytorch":3,"tool-tengshaofeng--ResidualAttentionNetwork-pytorch":64},[4,17,26,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":10,"last_commit_at":32,"category_tags":33,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,34],"视频",{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,43,34,44,15,45,46,13,47],"数据工具","插件","其他","语言模型","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,46,45],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[46,14,13,45],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":80,"owner_website":80,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":80,"difficulty_score":10,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":98,"github_topics":80,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":99,"updated_at":100,"faqs":101,"releases":142},4206,"tengshaofeng\u002FResidualAttentionNetwork-pytorch","ResidualAttentionNetwork-pytorch","a pytorch code about Residual Attention Network.  This code is based on two  projects from","ResidualAttentionNetwork-pytorch 是一个基于 PyTorch 框架实现的残差注意力网络（Residual Attention Network）开源项目，旨在复现并优化 CVPR 2017  Spotlight 论文中提出的图像分类模型。该工具通过引入注意力机制与残差结构的结合，有效提升了卷积神经网络在特征提取时的聚焦能力，从而显著提高了图像分类的准确率。\n\n它主要解决了原始开源实现中网络细节不够完善的问题，并针对不同的数据集和应用场景提供了灵活的模型变体。例如，它不仅包含了适用于 ImageNet 的标准架构，还专门构建了适配 CIFAR-10 小尺寸输入的优化模型，以及支持更大分辨率输入的变体。实验数据显示，在 CIFAR-10 数据集上，结合 Mixup 数据增强技术后，其顶级错误率可低至 3.16%，表现优于原论文基准。\n\n这款工具非常适合计算机视觉领域的研究人员和深度学习开发者使用。对于希望深入理解注意力机制在分类任务中应用，或需要高性能基线模型进行二次开发的团队来说，这是一个极具参考价值的起点。其独特的技术亮点在于对原论文架构的细致还原与改进，","ResidualAttentionNetwork-pytorch 是一个基于 PyTorch 框架实现的残差注意力网络（Residual Attention Network）开源项目，旨在复现并优化 CVPR 2017  Spotlight 论文中提出的图像分类模型。该工具通过引入注意力机制与残差结构的结合，有效提升了卷积神经网络在特征提取时的聚焦能力，从而显著提高了图像分类的准确率。\n\n它主要解决了原始开源实现中网络细节不够完善的问题，并针对不同的数据集和应用场景提供了灵活的模型变体。例如，它不仅包含了适用于 ImageNet 的标准架构，还专门构建了适配 CIFAR-10 小尺寸输入的优化模型，以及支持更大分辨率输入的变体。实验数据显示，在 CIFAR-10 数据集上，结合 Mixup 数据增强技术后，其顶级错误率可低至 3.16%，表现优于原论文基准。\n\n这款工具非常适合计算机视觉领域的研究人员和深度学习开发者使用。对于希望深入理解注意力机制在分类任务中应用，或需要高性能基线模型进行二次开发的团队来说，这是一个极具参考价值的起点。其独特的技术亮点在于对原论文架构的细致还原与改进，以及对 Mixup 等先进训练策略的原生支持，为用户探索更优的模型性能提供了坚实基础。","# ResidualAttentionNetwork-pytorch\nA pytorch code about Residual Attention Network.  \n\nThis code is based on two  projects from \n\nhttps:\u002F\u002Fgithub.com\u002Fliudaizong\u002FResidual-Attention-Network \nand \nhttps:\u002F\u002Fgithub.com\u002Ffwang91\u002Fresidual-attention-network\u002Fblob\u002Fmaster\u002Fimagenet_model\u002FAttention-92-deploy.prototxt\n\nThe first project is the pytorch code, but i think some network detail is not good. So I modify it according to \nthe architechure of the Attention-92-deploy.prototxt.\n\nAnd I also add the ResidualAttentionModel_92 for training imagenet,\nResidualAttentionModel_448input for larger image input,\nand ResidualAttentionModel_92_32input_update for training cifar10.\n\n\n\n# paper referenced\nResidual Attention Network for Image Classification (CVPR-2017 Spotlight)\nBy Fei Wang, Mengqing Jiang, Chen Qian, Shuo Yang, Chen Li, Honggang Zhang, Xiaogang Wang, Xiaoou Tang\n\n\n# how to train?\nfirst, download the data from http:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html\nmake sure the varible \n# \nis_train = True\n#\nCUDA_VISIBLE_DEVICES=0 python train.py\n\nCUDA_VISIBLE_DEVICES=0 python train_mixup.py(with mixup) \n\nyou can train on ResidualAttentionModel_56 or ResidualAttentionModel_448input, only should modify the code in train.py\nfrom  \"from model.residual_attention_network import ResidualAttentionModel_92 as ResidualAttentionModel\" to\n\"from model.residual_attention_network import ResidualAttentionModel_56 as ResidualAttentionModel\"\n\n# how to test?\nmake sure the varible \n#\nis_train = False\n#\nCUDA_VISIBLE_DEVICES=0 python train.py\n\nCUDA_VISIBLE_DEVICES=0 python train_mixup.py(with mixup) \n\n# result\n1. cifar-10: Acc-95.4(Top-1 err 4.6) with ResidualAttentionModel_92_32input_update(higher than paper top-1 err 4.99)\n\n2. cifar-10: Acc-96.65(Top-1 err 3.35) with ResidualAttentionModel_92_32input_update(with mixup).\n\n3. cifar-10: Acc-96.84(Top-1 err 3.16) with ResidualAttentionModel_92_32input_update(with mixup, with simpler attention module).\n\nThanks to @PistonY, who give me the advice of mixup.\nMore details for mixup you can reference the project https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fmixup-cifar10\n\nthe paper only give the archietcture details of attention_92 for imagenet with 224 input but not for cifar10. So I build the net following my understanding. I have not struggled for optimizing the code, so maybe you can do better based my code.\n\n# model file： \nmodel_92_sgd.pkl is the trained model file, accuracy of 0.954\n","# 残差注意力网络-PyTorch\n一个关于残差注意力网络的 PyTorch 代码。\n\n该代码基于以下两个项目：\n\n1. https:\u002F\u002Fgithub.com\u002Fliudaizong\u002FResidual-Attention-Network\n2. https:\u002F\u002Fgithub.com\u002Ffwang91\u002Fresidual-attention-network\u002Fblob\u002Fmaster\u002Fimagenet_model\u002FAttention-92-deploy.prototxt\n\n第一个项目提供了 PyTorch 版本的实现，但我觉得其中的一些网络细节不够完善。因此，我参考了 Attention-92-deploy.prototxt 的架构对其进行了修改。\n\n此外，我还添加了用于 ImageNet 数据集训练的 ResidualAttentionModel_92，用于处理更大尺寸图像输入的 ResidualAttentionModel_448input，以及用于 CIFAR-10 数据集训练的 ResidualAttentionModel_92_32input_update。\n\n# 参考论文\n《用于图像分类的残差注意力网络》（CVPR-2017 Spotlight）  \n作者：Wang Fei, Jiang Mengqing, Qian Chen, Yang Shuo, Li Chen, Zhang Honggang, Wang Xiaogang, Tang Xiaoou\n\n# 如何训练？\n首先，请从 http:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html 下载数据集。  \n确保将变量设置为：\n#\nis_train = True\n#\n\n然后运行以下命令进行训练：\nCUDA_VISIBLE_DEVICES=0 python train.py\n\n或者使用 Mixup 数据增强进行训练：\nCUDA_VISIBLE_DEVICES=0 python train_mixup.py\n\n你可以选择在 ResidualAttentionModel_56 或 ResidualAttentionModel_448input 上进行训练，只需修改 train.py 中的导入语句即可。例如，将：\n“from model.residual_attention_network import ResidualAttentionModel_92 as ResidualAttentionModel”\n改为：\n“from model.residual_attention_network import ResidualAttentionModel_56 as ResidualAttentionModel”\n\n# 如何测试？\n确保将变量设置为：\n#\nis_train = False\n#\n\n然后运行以下命令进行测试：\nCUDA_VISIBLE_DEVICES=0 python train.py\n\n或者使用 Mixup 数据增强进行测试：\nCUDA_VISIBLE_DEVICES=0 python train_mixup.py\n\n# 实验结果\n1. CIFAR-10：使用 ResidualAttentionModel_92_32input_update，准确率为 95.4%（Top-1 错误率 4.6%），高于论文中报道的 Top-1 错误率 4.99%。\n\n2. CIFAR-10：使用 ResidualAttentionModel_92_32input_update 并结合 Mixup 数据增强，准确率为 96.65%（Top-1 错误率 3.35%）。\n\n3. CIFAR-10：使用 ResidualAttentionModel_92_32input_update，并结合 Mixup 数据增强及更简单的注意力模块，准确率为 96.84%（Top-1 错误率 3.16%）。\n\n感谢 @PistonY 提供的 Mixup 建议。有关 Mixup 的更多细节，可以参考 Facebook Research 的项目：https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fmixup-cifar10。\n\n论文仅提供了针对 ImageNet 数据集、输入尺寸为 224 的 attention_92 架构细节，而未涉及 CIFAR-10。因此，我根据自己的理解构建了相应的网络结构。由于我没有花太多精力优化代码，你或许可以在我的基础上做出更好的改进。\n\n# 模型文件：\nmodel_92_sgd.pkl 是训练好的模型文件，其准确率为 0.954。","# ResidualAttentionNetwork-pytorch 快速上手指南\n\n本指南基于 PyTorch 实现的残差注意力网络（Residual Attention Network），适用于图像分类任务。代码参考了 CVPR-2017 Spotlight 论文架构，并针对 CIFAR-10 和 ImageNet 进行了适配优化。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (推荐) 或 macOS\n*   **Python 版本**：Python 3.6+\n*   **深度学习框架**：PyTorch (建议版本 1.0+)\n*   **硬件要求**：支持 CUDA 的 NVIDIA GPU（用于加速训练）\n*   **前置依赖**：\n    *   `torch`\n    *   `torchvision`\n    *   `numpy`\n    *   `Pillow`\n\n> **提示**：国内用户推荐使用清华源或阿里源安装依赖，以提升下载速度。\n> ```bash\n> pip install torch torchvision -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    将仓库克隆到本地目录：\n    ```bash\n    git clone \u003Crepository_url>\n    cd ResidualAttentionNetwork-pytorch\n    ```\n    *(注：请将 `\u003Crepository_url>` 替换为实际的仓库地址)*\n\n2.  **准备数据集**\n    本项目默认支持 CIFAR-10 数据集。请从官方源下载数据：\n    *   下载地址：http:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html\n    *   将下载的数据集解压并放置在代码指定的数据目录中（通常为 `data\u002F` 或根据 `train.py` 中的路径配置进行调整）。\n\n3.  **验证模型文件**\n    项目已提供预训练模型 `model_92_sgd.pkl`（CIFAR-10 准确率约 95.4%），可直接用于测试或作为微调起点。\n\n## 基本使用\n\n### 1. 训练模型 (Training)\n\n默认配置使用 `ResidualAttentionModel_92` 架构进行训练。\n\n*   **标准训练**：\n    ```bash\n    # 确保 train.py 中 is_train = True\n    CUDA_VISIBLE_DEVICES=0 python train.py\n    ```\n\n*   **使用 Mixup 数据增强训练**（推荐，可提升精度至 96.65%+）：\n    ```bash\n    # 确保 train_mixup.py 中 is_train = True\n    CUDA_VISIBLE_DEVICES=0 python train_mixup.py\n    ```\n\n*   **切换模型架构**：\n    若需使用其他架构（如 `ResidualAttentionModel_56` 或 `ResidualAttentionModel_448input`），请修改 `train.py` 中的导入语句：\n    ```python\n    # 原代码\n    from model.residual_attention_network import ResidualAttentionModel_92 as ResidualAttentionModel\n    \n    # 修改为 (示例：使用 56 层模型)\n    from model.residual_attention_network import ResidualAttentionModel_56 as ResidualAttentionModel\n    ```\n    *针对 CIFAR-10 优化的特定模型请使用 `ResidualAttentionModel_92_32input_update`。*\n\n### 2. 测试\u002F评估模型 (Testing)\n\n使用预训练权重或训练好的模型进行评估。\n\n*   **执行测试**：\n    1.  打开 `train.py` 或 `train_mixup.py`。\n    2.  将变量 `is_train` 设置为 `False`。\n    3.  运行命令：\n    ```bash\n    CUDA_VISIBLE_DEVICES=0 python train.py\n    # 或者测试 mixup 版本\n    CUDA_VISIBLE_DEVICES=0 python train_mixup.py\n    ```\n\n### 3. 预期结果参考\n\n在 CIFAR-10 数据集上的典型表现：\n*   **基础模型** (`ResidualAttentionModel_92_32input_update`): Top-1 错误率 ~4.6% (准确率 95.4%)\n*   **加入 Mixup**: Top-1 错误率 ~3.35% (准确率 96.65%)\n*   **Mixup + 简化注意力模块**: Top-1 错误率 ~3.16% (准确率 96.84%)","某医疗影像初创公司的算法团队正致力于开发一套自动筛查早期皮肤癌的辅助诊断系统，需要在有限的标注数据下实现极高的分类准确率。\n\n### 没有 ResidualAttentionNetwork-pytorch 时\n- 传统卷积神经网络（如普通 ResNet）在处理复杂的皮肤病变纹理时，容易受到背景噪声干扰，导致对微小病灶的特征提取不够精准。\n- 为了提升精度，团队不得不盲目增加网络层数或尝试手动调整注意力模块，不仅研发周期长，还极易陷入过拟合困境。\n- 在 CIFAR-10 等基准测试中，常规模型的 Top-1 错误率难以突破 5%，无法满足医疗场景对“零漏诊”的严苛要求。\n- 缺乏针对小尺寸输入（如 32x32）优化的现成架构，直接套用 ImageNet 预训练模型导致显存浪费且收敛缓慢。\n\n### 使用 ResidualAttentionNetwork-pytorch 后\n- 利用其特有的残差注意力机制，模型能自动聚焦于病损区域并抑制背景噪声，显著提升了特征判别力。\n- 直接调用针对小图优化的 `ResidualAttentionModel_92_32input_update` 架构，结合 Mixup 数据增强策略，快速将 CIFAR-10 测试错误率降至 3.16%。\n- 基于官方提供的成熟 PyTorch 代码和预训练权重（model_92_sgd.pkl），团队省去了从零复现论文架构的时间，将研发重心转向数据清洗。\n- 灵活的模块设计允许研究人员轻松替换注意力组件，在保持高精度的同时进一步简化模型结构，加速了临床部署进程。\n\nResidualAttentionNetwork-pytorch 通过引入高效的注意力机制与成熟的工程实现，帮助团队在数据受限条件下突破了分类精度瓶颈，大幅缩短了高可靠医疗 AI 模型的落地周期。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftengshaofeng_ResidualAttentionNetwork-pytorch_6add85ac.png","tengshaofeng","bojohn","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftengshaofeng_939482ff.jpg","I  work on algorithm engineer. I have some experience in field of\r\nface recognition,  ocr, medical images and so forth.\r\n ",null,"307149416@qq.com","https:\u002F\u002Fgithub.com\u002Ftengshaofeng",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,686,165,"2026-02-25T03:02:11","Linux","需要 NVIDIA GPU (通过 CUDA_VISIBLE_DEVICES 环境变量指定)，具体型号和显存大小未说明","未说明",{"notes":95,"python":93,"dependencies":96},"代码基于 PyTorch 框架。训练前需手动下载 CIFAR-10 数据集。支持使用 mixup 数据增强策略。README 中提供的运行命令仅展示了 Linux 环境下的写法，未明确提及对 macOS 或 Windows 的支持。未提供具体的 Python 版本、CUDA 版本及除 PyTorch 外的其他依赖库版本要求。",[97],"pytorch",[14],"2026-03-27T02:49:30.150509","2026-04-06T14:06:29.747518",[102,107,112,117,122,127,132,137],{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},19161,"为什么我的测试准确率停滞不前或低于预期（如 81% 或 87%）？","准确率偏低可能由以下原因导致：1. 网络架构细节差异：原论文仅提供了 ImageNet (224 输入) 的 attention_92 架构细节，CIFAR-10 版本是作者根据理解构建的，你可以尝试移除代码中的某些 'add' 操作来测试效果。2. 数据预处理：请确保数据预处理方式与原论文作者保持一致。3. 超参数调整：尝试调整超参数以获得更好性能。4. 使用 Mixup 技巧：启用 mixup 可以提高约 1 个百分点的准确率。5. 类别精度计算问题：如果整体准确率高但单类精度低，可能是单类精度计算代码有误，应以总准确率为准并修正相关代码。目前模型在 CIFAR-10 上的最佳结果可达 96.65% 左右。","https:\u002F\u002Fgithub.com\u002Ftengshaofeng\u002FResidualAttentionNetwork-pytorch\u002Fissues\u002F4",{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},19162,"如何将此模型应用于多标签（Multi-label）分类任务？","要将模型用于多标签数据集（如 NUSWIDE），需要进行以下修改：1. 损失函数：将损失函数改为 `nn.BCELoss`。2. 输出层激活函数：将最后一层的 softmax 改为 sigmoid。每个神经元通过 sigmoid 连接，并负责预测一个独立的标签。","https:\u002F\u002Fgithub.com\u002Ftengshaofeng\u002FResidualAttentionNetwork-pytorch\u002Fissues\u002F6",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},19163,"如何可视化论文中提到的注意力掩码（Attention Masks）？","虽然作者未直接提供可视化代码，但可以根据原理自行实现：在公式 `out = (1 + out_conv1_1_blocks) * out_trunk` 中，`out_trunk` 是掩码前的特征，`out_conv1_1_blocks` 即为注意力掩码，`out` 是掩码后的特征。你可以尝试可视化代码中类似 `AttentionModule_stage1_cifar` 里的 `self.conv1_1_blocks` 变量来生成注意力图。","https:\u002F\u002Fgithub.com\u002Ftengshaofeng\u002FResidualAttentionNetwork-pytorch\u002Fissues\u002F7",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},19164,"代码运行时出现 \"new() received an invalid combination of arguments\" 错误如何解决？","该错误通常与 PyTorch 版本兼容性有关（特别是 `torch.new()` 的参数变化）。建议参考该项目 Issue #3 的讨论（尽管链接可能失效，通常解决方案是将旧的 `tensor.new(...)` 调用方式更新为符合当前 PyTorch 版本的写法，例如显式指定 device 或使用 `torch.tensor` 构造函数）。","https:\u002F\u002Fgithub.com\u002Ftengshaofeng\u002FResidualAttentionNetwork-pytorch\u002Fissues\u002F9",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},19165,"是否提供了预训练模型？如何获取？","维护者已经上传了针对 CIFAR-10 数据集的预训练模型。如果你需要训练自己的数据，可以先下载该预训练模型作为起点进行微调。具体文件通常在仓库的发布页面或通过代码中的加载路径获取。","https:\u002F\u002Fgithub.com\u002Ftengshaofeng\u002FResidualAttentionNetwork-pytorch\u002Fissues\u002F10",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},19166,"AttentionModule 中的上采样后是否应该加上 out_trunk（即执行 element-wise sum）？","关于这一点存在架构实现的探讨。原论文细节不详，当前代码参考了 Caffe 版本和 FCN。有用户指出 Caffe 源码中可能是将 output 插值成 trunk 的大小，而非直接进行 element-wise sum。建议你可以尝试去掉代码中的 `+ out_trunk` 这一步骤运行测试，对比效果并反馈。公式参考：`out_interp2 = self.interpolation2(out_up_residual_blocks1) + out_trunk`。","https:\u002F\u002Fgithub.com\u002Ftengshaofeng\u002FResidualAttentionNetwork-pytorch\u002Fissues\u002F11",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},19167,"测试时是否需要记录梯度（grad）？遇到显存溢出怎么办？","测试（评估）时模型不需要计算梯度。如果在测试阶段代码中保留了梯度记录（如未使用 `with torch.no_grad():` 或未设置 `requires_grad=False`），会导致不必要的显存占用甚至显存溢出（Out of Memory）。请确保在测试循环中关闭梯度计算以节省显存。","https:\u002F\u002Fgithub.com\u002Ftengshaofeng\u002FResidualAttentionNetwork-pytorch\u002Fissues\u002F14",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},19168,"为什么整体准确率很高（如 95%+），但各个类别的单独准确率显示极低甚至为 0%？","这种情况通常不是模型性能问题，而是评估代码中计算单个类别准确率的逻辑有误。请以整体准确率（Total Accuracy）为准。你需要检查并修改代码中针对每个类别精度计算的逻辑，确保分母和分子统计正确。","https:\u002F\u002Fgithub.com\u002Ftengshaofeng\u002FResidualAttentionNetwork-pytorch\u002Fissues\u002F17",[]]