[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Res2Net--Res2Net-PretrainedModels":3,"tool-Res2Net--Res2Net-PretrainedModels":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":77,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":77,"difficulty_score":32,"env_os":89,"env_gpu":90,"env_ram":89,"env_deps":91,"category_tags":96,"github_topics":97,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":103,"updated_at":104,"faqs":105,"releases":141},6577,"Res2Net\u002FRes2Net-PretrainedModels","Res2Net-PretrainedModels","(ImageNet pretrained models) The official pytorch implemention of the TPAMI paper \"Res2Net: A New Multi-scale Backbone Architecture\"","Res2Net-PretrainedModels 提供了基于 PyTorch 框架的 Res2Net 预训练模型，源自发表于顶级期刊 TPAMI 的论文\"Res2Net：一种新的多尺度骨干架构”。它主要解决了传统卷积神经网络在单一残差块内难以有效捕捉多尺度特征的问题。通过引入层级化的残差连接结构，Res2Net 能够在更细粒度上表示多尺度信息，显著扩大网络层的感受野，从而在图像分类、目标检测和语义分割等任务中实现比 ResNet、HRNet 等主流模型更高的精度，且计算成本可控。\n\n该资源特别适合计算机视觉领域的研究人员和开发者使用。无论是需要快速复现论文结果、进行算法对比，还是希望将高性能骨干网络集成到 MMDetection、Detectron2 等框架中以提升下游任务表现，都能从中获益。其独特的技术亮点在于创新的\"Res2Net 模块”，无需复杂的技巧或额外的计算开销，即可在 ImageNet 数据集上获得约 2% 的顶 -1 准确率提升，并展现出优异的迁移学习能力。项目不仅开源了多种不同参数配置的预训练权重，还提供了便捷的加载代码和详细的文档支持，帮助用户轻松上手并应用于实际的","Res2Net-PretrainedModels 提供了基于 PyTorch 框架的 Res2Net 预训练模型，源自发表于顶级期刊 TPAMI 的论文\"Res2Net：一种新的多尺度骨干架构”。它主要解决了传统卷积神经网络在单一残差块内难以有效捕捉多尺度特征的问题。通过引入层级化的残差连接结构，Res2Net 能够在更细粒度上表示多尺度信息，显著扩大网络层的感受野，从而在图像分类、目标检测和语义分割等任务中实现比 ResNet、HRNet 等主流模型更高的精度，且计算成本可控。\n\n该资源特别适合计算机视觉领域的研究人员和开发者使用。无论是需要快速复现论文结果、进行算法对比，还是希望将高性能骨干网络集成到 MMDetection、Detectron2 等框架中以提升下游任务表现，都能从中获益。其独特的技术亮点在于创新的\"Res2Net 模块”，无需复杂的技巧或额外的计算开销，即可在 ImageNet 数据集上获得约 2% 的顶 -1 准确率提升，并展现出优异的迁移学习能力。项目不仅开源了多种不同参数配置的预训练权重，还提供了便捷的加载代码和详细的文档支持，帮助用户轻松上手并应用于实际的深度学习项目中。","# Res2Net\nThe official pytorch implemention of the paper [\"Res2Net: A New Multi-scale Backbone Architecture\"](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.01169.pdf)\n\nOur paper is accepted by **IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI)**.\n## Update\n- 2020.10.20 PaddlePaddle version Res2Net achieves 85.13% top-1 acc. on ImageNet: [PaddlePaddle Res2Net](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleClas\u002Fblob\u002Fmaster\u002Fdocs\u002Fen\u002Fadvanced_tutorials\u002Fdistillation\u002Fdistillation_en.md).\n- 2020.8.21 Online demo for detection and segmentation using Res2Net is released: http:\u002F\u002Fmc.nankai.edu.cn\u002Fres2net-det\n- 2020.7.29 The training code of Res2Net on ImageNet is released https:\u002F\u002Fgithub.com\u002FRes2Net\u002FRes2Net-ImageNet-Training (non-commercial use only)\n- 2020.6.1 Res2Net is now in the official model zoo of the new deep learning framework [**Jittor**](https:\u002F\u002Fgithub.com\u002FJittor\u002Fjittor).\n- 2020.5.21 Res2Net is now one of the basic bonebones in MMDetection v2 framework https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection.\nUsing MMDetection v2 with Res2Net achieves better performance with less computational cost.\n- 2020.5.11 Res2Net achieves about 2% performance gain on Panoptic Segmentation based on detectron2 with no trick. We have released our code on: https:\u002F\u002Fgithub.com\u002FRes2Net\u002FRes2Net-detectron2.\n- 2020.2.24 Our Res2Net_v1b achieves a considerable performance gain on mmdetection compared with existing backbone models.\nWe have released our code on: https:\u002F\u002Fgithub.com\u002FRes2Net\u002Fmmdetection. Detailed comparision between our method and HRNet, which previously generates best results, could be found at: https:\u002F\u002Fgithub.com\u002FRes2Net\u002Fmmdetection\u002Ftree\u002Fmaster\u002Fconfigs\u002Fres2net\n- 2020.2.21: Pretrained models of Res2Net_v1b with more than 2% improvement on ImageNet top1 acc. compared with original version of Res2Net are released! Res2Net_v1b achieves much better performance when transfer to other tasks such as object detection and semantic segmentation.\n## Introduction\nWe propose a novel building block for CNNs, namely Res2Net, by constructing hierarchical residual-like\nconnections within one single residual block. The Res2Net represents multi-scale features at a granular level and increases the range\nof receptive fields for each network layer. The proposed Res2Net block can be plugged into the state-of-the-art backbone CNN models,\ne.g. , ResNet, ResNeXt, BigLittleNet, and DLA. We evaluate the Res2Net block on all these models and demonstrate consistent performance gains over baseline models.\n\u003Cp align=\"center\">\n\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRes2Net_Res2Net-PretrainedModels_readme_d1337405b113.jpg\" alt=\"Sample\"  width=\"500\">\n\t\u003Cp align=\"center\">\n\t\t\u003Cem>Res2Net module\u003C\u002Fem>\n\t\u003C\u002Fp>\n\u003C\u002Fp>\n\n## Useage\n### Requirement\nPyTorch>=0.4.1\n### Examples \n```\ngit clone https:\u002F\u002Fgithub.com\u002Fgasvn\u002FRes2Net.git\n\nfrom res2net import res2net50\nmodel = res2net50(pretrained=True)\n\n```\nInput image should be normalized as follows:\n```\nnormalize = transforms.Normalize(mean=[0.485, 0.456, 0.406],\n                                  std=[0.229, 0.224, 0.225])\n```\n(By default, the model will be downloaded automatically.\nIf the default download link is not available, please refer to the Download Link listed on **Pretrained models**.)\n## Pretrained models\n| model |#Params | MACCs |top-1 error| top-5 error| Link |\n| :--: | :--: | :--: | :--: | :--: | :--: |\n| Res2Net-50-48w-2s  | 25.29M | 4.2 | 22.68 | 6.47 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPbo7RnRUz-7ejhLg?e=gU2EZG)\n| Res2Net-50-26w-4s  | 25.70M | 4.2 | 22.01 | 6.15 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPbMavn7eawKhvCPY?e=TBHOuT)\n| Res2Net-50-14w-8s  | 25.06M | 4.2 | 21.86 | 6.14 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPdOTqhF8ne_aakDI?e=EVb8Ri)\n| Res2Net-50-26w-6s  | 37.05M | 6.3 | 21.42 | 5.87 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPc2mqy1h8324sxxI?e=Go4p7I)\n| Res2Net-50-26w-8s  | 48.40M | 8.3 | 20.80 | 5.63 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPdTrAd_Afzc26Z7Q?e=slYqsR)\n| Res2Net-101-26w-4s | 45.21M | 8.1 | 20.81 | 5.57 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPcJRgTLkahL0cFYw?e=nwbnic)\n| Res2NeXt-50        | 24.67M | 4.2 | 21.76 | 6.09 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPcWlWLXBuKxma7DQ?e=mt4dQf)\n| Res2Net-DLA-60     | 21.15M | 4.2 | 21.53 | 5.80 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPbWAqdcatece24vs?e=t3shXH)\n| Res2NeXt-DLA-60    | 17.33M | 3.6 | 21.55 | 5.86 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPcjxCM0kAYHEaEd0?e=9WrBpj)\n| **Res2Net-v1b-50** | 25.72M | 4.5 | 19.73 | 4.96 |[Link](https:\u002F\u002Fshanghuagao.oss-cn-beijing.aliyuncs.com\u002Fres2net\u002Fres2net50_v1b_26w_4s-3cf99910.pth)\n| **Res2Net-v1b-101**| 45.23M | 8.3 | 18.77 | 4.64 |[Link](https:\u002F\u002Fshanghuagao.oss-cn-beijing.aliyuncs.com\u002Fres2net\u002Fres2net101_v1b_26w_4s-0812c246.pth)\n| **Res2Net-v1d-200-SSLD**| 76.21M | 15.7 | 14.87 | 2.58 |[PaddlePaddleLink](https:\u002F\u002Fpaddle-imagenet-models-name.bj.bcebos.com\u002FRes2Net200_vd_26w_4s_ssld_pretrained.tar)\n\n#### News\n- Res2Net_v1b is now available.\n- You can load the pretrained model by using `pretrained = True`.\n\nThe download link from Baidu Disk is now available. ([Baidu Disk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BP7X222ZPqOndbojwOPjkw) password: **vbix**)\n## Applications\nOther applications such as Classification, Instance segmentation, Object detection, Semantic segmentation, Salient object detection, Class activation map,Tumor segmentation on CT scans can be found on https:\u002F\u002Fmmcheng.net\u002Fres2net\u002F .\n\n## Citation\nIf you find this work or code is helpful in your research, please cite:\n```\n@article{gao2019res2net,\n  title={Res2Net: A New Multi-scale Backbone Architecture},\n  author={Gao, Shang-Hua and Cheng, Ming-Ming and Zhao, Kai and Zhang, Xin-Yu and Yang, Ming-Hsuan and Torr, Philip},\n  journal={IEEE TPAMI},\n  year={2021},\n  doi={10.1109\u002FTPAMI.2019.2938758}, \n}\n```\n## Contact\nIf you have any questions, feel free to E-mail me via: `shgao(at)live.com`\n\n## License\nThe code is released under the Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International Public License for Noncommercial use only. Any commercial use should get formal permission first.\n","# Res2Net\n论文《Res2Net：一种新的多尺度骨干网络架构》的官方 PyTorch 实现（论文链接：https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.01169.pdf）\n\n我们的论文已被 **IEEE 模式分析与机器智能汇刊 (TPAMI)** 接收。\n## 更新\n- 2020年10月20日：PaddlePaddle 版本的 Res2Net 在 ImageNet 数据集上取得了 85.13% 的 Top-1 准确率：[PaddlePaddle Res2Net](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleClas\u002Fblob\u002Fmaster\u002Fdocs\u002Fen\u002Fadvanced_tutorials\u002Fdistillation\u002Fdistillation_en.md)。\n- 2020年8月21日：基于 Res2Net 的目标检测和分割在线演示发布：http:\u002F\u002Fmc.nankai.edu.cn\u002Fres2net-det\n- 2020年7月29日：Res2Net 在 ImageNet 上的训练代码已公开：https:\u002F\u002Fgithub.com\u002FRes2Net\u002FRes2Net-ImageNet-Training（仅限非商业用途）。\n- 2020年6月1日：Res2Net 已被纳入新的深度学习框架 **Jittor** 的官方模型库：https:\u002F\u002Fgithub.com\u002FJittor\u002Fjittor。\n- 2020年5月21日：Res2Net 现已成为 MMDetection v2 框架中的基础骨干网络之一：https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection。使用 MMDetection v2 结合 Res2Net 可以在降低计算成本的同时获得更好的性能。\n- 2020年5月11日：基于 detectron2 的全景分割任务中，Res2Net 在不使用任何技巧的情况下实现了约 2% 的性能提升。相关代码已公开：https:\u002F\u002Fgithub.com\u002FRes2Net\u002FRes2Net-detectron2。\n- 2020年2月24日：我们的 Res2Net_v1b 在 mmdetection 上相比现有骨干网络模型取得了显著的性能提升。\n相关代码已公开：https:\u002F\u002Fgithub.com\u002FRes2Net\u002Fmmdetection。我们方法与此前表现最佳的 HRNet 之间的详细对比可参见：https:\u002F\u002Fgithub.com\u002FRes2Net\u002Fmmdetection\u002Ftree\u002Fmaster\u002Fconfigs\u002Fres2net。\n- 2020年2月21日：Res2Net_v1b 的预训练模型已在 ImageNet Top-1 准确率上比原始版本提升了超过 2%，并且在迁移至目标检测、语义分割等其他任务时表现出更优异的性能。\n## 简介\n我们提出了一种新颖的 CNN 基础模块——Res2Net，通过在一个残差块内部构建层次化的类似残差的连接来实现。Res2Net 能够以细粒度表示多尺度特征，并扩大每一层网络的感受野范围。该模块可以无缝集成到当前最先进的骨干网络模型中，例如 ResNet、ResNeXt、BigLittleNet 和 DLA。我们在这些模型上对 Res2Net 进行了全面评估，结果表明其性能始终优于基线模型。\n\u003Cp align=\"center\">\n\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRes2Net_Res2Net-PretrainedModels_readme_d1337405b113.jpg\" alt=\"Sample\"  width=\"500\">\n\t\u003Cp align=\"center\">\n\t\t\u003Cem>Res2Net 模块\u003C\u002Fem>\n\t\u003C\u002Fp>\n\u003C\u002Fp>\n\n## 使用方法\n### 需求\nPyTorch>=0.4.1\n### 示例\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fgasvn\u002FRes2Net.git\n\nfrom res2net import res2net50\nmodel = res2net50(pretrained=True)\n\n```\n输入图像应按以下方式归一化：\n```\nnormalize = transforms.Normalize(mean=[0.485, 0.456, 0.406],\n                                  std=[0.229, 0.224, 0.225])\n```\n（默认情况下，模型会自动下载。如果默认下载链接不可用，请参考“预训练模型”部分列出的下载链接。）\n## 预训练模型\n| 模型 | 参数量 | MACCs | Top-1 错误率 | Top-5 错误率 | 链接 |\n| :--: | :--: | :--: | :--: | :--: | :--: |\n| Res2Net-50-48w-2s  | 25.29M | 4.2 | 22.68 | 6.47 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPbo7RnRUz-7ejhLg?e=gU2EZG)\n| Res2Net-50-26w-4s  | 25.70M | 4.2 | 22.01 | 6.15 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPbMavn7eawKhvCPY?e=TBHOuT)\n| Res2Net-50-14w-8s  | 25.06M | 4.2 | 21.86 | 6.14 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPdOTqhF8ne_aakDI?e=EVb8Ri)\n| Res2Net-50-26w-6s  | 37.05M | 6.3 | 21.42 | 5.87 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPc2mqy1h8324sxxI?e=Go4p7I)\n| Res2Net-50-26w-8s  | 48.40M | 8.3 | 20.80 | 5.63 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPdTrAd_Afzc26Z7Q?e=slYqsR)\n| Res2Net-101-26w-4s | 45.21M | 8.1 | 20.81 | 5.57 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPcJRgTLkahL0cFYw?e=nwbnic)\n| Res2NeXt-50        | 24.67M | 4.2 | 21.76 | 6.09 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPcWlWLXBuKxma7DQ?e=mt4dQf)\n| Res2Net-DLA-60     | 21.15M | 4.2 | 21.53 | 5.80 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPbWAqdcatece24vs?e=t3shXH)\n| Res2NeXt-DLA-60    | 17.33M | 3.6 | 21.55 | 5.86 |[OneDrive](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AkxDDnOtroRPcjxCM0kAYHEaEd0?e=9WrBpj)\n| **Res2Net-v1b-50** | 25.72M | 4.5 | 19.73 | 4.96 |[链接](https:\u002F\u002Fshanghuagao.oss-cn-beijing.aliyuncs.com\u002Fres2net\u002Fres2net50_v1b_26w_4s-3cf99910.pth)\n| **Res2Net-v1b-101**| 45.23M | 8.3 | 18.77 | 4.64 |[链接](https:\u002F\u002Fshanghuagao.oss-cn-beijing.aliyuncs.com\u002Fres2net\u002Fres2net101_v1b_26w_4s-0812c246.pth)\n| **Res2Net-v1d-200-SSLD**| 76.21M | 15.7 | 14.87 | 2.58 |[PaddlePaddle链接](https:\u002F\u002Fpaddle-imagenet-models-name.bj.bcebos.com\u002FRes2Net200_vd_26w_4s_ssld_pretrained.tar)\n\n#### 新闻\n- Res2Net_v1b 现已可用。\n- 您可以通过设置 `pretrained = True` 来加载预训练模型。\n\n百度网盘下载链接现已开放。（[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BP7X222ZPqOndbojwOPjkw)，提取码：**vbix**）\n## 应用\n分类、实例分割、目标检测、语义分割、显著性目标检测、类激活图、CT 扫描中的肿瘤分割等其他应用，请访问 https:\u002F\u002Fmmcheng.net\u002Fres2net\u002F 查看。\n\n## 引用\n如果您在研究中使用了本工作或代码，请引用：\n```\n@article{gao2019res2net,\n  title={Res2Net: A New Multi-scale Backbone Architecture},\n  author={Gao, Shang-Hua and Cheng, Ming-Ming and Zhao, Kai and Zhang, Xin-Yu and Yang, Ming-Hsuan and Torr, Philip},\n  journal={IEEE TPAMI},\n  year={2021},\n  doi={10.1109\u002FTPAMI.2019.2938758}, \n}\n```\n## 联系方式\n如有任何问题，请随时通过电子邮件联系我：`shgao(at)live.com`\n\n## 许可证\n代码根据知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议发布，仅限非商业用途。任何商业用途均需事先获得正式授权。","# Res2Net 预训练模型快速上手指南\n\nRes2Net 是一种新型的多尺度骨干网络架构，通过在单个残差块内构建分层残差连接，显著提升了特征表示能力和感受野范围。该模型在图像分类、目标检测和语义分割等任务中表现优异，且已集成到 MMDetection、Detectron2 等主流框架中。\n\n## 环境准备\n\n- **操作系统**：Linux \u002F Windows \u002F macOS\n- **Python 版本**：建议 Python 3.6+\n- **深度学习框架**：PyTorch >= 0.4.1\n- **依赖库**：`torch`, `torchvision`\n\n可通过以下命令安装基础依赖：\n\n```bash\npip install torch torchvision\n```\n\n## 安装步骤\n\n1. 克隆官方代码仓库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fgasvn\u002FRes2Net.git\ncd Res2Net\n```\n\n2. （可选）若默认下载链接不可用，可手动下载预训练模型并放置于合适路径。国内用户推荐使用阿里云或百度网盘镜像：\n\n- 阿里云 OSS 链接（推荐）：\n  - Res2Net-v1b-50: https:\u002F\u002Fshanghuagao.oss-cn-beijing.aliyuncs.com\u002Fres2net\u002Fres2net50_v1b_26w_4s-3cf99910.pth\n  - Res2Net-v1b-101: https:\u002F\u002Fshanghuagao.oss-cn-beijing.aliyuncs.com\u002Fres2net\u002Fres2net101_v1b_26w_4s-0812c246.pth\n\n- 百度网盘链接（提取码：**vbix**）：\n  https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BP7X222ZPqOndbojwOPjkw\n\n## 基本使用\n\n以下是最简单的加载预训练模型并进行推理的示例：\n\n```python\nfrom res2net import res2net50\nimport torch\nimport torchvision.transforms as transforms\nfrom PIL import Image\n\n# 加载预训练模型（自动下载，若失败请手动指定路径）\nmodel = res2net50(pretrained=True)\nmodel.eval()\n\n# 图像预处理\nnormalize = transforms.Normalize(mean=[0.485, 0.456, 0.406],\n                                 std=[0.229, 0.224, 0.225])\ntransform = transforms.Compose([\n    transforms.Resize(256),\n    transforms.CenterCrop(224),\n    transforms.ToTensor(),\n    normalize,\n])\n\n# 加载并处理图像\nimage = Image.open(\"your_image.jpg\").convert(\"RGB\")\ninput_tensor = transform(image).unsqueeze(0)\n\n# 推理\nwith torch.no_grad():\n    output = model(input_tensor)\n    prediction = torch.argmax(output, dim=1)\n    print(f\"预测类别索引：{prediction.item()}\")\n```\n\n> 提示：如需使用其他变体（如 `res2net101`、`res2next50` 等），只需替换导入和构造函数名称即可。","某医疗影像初创团队正在开发一套基于深度学习的早期肺结节检测系统，需要在有限的标注数据下快速提升模型对微小病灶的识别精度。\n\n### 没有 Res2Net-PretrainedModels 时\n- **多尺度特征提取能力弱**：传统 ResNet 骨干网络难以在同一层级有效捕捉肺结节从微小到巨大的跨度变化，导致小病灶漏检率高。\n- **训练收敛慢且成本高**：从头训练深层网络需要海量算力与时间，团队在有限 GPU 资源下难以进行充分的超参数调优。\n- **迁移学习效果瓶颈**：直接使用普通 ImageNet 预训练模型，在医学场景下的特征泛化能力不足，top-1 准确率提升遭遇天花板。\n- **感受野受限**：现有架构的单一路径设计限制了网络对上下文信息的感知，难以区分结节与复杂的肺部背景干扰。\n\n### 使用 Res2Net-PretrainedModels 后\n- **细粒度多尺度表征增强**：利用 Res2Net 独特的分层残差连接结构，模型能在单个模块内并行处理多尺度特征，显著提升了微小结节的检出率。\n- **高效启动与收敛**：直接加载在 ImageNet 上达到 20.80% 低错误率的预训练权重（如 Res2Net-50-26w-8s），大幅缩短训练周期，节省数天算力成本。\n- **卓越的迁移性能**：得益于预训练模型更强的特征表达能力，下游检测任务在少量数据微调后即获得约 2% 的性能增益，超越原有 HRNet 基线。\n- **感受野灵活扩展**：新的骨干架构增加了每一层的有效感受野范围，使模型能更精准地结合局部纹理与全局语境，降低误报率。\n\nRes2Net-PretrainedModels 通过引入创新的内部多尺度机制，以极低的迁移成本解决了医疗影像中微小目标检测难、训练效率低的核心痛点。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRes2Net_Res2Net-PretrainedModels_ece3a21f.png","Res2Net","Res2Net Applications","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FRes2Net_1a2b3ff8.png","Applications of the multi-scale backbone Res2Net (TPAMI 2020)",null,"shgao@live.com","https:\u002F\u002Fmmcheng.net\u002Fres2net","https:\u002F\u002Fgithub.com\u002FRes2Net",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,1116,216,"2026-04-09T09:00:56","未说明","未说明（基于 PyTorch，通常建议配备支持 CUDA 的 NVIDIA GPU 以进行训练或高效推理，具体显存需求取决于所选模型大小，从约 4.2 MACs 到 15.7 MACs 不等）",{"notes":92,"python":89,"dependencies":93},"该工具是 Res2Net 论文的官方 PyTorch 实现。默认情况下代码会自动下载预训练模型，如果默认链接不可用，需手动从 README 中提供的 OneDrive、阿里云 OSS 或百度网盘链接下载。预训练模型文件大小不一，最大约 76M 参数（Res2Net-v1d-200-SSLD）。代码仅授权用于非商业用途，商业使用需获得正式许可。",[94,95],"PyTorch>=0.4.1","torchvision (隐含，用于 transforms.Normalize)",[14],[98,99,100,101,102],"res2net","backbone","pytorch","multi-scale","jittor","2026-03-27T02:49:30.150509","2026-04-11T17:37:59.236020",[106,111,116,121,126,131,136],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},29692,"加载预训练模型时出现 'unexpected keys' 或状态字典不匹配的错误怎么办？","这通常是由于 PyTorch 版本差异导致的。如果您使用的是 torch 0.4.0，建议升级到 torch 0.4.1 或更高版本来解决此问题。此外，确保在加载状态字典时，模型架构配置（如 width, scale）与预训练权重文件完全一致。如果仍然报错，可以尝试在加载代码中添加 `strict=False` 参数，但首选方案是升级 PyTorch 版本。","https:\u002F\u002Fgithub.com\u002FRes2Net\u002FRes2Net-PretrainedModels\u002Fissues\u002F22",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},29693,"Res2Net v1b 版本的训练使用了什么特殊的技巧或超参数？","Res2Net v1b 版本使用了一种类似于 mixup 的设计技巧，但该具体实现尚未公开。如果您希望复现类似结果，可以使用标准的 mixup 数据增强配合余弦退火学习率调度器（coslr），并训练 300 个 epoch，这样可以获得相似的性能。v1b 版本主要针对下游任务（如目标检测）进行了优化，而非仅仅为了对比实验。","https:\u002F\u002Fgithub.com\u002FRes2Net\u002FRes2Net-PretrainedModels\u002Fissues\u002F38",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},29694,"如何正确配置 Mask R-CNN 以加载 Res2Net 预训练权重？","在配置文件（yaml）中，必须确保 `WIDTH_PER_GROUP` 和 `SCALE` 参数与所使用的预训练权重文件名中的数值严格一致。例如，如果使用 `res2net50_26w_4s` 的权重，配置中必须设置 `WIDTH_PER_GROUP: 26` 和 `SCALE: 4`（注意：部分用户反馈需根据实际文件名调整，如 26w_4s 对应 width=26, scale=4 或根据具体实现确认）。如果参数不匹配，加载时会发生错误。参考配置文件示例：`configs\u002Fpytorch_mask_rcnn_R2_50_s4_FPN_2x.yaml`。","https:\u002F\u002Fgithub.com\u002FRes2Net\u002FRes2Net-PretrainedModels\u002Fissues\u002F4",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},29695,"Res2Net 代码中 `width = int(math.floor(planes * (baseWidth\u002F64.0)))` 这一行的作用是什么？","这行代码的目的是为了方便与标准 ResNet 对齐参数量。它通过计算确保 Res2Net 模块的通道数与同等深度的 ResNet 保持大致相同的参数规模，以便于公平比较。","https:\u002F\u002Fgithub.com\u002FRes2Net\u002FRes2Net-PretrainedModels\u002Fissues\u002F57",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},29696,"在哪里可以找到 Res2Net 的初始训练代码而不仅仅是预训练模型？","您可以访问 `https:\u002F\u002Fgithub.com\u002FRes2Net\u002FRes2Net-ImageNet-Training` 仓库来获取完整的训练代码，该仓库包含了复现论文结果所需的全部脚本和配置，而当前仓库主要提供预训练模型权重。","https:\u002F\u002Fgithub.com\u002FRes2Net\u002FRes2Net-PretrainedModels\u002Fissues\u002F60",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},29697,"Res2NeXt 在 Cifar100 上训练时，下采样块应该使用哪种实现方式？","关于 Res2NeXt 的下采样实现存在两种情况：ImageNet 的实现通常在每个阶段的第一个块中不使用层级相加（hierarchical addition）进行下采样；而在某些特定代码片段中，可能会使用组卷积（group convolutions）作为每个阶段的第一个块来进行下采样。如果您无法复现结果，请检查是否混淆了这两种实现方式，并确保批次大小（Batch Size）设置正确（通常 ImageNet 预训练使用 256，对应初始学习率 0.05）。","https:\u002F\u002Fgithub.com\u002FRes2Net\u002FRes2Net-PretrainedModels\u002Fissues\u002F36",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},29698,"Res2Net v1b 系列的预训练模型（如 res2net152-v1b）会公开吗？","维护者表示 Res2Net v1b 相比普通版有轻微改进，特别是在下游任务（如目标检测）和鲁棒性方面表现更好。相关报告或论文正在撰写中，一旦完成将会发布。目前部分 v1b 模型可能尚未完全公开，但可以关注后续更新或论文发布。","https:\u002F\u002Fgithub.com\u002FRes2Net\u002FRes2Net-PretrainedModels\u002Fissues\u002F24",[]]