[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-WZMIAOMIAO--deep-learning-for-image-processing":3,"tool-WZMIAOMIAO--deep-learning-for-image-processing":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",145895,2,"2026-04-08T11:32:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":32,"env_os":90,"env_gpu":91,"env_ram":90,"env_deps":92,"category_tags":97,"github_topics":98,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":137},5673,"WZMIAOMIAO\u002Fdeep-learning-for-image-processing","deep-learning-for-image-processing","deep learning for image processing including classification and object-detection etc.","deep-learning-for-image-processing 是一套系统化的深度学习图像处理教程，专注于图像分类与目标检测等核心任务。它旨在解决初学者和研究者在复现经典网络时面临的理论理解难、代码实现门槛高以及框架选择困惑等问题。\n\n这套资源非常适合计算机视觉领域的开发者、高校学生及科研人员使用。无论你是刚入门的新手，还是希望快速掌握新架构的工程师，都能从中获益。其独特的技术亮点在于“理论 + 实战”的双轨教学模式：不仅深入剖析了从 LeNet、ResNet 到 Vision Transformer、Swin Transformer 等主流网络的结构与创新点，还提供了基于 PyTorch 和 TensorFlow（Keras）两种主流框架的完整搭建与训练代码。\n\n内容覆盖广泛，既包含经典的 CNN 架构，也紧跟前沿，收录了 MobileNet 系列、EfficientNet V2、RepVGG 及 ConvNeXt 等轻量级或高性能模型。所有课程均配有视频讲解与 PPT 资料，帮助用户在不同深度学习框架间灵活切换，高效完成从原理理解到项目落地的全过程。","# 深度学习在图像处理中的应用教程\n\n## 前言\n* 本教程是对本人研究生期间的研究内容进行整理总结，总结的同时也希望能够帮助更多的小伙伴。后期如果有学习到新的知识也会与大家一起分享。\n* 本教程会以视频的方式进行分享，教学流程如下：  \n1）介绍网络的结构与创新点  \n2）使用Pytorch进行网络的搭建与训练  \n3）使用Tensorflow（内部的keras模块）进行网络的搭建与训练 \n* 课程中所有PPT都放在`course_ppt`文件夹下，需要的自行下载。\n\n\n## 教程目录，点击跳转相应视频（后期会根据学习内容增加）\n\n* 图像分类\n  * LeNet（已完成）\n    * [Pytorch官方demo(Lenet)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV187411T7Ye)\n    * [Tensorflow2官方demo](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1n7411T7o6)\n\n  * AlexNet（已完成）\n    * [AlexNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1p7411T7Pc)\n    * [Pytorch搭建AlexNet](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1W7411T7qc)\n    * [Tensorflow2搭建Alexnet](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1s7411T7vs)\n\n  * VggNet（已完成）\n    * [VggNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1q7411T7Y6)\n    * [Pytorch搭建VGG网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1i7411T7ZN)\n    * [Tensorflow2搭建VGG网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1q7411T76b)\n\n  * GoogLeNet（已完成）\n    * [GoogLeNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1z7411T7ie)\n    * [Pytorch搭建GoogLeNet网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1r7411T7M5)\n    * [Tensorflow2搭建GoogLeNet网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1a7411T7Ht)\n\n  * ResNet（已完成）\n    * [ResNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1T7411T7wa)\n    * [Pytorch搭建ResNet网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV14E411H7Uw)\n    * [Tensorflow2搭建ResNet网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1WE41177Ya)\n\n  * ResNeXt (已完成)\n    * [ResNeXt网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Ap4y1p71v\u002F)\n    * [Pytorch搭建ResNeXt网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1rX4y1N7tE)\n\n  * MobileNet_V1_V2（已完成）\n    * [MobileNet_V1_V2网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1yE411p7L7)\n    * [Pytorch搭建MobileNetV2网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1qE411T7qZ)\n    * [Tensorflow2搭建MobileNetV2网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1NE411K7tX)\n\n  * MobileNet_V3（已完成）\n    * [MobileNet_V3网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1GK4y1p7uE)\n    * [Pytorch搭建MobileNetV3网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1zT4y1P7pd)\n    * [Tensorflow2搭建MobileNetV3网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1KA411g7wX)\n\n  * ShuffleNet_V1_V2 (已完成)\n    * [ShuffleNet_V1_V2网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV15y4y1Y7SY)\n    * [使用Pytorch搭建ShuffleNetV2](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1dh411r76X)\n    * [使用Tensorflow2搭建ShuffleNetV2](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1kr4y1N7bh)\n\n  * EfficientNet_V1（已完成）\n    * [EfficientNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1XK4y1U7PX)\n    * [使用Pytorch搭建EfficientNet](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV19z4y1179h\u002F)\n    * [使用Tensorflow2搭建EfficientNet](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1PK4y1S7Jf)\n\n  * EfficientNet_V2 (已完成)\n    * [EfficientNetV2网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV19v41157AU)\n    * [使用Pytorch搭建EfficientNetV2](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Xy4y1g74u)\n    * [使用Tensorflow搭建EfficientNetV2](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV19K4y1g7m4)\n  \n  * RepVGG（已完成）\n    * [RepVGG网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV15f4y1o7QR)\n\n  * Vision Transformer(已完成)\n    * [Multi-Head Attention讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV15v411W78M)\n    * [Vision Transformer网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Jh411Y7WQ)\n    * [使用Pytorch搭建Vision Transformer](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1AL411W7dT)\n    * [使用tensorflow2搭建Vision Transformer](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1q64y1X7GY)\n\n  * Swin Transformer(已完成)\n    * [Swin Transformer网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1pL4y1v7jC)\n    * [使用Pytorch搭建Swin Transformer](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1yg411K7Yc)\n    * [使用Tensorflow2搭建Swin Transformer](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1bR4y1t7qT)\n\n  * ConvNeXt(已完成)\n    * [ConvNeXt网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1SS4y157fu)\n    * [使用Pytorch搭建ConvNeXt](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV14S4y1L791)\n    * [使用Tensorflow2搭建ConvNeXt](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1TS4y1V7Gz)\n\n  * MobileViT(已完成)\n    * [MobileViT网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1TG41137sb)\n    * [使用Pytorch搭建MobileViT](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1ae411L7Ki)\n\n* 目标检测\n  * Faster-RCNN\u002FFPN（已完成）\n    * [Faster-RCNN网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1af4y1m7iL)\n    * [FPN网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1dh411U7D9)\n    * [Faster-RCNN源码解析(Pytorch)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1of4y1m7nj)\n\n  * SSD\u002FRetinaNet (已完成)\n    * [SSD网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1fT4y1L7Gi)\n    * [RetinaNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Q54y1L7sM)\n    * [SSD源码解析(Pytorch)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1vK411H771)\n\n  * YOLO Series (已完成)\n    * [YOLO系列网络讲解(V1~V3)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1yi4y1g7ro)\n    * [YOLOv3 SPP源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1t54y1C7ra)\n    * [YOLOV4网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1NF41147So)\n    * [YOLOV5网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1T3411p7zR)\n    * [YOLOX 网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1JW4y1k76c)\n  \n  * FCOS（已完成）\n    * [FCOS网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1G5411X7jw)\n\n* 语义分割 \n  * FCN (已完成)\n    * [FCN网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1J3411C7zd)\n    * [FCN源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV19q4y1971Q)\n\n  * DeepLabV3 (已完成)\n    * [DeepLabV1网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1SU4y1N7Ao)\n    * [DeepLabV2网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1gP4y1G7TC)\n    * [DeepLabV3网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Jb4y1q7j7)\n    * [DeepLabV3源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1TD4y1c7Wx)\n\n  * LR-ASPP (已完成)\n    * [LR-ASPP网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1LS4y1M76E)\n    * [LR-ASPP源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002Fbv13D4y1F7ML)\n  \n  * U-Net (已完成)\n    * [U-Net网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Vq4y127fB\u002F)\n    * [U-Net源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Vq4y127fB)\n  \n  * U2Net (已完成)\n    * [U2Net网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1yB4y1z7mj)\n    * [U2Net源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Kt4y137iS)\n\n* 实例分割\n  * Mask R-CNN（已完成）\n    * [Mask R-CNN网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1ZY411774T)\n    * [Mask R-CNN源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1hY411E7wD)\n\n* 关键点检测\n  * DeepPose（已完成）\n    * [DeepPose网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1bm421g7aJ)\n    * [DeepPose源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1bm421g7aJ)\n\n  * HRNet（已完成）\n    * [HRNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1bB4y1y7qP)\n    * [HRNet源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1ar4y157JM)\n\n**[更多相关视频请进入我的bilibili频道查看](https:\u002F\u002Fspace.bilibili.com\u002F18161609\u002Fchannel\u002Findex)**\n\n---\n\n欢迎大家关注下我的微信公众号（**阿喆学习小记**），平时会总结些相关学习博文。    \n\n如果有什么问题，也可以到我的CSDN中一起讨论。\n[https:\u002F\u002Fblog.csdn.net\u002Fqq_37541097\u002Farticle\u002Fdetails\u002F103482003](https:\u002F\u002Fblog.csdn.net\u002Fqq_37541097\u002Farticle\u002Fdetails\u002F103482003)\n\n我的bilibili频道：\n[https:\u002F\u002Fspace.bilibili.com\u002F18161609\u002Fchannel\u002Findex](https:\u002F\u002Fspace.bilibili.com\u002F18161609\u002Fchannel\u002Findex)\n","# 深度学习在图像处理中的应用教程\n\n## 前言\n* 本教程是对本人研究生期间的研究内容进行整理总结，总结的同时也希望能够帮助更多的小伙伴。后期如果有学习到新的知识也会与大家一起分享。\n* 本教程会以视频的方式进行分享，教学流程如下：  \n1）介绍网络的结构与创新点  \n2）使用Pytorch进行网络的搭建与训练  \n3）使用Tensorflow（内部的keras模块）进行网络的搭建与训练 \n* 课程中所有PPT都放在`course_ppt`文件夹下，需要的自行下载。\n\n\n## 教程目录，点击跳转相应视频（后期会根据学习内容增加）\n\n* 图像分类\n  * LeNet（已完成）\n    * [Pytorch官方demo(Lenet)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV187411T7Ye)\n    * [Tensorflow2官方demo](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1n7411T7o6)\n\n  * AlexNet（已完成）\n    * [AlexNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1p7411T7Pc)\n    * [Pytorch搭建AlexNet](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1W7411T7qc)\n    * [Tensorflow2搭建Alexnet](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1s7411T7vs)\n\n  * VggNet（已完成）\n    * [VggNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1q7411T7Y6)\n    * [Pytorch搭建VGG网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1i7411T7ZN)\n    * [Tensorflow2搭建VGG网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1q7411T76b)\n\n  * GoogLeNet（已完成）\n    * [GoogLeNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1z7411T7ie)\n    * [Pytorch搭建GoogLeNet网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1r7411T7M5)\n    * [Tensorflow2搭建GoogLeNet网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1a7411T7Ht)\n\n  * ResNet（已完成）\n    * [ResNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1T7411T7wa)\n    * [Pytorch搭建ResNet网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV14E411H7Uw)\n    * [Tensorflow2搭建ResNet网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1WE41177Ya)\n\n  * ResNeXt (已完成)\n    * [ResNeXt网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Ap4y1p71v\u002F)\n    * [Pytorch搭建ResNeXt网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1rX4y1N7tE)\n\n  * MobileNet_V1_V2（已完成）\n    * [MobileNet_V1_V2网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1yE411p7L7)\n    * [Pytorch搭建MobileNetV2网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1qE411T7qZ)\n    * [Tensorflow2搭建MobileNetV2网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1NE411K7tX)\n\n  * MobileNet_V3（已完成）\n    * [MobileNet_V3网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1GK4y1p7uE)\n    * [Pytorch搭建MobileNetV3网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1zT4y1P7pd)\n    * [Tensorflow2搭建MobileNetV3网络](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1KA411g7wX)\n\n  * ShuffleNet_V1_V2 (已完成)\n    * [ShuffleNet_V1_V2网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV15y4y1Y7SY)\n    * [使用Pytorch搭建ShuffleNetV2](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1dh411r76X)\n    * [使用Tensorflow2搭建ShuffleNetV2](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1kr4y1N7bh)\n\n  * EfficientNet_V1（已完成）\n    * [EfficientNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1XK4y1U7PX)\n    * [使用Pytorch搭建EfficientNet](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV19z4y1179h\u002F)\n    * [使用Tensorflow2搭建EfficientNet](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1PK4y1S7Jf)\n\n  * EfficientNet_V2 (已完成)\n    * [EfficientNetV2网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV19v41157AU)\n    * [使用Pytorch搭建EfficientNetV2](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Xy4y1g74u)\n    * [使用Tensorflow搭建EfficientNetV2](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV19K4y1g7m4)\n  \n  * RepVGG（已完成）\n    * [RepVGG网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV15f4y1o7QR)\n\n  * Vision Transformer(已完成)\n    * [Multi-Head Attention讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV15v411W78M)\n    * [Vision Transformer网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Jh411Y7WQ)\n    * [使用Pytorch搭建Vision Transformer](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1AL411W7dT)\n    * [使用tensorflow2搭建Vision Transformer](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1q64y1X7GY)\n\n  * Swin Transformer(已完成)\n    * [Swin Transformer网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1pL4y1v7jC)\n    * [使用Pytorch搭建Swin Transformer](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1yg411K7Yc)\n    * [使用Tensorflow2搭建Swin Transformer](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1bR4y1t7qT)\n\n  * ConvNeXt(已完成)\n    * [ConvNeXt网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1SS4y157fu)\n    * [使用Pytorch搭建ConvNeXt](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV14S4y1L791)\n    * [使用Tensorflow2搭建ConvNeXt](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1TS4y1V7Gz)\n\n  * MobileViT(已完成)\n    * [MobileViT网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1TG41137sb)\n    * [使用Pytorch搭建MobileViT](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1ae411L7Ki)\n\n* 目标检测\n  * Faster-RCNN\u002FFPN（已完成）\n    * [Faster-RCNN网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1af4y1m7iL)\n    * [FPN网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1dh411U7D9)\n    * [Faster-RCNN源码解析(Pytorch)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1of4y1m7nj)\n\n  * SSD\u002FRetinaNet (已完成)\n    * [SSD网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1fT4y1L7Gi)\n    * [RetinaNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Q54y1L7sM)\n    * [SSD源码解析(Pytorch)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1vK411H771)\n\n  * YOLO Series (已完成)\n    * [YOLO系列网络讲解(V1~V3)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1yi4y1g7ro)\n    * [YOLOv3 SPP源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1t54y1C7ra)\n    * [YOLOV4网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1NF41147So)\n    * [YOLOV5网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1T3411p7zR)\n    * [YOLOX 网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1JW4y1k76c)\n  \n  * FCOS（已完成）\n    * [FCOS网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1G5411X7jw)\n\n* 语义分割 \n  * FCN (已完成)\n    * [FCN网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1J3411C7zd)\n    * [FCN源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV19q4y1971Q)\n\n  * DeepLabV3 (已完成)\n    * [DeepLabV1网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1SU4y1N7Ao)\n    * [DeepLabV2网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1gP4y1G7TC)\n    * [DeepLabV3网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Jb4y1q7j7)\n    * [DeepLabV3源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1TD4y1c7Wx)\n\n  * LR-ASPP (已完成)\n    * [LR-ASPP网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1LS4y1M76E)\n    * [LR-ASPP源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002Fbv13D4y1F7ML)\n  \n  * U-Net (已完成)\n    * [U-Net网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Vq4y127fB\u002F)\n    * [U-Net源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Vq4y127fB)\n  \n  * U2Net (已完成)\n    * [U2Net网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1yB4y1z7mj)\n    * [U2Net源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Kt4y137iS)\n\n* 实例分割\n  * Mask R-CNN（已完成）\n    * [Mask R-CNN网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1ZY411774T)\n    * [Mask R-CNN源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1hY411E7wD)\n\n* 关键点检测\n  * DeepPose（已完成）\n    * [DeepPose网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1bm421g7aJ)\n    * [DeepPose源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1bm421g7aJ)\n\n  * HRNet（已完成）\n    * [HRNet网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1bB4y1y7qP)\n    * [HRNet源码解析(Pytorch版)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1ar4y157JM)\n\n**[更多相关视频请进入我的bilibili频道查看](https:\u002F\u002Fspace.bilibili.com\u002F18161609\u002Fchannel\u002Findex)**\n\n---\n\n欢迎大家关注下我的微信公众号（**阿喆学习小记**），平时会总结些相关学习博文。    \n\n如果有什么问题，也可以到我的CSDN中一起讨论。\n[https:\u002F\u002Fblog.csdn.net\u002Fqq_37541097\u002Farticle\u002Fdetails\u002F103482003](https:\u002F\u002Fblog.csdn.net\u002Fqq_37541097\u002Farticle\u002Fdetails\u002F103482003)\n\n我的bilibili频道：\n[https:\u002F\u002Fspace.bilibili.com\u002F18161609\u002Fchannel\u002Findex](https:\u002F\u002Fspace.bilibili.com\u002F18161609\u002Fchannel\u002Findex)","# deep-learning-for-image-processing 快速上手指南\n\n本教程是一个基于视频教学的深度学习图像处理课程资源库，涵盖图像分类、目标检测、语义分割等主流任务。核心内容为 Bilibili 视频讲解及配套代码演示（PyTorch\u002FTensorFlow），PPT 课件存放于 `course_ppt` 目录。\n\n## 环境准备\n\n在开始学习前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows \u002F Linux \u002F macOS\n*   **Python 版本**：推荐 Python 3.6 - 3.9\n*   **深度学习框架**（二选一或同时安装）：\n    *   PyTorch (推荐 1.7+)\n    *   TensorFlow 2.x (内置 Keras)\n*   **其他依赖**：OpenCV, NumPy, Matplotlib, Pillow 等常用图像处理库。\n\n> **国内加速建议**：\n> 安装 Python 包时，推荐使用清华或阿里镜像源以提升下载速度。\n> *   清华源：`https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n> *   阿里源：`https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F`\n\n## 安装步骤\n\n### 1. 获取项目代码\n克隆仓库或下载源码到本地：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FWZMIAOMIAO\u002Fdeep-learning-for-image-processing.git\ncd deep-learning-for-image-processing\n```\n\n### 2. 安装依赖环境\n根据您选择的框架执行以下命令（推荐使用虚拟环境）：\n\n**方案 A：安装 PyTorch 环境 (使用清华源)**\n```bash\npip install torch torchvision torchaudio -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\npip install opencv-python numpy matplotlib pillow -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n*(注：具体 PyTorch 版本请参考官网根据 CUDA 版本选择)*\n\n**方案 B：安装 TensorFlow 环境 (使用清华源)**\n```bash\npip install tensorflow -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\npip install opencv-python numpy matplotlib pillow -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n本项目主要通过观看配套视频并运行对应的代码文件进行学习。每个模型章节通常包含网络结构讲解视频和框架实现代码。\n\n### 使用流程示例（以 AlexNet 为例）\n\n1.  **观看理论视频**：\n    访问 [AlexNet 网络讲解](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1p7411T7Pc) 理解模型结构。\n\n2.  **定位代码文件**：\n    进入项目对应的文件夹（例如 `classify\u002FAlexNet`），找到框架对应的脚本：\n    *   PyTorch 版：`train.py` 或 `predict.py`\n    *   TensorFlow 版：`train_tf.py` 或 `predict_tf.py`\n\n3.  **准备数据集**：\n    按照代码中指定的目录结构整理图片数据（通常为 `class_name\u002Fimage.jpg` 格式），或修改代码中的数据加载路径。\n\n4.  **运行训练\u002F预测**：\n    在终端执行脚本。以下是 PyTorch 版本的简单运行示例：\n\n```bash\n# 进入对应模型目录 (假设路径)\ncd classify\u002FAlexNet\n\n# 运行训练脚本 (需确保数据集路径配置正确)\npython train.py\n\n# 运行预测脚本 (对单张图片进行分类)\npython predict.py --image-path .\u002Ftest_image.jpg --weights-path .\u002Fweights\u002Fnet.pth\n```\n\n5.  **查阅课件**：\n    如需回顾 PPT 内容，请直接打开项目根目录下的 `course_ppt` 文件夹查看对应章节的幻灯片。\n\n> **提示**：所有模型的详细搭建过程、参数调整及源码解析，请务必结合 README 中提供的 Bilibili 视频链接同步学习，以获得最佳效果。","某初创医疗科技公司的算法工程师团队，正致力于开发一款基于眼底照片的糖尿病视网膜病变自动筛查系统。\n\n### 没有 deep-learning-for-image-processing 时\n- **理论到实践的鸿沟巨大**：团队成员虽熟悉 ResNet、EfficientNet 等经典论文理论，但缺乏高质量的 PyTorch 和 TensorFlow 双版本参考代码，从零搭建网络结构耗时且易出错。\n- **模型选型试错成本高**：面对从轻量级 MobileNet 到高精度 Vision Transformer 等多种架构，团队难以快速复现并对比它们在特定医疗数据集上的表现，导致选型周期长达数周。\n- **调试与优化缺乏指引**：在训练过程中遇到收敛困难或精度瓶颈时，缺乏针对具体网络创新点（如 Swin Transformer 的移位窗口机制）的详细讲解和调优策略，排查问题如同盲人摸象。\n- **多框架适配工作重复**：由于项目后期需部署在不同环境，团队不得不分别研究两套框架的实现细节，造成了大量重复性的工程开发工作。\n\n### 使用 deep-learning-for-image-processing 后\n- **开箱即用的代码基准**：直接复用教程中提供的 LeNet 至 ConvNeXt 等主流网络的 PyTorch 和 TensorFlow 完整实现，将网络搭建时间从数天缩短至几小时。\n- **高效的全景模型评估**：利用现成的视频讲解与代码，团队在两天内就完成了从 MobileNetV3 到 EfficientNetV2 的快速迁移训练与性能比对，迅速锁定了最适合移动端部署的模型。\n- **深度解析辅助调优**：通过视频中关于 Multi-Head Attention 及 FPN 等核心模块的原理剖析，工程师精准定位了训练难点并调整超参数，显著提升了病变识别的准确率。\n- **双框架无缝切换**：教程同步提供两套主流框架的实现逻辑，团队无需重复造轮子，即可根据服务器或边缘设备需求灵活切换技术栈，大幅降低了工程维护成本。\n\ndeep-learning-for-image-processing 通过提供“原理讲解 + 双框架实战”的一站式资源，将医疗影像算法的研发迭代效率提升了数倍。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWZMIAOMIAO_deep-learning-for-image-processing_620a99f7.png","WZMIAOMIAO","Zhe Wu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FWZMIAOMIAO_50db6ccc.jpg",null,"https:\u002F\u002Fgithub.com\u002FWZMIAOMIAO",[78,82],{"name":79,"color":80,"percentage":81},"Python","#3572A5",99.8,{"name":83,"color":84,"percentage":85},"HTML","#e34c26",0.2,26183,8248,"2026-04-08T09:00:02","GPL-3.0","未说明","未说明（教程涵盖 PyTorch 和 TensorFlow\u002FKeras，通常建议配备支持 CUDA 的 NVIDIA GPU 以加速训练，但具体型号和显存要求未在文中列出）",{"notes":93,"python":90,"dependencies":94},"本项目主要为深度学习图像处理的教学教程，包含网络结构讲解及 PyTorch\u002FTensorFlow 代码实现。运行环境需自行安装对应的深度学习框架（PyTorch 或 TensorFlow 2）。具体版本依赖请参考各章节对应的视频演示或源码文件。课程资料（PPT）位于 course_ppt 文件夹。",[95,96],"PyTorch","TensorFlow 2.x (含 Keras)",[14,15],[99,100,101,102,103,104,105],"pytorch","tensorflow2","classification","object-detection","bilibili","deep-learning","segmentation","2026-03-27T02:49:30.150509","2026-04-09T05:23:54.968690",[109,114,119,123,128,133],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},25733,"训练 Faster R-CNN 或 YOLO 等模型时，出现 'index out of bounds' 错误或类别数量不匹配报错，如何解决？","这通常是因为数据集的标签索引与模型设置的 num_classes 不一致导致的。请检查以下几点：\n1. 确认 create model 时设置的 num_classes 是否正确（例如 6 类物体应设置为 7，包含背景）。\n2. 检查数据集中标注文件的类别索引是否从 0 开始，且最大值不超过 num_classes - 2（因为 0 通常是背景）。\n3. 如果修改了网络结构（如 backbone），加载预训练权重时需确保参数形状匹配。若只修改了头部结构，可尝试只加载 backbone 部分的权重；若修改了 backbone，建议先在 ImageNet 或 COCO 上预训练，再进行迁移学习。","https:\u002F\u002Fgithub.com\u002FWZMIAOMIAO\u002Fdeep-learning-for-image-processing\u002Fissues\u002F111",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},25734,"使用 FCN 网络进行语义分割时，某一类（非背景）的 mIoU 始终为 0，但 loss 在下降，是什么原因？","这种情况通常由以下原因导致：\n1. 学习率过大：尝试将初始学习率调小（例如从 0.01 改为 0.001 或更低）继续观察。\n2. 输入数据问题：检查输入图像的像素值归一化是否正确，以及对应的标签掩码（mask）中该类像素是否存在。\n3. 类别不平衡：如果该类像素在数据集中占比极少，可能导致模型难以学习，建议检查数据分布或采用加权损失函数。","https:\u002F\u002Fgithub.com\u002FWZMIAOMIAO\u002Fdeep-learning-for-image-processing\u002Fissues\u002F433",{"id":120,"question_zh":121,"answer_zh":122,"source_url":113},25735,"修改了 YOLOv3 或 Faster R-CNN 的网络结构后，如何正确加载预训练权重进行迁移学习？","根据修改部位不同，处理方式如下：\n1. 若仅修改了检测头（Head）或未改动 Backbone：可以直接加载官方或在大型数据集（如 COCO\u002FVOC）上预训练的完整权重，只需确保新模型的分类层输出维度与新数据集类别数一致。\n2. 若修改了 Backbone 部分：通常无法直接加载完整权重。建议先在 ImageNet 上预训练 Backbone，或在 COCO 数据集上进行预训练，然后再在自己的数据集上微调。对于小数据集，基于 COCO 预训练权重迁移的效果通常更好。\n3. 若加载时报错尺寸不匹配：代码中可添加逻辑，仅加载名称和形状完全匹配的参数字典，跳过不匹配的部分。",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},25736,"在论文或商业项目中使用了该仓库的代码，是否需要申请许可？如何规范引用？","可以使用，但建议遵循以下规范：\n1. 无需专门发邮件申请许可，但必须在你的代码或论文中明确标注源码来源链接。\n2. 如果使用的是基于 PyTorch 官方实现的模型（如 Faster R-CNN）或 NVIDIA 官方代码（如 SSD），建议优先标注官方源码链接，同时也可注明参考了本仓库的实现或讲解。\n3. 保持开源精神，若公开代码，请保留原有的许可证声明。","https:\u002F\u002Fgithub.com\u002FWZMIAOMIAO\u002Fdeep-learning-for-image-processing\u002Fissues\u002F348",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},25737,"项目未来的更新规划是什么？是否会涵盖 3D 检测、Transformer 或 MLOps 等内容？","根据维护者发布的 Roadmap，项目主要聚焦于 2D 图像处理任务，已完成的规划包括：\n1. 图像分类：RepVGG, ConvNeXt, MobileViT。\n2. 目标检测：YOLOv4\u002Fv5\u002FvX, Faster RCNN, FCOS 等。\n3. 语义\u002F实例分割：DeepLab V3, UNet, Mask R-CNN 等。\n4. 其他：Grad-CAM 可视化。\n关于用户关心的 3D 检测、MLOps 工程化能力培养以及 Transformer 详解，目前主要在社区讨论和需求征集阶段，尚未列入已完成的核心路线图，但维护者会关注这些高热度需求。","https:\u002F\u002Fgithub.com\u002FWZMIAOMIAO\u002Fdeep-learning-for-image-processing\u002Fissues\u002F425",{"id":134,"question_zh":135,"answer_zh":136,"source_url":113},25738,"在小数据集上训练自定义模型，直接使用官方预训练权重报错或效果不佳，有什么建议？","针对小数据集训练建议如下：\n1. 必须使用预训练权重：不要从头训练，务必加载在大型数据集（如 COCO 或 VOC）上的预训练权重。\n2. 冻结 Backbone：在训练初期可以冻结 Backbone 参数，只训练检测头，防止过拟合。\n3. 调整学习率：小数据集通常需要更小的学习率。\n4. 数据增强：使用更强的数据增强策略来扩充样本。\n5. 若修改了网络结构导致权重加载失败，请确保只加载形状匹配的层，或者先在不改结构的情况下用预训练权重跑通流程，再逐步修改。",[]]