[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Charmve--computer-vision-in-action":3,"tool-Charmve--computer-vision-in-action":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,2,"2026-04-07T23:26:32",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":32,"env_os":99,"env_gpu":100,"env_ram":101,"env_deps":102,"category_tags":109,"github_topics":110,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":128,"updated_at":129,"faqs":130,"releases":131},5496,"Charmve\u002Fcomputer-vision-in-action","computer-vision-in-action","A computer vision closed-loop learning platform where code can be run interactively online. 学习闭环《计算机视觉实战演练：算法与应用》中文电子书、源码、读者交流社区（持续更新中 ...） 📘 在线电子书 https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F   👇项目主页","computer-vision-in-action 是一个专为计算机视觉学习者打造的闭环实战平台，核心载体是《计算机视觉实战演练：算法与应用》中文电子书。它不仅仅是一本静态的技术文档，更是一个支持代码在线交互式运行的动态学习环境。\n\n该项目主要解决了传统 AI 学习中“理论与实操脱节”的痛点。许多初学者在阅读算法原理时，往往因环境配置复杂或缺乏即时反馈而难以深入。computer-vision-in-action 通过独特的 L0CV 学习媒介，将代码、图示和 HTML 说明深度融合，用户无需在本地繁琐搭建环境，即可直接在浏览器中修改并运行代码，直观观察算法效果，真正实现“以用促学，先会后懂”。\n\n这里非常适合计算机视觉领域的开发者、高校学生以及希望转型 AI 的研究人员使用。无论你是想系统掌握从基础图像处理到 Transformer、强化学习等前沿技术，还是寻找高质量的开源源码进行二次开发，都能在这里找到丰富资源。项目由迈微 AI 研习社创始人维护，内容持续更新且完全免费开源，配合活跃的读者交流社区，为学习者提供了一条从入门到进阶的清晰成长路径。","\u003Cp align=\"right\">\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_9802bf7c9b4a.png\">\n\t\u003C!---- comesfrom https:\u002F\u002Ftechsini.com\u002Fmulti-mockup\u002Findex.php --->\n\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003C!-- maiweilab\n\u003Cdiv id=\"outputFigDisplay\" class=\"fig\">\n    \u003Cpre id=\"taag_output_text\" style=\"left;\" class=\"flag\" contenteditable=\"true\">\n    \u003Ccode>\n    __  ___      _               _ ___    ____                             \n   \u002F  |\u002F  \u002F___ _(_)      _____  (_)   |  \u002F  _\u002F    _________  ____ ___      \n  \u002F \u002F|_\u002F \u002F __ `\u002F \u002F | \u002F| \u002F \u002F _ \\\u002F \u002F \u002F| |  \u002F \u002F_____\u002F ___\u002F __ \\\u002F __ `__ \\     \n \u002F \u002F  \u002F \u002F \u002F_\u002F \u002F \u002F| |\u002F |\u002F \u002F  __\u002F \u002F ___ |_\u002F \u002F_____\u002F \u002F__\u002F \u002F_\u002F \u002F \u002F \u002F \u002F \u002F \u002F     \n\u002F_\u002F  \u002F_\u002F\\__,_\u002F_\u002F |__\u002F|__\u002F\\___\u002F_\u002F_\u002F  |_\u002F___\u002F     \\___\u002F\\____\u002F_\u002F \u002F_\u002F \u002F_\u002F      \n    \u003C\u002Fcode>\n    \u003C\u002Fpre>\n\u003C\u002Fdiv>\n\n## Maiwei AI Lab - \u003Cins>迈微AI研习社\u003C\u002Fins>\u003Csup>\u003Ca href=\"https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002Fjr6h1lXxWsQLF8GZnek7Fg\">[?]\u003C\u002Fa>\u003C\u002Fsup>\n\n\u003Ca href=\"https:\u002F\u002Fwww.github.com\u002FCharmve\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F创始人-@Charmve-000000.svg?style=flat-square&logo=GitHub\">\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action#关注我们\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F公众号-@迈微AI研习社-000000.svg?style=flat-square&logo=wechat\">\u003C\u002Fa>\n\n作者系迈微AI研习社创始人、CSDN博客专家，主要分享机器学习算法、计算机视觉等相关内容，每周研读顶会论文，持续关注前沿技术动态。公众号底部有菜单分类，关注我们，一起学习成长。\n \n---\n-->\n\n\u003C!--\n\u003Ctable>\n\u003Ctr>\n\t\u003Ctd>\n\t## ✨ News! ✨\n\n\t- \u003Cb>2020.07.12:\u003C\u002Fb> 📝  进阶篇 更新Transformer、强化学习、迁移学习、视频理解 !\n\t- \u003Cb>2021.06.20:\u003C\u002Fb> 📘  在线电子书发布  ! \u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F在线阅读-简体中文-000000.svg?style=flat-square&amp;logo=GitBook\" alt=\"中文电子书\">\u003C\u002Fa>\n\t- \u003Cb>2020.06.10:\u003C\u002Fb> 💻  L0CV 项目主页发布 ！ \u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002FL0CV-web\u002F\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F项目主页-L0CV-000000.svg?style=flat-square&amp;logo=GitBook\" alt=\"L0CV Website\">\u003C\u002Fa>\n\n\t更多更新日志会同步到 [CHANGELOG](CHANGELOG.md)，持续更新中，感谢大家的支持与喜欢！\n\t\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n-->\n\n> \"如果你只是看了这个项目的在线文档，那么你并没有利用好这个项目。太可惜！\"\n\n\u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_fb72130ad0bc.png\" width==\"\">\n\u003C\u002Fa>\n\n## ✨ 以用促学，先会后懂 ✨\n### L0CV \u003Csup>\u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002FL0CV-web\u002F\">`🔊`\u003C\u002Fa>\u003C\u002Fsup> &nbsp; 一种结合了代码、图示和HTML的在线学习媒介\n\u003Cbr>\n\n\u003Ctable align=\"center\">\n\u003Ctr>\n\u003Ctd>\n\u003Ccode>全面\u003C\u002Fcode>&nbsp;\u003Ccode>前沿\u003C\u002Fcode>&nbsp;\u003Ccode>免费\u003C\u002Fcode>\n\u003Ch1> 计算机视觉实战演练：算法与应用 \u003Csup> 📌\u003C\u002Fsup>\n\u003Cbr>\u003Cem>Computer Vision in Action\u003C\u002Fem>\u003C\u002Fh1>\n\n[作者：张伟（Charmve）](https:\u002F\u002Fgithub.com\u002FCharmve)\n\n\u003Cp align=\"center\">\n\t\u003Ca href=\"https:\u002F\u002Fcircleci.com\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg src=\"https:\u002F\u002Fcircleci.com\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action.svg?style=svg\" alt=\"CircleCI\" title=\"CircleCI\">\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_13d664e1afd7.png\" alt=\"Documentation status\">\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0\" target=\"_blank\" style=\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202.0-red?logo=apache\" alt=\"Code License\">\u003C\u002Fa>\n  \u003Ca rel=\"DocLicense\" href=\"http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F\">\u003Cimg alt=\"知识共享许可协议\" style=\"border-width:0\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs%20license-CC%20BY--NC--SA%204.0-green?logo=creativecommons\" title=\"CC BY--NC--SA 4.0\"\u002F>\u003C\u002Fa>\n\t\u003Cbr>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fcode\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-v3.8.10-000000.svg?logo=Python&color=brightgreen\" alt=\"Python version\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fnotebooks\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FJupyter-v4.7.1-000000.svg?logo=jupyter&color=orange\" alt=\"jupyter version\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpytorch.org\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPyTorch-v1.9.0-000000.svg?logo=PyTorch&color=lightred\" alt=\"PyTorch version\">\u003C\u002Fa>\n\t\u003Cbr>\u003Ca href=\"https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action\u002Fmain\u002Fnotebooks\u002F\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fcode\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FRun%20on-Colab-000000.svg?logo=googlecolab&color=yellow\" alt=\"Run on Colab\">\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocker\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocker%20Hub-v1.0.1-000000.svg?logo=Docker&color=blue\" alt=\"Docker\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgitpod.io\u002F#https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGitpod-ready--to--code-blue?logo=gitpod\" alt=\"Gitpod Ready-to-Code\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fedit\u002Fmaster\u002FREADME.md\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FCharmve\u002Fcomputer-vision-in-action?style=social\" alt=\"Stars\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fedit\u002Fmaster\u002FREADME.md\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FCharmve\u002Fcomputer-vision-in-action?style=social\" alt=\"Forks\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_4b90c9a57aec.png\" width=\"200px\" alt=\"logo:L0CV\" title=\"有疑问，跑起来就会变成一朵花 ❀\">\n\u003C\u002Fdiv>\n\n\u003Cbr>\u003Cbr>\n\u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002FL0CV-web\u002F\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F项目主页-L0CV-000000.svg?logo=GitHub\" alt=\"L0CV Website\">\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F在线阅读-简体中文-000000.svg?logo=GitBook\" alt=\"中文电子书\">\u003C\u002Fa>\n\n跨平台，只需一个浏览器即可！\n\u003Cbr>\n> \u003Ch4>👉  在线阅读（优先更新实战篇和进阶篇）\u003C\u002Fh4>\n> - 地址：https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F\n\n> \u003Ch4>最新版PDF下载\u003C\u002Fh4>\n> - 地址：https:\u002F\u002Fgithub.com\u002Fcharmve\u002Fcomputer-vision-in-action\u002Freleases \u003Cb>(马上来 ...)\u003C\u002Fb>\n\n\u003C\u002Ftr>\n\u003C\u002Ftd>\n\u003C\u002Ftable>\n\n\u003Cdiv align=\"right\">\n\n\u003Cdetails>\u003Csummary>分享 \u003Ccode>\u003Ca target=\"_blank\" href=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F29084184\u002F126729326-cad7a288-e424-4f69-a47a-90f61e7d9879.png\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_0a1155ce8217.png\" alt=\"Scan QR\" title=\"Scan QR\">\u003C\u002Fa>\u003C\u002Fcode> 到 \u003C\u002Fsummary>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_13b0ae314053.png\" width=20% alt=\"L0CV QR\" title=\"L0CV QR\">\u003C\u002Fdetails>\n\u003Ccode>\u003Ca href=\"http:\u002F\u002Fqq.com\u002Fintent\u002Fqq?text=https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_bec3a5e67d60.png\" alt=\"QQ\" title=\"QQ\">\u003C\u002Fa>\u003C\u002Fcode>\n\u003Ccode>\u003Ca href=\"http:\u002F\u002Fmp.weixin.qq.com\u002Fintent\u002Fwechat?text=https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_f8d73e247bb0.png\" alt=\"WeChat\" title=\"WeChat\">\u003C\u002Fa>\u003C\u002Fcode>\n\u003Ccode>\u003Ca href=\"http:\u002F\u002Fweibo.com\u002Fintent\u002Fweibo?text=https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_492e618ae4e8.png\" alt=\"Weibo\" title=\"Weibo\">\u003C\u002Fa>\u003C\u002Fcode>\n\u003Ccode>\u003Ca href=\"http:\u002F\u002Ftwitter.com\u002Fintent\u002Ftweet?text=https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_d87277f83c39.png\" alt=\"Twitter\" title=\"Twitter\">\u003C\u002Fa>\u003C\u002Fcode>\n\u003Ccode>\u003Ca href=\"https:\u002F\u002Fwww.zhihu.com\u002F\">\u003Cimg height=\"23\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_d47389be30cb.png\" alt=\"Zhihu\" title=\"Zhihu\">\u003C\u002Fa>\u003C\u002Fcode>\n\u003Ccode>\u003Ca href=\"https:\u002F\u002Fblink.csdn.net\u002F\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_12bc7139b695.png\" alt=\"CSDN\" title=\"CSDN\">\u003C\u002Fa>\u003C\u002Fcode>\n\n\u003C\u002Fdiv>\n\n## Index\n\n\u003Cimg align=\"right\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_e22388bd9a8f.png\" width=63% alt=\"L0CV architecture\" title=\"L0CV architecture\">\n\n- [💠 全书组织](#-全书组织)\n- [🌈 愿景](#-愿景)\n- [📘 本书目录](#-本书目录)\n- [🔍 文件浏览](#-文件浏览)\n- [🌼 L0CV-DemoDay](#l0cv-demoday)\n- [🔑 如何食用](#-如何食用)\n- [❓ 常见问题](#-常见问题)\n- [👥 社区互助](#-社区互助)\n- [:heart: 致谢](#致谢)\n- [📄 LICENSE](#license)\n- [👐 参与项目](#contribution)\n- [🤝 关注我们](#关注我们)\n- [📎 Citation](#citation)\n\n\u003Cp align=\"right\">\n\t:label: \u003Ccode>sec_code\u003C\u002Fcode> \u003Cb>图1 L0CV 结构图\u003C\u002Fb>\n\u003C\u002Fp> \n\n## 💠 全书组织\n:label: `fig_book_org`\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_c9c7aabcdbfd.png\" alt=\"book_org.png\">\n\u003C\u002Fp> \n\n\u003Cp align=\"right\">\n  \u003Ca href=\"res\u002F计算机视觉实战演练：算法与应用_思维导图.pdf\">全书详细思维导图\u003C\u002Fa>\n\u003C\u002Fp>\n\n本书详细介绍，请移步 [\u003Cb>序言\u003C\u002Fb>](\u002Fdocs\u002Fbook_preface.md)。\n\n* 第一部分包括基础知识和预备知识。提供深度学习的入门课程，然后在理论篇中，将快速向你介绍实践计算机视觉所需的前提条件，例如如何存储和处理数据，以及如何应用基于线性代数、微积分和概率基本概念的各种数值运算，涵盖了深度学习的最基本概念和技术，例如线性回归、多层感知机和正则化。\n\n* 第二部分是本书涉及的计算机视觉基础理论，核心部分为神经网络模型，包括神经网络、卷积神经网络、循环神经网络理论讲解，以图像分类、模型拟合与优化作为其代码的实战项目。在模型拟合和优化章节中，着重分享梯度下降、随机梯度下降、动量法、AdaBoost等方法。\n\n* 接下来的七章集中讨论现代计算机视觉技术实战，也是本书的核心部分。围绕这样的组织逻辑：什么是计算机视觉？计算机视觉解决什么问题，都是怎么解决的？传统方法——以卷积神经网络为中心的神经网络；现代方法——Transformer、强化学习、迁移学习、生成对抗等。各种方法是如何实现的，用到了什么框架？在第7章中，描述了计算机视觉的经典卷积神经网络PyTorch实现，并为我们随后实现更复杂的模型奠定了基础。在随后的几个章节中，我们主要解决图像分类、目标检测、语义分割、3D重建等实际问题，并给出实战项目。\n\n* 该部分以项目为实战指导，给出详细的项目指导书和代码实现，更为特别的是，给出了**notebook**可以直接在线运行，跑通结果，免去了本地运行环境的搭建复杂性。于此同时，为了方便读者在本地调试，作者建立了一个名为 ``L0CV`` 的第三方包，可以直接在代码中 ``import L0CV`` 后使用。\n\n* 第三部分讨论最近几年出现的\u003Cb>“网红”模型\u003C\u002Fb>，诸如：Transformer、Attention、知识蒸馏、迁移学习、生成对抗模型等。这部分也是此份资料的力挺之作。最后，在 `chap_optimization` 中，我们讨论了用于训练深度学习模型的几种常用优化算法，如：模型压缩、模型剪枝、微调、蒸馏等。\n\n[Index](#-以用促学先会后懂-)\n\n## 🌈 愿景\n\n本开源项目代表了我们的一种尝试：我们将教给读者概念、背景知识和代码；我们将在同一个地方阐述剖析问题所需的批判性思维、解决问题所需的数学知识，以及实现解决方案所需的工程技能。\n\n我们的目标是创建一个为实现以下目标的统一资源：\n1. 所有人均可在网上免费获取；\n2. 提供足够的技术深度，从而帮助读者实际成为计算机视觉应用科学家：既理解数学原理，又能够实现并不断改进方法；\n3. 包含可运行的代码，为读者展示如何在实际中解决问题。这样不仅直接将数学公式对应成实际代码，而且可以修改代码、观察结果并及时获取经验；\n4. 允许我们和整个[社区](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fdiscussions)不断快速迭代内容，从而紧跟仍在高速发展的计算机视觉领域；\n5. 由包含有关技术细节问答的论坛作为补充，使大家可以相互答疑并交换经验。\n\n[Index](#-以用促学先会后懂-)\n\n\u003Cbr>\n\n## 📘 本书目录\n\n> \u003Ch4>👉  在线阅读（优先更新实战篇和进阶篇）\u003C\u002Fh4>\n> - 地址：https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F\n\n\u003Cdetails>\u003Csummary>📘 详细目录(点击展开)\u003C\u002Fsummary>\n\t\n\u003Ctable align=\"center\">\n\u003Ctr>\n\u003Ctd>\n\n- \u003Cb>\u003Ch4>[序言](\u002Fdocs\u002Fbook_preface.md)\u003C\u002Fh4>\u003C\u002Fb>\n- \u003Cb>\u003Ch4>主要符号表\u003C\u002Fh4>\u003C\u002Fb>\n- \u003Cb>\u003Ch4>绪论篇\u003C\u002Fh4>\u003C\u002Fb>\n  - 第 0 章  [计算机视觉概述](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002Fchapter0\u002Fchapter0)\n    - 0.1 [概述](docs\u002F0_绪论\u002Fchapter0.1_概述.md)\n\t  - 0.1.1 什么是计算机视觉\n\t  - 0.1.2 计算机视觉解决什么问题\n\t  - 0.1.3 行业应用\n    - 0.2 [计算机视觉基本概念](docs\u002F0_绪论\u002Fchapter0.2_计算机视觉基本概念.md)\n    - 0.3 [发展历史回顾](docs\u002F0_绪论\u002Fchapter0.3_发展历史回顾.md)\n    - 0.4 [典型的计算机视觉任务](docs\u002F0_绪论\u002Fchapter0.4_典型的计算机视觉任务.md)\n      - 图像分类 \n      - 目标识别与目标检测\n      - 实例分割与语义分割\n      - 3D 建模\n\t- 0.5 [国内外优秀的计算机视觉团队汇总](docs\u002F0_绪论\u002Fchapter0.5_国内外优秀的计算机视觉团队汇总.md)\n    - 小练习\n    - 小结\n    - 参考文献\n- \u003Cb>\u003Ch4>理论篇\u003C\u002Fh4>\u003C\u002Fb>\n  - 第 1 章 [神经网络](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002Fchapter2\u002Fchapter2)\n    - 1.1 [线性回归](\u002F1_理论篇\u002Fchapter1_Neural-Networks\u002Fchapter1.1_line-regression.md)\n      - 1.1.1 基本原理\n      - 1.1.2 从零实现线性回归\n      - 1.1.3 线性回归的简洁实现\n    - 1.2 [Softmax 回归](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002Fchapter1.2_Softmax回归.md)\n      - 1.2.1 softmax回归模型\n      - 1.2.2 从零开始实现softmax回归\n      - 1.2.3 softmax回归的简洁实现\n    - 1.3 [多层感知器](.\u002Fdocs\u002F1_理论篇\u002Fchapter1_Neural-Networks\u002Fchapter1.3_多层感知器MLP.md)\n      - 1.3.1 基本原理\n      - 1.3.2 从零开始实现多层感知器\n      - 1.3.3 多层感知器的简洁实现\n    - 1.4 [反向传播算法](.\u002Fdocs\u002F1_理论篇\u002Fchapter1_Neural-Networks\u002Fchapter1.4_Back-Propagation.md)\n    - 1.5 [神经网络](.\u002Fdocs\u002F1_理论篇\u002Fchapter1_Neural-Networks\u002Fchapter1.5_neural-networks.md)\n      - 1.5.1 [神经学观点](.\u002Fdocs\u002F1_理论篇\u002Fchapter1_Neural-Networks\u002Fchapter1.5.1_神经学观点.md)\n      - 1.5.2 [神经网络1-建立神经网络架构](https:\u002F\u002Fcs231n.github.io\u002Fneural-networks-1\u002F)\n      - 1.5.3 [神经网络2-设置数据和损失](https:\u002F\u002Fcs231n.github.io\u002Fneural-networks-2\u002F)\n      - 1.5.4 [神经网络3-学习和评估](https:\u002F\u002Fcs231n.github.io\u002Fneural-networks-3\u002F)\n      - 1.5.5 [案例分析-最小神经网络案例研究](https:\u002F\u002Fcs231n.github.io\u002Fneural-networks-case-study\u002F)\n    - 1.6 [实战项目 1 - 手写字分类](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F108531735)\n    - 小结\n    - 参考文献\n  - 第 2 章 [卷积神经网络](docs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md)\n    - 2.1 [从神经网络到卷积神经网络](docs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#21-从神经网络到卷积神经网络)\n      - 2.1.1 [定义](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#211-定义)\n      - 2.1.2 [卷积神经网络的架构](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#212-卷积神经网络的架构)\n    - 2.2 [卷积网络的层级结构](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#22-卷积网络的层级结构)\n      - 2.2.1 [数据输入层](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#221-数据输入层)\n      - 2.2.2 [卷积计算层](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#222-卷积计算层)\n      - 2.2.3 [非线性层（或激活层）](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#223-非线性层或激活层)\n      - 2.2.4 [池化层](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#224-池化层)\n      - 2.2.5 [全连接层](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#225-全连接层)\n    - 2.3 [卷积神经网络的几点说明](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#23-卷积神经网络的几点说明)\n    - 2.4 [实战项目 2 - 动手搭建一个卷积神经网络](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md)\n      - 2.4.1 [卷积神经网络的前向传播](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#271-卷积神经网络的前向传播)\n      - 2.4.2 [卷积神经网络的反向传播](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#272-卷积神经网络的反向传播)\n      - 2.4.3 [手写一个卷积神经网络](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#273-手写一个卷积神经网络)\n        - [1. 定义一个卷积层](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#1-定义一个卷积层)\n        - [2. 构造一个激活函数](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#2-构造一个激活函数)\n        - [3. 定义一个类，保存卷积层的参数和梯度](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#3-定义一个类保存卷积层的参数和梯度)\n        - [4. 卷积层的前向传播](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#4-卷积层的前向传播)\n        - [5. 卷积层的反向传播](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#5-卷积层的反向传播)\n        - [6. MaxPooling层的训练](docs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#6-MaxPooling层的训练)\n      - 2.4.4 [PaddlePaddle卷积神经网络源码解析](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#274-PaddlePaddle卷积神经网络源码解析)\n    - [小结](docs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#小结)\n    - [参考文献](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#参考文献)\n  - 第 3 章 [图像分类](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002F)\n    - 3.1 [数据驱动方法](https:\u002F\u002Fcs231n.github.io\u002Fclassification\u002F)\n      - 3.1.1 语义上的差别\n      - 3.1.2 图像分类任务面临着许多挑战\n      - 3.1.3 数据驱动的方法\n    - 3.2 [k 最近邻算法](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002Fchapter3.2_knn.md)\n      - 3.2.1 k 近邻模型\n      - 3.2.2 k 近邻模型三个基本要素\n      - 3.2.3 KNN算法的决策过程\n      - 3.2.4 k 近邻算法Python实现\n      - 小结\n      - 参考文献\n    - 3.3 [支持向量机](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002Fchapter3.3_支持向量机.md)\n      - 3.3.1 概述\n      - 3.3.2 线性支持向量机\n      - 3.3.3 从零开始实现支持向量机\n      - 3.3.4 支持向量机的简洁实现\n    - 3.4 [逻辑回归 LR](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002Fchapter3.4_Logistic-Regression.md)\n      - 3.4.1 逻辑回归模型\n      - 3.4.2 从零开始实现逻辑回归\n      - 3.4.3 逻辑回归的简洁实现\n    - 3.5 [实战项目 3 - 表情识别](https:\u002F\u002Fblog.csdn.net\u002Fcharmve\u002Fcategory_9754344.html)\n    - 3.6 [实战项目 4 - 使用卷积神经网络对CIFAR10图片进行分类](http:\u002F\u002Fmp.weixin.qq.com\u002Fs?__biz=MzIxMjg1Njc3Mw%3D%3D&chksm=97bef597a0c97c813e185e1bbf987b93d496c6ead8371364fd175d9bac46e6dcf7059cf81cb2&idx=1&mid=2247487293&scene=21&sn=89684d1c107177983dc1b4dca8c20a5b#wechat_redirect)\n    - [小结](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002FREADME.md#小结)\n    - [参考文献](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002FREADME.md#参考文献)\n  - 第 4 章 循环神经网络\n    - [4.1 循环神经网络 RNN](\u002Fdocs\u002F1_理论篇\u002Fchapter4_循环神经网络\u002Fchapter4.1_循环神经网络.md)\n    - [4.2 循环神经网络的从零开始实现](\u002Fdocs\u002F1_理论篇\u002Fchapter4_循环神经网络\u002Fchapter4.1_循环神经网络.md)\n    - [4.3 循环神经网络的简洁实现](\u002Fdocs\u002F1_理论篇\u002Fchapter4_循环神经网络\u002Fchapter4.1_循环神经网络.md)\n    - [4.4 长短期记忆人工神经网络 LSTM](\u002Fdocs\u002F1_理论篇\u002Fchapter4_循环神经网络\u002Fchapter4.4_长短期记忆人工神经网络LSTM.md)\n    - [4.5 门控循环单元（GRU）](\u002Fdocs\u002F1_理论篇\u002Fchapter4_循环神经网络\u002Fchapter4.5_门控循环单元.md)\n    - 小结\n    - 练习\n    - 参考文献\n  - 第 5 章 [图神经网络](\u002Fdocs\u002F1_理论篇\u002Fchapter5_图神经网络\u002Fchapter5_图神经网络.md)\n    - 5.1 [历史脉络](\u002Fdocs\u002F1_理论篇\u002Fchapter5_图神经网络\u002Fchapter5_图神经网络.md#51-历史脉络)\n    - 5.2 [图神经网络(Graph Neural Network)](https:\u002F\u002Fwww.cnblogs.com\u002FSivilTaram\u002Fp\u002Fgraph_neural_network_1.html)\n      - 5.2.1 [状态更新与输出](\u002Fdocs\u002F1_理论篇\u002Fchapter5_图神经网络\u002Fchapter5_图神经网络.md#51-常见数据集)\n      - 5.2.2 [不动点理论](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md#812-pytorch数据集及读取方法简介)\n      - 5.2.3 [具体实现](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md#813-数据增强简介)\n      - 5.2.4 [模型学习]()\n      - 5.2.5 [GNN与RNN](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.2_基准BenchMark.md)\n      - 5.2.6 [GNN的局限]()\n    - 5.3 [门控图神经网络(Gated Graph Neural Network)]()\n      - 5.3.1 状态更新\n      - 5.3.2 实例1:到达判断\n      - 5.3.3 实例2:语义解析\n      - 5.3.4 GNN与GGNN\n    - 5.4 [图卷积神经网络(GCNN)](https:\u002F\u002Fwww.cnblogs.com\u002FSivilTaram\u002Fp\u002Fgraph_neural_network_2.html)\n      - 5.4.1 图卷积缘起\n      - 5.4.2 图卷积框架(Framework)\n      - 5.4.3 再谈卷积\n      - 5.4.4 空域卷积(Spatial Convolution)\n      - 5.4.5 消息传递网络(Message Passing Neural Network)\n      - 5.4.6 图采样与聚合(Graph Sample and Aggregate)\n      - 5.4.7 图结构序列化(PATCHY-SAN)\n      - 5.4.8 频域卷积(Spectral Convolution)\n    - 5.5 [生成图表示](https:\u002F\u002Fwww.cnblogs.com\u002FSivilTaram\u002Fp\u002Fgraph_neural_network_3.html)\n      - 5.5.1 图读出操作(ReadOut)\n      - 5.5.2 基于统计的方法(Statistics Category)\n      - 5.5.3 基于学习的方法(Learning Category)\n      - 5.5.4 其他方法\n    - 5.6 [图神经网络在计算机视觉上的应用](https:\u002F\u002Fwww.cnblogs.com\u002FSivilTaram\u002Fp\u002Fgraph_neural_network_3.html)\n      - 5.6.1 [点云分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.03751)\n      - 5.6.2 [点云生成](https:\u002F\u002Fopenreview.net\u002Fforum?id=SJeXSo09FQ)\n      - 5.6.3 [RGBD图像分割](https:\u002F\u002Fwww.cs.toronto.edu\u002F~urtasun\u002Fpublications\u002Fqi_etal_iccv17.pdf)\n      - 5.6.4 [视觉问答VQA](https:\u002F\u002Fvisualqa.org\u002F)\n      - 5.6.5 [零次学习ZSL](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1803.08035.pdf)\n    - 小结\n    - 参考文献\n  - 第 5 章 [模型选择、欠拟合和过拟合](\u002Fnotebooks\u002F)\n    - 5.1 [训练误差和泛化误差](\u002Fnotebooks\u002F)\n    - 5.2 [模型选择](\u002Fnotebooks\u002F)\n    - 5.3 [欠拟合和过拟合](\u002Fnotebooks\u002F)\n    - 5.4 [多项式函数拟合实验](\u002Fnotebooks\u002F)\n    - 5.5 [数值稳定性和模型初始化](\u002Fnotebooks\u002F)\n    - 小结\n    - 参考文献\n  - 第 6 章 [模型拟合与优化算法](\u002Fnotebooks\u002Fchapter07_optimization\u002F)\n    - 6.1 [优化与深度学习](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.1_optimization-intro.ipynb)\n    - 6.2 [梯度下降和随机梯度下降](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.2_gd-sgd.ipynb)\n    - 6.3 [小批量随机梯度下降](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.3_minibatch-sgd.ipynb)\n    - 6.4 [动量法](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.4_momentum.ipynb)\n    - 6.5 [AdaGrad算法](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.5_adagrad.ipynb)\n    - 6.6 [RMSProp算法](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.6_rmsprop.ipynb)\n    - 6.7 [AdaDelta算法](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.7_adadelta.ipynb)\n    - 6.8 [Adam算法](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.8_adam.ipynb)\n    - 小结\n    - 参考文献\n- \u003Cb>\u003Ch4>实战篇\u003C\u002Fh4>\u003C\u002Fb>\n  - 第 6 章 [软件环境搭建与工具使用](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002Fchapter6\u002Fchapter6)\n    - 6.1 [深度学习环境搭建指南](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.1_深度学习环境搭建指南.md)\n    - 6.2 [Pytorch 基础使用介绍](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.2_Pytorch-基础使用介绍.md)\n      - 6.2.1 [Tensors](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.2_Pytorch-基础使用介绍.md#621-tensors)\n      - 6.2.2 [Operations](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.2_Pytorch-基础使用介绍.md#622-operations)\n      - 6.2.3 [Numpy桥梁](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.2_Pytorch-基础使用介绍.md#623-numpy桥梁)\n      - 6.2.4 [CUDA Tensors](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.2_Pytorch-基础使用介绍.md#624-cuda-tensors)\n    - 6.3 [Python](.\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002F02_Python.ipynb)\n    - 6.4 [Numpy 基础使用](.\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002F03_NumPy.ipynb)\n    - 6.5 [Pandas 基础使用](.\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002F04_Pandas.ipynb)\n    - 6.6 [OpenCV 安装及基础使用](.\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002FOpenCV-ImageStitching.ipynb)\n    - 6.7 [Jupyter Notebook 配置及基础使用](.\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002F01_Notebooks.ipynb)\n    - 6.8 [基本的图像操作和处理](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.8_基本的图像操作和处理.md)\n      - 6.8.1 [PIL：Python图像处理类库](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.8_基本的图像操作和处理.md#781-pil-python图像处理类库)\n      - 6.8.2 [Matplotlib](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.8_基本的图像操作和处理.md#782-matplotlib)\n      - 6.8.3 [NumPy](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.8_基本的图像操作和处理.md#783-numpy)\n      - 6.8.4 [SciPy](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.8_基本的图像操作和处理.md#784-scipy)\n      - 6.8.5 [高级示例：图像去噪](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.8_基本的图像操作和处理.md#785-高级示例-图像去噪)\n    - 6.9 [实战项目 5 - 使用OpenCV进行图像全景拼接](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F107897468)\n    - 小结\n    - 参考文献\n  - 第 7 章 [经典卷积神经网络架构：原理与PyTorch实现](https:\u002F\u002Fgithub.com\u002FCharmve\u002FSemantic-Segmentation-PyTorch)\n    - 7.1 [卷积神经网络（LeNet）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.1%20卷积神经网络（LeNet）.md)\n    - 7.2 [深度卷积神经网络（AlexNet）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.2%20深度卷积神经网络（AlexNet）.md)\n    - 7.3 [使用重复元素的网络（VGG）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.3%20使用重复元素的网络（VGG）.md)\n    - 7.4 [含并行连结的网络（GoogLeNet）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.4%20含并行连结的网络（GoogLeNet）.md)\n    - 7.5 [残差网络（ResNet）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.6_残差网络-ResNet.md)\n    - 7.6 [二阶网络编码解码（U-Net）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.7_二阶网络编码解码-UNet.md)\n    - 7.7 [稠密连接网络（DenseNet）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.8_稠密连接网络-DenseNet.md)\n    - 7.8 [语义分割网络（SegNet）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.9_语义分割网络-SegNet.md)\n    - 7.9 [实例分割网络（Mask-RCNN）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.9_实例分割网络-Mask-RCNN.md)\n    - 7.10 [区域卷积神经网络（R-CNN）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.10_区域卷积神经网络-RCNN.md)\n    - 7.11 [全卷积网络（FCN）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.11_全卷积网络-FCN.md)\n    - 7.12 [YOLO: 实时目标检测](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F)\n    - 小结\n    - 参考文献\n  - 第 8 章 [著名数据集及基准](docs\u002F2_实战篇\u002Fchapter8_著名数据集及基准)\n    - 8.1 [数据集](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md)\n        - 8.1.1 [常见数据集](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md#811-常见数据集)\n          - 8.1.1.1 [ImageNet](https:\u002F\u002Fimage-net.org\u002F)\n          - 8.1.1.2 [MNIST](http:\u002F\u002Fyann.lecun.com\u002Fexdb\u002Fmnist\u002F)\n          - 8.1.1.3 [COCO](https:\u002F\u002Fcocodataset.org\u002F)\n          - 8.1.1.4 [CIFAR-10](http:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html)\n        - 8.1.2 [Pytorch数据集及读取方法简介](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md#812-pytorch数据集及读取方法简介)\n        - 8.1.3 [数据增强简介](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md#813-数据增强简介)\n        - [总结](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md#总结)\n    - 8.2 [基准测试](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.2_基准BenchMark.md)\n    - 8.3 [评价指标](\u002Fchapter8.3_评价指标.md)\n    - 8.4 [实战项目 6 - Kaggle比赛：图像分类（CIFAR-10）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.12%20实战Kaggle比赛：图像分类（CIFAR-10）.md)\n    - 8.5 [实战项目 7 - Kaggle比赛：狗的品种识别（ImageNet Dogs）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.13%20实战Kaggle比赛：狗的品种识别（ImageNet%20Dogs）.md)\n    - 小结\n    - 参考文献\n  - 第 9 章 [检测与分割实战项目](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002Fchapter9\u002Fchapter9)\n    - 9.1 语义分割\n      - 9.1.1 [语义分割 PyTorch 版](https:\u002F\u002Fgithub.com\u002FCharmve\u002FSemantic-Segmentation-PyTorch)\n      - 9.1.2 [实战项目 8 - 基于PolarNet的点云端到端语义分割项目实战]()\n    - 9.2 目标检测\n      - 9.2.1 常用网络\n      - 9.2.2 [实战项目 9 - 基于PyTorch的YOLO5目标检测项目实战]()\n    - 9.3 [实例分割](\u002Fdocs\u002F2_实战篇\u002Fchapter9_检测与分割实战项目\u002F9.3%20实例分割.md)\n      - 9.3.1 [常用网络](\u002Fdocs\u002F2_实战篇\u002Fchapter9_检测与分割实战项目\u002F9.3%20实例分割.md#931-常用网络)\n      - 9.3.2 [实战项目 10 - 实时高分辨率背景抠图](\u002Fdocs\u002F2_实战篇\u002Fchapter9_检测与分割实战项目\u002F9.3%20实例分割.md#932-实战项目-8-实时高分辨率背景抠图)\n      - 9.3.3 新方法：[滑动窗口](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F108915225), [PointRend](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F108892076), [PolarMask](https:\u002F\u002Fgithub.com\u002Fxieenze\u002FPolarMask)\n    - 小结\n    - 参考文献\n  - 第 10 章 [计算机视觉课题研究初探](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002Fchapter10\u002Fchapter10)\n    - 10.1 [手写字识别](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F108531735)\n    - 10.2 [文本检测](https:\u002F\u002Fgithub.com\u002FCharmve\u002FScene-Text-Detection)\n    - 10.3 [车道线检测](https:\u002F\u002Fgithub.com\u002FCharmve\u002FAwesome-Lane-Detection)\n      - 10.3.1 [常用网络](https:\u002F\u002Fgithub.com\u002FCharmve\u002FAwesome-Lane-Detection)\n      - 10.3.2 [实战项目 11 - 车道线检测项目实战](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F116678477)\n    - 10.4 [镜面检测](https:\u002F\u002Fgithub.com\u002FCharmve\u002FMirror-Glass-Detection)\n    - 10.5 [图像抠图 Matting](\u002Fdocs\u002F2_实战篇\u002Fchapter10_计算机视觉课题研究初探\u002Fcharpter10_5-图像抠图.md)\n    - 10.6 [图像超分辨率](\u002Fdocs\u002F2_实战篇\u002Fchapter10_计算机视觉课题研究初探\u002Fcharpter10_6-图像超分辨率.md)\n    - 10.7 [3D 重建](\u002Fdocs\u002F2_实战篇\u002Fchapter10_计算机视觉课题研究初探\u002Fcharpter10_7-3D重建.md)\n    - 小结\n    - 参考文献\n- \u003Cb>\u003Ch4>进阶篇\u003C\u002Fh4>\u003C\u002Fb>\n  - 第 11 章 [可视化和理解卷积神经网络](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002F)\n    - 11.1 特征可视化\n    - 11.2 倒置\n    - 11.3 可视化数据梯度\n    - 11.4 [Embeddings](https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter13_Understanding-and-Visualizing\u002FEmbeddings.ipynb)\n    - 11.5 对抗样本\n    - 11.6 [DeepDream 和风格迁移](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3.3_neural-style.md)\n    - 11.7 [实战项目 12: PyTorch 如何使用TensorBoard](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md)\n      - 11.4.1 [创建 TensorBoard](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#1141-创建-tensorboard)\n      - 11.4.2 [写入 TensorBoard](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#1142-写入-tensorboard)\n      - 11.4.3 [使用 TensorBoard 检查模型](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#1143-使用-tensorboard-检查模型)\n      - 11.4.4 [向 TensorBoard 添加 \"Projector\"](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#1144-向-tensorboard-添加-projector)\n      - 11.4.5 [使用 TensorBoard 跟踪模型训练](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#1145-使用-tensorboard-跟踪模型训练)\n      - 11.4.6 [使用 TensorBoard 评估训练好的模型](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#1146-使用-tensorboard-评估训练好的模型)\n      - 11.4.7 [案例总结](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#小结)\n    - 小结\n    - 参考文献\n  - 第 12 章 [生成对抗模型](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002Fchapter6\u002Fchapter6)\n    - 12.1 Pixel RNN\u002FCNN\n    - 12.2 [自编码器 Auto-encoder](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_2-自编码器Auto-encoder.md)\n    - 12.3 [生成对抗网络 GAN](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md)\n      - 12.3.1 [概述](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#1231-概述)\n      - 12.3.2 [GAN的基本思想](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#1232-gan的基本思想)\n      - 12.3.3 [GAN浅析](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#1233-gan浅析)\n        - 12.3.3.1 [GAN的基本结构](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#12331-gan的基本结构)\n        - 12.3.3.2 [GAN的训练方式](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#12332-gan的训练方式)\n          - [关于生成器](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#关于生成器)\n          - [关于判别器](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#关于判别器)\n          - [如何训练](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#如何训练)\n      - 12.3.4 [训练相关理论基础](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#1234训练相关理论基础)\n      - 12.3.5 项目实战案例StyleGAN\n        - [StyleGAN](https:\u002F\u002Fgithub.com\u002FCharmve\u002FVOGUE-Try-On)\n        - [StyleGAN 2.0](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F115315353)\n      - 12.3.6 [实战项目11 - 图像风格迁移](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3.3_neural-style.md)\n      - [小结](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#小结)\n      - [参考文献](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#参考文献)\n    - 12.4 [变分自编码器 Variational Auto-encoder, VAE](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md)\n      - 12.4.1 [概述](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#1241-概述)    \n      - 12.4.2 [基本原理](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#1242-基本原理)        \n        - 12.4.2.1 [定义](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#1-定义)        \n        - 12.4.2.2 [理论基础：三要素](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#2-理论基础三要素) \n        - 12.4.2.3 [推导过程](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#3-推导过程)            \n      - 12.4.3 [VAE v.s. AE 区别与联系](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#1243-vae-vs-ae-区别与联系)    \n      - 12.4.4 [变分自编码器的代码实现](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#1244-变分自编码器的代码实现)    \n      - 12.4.5 [卷积变分自编码器的实现与简单应用](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#1245-卷积变分自编码器的实现与简单应用)  \n      - 12.4.6 [实战项目 13 - 旧照片修复](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FBringing-Old-Photos-Back-to-Life) \n      - 小结     \n      - [参考文献](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#参考文献) \n    - 参考文献\n  - 第 13 章 [深度增强学习](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md)\n    - 13.1 [引言-如何解决通用人工智能的难点](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#141-引言-如何解决通用人工智能的难点)\n    - 13.2 [什么是深度增强学习](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#142-什么是深度增强学习)\n      - 13.2.1 [深度学习](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#1421-深度学习)\n      - 13.2.2 [增强学习](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#1422-增强学习)\n      - 13.2.3 [二者的融合](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#1423-二者的融合)\n    - 13.3 [怎么利用深度增强学习解决问题](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#143-怎么利用深度增强学习解决问题)\n      - 13.3.1 [Policy-based DRL](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#1431-policy-based-drl)\n      - 13.3.2 [Value-based DRL](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#1432-value-based-drl)\n      - 13.3.3 [Model-based DRL](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#1433-model-based-drl)\n    - 13.4 [深度增强学习在计算机视觉中的应用](#144-深度增强学习在计算机视觉中的应用)\n    - [小结](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#小结)\n    - [参考文献](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#参考文献)\n  - 第 14 章 [视频理解](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md)\n    - 14.1 [概述](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#141-概述)\n    - 14.2 [视频理解场景中的主要问题](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#142-视频理解场景中的主要问题)\n    - 14.3 [常用数据集](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#143-常用数据集)\n    - 14.4 [主流方法与模型架构](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#144-主流方法与模型架构)\n    - 14.5 [指标 METRICS](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#145-指标-metrics)\n    - 14.6 [可能的未来方向](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#146-可能的未来方向)\n    - [小结](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#小结)\n    - [参考文献](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#参考文献)\n  - 第 15 章 [迁移学习](.\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习)\n    - 15.1 [概述](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#151-迁移学习概述)\n      - 15.1.1 [背景](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#1511-背景)\n      - 15.1.2 [定义及分类](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#1512-定义及分类)\n      - 15.1.3 [关键点](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#1513-关键点)\n    - 15.2 [基于实例的迁移](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#152-基于实例的迁移)\n    - 15.3 [基于特征的迁移](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#153-基于特征的迁移)\n    - 15.4 [基于共享参数的迁移](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#154-基于共享参数的迁移)\n    - 15.5 [深度学习和迁移学习结合](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#155-深度学习和迁移学习结合)\n    - 15.7 [实战项目 14 - 蚂蚁和蜜蜂的分类问题](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习的应用.md)\n      - 15.7.1 [迁移学习在计算机视觉领域的应用](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习的应用.md#1571-迁移学习在计算机视觉领域的应用)\n      - 15.7.2 [实战项目: 蚂蚁和蜜蜂的分类问题](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习的应用.md#1572-实战项目-蚂蚁和蜜蜂的分类问题)\n    - [小结](#小结)\n    - [参考文献](#参考文献)\n  - 第 16 章 [计算机视觉中的注意力机制 Attention is All You Need](.\u002Fnotebooks\u002Fchapter16_Attention\u002F1_Attention.ipynb)\n    - 16.1 概述\n    - 16.2 Attention with RNNs\n    - 16.3 [Self-attention 自注意力](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FnUd7YtCci1_AwQ4nOwK9bA)\n    - 16.4 软注意力（soft-attention）\n      - 16.4.1 空间域注意力\n      - 16.4.2 通道注意力\n      - 16.4.3 Positional encoding\n      - 16.4.4 混合域模型\n      - 16.4.5 Masked attention\n      - 16.4.6 Multi-head attention\n    - 16.5 强注意力（hard attention）\n    - 16.6 [Attention九层塔 - 注意力机制的九重理解](\u002Fdocs\u002F3_进阶篇\u002Fchapter16-注意力机制%20Attention%20is%20All%20You%20Need\u002Fchapter16_Attention-is-All-You-Need.md)\n    - 小结\n    - 参考文献\n  - 第 17 章 [跨界模型 Transformer](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md)\n    - 17.1 [思想和框图](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#%E4%B8%80%E6%80%9D%E6%83%B3%E5%92%8C%E6%A1%86%E5%9B%BE)\n    - 17.2 [实现细节](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#二实现细节)\n      - [17.2.1 Encoder](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#2-1-Encoder)\n      - [17.2.2 Decoder](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#2-2-Decoder)\n      - [17.2.3 Self-Attention](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#2-3-Self-Attention)\n      - [17.2.4 Multi-Headed Attention](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#2-4-Multi-Headed-Attention)\n      - [17.2.5 Positional Encoding](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#2-5-Positional-Encoding)\n    - 17.3 [应用任务和结果](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#三-应用任务和结果)\n      - 17.3.1 [NLP领域](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#3-1-NLP领域)\n      - 17.3.2 [CV领域](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#3-2-CV领域)\n        - 17.3.2.1 [检测DETR](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#3-2-1-检测DETR)\n        - 17.3.2.2 [分类ViT](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#3-2-2-分类ViT)\n        - 17.3.2.3 [分割SETR](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#3-2-3-分割SETR)\n        - 17.3.2.4 [Deformable-DETR](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#3-2-4-Deformable-DETR)\n    - 17.4 [优点及分析](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#四-优点及分析)\n    - 17.5 [缺点及分析](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#五-缺点及分析)\n    - [实战项目 15 - 基于Transformer的视频实例分割网络VisTR (CVPR2021)](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F115339803)\n    - 小结\n    - [参考文献](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#六-参考文献)\n  - 第 18 章 [知识蒸馏](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002Fe3c_-rs2rncmWhbm-cU5rA)\n    - 18.1 概要\n    - 18.2 KD主要方法\n      - 18.2.1 Logits(Response)-based Knowledge\n      - 18.2.2 Feature-based Knowledge\n      - 18.2.3 Relation-based Knowledge\n    - 18.3 知识蒸馏的应用 NLP-BERT\n    - 18.4 常见疑问解答\n    - [实战项目 16 - 支付宝CVPR细粒度视觉分类挑战赛夺冠方案解读](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FRTkBQJ7Uj86Wxt7HmwWKzA)\n    - 小结\n    - [参考文献](#参考文献)\n  - 第 19 章 [Normalization 模型](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F107650487)\n    - 19.1 从Mini-Batch SGD说起\n    - 19.2 Normalization到底是在做什么\n    - 19.3 Batch Normalization如何做\n      - 19.3.1 前向神经网络中的BN\n      - 19.3.2 CNN网络中的BN\n      - 19.3.3 Batch Norm的四大罪状\n    - 19.4 Layer Normalization、Instance Normalization及Group Normalization\n      - 19.4.1 Layer Normalization\n      - 19.4.2 Instance Normalization\n      - 19.4.3 Group Normalization\n      - 19.4.4 用一个故事来总结\n    - 19.5 Normalization操作的Re-Scaling不变性\n    - 19.6 Batch Normalization为何有效\n    - 小结\n    - [参考文献](#参考文献)\n  - 第 20 章 [模型压缩与裁剪](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002Fe3c_-rs2rncmWhbm-cU5rA) \n    - 20.1 概述\n    - 20.2 模型压缩\n      - 20.2.1 线性或非线性量化（1990~2014 - 至今）\n      - 20.2.2 结构或非结构剪枝（1989~2014 - 至今\n      - 20.2.3 网络结构搜索（2016 - 至今）\n      - 20.2.4 权重矩阵的低秩分解（）\n      - 20.2.5 知识蒸馏（2014-至今）\n    - 20.3 模型优化加速\n      - 20.3.1 Op-Level 的快速算法\n      - 20.3.2 Layer0-level 的快速算法\n      - 20.3.3 硬件计算单元优化算法\n      \t- CPU、GPU和NPU\n      \t- ASIC 和 FPGA\n      \t- PIM（NDP）\n    - 20.4 优化工具与库\n      - 20.4.1 TensorRT Nvidia)\n      - 20.4.2 TVM (Tensor Virtual Machine)\n      - 20.4.3 Tensor Comprehension  (Facebook)\n      - 20.4.4 Distiller (Intel)\n    - 小结\n    - [参考文献](#六-参考文献)\n  - \u003Cb>\u003Ch4>附录\u003C\u002Fh4>\u003C\u002Fb>\n    - A 矩阵\n    - B [常用激活函数总结](https:\u002F\u002Fmp.weixin.qq.com\u002Fs?__biz=MzIxMjg1Njc3Mw==&mid=2247484495&idx=1&sn=0bbb2094d93169baf20eedb284bc668f)\n    - C [梯度下降法](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F106089198)\n    - D [深度学习调参技巧总结](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F107650479)\n  - \u003Cb>\u003Ch4>[后记](\u002Fdocs\u002Fbook_postscript.md)\u003C\u002Fh4>\u003C\u002Fb>\n  - \u003Cb>\u003Ch4>[参考文献](#参考文献-1)\u003C\u002Fh4>\u003C\u002Fb>\n\n\u003Cbr>\n- \u003Cb>更新中 ...\u003C\u002Fb>\n\n\u003Cbr>[收起](#-本书目录)\n\u003C\u002Ftr>\n\u003C\u002Ftd>\n\u003C\u002Ftable>\n\n\u003C\u002Fdetails>\n\n[Index](#-以用促学先会后懂-)\n\n## 🔍 文件浏览\n\n按书中内容先后顺序逐章阅读，或者选取特定章节祥读 📁 \u003Ccode>docs\u002F\u003C\u002Fcode> \u003Csup>1\u003C\u002Fsup>，动手实践章节代码，在代码文件 📁 \u003Ccode>code\u002F\u003C\u002Fcode> \u003Csup>2\u003C\u002Fsup> 下找到对应代码，本地测试或者Colab 📁 \u003Ccode>notebooks\u002F\u003C\u002Fcode> \u003Csup>3\u003C\u002Fsup> 在线测试。\n\n> - 📁 \u003Ccode>L0CV\u002F\u003C\u002Fcode> - 专为本项目建立的 ``💮 L0CV`` 包 \n> - 📁 \u003Ccode>code\u002F\u003C\u002Fcode> - 书中完整代码\n> - 📁 \u003Ccode>datasets\u002F\u003C\u002Fcode> - 本书所用数据集\n>   - 📁 \u003Ccode>images\u002F\u003C\u002Fcode> - 经典图像处理图片\n> - 📁 \u003Ccode>docs\u002F\u003C\u002Fcode> - 全书按照一下几个篇目进行编写\n>   - 📁 \u003Ccode>0_绪论\u002F\u003C\u002Fcode> - 全书绪论\n>   - 📁 \u003Ccode>1_理论篇\u002F\u003C\u002Fcode> - 基本理论和算法基础\n>   - 📁 \u003Ccode>2_实战篇\u002F\u003C\u002Fcode> - 项目实战教程\n>   - 📁 \u003Ccode>3_进阶篇\u002F\u003C\u002Fcode> - 最新CV模型和算法\n>   - 📁 \u003Ccode>附件\u002F\u003C\u002Fcode> - 所需数学和统计学知识\n>   - 📁 \u003Ccode>img\u002F\u003C\u002Fcode> - 各章节所使用的插图\n> - 📁 \u003Ccode>models\u002F\u003C\u002Fcode> - 封装可用的预训练模型\n> - 📁 \u003Ccode>notebooks\u002F\u003C\u002Fcode> - 🚩 全书 Colab notebook，可在线测试 \u003Ca href=\"https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action\u002Fmain\u002Fnotebooks\u002F\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa>\n>   - 📁 \u003Ccode>chapter01_neural-networks\u002F\u003C\u002Fcode> - 第 1 章 - 神经网络 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter02_CNN\u002F\u003C\u002Fcode> - 第 2 章 - 卷积神经网络 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter03_Image-Classification\u003C\u002Fcode> - 第 3 章 - 图像分类 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter04_recurrent-neural-networks\u002F\u003C\u002Fcode> - 第 4 章 - 递归神经网络 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter05_graph-neural-network\u002F\u003C\u002Fcode> - 第 5 章 - 图神经网络 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter07_optimization\u002F\u003C\u002Fcode> - 第 6 章 - 模型拟合与优化算法 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter08_environment-setup-and-tool-use\u002F\u003C\u002Fcode> - 第 7 章 - 软件环境搭建与工具使用 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter09_convolutional-neural-networks\u002F\u003C\u002Fcode> - 第 8 章 - 经典神经网络架构：原理与PyTorch实现 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter12_practice-projects\u003C\u002Fcode> - 第 12 章 - 计算机视觉课题研究初探 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter13_Understanding-and-Visualizing\u002F\u003C\u002Fcode> - 第 13 章 - 可视化与理解卷积神经网络 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter14_GAN\u002F\u003C\u002Fcode> - 第 14 章 - 生成对抗模型 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter15_Transfer-Learning\u002F\u003C\u002Fcode> - 第 15 章 - 迁移学习 Jupyter Notebook 实现\n>   - \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action#-以用促学先会后懂-\">\u003Cimg align=\"right\" alt=\"Go for it!\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fdd292873828228a753a9bd2de4576dbf8cc3902c\u002Fres\u002Fui\u002Ffooter-rocket.svg\" height=\"260\" title=\"Do what you like, and do it best!\"\u002F>\u003C\u002Fa>\n>   - 📁 \u003Ccode>chapter16_Attention\u002F\u003C\u002Fcode> - 第 16 章 - 注意力机制 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter17_Transformers\u002F\u003C\u002Fcode> - 第 17 章 - Transformers Jupyter Notebook 实现\n>   - ...\n>   - 📁 \u003Ccode>imgs\u002F\u003C\u002Fcode> - Jupyter Notebook 中用到的图片\n>   - 📁 \u003Ccode>docker\u002F\u003C\u002Fcode> - 为降低读者的学习成本，目前未进行搭建\n>   - 📁 \u003Ccode>res\u002F\u003C\u002Fcode> - ui 图片及全书思维导图PDF\n>   - 📄 \u003Ccode>README.md\u003C\u002Fcode> - 全书介绍及目录\n\n[Index](#-以用促学先会后懂-)\n\n## L0CV DemoDay\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_634f27e79333.png\" title=\"L0CV Demo Day\"> \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002FL0CV-Universe\">L0CV-Universe\u003C\u002Fa>\n\u003C\u002Fp>\n\n如果你也是从这里出发，在开源的项目中应用进去，并在标题下给出引用 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002F\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-💮 %20L0CV-lightgreen.svg\" alt=\"L0CV\" title=\"L0CV\">\u003C\u002Fa>，您的项目将会在这里展现！\n\n\u003Ch5 align=\"center\">\u003Ci>以用促学，先会后懂。理解深度学习的最佳方法是学以致用。\u003C\u002Fi>\u003C\u002Fh5>\n\n\u003Ctable class=\"table table-striped table-bordered table-vcenter\">\n    \u003Ctbody class=ai-notebooks-table-content>\n    \u003Ctr>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter02_CNN\u002FPytorch_MNIST.ipynb\" target=\"_blank\">\u003Cimg width=\"%40\"  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_838af248615a.png\">\u003C\u002Fa>\n            \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fdocs\u002F2__实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.12%20实战Kaggle比赛：图像分类（CIFAR-10）.md\" target=\"_blank\">\u003Cimg width=\"%40\"  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_37764e17a307.png\">\u003C\u002Fa>\n            \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fdocs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.13%20实战Kaggle比赛：狗的品种识别（ImageNet%20Dogs）.md\" target=\"_blank\">\u003Cimg width=\"%40\"  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_7f57a3612618.png\">\u003C\u002Fa>\n            \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter12_practice-projects\u002FBringing-Old-Photo-Back-to-Life.ipynb\" target=\"_blank\">\u003Cimg width=\"%40\"  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_a10fe3de42bf.png\">\u003C\u002Fa>\n                \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002FAwesome-Lane-Detection\u002Ftree\u002Fmain\u002Flane-detector\" target=\"_blank\">\u003Cimg width=\"%40\"  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_716299d1e373.png\">\u003C\u002Fa>\n                \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3.3_neural-style.md\" target=\"_blank\">\u003Cimg width=\"%40\"  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_3c52873d047d.png\">\u003C\u002Fa>\n                \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n*《计算机视觉实战演练：算法与应用》V1.2 *部分项目还在更新中*\n\n\u003Cbr>\n\u003Cp align=\"left\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_a489ce47f27a.png\" title=\"Works with L0CV\" width=\"120\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n| 实战项目 | 章节 | Binder | Google Colab | \n| :-- | :---| :---:| :---: |\n| [实战项目 1 - 手写字分类](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F108531735) | 第 1 章 - 神经网络 | | |\n| [实战项目 2 - 动手搭建一个卷积神经网络](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md) | 第 2 章 - 卷积神经网络 | | |\n| [实战项目 3 - 基于卷积神经网络的人脸表情识别](https:\u002F\u002Fblog.csdn.net\u002Fcharmve\u002Fcategory_9754344.html) | 第 3 章 - 图像分类 | | |\n| [实战项目 4 - 使用卷积神经网络对CIFAR10图片进行分类](http:\u002F\u002Fmp.weixin.qq.com\u002Fs?__biz=MzIxMjg1Njc3Mw%3D%3D&chksm=97bef597a0c97c813e185e1bbf987b93d496c6ead8371364fd175d9bac46e6dcf7059cf81cb2&idx=1&mid=2247487293&scene=21&sn=89684d1c107177983dc1b4dca8c20a5b#wechat_redirect) | 第 3 章 - 图像分类 | | |\n| [实战项目 5 - 使用OpenCV进行图像全景拼接](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F107897468) | 第 6 章 - 软件环境搭建与工具使用 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002FOpenCV-ImageStitching.ipynb\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002FOpenCV-ImageStitching.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 6 - Kaggle比赛：图像分类（CIFAR-10）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.12%20实战Kaggle比赛：图像分类（CIFAR-10）.md) | 第 8 章 - 著名数据集及基准 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter10_dataset-and-benchmark\u002Fkaggle_cifar10.ipynb\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter10_dataset-and-benchmark\u002Fkaggle_cifar10.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 7 - Kaggle比赛：狗的品种识别（ImageNet Dogs）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.13%20实战Kaggle比赛：狗的品种识别（ImageNet%20Dogs）.md) | 第 8 章 - 著名数据集及基准 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter10_dataset-and-benchmark\u002Fkaggle_dog.ipynb\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter10_dataset-and-benchmark\u002Fkaggle_dog.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 8 - 基于PolarNet的点云端到端语义分割项目实战]() | 第 9 章 - 检测与分割实战项目 || |\n| [实战项目 9 - 基于PyTorch的YOLO5目标检测项目实战]() | 第 9 章 - 检测与分割实战项目 || |\n| [实战项目 10 - 实时高分辨率背景抠图](\u002Fdocs\u002F2_实战篇\u002Fchapter9_检测与分割实战项目\u002F9.3%20实例分割.md#932-实战项目-8-实时高分辨率背景抠图) | 第 9 章 - 检测与分割实战项目 || |\n| [实战项目 11 - 车道线检测项目实战](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F116678477) | 第 10 章 - 计算机视觉课题研究初探 | | |\n| [实战项目 12 - PyTorch 如何使用TensorBoard](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md) | 第 13 章 - 可视化和理解 | | |\n| [实战项目 13 - 图像样式迁移]() | 第 14 章 生成对抗模型 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb#\u002F\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 14 - 旧照片修复](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FBringing-Old-Photos-Back-to-Life) | 第 14 章 - 生成对抗模型 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter12_practice-projects\u002FBringing-Old-Photo-Back-to-Life.ipynb\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 15 - 动漫头像生成](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FBringing-Old-Photos-Back-to-Life) | 第 14 章 - 生成对抗模型 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter12_practice-projects\u002FAnime-StyleGAN2.ipynb\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [项目实战 16 - 视频理解项目实战 SlowFast + Multi-Moments in Time](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解?id=_147-视频理解项目实战) | 第 16 章 - 视频理解 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter12_practice-projects\u002FBringing-Old-Photo-Back-to-Life.ipynb\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 17 - 蚂蚁和蜜蜂的分类问题](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习的应用.md) | 第 17 章 - 迁移学习 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter15_Transfer-Learning\u002FTL-ants-bees-classification.ipynb#\u002F\" \u002F> \u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 18 - 基于Transformer的视频实例分割网络VisTR (CVPR2021)](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F115339803) | 第 19 章 - 跨界模型 Transformer | | |\n| [实战项目 19 - 支付宝CVPR细粒度视觉分类挑战赛夺冠方案解读](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FRTkBQJ7Uj86Wxt7HmwWKzA)| 第 20 章 - 知识蒸馏 | | |\n| ...  | ... | ... |\n\n\u003Cbr>\n\n[Index](#-以用促学先会后懂-)\n\n## 🔑 如何食用\n\n\u003Cdetails>\u003Csummary>🔎 详细攻略展开\u003C\u002Fsummary>\n\n### 方式一 Jupyter Notebook (推荐方式 ✨)\n\n#### 1. 本地运行\n\n- 依赖包安装\n```\npip3 install -r requirements.txt\n```\n- 安装 Jupyter\n```\npython3 -m pip install --upgrade pip\npython3 -m pip install jupyter\n```\n- 查看并运行jupyter\n\n请在终端（Mac \u002F Linux）或命令提示符（Windows）上运行以下命令：\n\n```shell\ncd notebooks\njupyter notesbook\n```\n\n#### 2. 远程运行\n\n- 打开每章节首页，点击 \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> 可直接打开 Google Colab ，点击 \u003Ccode>\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_62fa12c161e3.png\" alt=\"Copy to Drive\" title=\"Copy to Drive\">\u003C\u002Fcode> [Copy to Drive] 即可在线运行测试。 \n\n- 点击 \u003Ca href=\"https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action\u002Fmain\u002Fnotebooks\u002F\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> 也可在 ``mybinder`` 查看和在线运行。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_5ae404369c54.png\" width=60% alt=\"Run on Colab\" title=\"Run on Colab\">\n  \u003Cbr>\n  图2 例子：12.3.3 样式迁移\n\u003C\u002Fp> \n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_b435e1a4a4fe.png\" width=60% alt=\"点击 Copy to Drive\">\n  \u003Cbr>图3 例子：12.3.3 样式迁移 Colab 点击 \u003Ccode>\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_62fa12c161e3.png\" alt=\"Copy to Drive\" title=\"Copy to Drive\">\u003C\u002Fcode> [Copy to Drive]\n\u003C\u002Fp>\n\n\n### 方式二 使用 ``\u002Fcode`` \n#### 1. 运行环境 + L0CV 加载\n- 依赖包安装\n```shell\nsudo apt-get update\npip3 install -r requirements.txt\n```\n- 创建 L0CV\n```shell\npython3 setup.py\n```\n- 测试环境\n\n```shell\ncd code\npython3 L0CV_test.py\n```\n\n#### 2. 直接调用每个章节的代码测试\n\n```python3\nimport L0CV\n```\n\n\u003Cbr>\n\n[收起](#-如何食用)\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t  \n\u003C\u002Fdetails>\n\n\u003Ctable class=\"table table-striped table-bordered table-vcenter\">\n    \u003Ctbody class=ai-notebooks-table-content>\n    \u003Ctr>\n        \u003Ctd colspan=\"1\" rowspan=\"1\" class=\"ai-notebooks-table-points ai-orange-link\">\n        \u003Cdiv class=\"mdl-cell mdl-cell--5-col mdl-cell--middle\">\n            \u003Cdiv class=\"content\">\n            \u003Ch2 style=\"text-align:center\">每一小节都是可以运行的 \u003Ca href=\"https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action\u002Fmain\u002Fnotebooks\u002F\">Jupyter 记事本\u003C\u002Fa>\u003C\u002Fh2>\n            \u003Cp>你可以自由修改代码和超参数来获取及时反馈，从而积累深度学习的实战经验。\u003C\u002Fp>\n            \u003C\u002Fdiv>\n            \u003Cdiv class=\"mdl-grid running\" align=\"center\" style=\"text-align:center\">\n                \u003Cdiv class=\"running-item\">\n                    \u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002FREADME?id=🔎-如何食用\">\n                    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_22187dfec810.png\" width=\"60\">\n                    \u003Cp>Run\u003Cbr>locally\u003C\u002Fp>\n                    \u003C\u002Fa>\n                \u003C\u002Fdiv>\n                \u003Cdiv class=\"running-item\">\n                    \u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002FREADME?id=🔎-如何食用\">\n                    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_f270788fc699.png\" width=\"60\">\n                    \u003Cp>Google\u003Cbr>Colab\u003C\u002Fp>\n                    \u003C\u002Fa>\n                \u003C\u002Fdiv>\n            \u003C\u002Fdiv>\n        \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--7-col\">\n                \u003Cimg class=\"illustration_img\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_4f10e3f5cabd.gif\"\u002F>\n            \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n\u003Ctable class=\"table table-striped table-bordered table-vcenter\">\n    \u003Ctbody class=ai-notebooks-table-content>\n    \u003Ctr>\n        \u003Ctd colspan=\"3\" rowspan=\"1\" class=\"ai-notebooks-table-points ai-orange-link\">\n            \u003Cdiv class=\"features-2 mdl-grid\">\n                \u003Ch2 style=\"text-align:center\">公式 + 图示 + 代码\u003C\u002Fh2>\n                \u003Cp>我们不仅结合文字、公式和图示来阐明深度学习里常用的模型和算法，还提供代码来演示如何从零开始实现它们，并使用真实数据来提供一个交互式的学习体验。\u003C\u002Fp>\n            \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Cimg class=\"illustration_img\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_2e1bcf094232.jpg\">\u003C\u002Fimg>\n                \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Cimg class=\"illustration_img\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_2ccf0870ca6a.jpg\"\u002F>\n                \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Cimg class=\"illustration_img\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_b944945e9c9d.jpg\"\u002F>\n                \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n[Index](#-以用促学先会后懂-)\n\n## ❓ 常见问题\n\n- **在线教程页面无法打开**：\n\n    测试中存在部分人打不开在线教程的情况。\n\n    部分小伙伴反馈尝试切换浏览器后可以正常打开了，如果仍然不行，最有效的解决办法是科学上网。\n\n- **无法加载图片的解决办法**：\n\n    根本解决办法还是科学上网，也可以尝试修改host文件看下是否能解决。\n\n    解决方案: 修改host文件 \u003Ccode>\u003Ca href=\"https:\u002F\u002Fwww.jianshu.com\u002Fp\u002F25e5e07b2464\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_5687cae80d71.png\" alt=\"Apple\" title=\"Apple\">\u003C\u002Fcode> Mac\u003C\u002Fa> \u003Ccode>\u003Ca href=\"https:\u002F\u002Fblog.csdn.net\u002Fu011583927\u002Farticle\u002Fdetails\u002F104384169\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_379f8d054e4d.png\" alt=\"Win10\" title=\"Win10\">\u003C\u002Fcode> Windows\u003C\u002Fa>\n\n- **公式无法正常显示解决办法**：\n\n    GitHub中的Markdown原生是不支持LATEX公式显示的，如果你喜欢在本项目中直接浏览教程，可以安装Chrome的`MathJax Plugin for Github`插件让大部分公式正常显示。而docs文件夹已经利用docsify被部署到了GitHub Pages上，包含公式的章节强力建议使用 [《计算机视觉实战演练：算法与应用》 在线阅读](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action) 进行学习。\n    \n    当然如果你还想跑一下运行相关代码的话还是得把本项目clone下来，然后运行code文件夹下相关代码。\n\n- **Jupyter Notebook 无法在 GitHub 上呈现？** [使用 nbviewer](https:\u002F\u002Fleaherb.com\u002Fnotebook_wont_render_use_nbviewer\u002F)。 \u003Ca href=\"https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action\u002Fmain\u002Fnotebooks\u002F\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa>\n\n[Index](#-以用促学先会后懂-)\n\n## 致谢\n\u003Ca href=\"https:\u002F\u002Fmaiweiai.github.io\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_6e645809282d.png\" height=\"36\" alt=\"迈微AI研习社\" title=\"迈微AI研习社\"> \u003C\u002Fa> \u003Ca href=\"https:\u002F\u002Fmadewithml.com\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_aecae356305b.png\" height=\"30\" alt=\"Made With ML\" title=\"Made With ML\"> \u003C\u002Fa> &nbsp;&nbsp; \u003Ca href=\"https:\u002F\u002Fwww.epubit.com\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_ef3a93068740.png\" height=\"30\" alt=\"异步社区\" title=\"异步社区\"> \u003C\u002Fa>  &nbsp;&nbsp; \u003Ca href=\"https:\u002F\u002F360.cn\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_ab81ff5e3c14.png\" height=\"36\" alt=\"奇虎360\" title=\"奇虎360\"> \u003C\u002Fa>\n\n[Index](#-以用促学先会后懂-)\n\n## 参考文献\n\n感谢前人的杰出工作，我才得以写出此书。感谢 [\u003Cb>参考文献\u003C\u002Fb>](docs\u002FREFERENCE.md) 中列出及未列出的，所有对此开源工作有帮助的前辈！\n\n[Index](#-以用促学先会后懂-)\n\n## LICENSE\n\n\u003Ca href=\"https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0\" target=\"_blank\" style=\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202.0-red?logo=apache\" alt=\"Code License\">\u003C\u002Fa> \u003Ca rel=\"DocLicense\" href=\"http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F\">\u003Cimg alt=\"知识共享许可协议\" style=\"border-width:0\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs%20license-CC%20BY--NC--SA%204.0-green?logo=creativecommons\" title=\"CC BY--NC--SA 4.0\"\u002F>\u003C\u002Fa>\n\t\n- ``L0CV``代码部分采用 [Apache 2.0协议](https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0) 进行许可，包括名为 \u003Cb>\u003Cem>L0CV\u003C\u002Fem>\u003C\u002Fb> 的原创第三方库、``\u002Fcode``和``\u002Fnotebook``下的源代码。遵循许可的前提下，你可以自由地对代码进行修改，再发布，可以将代码用作商业用途。但要求你：\n  - **署名**：在原有代码和衍生代码中，保留原作者署名及代码来源信息。\n  - **保留许可证**：在原有代码和衍生代码中，保留``Apache 2.0``协议文件。\n\n- ``L0CV``文档部分采用 [知识共享署名 4.0 国际许可协议](http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002F) 进行许可。 遵循许可的前提下，你可以自由地共享，包括在任何媒介上以任何形式复制、发行本作品，亦可以自由地演绎、修改、转换或以本作品为基础进行二次创作。但要求你：\n  - **署名**：应在使用本文档的全部或部分内容时候，注明原作者及来源信息。\n  - **非商业性使用**：不得用于商业出版或其他任何带有商业性质的行为。如需商业使用，请联系作者。\n  - **相同方式共享的条件**：在本文档基础上演绎、修改的作品，应当继续以知识共享署名 4.0国际许可协议进行许可。\n\n[Index](#-以用促学先会后懂-)\n\n## 👥 社区互助\n\n如果您在使用的过程中碰到问题，可以通过下面几个途径寻求帮助，同时我们也鼓励资深用户通过下面的途径给新人提供帮助。\n\n- 通过 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fdiscussions\" target=\"_blank\" style=\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGitHub-Discussions-green?logo=github\" alt=\"GitHub Discuss\">\u003C\u002Fa> 提问时，建议使用 `Q&A` 标签。\n\n- 通过 \u003Ca href=\"http:\u002F\u002Fstackoverflow.com\u002Fquestions\u002Ftagged\u002FL0CV\" target=\"_blank\" style=\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-Stack%20Overflow-gray?logo=stackoverflow\" alt=\"Stack Overflow\">\u003C\u002Fa> 或者 \u003Ca href=\"https:\u002F\u002Fsegmentfault.com\u002Ft\u002FL0CV\" target=\"_blank\" style=\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-Segment%20Fault-gray?logo=mongodb\" alt=\"Segment Fault\">\u003C\u002Fa> 提问时，建议加上 `L0CV` 标签。\n\n- \u003Ca href=\"https:\u002F\u002Fsegmentfault.com\u002Ft\u002FL0CV\" target=\"_blank\" style=\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F微信-L0CV-green?logo=wechat\" alt=\"Segment Fault\">\u003C\u002Fa> 微信、知乎、微博开话题可以生成tag，如微信聊天、朋友圈加 ``#L0CV`` 可话题交流。\n\n- L0CV 读者微信交流群 (加我微信Yida_Zhang2，备注：L0CV-高校\u002F企业-称呼)\n\n[Index](#-以用促学先会后懂-)\n\n\n## 💖 Support this project\n\nDonating to help me continue working on this project. I'm appreciate all you in [backer list](https:\u002F\u002Fcharmve.github.io\u002Fsponsor.html). \u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fsponsor.html\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fstyle--5eba00.svg?label=Coffee&amp;logo=ko-fi&amp;style=social\" alt=\"BuymeaCoffee\"\u002F>\u003C\u002Fa>\n\n\u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fsponsor.html\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fcdn.buymeacoffee.com\u002Fbuttons\u002Fv2\u002Fdefault-red.png\" alt=\"Buy Me A Coffee\" width=\"180\" >\u003C\u002Fa>\n\n\n\u003C!--\n\n## 关注我们\n\u003Cdiv align=center>\n\u003Cp>扫描下方二维码，然后回复关键词“\u003Cb>计算机视觉实战教程\u003C\u002Fb>”，即可加入“读者交流群”\u003C\u002Fp>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_fe1f06d96458.png\" width = \"250\" height = \"270\" alt=\"迈微AI研习社是一个专注AI领域的开源组织，作者系CSDN博客专家，主要分享机器学习算法、计算机视觉等相关内容，每周研读顶会论文，持续关注前沿技术动态。底部有菜单分类，关注我们，一起学习成长。\">\n\u003C\u002Fdiv>\n\n- 若本书里没有你想要理论和实战项目，或者你发现本书哪个地方有错误，请毫不犹豫地去本仓库的 Issues（ 地址 https:\u002F\u002Fgithub.com\u002Fcharmve\u002Fcomputer-vision-in-action\u002Fissues ）进行反馈，在对应版块提交你希望补充的内容或者勘误信息，作者通常会在 24 小时以内给您回复，超过 24 小时未回复的话可以邮件联系我（微信 MaiweiE_com）；\n\n- 同时，我也欢迎大家加入本项目的建设中来，欢迎 [pull request](https:\u002F\u002Fgithub.com\u002Fcharmve\u002Fcomputer-vision-in-action\u002Fpulls)！\n\n- \u003Cem>请尽管表达你们的意见和建议，GitHub issues 和 电子书下方都可以留言，也可写邮件给我，我一定会回！\u003C\u002Fem>\n\n[Index](#-以用促学先会后懂-)\n-->\n\n## CONTRIBUTION\n\n作者会尽最大努力来确保书中内容的准确性，但难免会存在疏漏与不妥之处。欢迎您将发现的问题反馈给我们，帮助提升本开放资源的质量。\n\n\u003Cdiv align=\"center\">\n\t\u003Ctable>\n\t\u003Ctr>\n\t\u003Ctd>\n\t\t\u003Cdiv class=\"f5 contribution\">\n\t\t\t\u003Ch3 class=\"f4\">Help us make these docs great!\u003C\u002Fh3>\n\t\t\t\u003Cp class=\"color-text-secondary f6\">All \u003Cb>\u003Ci>VC-action\u003C\u002Fi>\u003C\u002Fb> docs are open source. See something that's wrong or unclear? \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fpulls\">Submit a pull request\u003C\u002Fa>.\u003C\u002Fp>\n\t\t\t\u003Ca class=\"btn btn-outline\" href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fedit\u002Fmain\u002FREADME.md\">\n\t\t\t\t\u003Csvg version=\"1.1\" width=\"16\" height=\"16\" viewBox=\"0 0 16 16\" class=\"octicon octicon-git-pull-request\" aria-hidden=\"true\">\u003Cpath fill-rule=\"evenodd\" d=\"M7.177 3.073L9.573.677A.25.25 0 0110 .854v4.792a.25.25 0 01-.427.177L7.177 3.427a.25.25 0 010-.354zM3.75 2.5a.75.75 0 100 1.5.75.75 0 000-1.5zm-2.25.75a2.25 2.25 0 113 2.122v5.256a2.251 2.251 0 11-1.5 0V5.372A2.25 2.25 0 011.5 3.25zM11 2.5h-1V4h1a1 1 0 011 1v5.628a2.251 2.251 0 101.5 0V5A2.5 2.5 0 0011 2.5zm1 10.25a.75.75 0 111.5 0 .75.75 0 01-1.5 0zM3.75 12a.75.75 0 100 1.5.75.75 0 000-1.5z\">\u003C\u002Fpath>\u003C\u002Fsvg>\n\t\t\t\tMake a contribution\n\t\t\t\u003C\u002Fa>\n\t\t\t\u003Cbr>\u003Cp class=\"color-text-secondary f6 mt-2\">Or, \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002FCONTRIBUTING.md\" target=\"_blank\">learn how to contribute.\u003C\u002Fa>\u003C\u002Fp>\n\t\t\u003C\u002Fdiv>\n\t\t\u003Cdiv>\n\t\t\t\u003Ch3 class=\"mb-2 f4\">\n\t\t\t\tStill need help?\n\t\t\t\u003C\u002Fh3>\n\t\t\t\u003Ca id=\"ask-community\" href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fdiscussions\" class=\"btn btn-outline mr-4 mt-2\">\n\t\t\t\t\u003Csvg version=\"1.1\" width=\"16\" height=\"16\" viewBox=\"0 0 16 16\" class=\"octicon octicon-people\" aria-hidden=\"true\">\u003Cpath fill-rule=\"evenodd\" d=\"M5.5 3.5a2 2 0 100 4 2 2 0 000-4zM2 5.5a3.5 3.5 0 115.898 2.549 5.507 5.507 0 013.034 4.084.75.75 0 11-1.482.235 4.001 4.001 0 00-7.9 0 .75.75 0 01-1.482-.236A5.507 5.507 0 013.102 8.05 3.49 3.49 0 012 5.5zM11 4a.75.75 0 100 1.5 1.5 1.5 0 01.666 2.844.75.75 0 00-.416.672v.352a.75.75 0 00.574.73c1.2.289 2.162 1.2 2.522 2.372a.75.75 0 101.434-.44 5.01 5.01 0 00-2.56-3.012A3 3 0 0011 4z\">\u003C\u002Fpath>\u003C\u002Fsvg>\n\t\t\t\tAsk our community\n\t\t\t\u003C\u002Fa>\n\t\t\t\u003Ca id=\"contact-us\" href=\"https:\u002F\u002Fgithub.com\u002FCharmve\" class=\"btn btn-outline mt-2\">\n\t\t\t\t\u003Csvg version=\"1.1\" width=\"16\" height=\"16\" viewBox=\"0 0 16 16\" class=\"octicon octicon-comment-discussion\" aria-hidden=\"true\">\u003Cpath fill-rule=\"evenodd\" d=\"M1.5 2.75a.25.25 0 01.25-.25h8.5a.25.25 0 01.25.25v5.5a.25.25 0 01-.25.25h-3.5a.75.75 0 00-.53.22L3.5 11.44V9.25a.75.75 0 00-.75-.75h-1a.25.25 0 01-.25-.25v-5.5zM1.75 1A1.75 1.75 0 000 2.75v5.5C0 9.216.784 10 1.75 10H2v1.543a1.457 1.457 0 002.487 1.03L7.061 10h3.189A1.75 1.75 0 0012 8.25v-5.5A1.75 1.75 0 0010.25 1h-8.5zM14.5 4.75a.25.25 0 00-.25-.25h-.5a.75.75 0 110-1.5h.5c.966 0 1.75.784 1.75 1.75v5.5A1.75 1.75 0 0114.25 12H14v1.543a1.457 1.457 0 01-2.487 1.03L9.22 12.28a.75.75 0 111.06-1.06l2.22 2.22v-2.19a.75.75 0 01.75-.75h1a.25.25 0 00.25-.25v-5.5z\">\u003C\u002Fpath>\u003C\u002Fsvg>\n\t\t\t\tContact support\n\t\t\t\u003C\u002Fa>\n\t\t\u003C\u002Fdiv>\n\t\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n[Index](#-以用促学先会后懂-)\n\n## Citation\n\nUse this bibtex to cite this repository:\n```\n@misc{computer-vision-in-action,\n  title={计算机视觉实战演练：算法与应用（Computer Vision in Action）},\n  author={Charmve},\n  year={2021.06},\n  publisher={Github},\n  journal={GitHub repository},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action}},\n}\n```\n\n[Index](#-以用促学先会后懂-)\n\t\n## Stargazers Over Time\n\n\u003Cdiv class=\"main\">\n\t\u003Cp align=\"center\">\t\n\t\t\u003Cb>Awesome!\u003C\u002Fb>\t\n\t\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cem>Charmve\u002Fcomputer-vision-in-action\u003C\u002Fem>\u003C\u002Fa>\n\t\twas created 2 months ago\n\t\tand now has \u003Cb>1546\u003C\u002Fb> stars.\n  \u003C\u002Fp>\n\u003C\u002Fdiv>\n\t\n[![Stargazers over time](https:\u002F\u002Fstarchart.cc\u002FCharmve\u002Fcomputer-vision-in-action.svg)](https:\u002F\u002Fstarchart.cc\u002FCharmve\u002Fcomputer-vision-in-action)\n\n\u003Cbr>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action#-以用促学先会后懂-\">\u003Cimg align=\"right\" alt=\"Go for it!\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fdd292873828228a753a9bd2de4576dbf8cc3902c\u002Fres\u002Fui\u002Ffooter-rocket.svg\" height=\"220\" title=\"Do what you like, and do it best!\"\u002F>\u003C\u002Fa>\n\u003Cbr>\n\u003Cp align=\"center\">Feel free to ask any questions, open a PR if you feel something can be done differently!\u003C\u002Fp>\n\u003Ch2 align=\"center\">🌟 Star this repository 🌟\u003C\u002Fh2>\n\u003Cp align=\"center\">Created by \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\">Charmve\u003C\u002Fa> & \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMaiweiAI\">maiwei.ai\u003C\u002Fa> Community | Deployed on \u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F\">GitHub Page\u003C\u002Fa>\u003C\u002Fp>\n","\u003Cp align=\"right\">\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_9802bf7c9b4a.png\">\n\t\u003C!---- 来自 https:\u002F\u002Ftechsini.com\u002Fmulti-mockup\u002Findex.php --->\n\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003C!-- maiweilab\n\u003Cdiv id=\"outputFigDisplay\" class=\"fig\">\n    \u003Cpre id=\"taag_output_text\" style=\"left;\" class=\"flag\" contenteditable=\"true\">\n    \u003Ccode>\n    __  ___      _               _ ___    ____                             \n   \u002F  |\u002F  \u002F___ _(_)      _____  (_)   |  \u002F  _\u002F    _________  ____ ___      \n  \u002F \u002F|_\u002F \u002F __ `\u002F \u002F | \u002F| \u002F \u002F _ \\\u002F \u002F \u002F| |  \u002F \u002F_____\u002F ___\u002F __ \\\u002F __ `__ \\     \n \u002F \u002F  \u002F \u002F \u002F_\u002F \u002F \u002F| |\u002F |\u002F \u002F  __\u002F \u002F ___ |_\u002F \u002F_____\u002F \u002F__\u002F \u002F_\u002F \u002F \u002F \u002F \u002F \u002F     \n\u002F_\u002F  \u002F_\u002F\\__,_\u002F_\u002F |__\u002F|__\u002F\\___\u002F_\u002F_\u002F  |_\u002F___\u002F     \\___\u002F\\____\u002F_\u002F \u002F_\u002F \u002F_\u002F      \n    \u003C\u002Fcode>\n    \u003C\u002Fpre>\n\u003C\u002Fdiv>\n\n## Maiwei AI Lab - \u003Cins>迈微AI研习社\u003C\u002Fins>\u003Csup>\u003Ca href=\"https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002Fjr6h1lXxWsQLF8GZnek7Fg\">[?]\u003C\u002Fa>\u003C\u002Fsup>\n\n\u003Ca href=\"https:\u002F\u002Fwww.github.com\u002FCharmve\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F创始人-@Charmve-000000.svg?style=flat-square&logo=GitHub\">\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action#关注我们\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F公众号-@迈微AI研习社-000000.svg?style=flat-square&logo=wechat\">\u003C\u002Fa>\n\n作者系迈微AI研习社创始人、CSDN博客专家，主要分享机器学习算法、计算机视觉等相关内容，每周研读顶会论文，持续关注前沿技术动态。公众号底部有菜单分类，关注我们，一起学习成长。\n \n---\n-->\n\n\u003C!--\n\u003Ctable>\n\u003Ctr>\n\t\u003Ctd>\n\t## ✨ 新闻！ ✨\n\n\t- \u003Cb>2020.07.12:\u003C\u002Fb> 📝  进阶篇 更新Transformer、强化学习、迁移学习、视频理解 !\n\t- \u003Cb>2021.06.20:\u003C\u002Fb> 📘  在线电子书发布  ! \u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F在线阅读-简体中文-000000.svg?style=flat-square&amp;logo=GitBook\" alt=\"中文电子书\">\u003C\u002Fa>\n\t- \u003Cb>2020.06.10:\u003C\u002Fb> 💻  L0CV 项目主页发布 ！ \u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002FL0CV-web\u002F\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F项目主页-L0CV-000000.svg?style=flat-square&amp;logo=GitBook\" alt=\"L0CV Website\">\u003C\u002Fa>\n\n\t更多更新日志会同步到 [CHANGELOG](CHANGELOG.md)，持续更新中，感谢大家的支持与喜欢！\n\t\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n-->\n\n> \"如果你只是看了这个项目的在线文档，那么你并没有利用好这个项目。太可惜！\"\n\n\u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_fb72130ad0bc.png\" width==\"\">\n\u003C\u002Fa>\n\n## ✨ 以用促学，先会后懂 ✨\n\n### L0CV \u003Csup>\u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002FL0CV-web\u002F\">`🔊`\u003C\u002Fa>\u003C\u002Fsup> &nbsp; 一种结合了代码、图示和HTML的在线学习媒介\n\u003Cbr>\n\n\u003Ctable align=\"center\">\n\u003Ctr>\n\u003Ctd>\n\u003Ccode>全面\u003C\u002Fcode>&nbsp;\u003Ccode>前沿\u003C\u002Fcode>&nbsp;\u003Ccode>免费\u003C\u002Fcode>\n\u003Ch1> 计算机视觉实战演练：算法与应用 \u003Csup> 📌\u003C\u002Fsup>\n\u003Cbr>\u003Cem>Computer Vision in Action\u003C\u002Fem>\u003C\u002Fh1>\n\n[作者：张伟（Charmve）](https:\u002F\u002Fgithub.com\u002FCharmve)\n\n\u003Cp align=\"center\">\n\t\u003Ca href=\"https:\u002F\u002Fcircleci.com\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg src=\"https:\u002F\u002Fcircleci.com\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action.svg?style=svg\" alt=\"CircleCI\" title=\"CircleCI\">\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_13d664e1afd7.png\" alt=\"Documentation status\">\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0\" target=\"_blank\" style=\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202.0-red?logo=apache\" alt=\"Code License\">\u003C\u002Fa>\n  \u003Ca rel=\"DocLicense\" href=\"http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F\">\u003Cimg alt=\"知识共享许可协议\" style=\"border-width:0\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs%20license-CC%20BY--NC--SA%204.0-green?logo=creativecommons\" title=\"CC BY--NC--SA 4.0\"\u002F>\u003C\u002Fa>\n\t\u003Cbr>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fcode\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-v3.8.10-000000.svg?logo=Python&color=brightgreen\" alt=\"Python version\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fnotebooks\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FJupyter-v4.7.1-000000.svg?logo=jupyter&color=orange\" alt=\"jupyter version\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpytorch.org\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPyTorch-v1.9.0-000000.svg?logo=PyTorch&color=lightred\" alt=\"PyTorch version\">\u003C\u002Fa>\n\t\u003Cbr>\u003Ca href=\"https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action\u002Fmain\u002Fnotebooks\u002F\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fcode\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FRun%20on-Colab-000000.svg?logo=googlecolab&color=yellow\" alt=\"Run on Colab\">\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocker\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocker%20Hub-v1.0.1-000000.svg?logo=Docker&color=blue\" alt=\"Docker\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgitpod.io\u002F#https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGitpod-ready--to--code-blue?logo=gitpod\" alt=\"Gitpod Ready-to-Code\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fedit\u002Fmaster\u002FREADME.md\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FCharmve\u002Fcomputer-vision-in-action?style=social\" alt=\"Stars\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fedit\u002Fmaster\u002FREADME.md\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FCharmve\u002Fcomputer-vision-in-action?style=social\" alt=\"Forks\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_4b90c9a57aec.png\" width=\"200px\" alt=\"logo:L0CV\" title=\"有疑问，跑起来就会变成一朵花 ❀\">\n\u003C\u002Fdiv>\n\n\u003Cbr>\u003Cbr>\n\u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002FL0CV-web\u002F\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F项目主页-L0CV-000000.svg?logo=GitHub\" alt=\"L0CV Website\">\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F在线阅读-简体中文-000000.svg?logo=GitBook\" alt=\"中文电子书\">\u003C\u002Fa>\n\n跨平台，只需一个浏览器即可！\n\u003Cbr>\n> \u003Ch4>👉  在线阅读（优先更新实战篇和进阶篇）\u003C\u002Fh4>\n> - 地址：https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F\n\n> \u003Ch4>最新版PDF下载\u003C\u002Fh4>\n> - 地址：https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Freleases \u003Cb>(马上来 ...)\u003C\u002Fb>\n\n\u003C\u002Ftr>\n\u003C\u002Ftd>\n\u003C\u002Ftable>\n\n\u003Cdiv align=\"right\">\n\n\u003Cdetails>\u003Csummary>分享 \u003Ccode>\u003Ca target=\"_blank\" href=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F29084184\u002F126729326-cad7a288-e424-4f69-a47a-90f61e7d9879.png\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_0a1155ce8217.png\" alt=\"Scan QR\" title=\"Scan QR\">\u003C\u002Fa>\u003C\u002Fcode> 到 \u003C\u002Fsummary>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_13b0ae314053.png\" width=20% alt=\"L0CV QR\" title=\"L0CV QR\">\u003C\u002Fdetails>\n\u003Ccode>\u003Ca href=\"http:\u002F\u002Fqq.com\u002Fintent\u002Fqq?text=https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_bec3a5e67d60.png\" alt=\"QQ\" title=\"QQ\">\u003C\u002Fa>\u003C\u002Fcode>\n\u003Ccode>\u003Ca href=\"http:\u002F\u002Fmp.weixin.qq.com\u002Fintent\u002Fwechat?text=https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_f8d73e247bb0.png\" alt=\"WeChat\" title=\"WeChat\">\u003C\u002Fa>\u003C\u002Fcode>\n\u003Ccode>\u003Ca href=\"http:\u002F\u002Fweibo.com\u002Fintent\u002Fweibo?text=https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_492e618ae4e8.png\" alt=\"Weibo\" title=\"Weibo\">\u003C\u002Fa>\u003C\u002Fcode>\n\u003Ccode>\u003Ca href=\"http:\u002F\u002Ftwitter.com\u002Fintent\u002Ftweet?text=https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_d87277f83c39.png\" alt=\"Twitter\" title=\"Twitter\">\u003C\u002Fa>\u003C\u002Fcode>\n\u003Ccode>\u003Ca href=\"https:\u002F\u002Fwww.zhihu.com\u002F\">\u003Cimg height=\"23\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_d47389be30cb.png\" alt=\"Zhihu\" title=\"Zhihu\">\u003C\u002Fa>\u003C\u002Fcode>\n\u003Ccode>\u003Ca href=\"https:\u002F\u002Fblink.csdn.net\u002F\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_12bc7139b695.png\" alt=\"CSDN\" title=\"CSDN\">\u003C\u002Fa>\u003C\u002Fcode>\n\n\u003C\u002Fdiv>\n\n## Index\n\n\u003Cimg align=\"right\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_e22388bd9a8f.png\" width=63% alt=\"L0CV architecture\" title=\"L0CV architecture\">\n\n- [💠 全书组织](#-全书组织)\n- [🌈 愿景](#-愿景)\n- [📘 本书目录](#-本书目录)\n- [🔍 文件浏览](#-文件浏览)\n- [🌼 L0CV-DemoDay](#l0cv-demoday)\n- [🔑 如何食用](#-如何食用)\n- [❓ 常见问题](#-常见问题)\n- [👥 社区互助](#-社区互助)\n- [:heart: 致谢](#致谢)\n- [📄 LICENSE](#license)\n- [👐 参与项目](#contribution)\n- [🤝 关注我们](#关注我们)\n- [📎 Citation](#citation)\n\n\u003Cp align=\"right\">\n\t:label: \u003Ccode>sec_code\u003C\u002Fcode> \u003Cb>图1 L0CV 结构图\u003C\u002Fb>\n\u003C\u002Fp>\n\n## 💠 全书组织\n:label: `fig_book_org`\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_c9c7aabcdbfd.png\" alt=\"book_org.png\">\n\u003C\u002Fp> \n\n\u003Cp align=\"right\">\n  \u003Ca href=\"res\u002F计算机视觉实战演练：算法与应用_思维导图.pdf\">全书详细思维导图\u003C\u002Fa>\n\u003C\u002Fp>\n\n本书详细介绍，请移步 [\u003Cb>序言\u003C\u002Fb>](\u002Fdocs\u002Fbook_preface.md)。\n\n* 第一部分包括基础知识和预备知识。提供深度学习的入门课程，然后在理论篇中，将快速向你介绍实践计算机视觉所需的前提条件，例如如何存储和处理数据，以及如何应用基于线性代数、微积分和概率基本概念的各种数值运算，涵盖了深度学习的最基本概念和技术，例如线性回归、多层感知机和正则化。\n\n* 第二部分是本书涉及的计算机视觉基础理论，核心部分为神经网络模型，包括神经网络、卷积神经网络、循环神经网络理论讲解，以图像分类、模型拟合与优化作为其代码的实战项目。在模型拟合和优化章节中，着重分享梯度下降、随机梯度下降、动量法、AdaBoost等方法。\n\n* 接下来的七章集中讨论现代计算机视觉技术实战，也是本书的核心部分。围绕这样的组织逻辑：什么是计算机视觉？计算机视觉解决什么问题，都是怎么解决的？传统方法——以卷积神经网络为中心的神经网络；现代方法——Transformer、强化学习、迁移学习、生成对抗等。各种方法是如何实现的，用到了什么框架？在第7章中，描述了计算机视觉的经典卷积神经网络PyTorch实现，并为我们随后实现更复杂的模型奠定了基础。在随后的几个章节中，我们主要解决图像分类、目标检测、语义分割、3D重建等实际问题，并给出实战项目。\n\n* 该部分以项目为实战指导，给出详细的项目指导书和代码实现，更为特别的是，给出了**notebook**可以直接在线运行，跑通结果，免去了本地运行环境的搭建复杂性。于此同时，为了方便读者在本地调试，作者建立了一个名为 ``L0CV`` 的第三方包，可以直接在代码中 ``import L0CV`` 后使用。\n\n* 第三部分讨论最近几年出现的\u003Cb>“网红”模型\u003C\u002Fb>，诸如：Transformer、Attention、知识蒸馏、迁移学习、生成对抗模型等。这部分也是此份资料的力挺之作。最后，在 `chap_optimization` 中，我们讨论了用于训练深度学习模型的几种常用优化算法，如：模型压缩、模型剪枝、微调、蒸馏等。\n\n[Index](#-以用促学先会后懂-)\n\n## 🌈 愿景\n\n本开源项目代表了我们的一种尝试：我们将教给读者概念、背景知识和代码；我们将在同一个地方阐述剖析问题所需的批判性思维、解决问题所需的数学知识，以及实现解决方案所需的工程技能。\n\n我们的目标是创建一个为实现以下目标的统一资源：\n1. 所有人均可在网上免费获取；\n2. 提供足够的技术深度，从而帮助读者实际成为计算机视觉应用科学家：既理解数学原理，又能够实现并不断改进方法；\n3. 包含可运行的代码，为读者展示如何在实际中解决问题。这样不仅直接将数学公式对应成实际代码，而且可以修改代码、观察结果并及时获取经验；\n4. 允许我们和整个[社区](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fdiscussions)不断快速迭代内容，从而紧跟仍在高速发展的计算机视觉领域；\n5. 由包含有关技术细节问答的论坛作为补充，使大家可以相互答疑并交换经验。\n\n[Index](#-以用促学先会后懂-)\n\n\u003Cbr>\n\n## 📘 本书目录\n\n> \u003Ch4>👉  在线阅读（优先更新实战篇和进阶篇）\u003C\u002Fh4>\n> - 地址：https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F\n\n\u003Cdetails>\u003Csummary>📘 详细目录(点击展开)\u003C\u002Fsummary>\n\t\n\u003Ctable align=\"center\">\n\u003Ctr>\n\u003Ctd>\n\n- \u003Cb>\u003Ch4>[序言](\u002Fdocs\u002Fbook_preface.md)\u003C\u002Fh4>\u003C\u002Fb>\n- \u003Cb>\u003Ch4>主要符号表\u003C\u002Fh4>\u003C\u002Fb>\n- \u003Cb>\u003Ch4>绪论篇\u003C\u002Fh4>\u003C\u002Fb>\n  - 第 0 章  [计算机视觉概述](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002Fchapter0\u002Fchapter0)\n    - 0.1 [概述](docs\u002F0_绪论\u002Fchapter0.1_概述.md)\n\t  - 0.1.1 什么是计算机视觉\n\t  - 0.1.2 计算机视觉解决什么问题\n\t  - 0.1.3 行业应用\n    - 0.2 [计算机视觉基本概念](docs\u002F0_绪论\u002Fchapter0.2_计算机视觉基本概念.md)\n    - 0.3 [发展历史回顾](docs\u002F0_绪论\u002Fchapter0.3_发展历史回顾.md)\n    - 0.4 [典型的计算机视觉任务](docs\u002F0_绪论\u002Fchapter0.4_典型的计算机视觉任务.md)\n      - 图像分类 \n      - 目标识别与目标检测\n      - 实例分割与语义分割\n      - 3D 建模\n\t- 0.5 [国内外优秀的计算机视觉团队汇总](docs\u002F0_绪论\u002Fchapter0.5_国内外优秀的计算机视觉团队汇总.md)\n    - 小练习\n    - 小结\n    - 参考文献\n- \u003Cb>\u003Ch4>理论篇\u003C\u002Fh4>\u003C\u002Fb>\n  - 第 1 章 [神经网络](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002Fchapter2\u002Fchapter2)\n    - 1.1 [线性回归](\u002F1_理论篇\u002Fchapter1_Neural-Networks\u002Fchapter1.1_line-regression.md)\n      - 1.1.1 基本原理\n      - 1.1.2 从零实现线性回归\n      - 1.1.3 线性回归的简洁实现\n    - 1.2 [Softmax 回归](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002Fchapter1.2_Softmax回归.md)\n      - 1.2.1 softmax回归模型\n      - 1.2.2 从零开始实现softmax回归\n      - 1.2.3 softmax回归的简洁实现\n    - 1.3 [多层感知器](.\u002Fdocs\u002F1_理论篇\u002Fchapter1_Neural-Networks\u002Fchapter1.3_多层感知器MLP.md)\n      - 1.3.1 基本原理\n      - 1.3.2 从零开始实现多层感知器\n      - 1.3.3 多层感知器的简洁实现\n    - 1.4 [反向传播算法](.\u002Fdocs\u002F1_理论篇\u002Fchapter1_Neural-Networks\u002Fchapter1.4_Back-Propagation.md)\n    - 1.5 [神经网络](.\u002Fdocs\u002F1_理论篇\u002Fchapter1_Neural-Networks\u002Fchapter1.5_neural-networks.md)\n      - 1.5.1 [神经学观点](.\u002Fdocs\u002F1_理论篇\u002Fchapter1_Neural-Networks\u002Fchapter1.5.1_神经学观点.md)\n      - 1.5.2 [神经网络1-建立神经网络架构](https:\u002F\u002Fcs231n.github.io\u002Fneural-networks-1\u002F)\n      - 1.5.3 [神经网络2-设置数据和损失](https:\u002F\u002Fcs231n.github.io\u002Fneural-networks-2\u002F)\n      - 1.5.4 [神经网络3-学习和评估](https:\u002F\u002Fcs231n.github.io\u002Fneural-networks-3\u002F)\n      - 1.5.5 [案例分析-最小神经网络案例研究](https:\u002F\u002Fcs231n.github.io\u002Fneural-networks-case-study\u002F)\n    - 1.6 [实战项目 1 - 手写字分类](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F108531735)\n    - 小结\n    - 参考文献\n  - 第 2 章 [卷积神经网络](docs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md)\n    - 2.1 [从神经网络到卷积神经网络](docs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#21-从神经网络到卷积神经网络)\n      - 2.1.1 [定义](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#211-定义)\n      - 2.1.2 [卷积神经网络的架构](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#212-卷积神经网络的架构)\n    - 2.2 [卷积网络的层级结构](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#22-卷积网络的层级结构)\n      - 2.2.1 [数据输入层](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#221-数据输入层)\n      - 2.2.2 [卷积计算层](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#222-卷积计算层)\n      - 2.2.3 [非线性层（或激活层）](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#223-非线性层或激活层)\n      - 2.2.4 [池化层](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#224-池化层)\n      - 2.2.5 [全连接层](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#225-全连接层)\n    - 2.3 [卷积神经网络的几点说明](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#23-卷积神经网络的几点说明)\n    - 2.4 [实战项目 2 - 动手搭建一个卷积神经网络](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md)\n      - 2.4.1 [卷积神经网络的前向传播](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#271-卷积神经网络的前向传播)\n      - 2.4.2 [卷积神经网络的反向传播](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#272-卷积神经网络的反向传播)\n      - 2.4.3 [手写一个卷积神经网络](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#273-手写一个卷积神经网络)\n        - [1. 定义一个卷积层](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#1-定义一个卷积层)\n        - [2. 构造一个激活函数](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#2-构造一个激活函数)\n        - [3. 定义一个类，保存卷积层的参数和梯度](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#3-定义一个类保存卷积层的参数和梯度)\n        - [4. 卷积层的前向传播](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#4-卷积层的前向传播)\n        - [5. 卷积层的反向传播](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#5-卷积层的反向传播)\n        - [6. MaxPooling层的训练](docs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#6-MaxPooling层的训练)\n      - 2.4.4 [PaddlePaddle卷积神经网络源码解析](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md#274-PaddlePaddle卷积神经网络源码解析)\n    - [小结](docs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#小结)\n    - [参考文献](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN.md#参考文献)\n  - 第 3 章 [图像分类](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002F)\n    - 3.1 [数据驱动方法](https:\u002F\u002Fcs231n.github.io\u002Fclassification\u002F)\n      - 3.1.1 语义上的差别\n      - 3.1.2 图像分类任务面临着许多挑战\n      - 3.1.3 数据驱动的方法\n    - 3.2 [k 最近邻算法](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002Fchapter3.2_knn.md)\n      - 3.2.1 k 近邻模型\n      - 3.2.2 k 近邻模型三个基本要素\n      - 3.2.3 KNN算法的决策过程\n      - 3.2.4 k 近邻算法Python实现\n      - 小结\n      - 参考文献\n    - 3.3 [支持向量机](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002Fchapter3.3_支持向量机.md)\n      - 3.3.1 概述\n      - 3.3.2 线性支持向量机\n      - 3.3.3 从零开始实现支持向量机\n      - 3.3.4 支持向量机的简洁实现\n    - 3.4 [逻辑回归 LR](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002Fchapter3.4_Logistic-Regression.md)\n      - 3.4.1 逻辑回归模型\n      - 3.4.2 从零开始实现逻辑回归\n      - 3.4.3 逻辑回归的简洁实现\n    - 3.5 [实战项目 3 - 表情识别](https:\u002F\u002Fblog.csdn.net\u002Fcharmve\u002Fcategory_9754344.html)\n    - 3.6 [实战项目 4 - 使用卷积神经网络对CIFAR10图片进行分类](http:\u002F\u002Fmp.weixin.qq.com\u002Fs?__biz=MzIxMjg1Njc3Mw%3D%3D&chksm=97bef597a0c97c813e185e1bbf987b93d496c6ead8371364fd175d9bac46e6dcf7059cf81cb2&idx=1&mid=2247487293&scene=21&sn=89684d1c107177983dc1b4dca8c20a5b#wechat_redirect)\n    - [小结](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002FREADME.md#小结)\n    - [参考文献](.\u002Fdocs\u002F1_理论篇\u002Fchapter3_Image-Classification\u002FREADME.md#参考文献)\n  - 第 4 章 循环神经网络\n    - [4.1 循环神经网络 RNN](\u002Fdocs\u002F1_理论篇\u002Fchapter4_循环神经网络\u002Fchapter4.1_循环神经网络.md)\n    - [4.2 循环神经网络的从零开始实现](\u002Fdocs\u002F1_理论篇\u002Fchapter4_循环神经网络\u002Fchapter4.1_循环神经网络.md)\n    - [4.3 循环神经网络的简洁实现](\u002Fdocs\u002F1_理论篇\u002Fchapter4_循环神经网络\u002Fchapter4.1_循环神经网络.md)\n    - [4.4 长短期记忆人工神经网络 LSTM](\u002Fdocs\u002F1_理论篇\u002Fchapter4_循环神经网络\u002Fchapter4.4_长短期记忆人工神经网络LSTM.md)\n    - [4.5 门控循环单元（GRU）](\u002Fdocs\u002F1_理论篇\u002Fchapter4_循环神经网络\u002Fchapter4.5_门控循环单元.md)\n    - 小结\n    - 练习\n    - 参考文献\n  - 第 5 章 [图神经网络](\u002Fdocs\u002F1_理论篇\u002Fchapter5_图神经网络\u002Fchapter5_图神经网络.md)\n    - 5.1 [历史脉络](\u002Fdocs\u002F1_理论篇\u002Fchapter5_图神经网络\u002Fchapter5_图神经网络.md#51-历史脉络)\n    - 5.2 [图神经网络(Graph Neural Network)](https:\u002F\u002Fwww.cnblogs.com\u002FSivilTaram\u002Fp\u002Fgraph_neural_network_1.html)\n      - 5.2.1 [状态更新与输出](\u002Fdocs\u002F1_理论篇\u002Fchapter5_图神经网络\u002Fchapter5_图神经网络.md#51-常见数据集)\n      - 5.2.2 [不动点理论](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md#812-pytorch数据集及读取方法简介)\n      - 5.2.3 [具体实现](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md#813-数据增强简介)\n      - 5.2.4 [模型学习]()\n      - 5.2.5 [GNN与RNN](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.2_基准BenchMark.md)\n      - 5.2.6 [GNN的局限]()\n    - 5.3 [门控图神经网络(Gated Graph Neural Network)]()\n      - 5.3.1 状态更新\n      - 5.3.2 实例1:到达判断\n      - 5.3.3 实例2:语义解析\n      - 5.3.4 GNN与GGNN\n    - 5.4 [图卷积神经网络(GCNN)](https:\u002F\u002Fwww.cnblogs.com\u002FSivilTaram\u002Fp\u002Fgraph_neural_network_2.html)\n      - 5.4.1 图卷积缘起\n      - 5.4.2 图卷积框架(Framework)\n      - 5.4.3 再谈卷积\n      - 5.4.4 空域卷积(Spatial Convolution)\n      - 5.4.5 消息传递网络(Message Passing Neural Network)\n      - 5.4.6 图采样与聚合(Graph Sample and Aggregate)\n      - 5.4.7 图结构序列化(PATCHY-SAN)\n      - 5.4.8 频域卷积(Spectral Convolution)\n    - 5.5 [生成图表示](https:\u002F\u002Fwww.cnblogs.com\u002FSivilTaram\u002Fp\u002Fgraph_neural_network_3.html)\n      - 5.5.1 图读出操作(ReadOut)\n      - 5.5.2 基于统计的方法(Statistics Category)\n      - 5.5.3 基于学习的方法(Learning Category)\n      - 5.5.4 其他方法\n    - 5.6 [图神经网络在计算机视觉上的应用](https:\u002F\u002Fwww.cnblogs.com\u002FSivilTaram\u002Fp\u002Fgraph_neural_network_3.html)\n      - 5.6.1 [点云分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.03751)\n      - 5.6.2 [点云生成](https:\u002F\u002Fopenreview.net\u002Fforum?id=SJeXSo09FQ)\n      - 5.6.3 [RGBD图像分割](https:\u002F\u002Fwww.cs.toronto.edu\u002F~urtasun\u002Fpublications\u002Fqi_etal_iccv17.pdf)\n      - 5.6.4 [视觉问答VQA](https:\u002F\u002Fvisualqa.org\u002F)\n      - 5.6.5 [零次学习ZSL](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1803.08035.pdf)\n    - 小结\n    - 参考文献\n  - 第 5 章 [模型选择、欠拟合和过拟合](\u002Fnotebooks\u002F)\n    - 5.1 [训练误差和泛化误差](\u002Fnotebooks\u002F)\n    - 5.2 [模型选择](\u002Fnotebooks\u002F)\n    - 5.3 [欠拟合和过拟合](\u002Fnotebooks\u002F)\n    - 5.4 [多项式函数拟合实验](\u002Fnotebooks\u002F)\n    - 5.5 [数值稳定性和模型初始化](\u002Fnotebooks\u002F)\n    - 小结\n    - 参考文献\n  - 第 6 章 [模型拟合与优化算法](\u002Fnotebooks\u002Fchapter07_optimization\u002F)\n    - 6.1 [优化与深度学习](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.1_optimization-intro.ipynb)\n    - 6.2 [梯度下降和随机梯度下降](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.2_gd-sgd.ipynb)\n    - 6.3 [小批量随机梯度下降](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.3_minibatch-sgd.ipynb)\n    - 6.4 [动量法](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.4_momentum.ipynb)\n    - 6.5 [AdaGrad算法](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.5_adagrad.ipynb)\n    - 6.6 [RMSProp算法](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.6_rmsprop.ipynb)\n    - 6.7 [AdaDelta算法](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.7_adadelta.ipynb)\n    - 6.8 [Adam算法](\u002Fnotebooks\u002Fchapter07_optimization\u002F7.8_adam.ipynb)\n    - 小结\n    - 参考文献\n- \u003Cb>\u003Ch4>实战篇\u003C\u002Fh4>\u003C\u002Fb>\n  - 第 6 章 [软件环境搭建与工具使用](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002Fchapter6\u002Fchapter6)\n    - 6.1 [深度学习环境搭建指南](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.1_深度学习环境搭建指南.md)\n    - 6.2 [Pytorch 基础使用介绍](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.2_Pytorch-基础使用介绍.md)\n      - 6.2.1 [Tensors](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.2_Pytorch-基础使用介绍.md#621-tensors)\n      - 6.2.2 [Operations](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.2_Pytorch-基础使用介绍.md#622-operations)\n      - 6.2.3 [Numpy桥梁](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.2_Pytorch-基础使用介绍.md#623-numpy桥梁)\n      - 6.2.4 [CUDA Tensors](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.2_Pytorch-基础使用介绍.md#624-cuda-tensors)\n    - 6.3 [Python](.\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002F02_Python.ipynb)\n    - 6.4 [Numpy 基础使用](.\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002F03_NumPy.ipynb)\n    - 6.5 [Pandas 基础使用](.\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002F04_Pandas.ipynb)\n    - 6.6 [OpenCV 安装及基础使用](.\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002FOpenCV-ImageStitching.ipynb)\n    - 6.7 [Jupyter Notebook 配置及基础使用](.\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002F01_Notebooks.ipynb)\n    - 6.8 [基本的图像操作和处理](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.8_基本的图像操作和处理.md)\n      - 6.8.1 [PIL：Python图像处理类库](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.8_基本的图像操作和处理.md#781-pil-python图像处理类库)\n      - 6.8.2 [Matplotlib](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.8_基本的图像操作和处理.md#782-matplotlib)\n      - 6.8.3 [NumPy](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.8_基本的图像操作和处理.md#783-numpy)\n      - 6.8.4 [SciPy](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.8_基本的图像操作和处理.md#784-scipy)\n      - 6.8.5 [高级示例：图像去噪](docs\u002F2_实战篇\u002Fchapter6_深度学习环境搭建\u002Fchapter6.8_基本的图像操作和处理.md#785-高级示例-图像去噪)\n    - 6.9 [实战项目 5 - 使用OpenCV进行图像全景拼接](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F107897468)\n    - 小结\n    - 参考文献\n  - 第 7 章 [经典卷积神经网络架构：原理与PyTorch实现](https:\u002F\u002Fgithub.com\u002FCharmve\u002FSemantic-Segmentation-PyTorch)\n    - 7.1 [卷积神经网络（LeNet）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.1%20卷积神经网络（LeNet）.md)\n    - 7.2 [深度卷积神经网络（AlexNet）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.2%20深度卷积神经网络（AlexNet）.md)\n    - 7.3 [使用重复元素的网络（VGG）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.3%20使用重复元素的网络（VGG）.md)\n    - 7.4 [含并行连结的网络（GoogLeNet）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.4%20含并行连结的网络（GoogLeNet）.md)\n    - 7.5 [残差网络（ResNet）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.6_残差网络-ResNet.md)\n    - 7.6 [二阶网络编码解码（U-Net）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.7_二阶网络编码解码-UNet.md)\n    - 7.7 [稠密连接网络（DenseNet）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.8_稠密连接网络-DenseNet.md)\n    - 7.8 [语义分割网络（SegNet）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.9_语义分割网络-SegNet.md)\n    - 7.9 [实例分割网络（Mask-RCNN）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.9_实例分割网络-Mask-RCNN.md)\n    - 7.10 [区域卷积神经网络（R-CNN）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.10_区域卷积神经网络-RCNN.md)\n    - 7.11 [全卷积网络（FCN）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002Fchapter7.11_全卷积网络-FCN.md)\n    - 7.12 [YOLO: 实时目标检测](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F)\n    - 小结\n    - 参考文献\n  - 第 8 章 [著名数据集及基准](docs\u002F2_实战篇\u002Fchapter8_著名数据集及基准)\n    - 8.1 [数据集](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md)\n        - 8.1.1 [常见数据集](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md#811-常见数据集)\n          - 8.1.1.1 [ImageNet](https:\u002F\u002Fimage-net.org\u002F)\n          - 8.1.1.2 [MNIST](http:\u002F\u002Fyann.lecun.com\u002Fexdb\u002Fmnist\u002F)\n          - 8.1.1.3 [COCO](https:\u002F\u002Fcocodataset.org\u002F)\n          - 8.1.1.4 [CIFAR-10](http:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html)\n        - 8.1.2 [Pytorch数据集及读取方法简介](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md#812-pytorch数据集及读取方法简介)\n        - 8.1.3 [数据增强简介](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md#813-数据增强简介)\n        - [总结](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.1_著名数据集.md#总结)\n    - 8.2 [基准测试](\u002Fdocs\u002F2_实战篇\u002Fchapter8_著名数据集及基准\u002Fchapter8.2_基准BenchMark.md)\n    - 8.3 [评价指标](\u002Fchapter8.3_评价指标.md)\n    - 8.4 [实战项目 6 - Kaggle比赛：图像分类（CIFAR-10）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.12%20实战Kaggle比赛：图像分类（CIFAR-10）.md)\n    - 8.5 [实战项目 7 - Kaggle比赛：狗的品种识别（ImageNet Dogs）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.13%20实战Kaggle比赛：狗的品种识别（ImageNet%20Dogs）.md)\n    - 小结\n    - 参考文献\n  - 第 9 章 [检测与分割实战项目](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002Fchapter9\u002Fchapter9)\n    - 9.1 语义分割\n      - 9.1.1 [语义分割 PyTorch 版](https:\u002F\u002Fgithub.com\u002FCharmve\u002FSemantic-Segmentation-PyTorch)\n      - 9.1.2 [实战项目 8 - 基于PolarNet的点云端到端语义分割项目实战]()\n    - 9.2 目标检测\n      - 9.2.1 常用网络\n      - 9.2.2 [实战项目 9 - 基于PyTorch的YOLO5目标检测项目实战]()\n    - 9.3 [实例分割](\u002Fdocs\u002F2_实战篇\u002Fchapter9_检测与分割实战项目\u002F9.3%20实例分割.md)\n      - 9.3.1 [常用网络](\u002Fdocs\u002F2_实战篇\u002Fchapter9_检测与分割实战项目\u002F9.3%20实例分割.md#931-常用网络)\n      - 9.3.2 [实战项目 10 - 实时高分辨率背景抠图](\u002Fdocs\u002F2_实战篇\u002Fchapter9_检测与分割实战项目\u002F9.3%20实例分割.md#932-实战项目-8-实时高分辨率背景抠图)\n      - 9.3.3 新方法：[滑动窗口](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F108915225), [PointRend](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F108892076), [PolarMask](https:\u002F\u002Fgithub.com\u002Fxieenze\u002FPolarMask)\n    - 小结\n    - 参考文献\n  - 第 10 章 [计算机视觉课题研究初探](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002Fchapter10\u002Fchapter10)\n    - 10.1 [手写字识别](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F108531735)\n    - 10.2 [文本检测](https:\u002F\u002Fgithub.com\u002FCharmve\u002FScene-Text-Detection)\n    - 10.3 [车道线检测](https:\u002F\u002Fgithub.com\u002FCharmve\u002FAwesome-Lane-Detection)\n      - 10.3.1 [常用网络](https:\u002F\u002Fgithub.com\u002FCharmve\u002FAwesome-Lane-Detection)\n      - 10.3.2 [实战项目 11 - 车道线检测项目实战](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F116678477)\n    - 10.4 [镜面检测](https:\u002F\u002Fgithub.com\u002FCharmve\u002FMirror-Glass-Detection)\n    - 10.5 [图像抠图 Matting](\u002Fdocs\u002F2_实战篇\u002Fchapter10_计算机视觉课题研究初探\u002Fcharpter10_5-图像抠图.md)\n    - 10.6 [图像超分辨率](\u002Fdocs\u002F2_实战篇\u002Fchapter10_计算机视觉课题研究初探\u002Fcharpter10_6-图像超分辨率.md)\n    - 10.7 [3D 重建](\u002Fdocs\u002F2_实战篇\u002Fchapter10_计算机视觉课题研究初探\u002Fcharpter10_7-3D重建.md)\n    - 小结\n    - 参考文献\n- \u003Cb>\u003Ch4>进阶篇\u003C\u002Fh4>\u003C\u002Fb>\n  - 第 11 章 [可视化和理解卷积神经网络](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002F)\n    - 11.1 特征可视化\n    - 11.2 倒置\n    - 11.3 可视化数据梯度\n    - 11.4 [Embeddings](https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter13_Understanding-and-Visualizing\u002FEmbeddings.ipynb)\n    - 11.5 对抗样本\n    - 11.6 [DeepDream 和风格迁移](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3.3_neural-style.md)\n    - 11.7 [实战项目 12: PyTorch 如何使用TensorBoard](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md)\n      - 11.4.1 [创建 TensorBoard](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#1141-创建-tensorboard)\n      - 11.4.2 [写入 TensorBoard](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#1142-写入-tensorboard)\n      - 11.4.3 [使用 TensorBoard 检查模型](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#1143-使用-tensorboard-检查模型)\n      - 11.4.4 [向 TensorBoard 添加 \"Projector\"](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#1144-向-tensorboard-添加-projector)\n      - 11.4.5 [使用 TensorBoard 跟踪模型训练](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#1145-使用-tensorboard-跟踪模型训练)\n      - 11.4.6 [使用 TensorBoard 评估训练好的模型](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#1146-使用-tensorboard-评估训练好的模型)\n      - 11.4.7 [案例总结](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-可视化和理解.md#小结)\n    - 小结\n    - 参考文献\n  - 第 12 章 [生成对抗模型](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002Fchapter6\u002Fchapter6)\n    - 12.1 Pixel RNN\u002FCNN\n    - 12.2 [自编码器 Auto-encoder](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_2-自编码器Auto-encoder.md)\n    - 12.3 [生成对抗网络 GAN](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md)\n      - 12.3.1 [概述](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#1231-概述)\n      - 12.3.2 [GAN的基本思想](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#1232-gan的基本思想)\n      - 12.3.3 [GAN浅析](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#1233-gan浅析)\n        - 12.3.3.1 [GAN的基本结构](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#12331-gan的基本结构)\n        - 12.3.3.2 [GAN的训练方式](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#12332-gan的训练方式)\n          - [关于生成器](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#关于生成器)\n          - [关于判别器](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#关于判别器)\n          - [如何训练](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#如何训练)\n      - 12.3.4 [训练相关理论基础](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#1234训练相关理论基础)\n      - 12.3.5 项目实战案例StyleGAN\n        - [StyleGAN](https:\u002F\u002Fgithub.com\u002FCharmve\u002FVOGUE-Try-On)\n        - [StyleGAN 2.0](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F115315353)\n      - 12.3.6 [实战项目11 - 图像风格迁移](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3.3_neural-style.md)\n      - [小结](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#小结)\n      - [参考文献](\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3_生成对抗网络GAN.md#参考文献)\n    - 12.4 [变分自编码器 Variational Auto-encoder, VAE](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md)\n      - 12.4.1 [概述](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#1241-概述)    \n      - 12.4.2 [基本原理](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#1242-基本原理)        \n        - 12.4.2.1 [定义](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#1-定义)        \n        - 12.4.2.2 [理论基础：三要素](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#2-理论基础三要素) \n        - 12.4.2.3 [推导过程](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#3-推导过程)            \n      - 12.4.3 [VAE v.s. AE 区别与联系](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#1243-vae-vs-ae-区别与联系)    \n      - 12.4.4 [变分自编码器的代码实现](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#1244-变分自编码器的代码实现)    \n      - 12.4.5 [卷积变分自编码器的实现与简单应用](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#1245-卷积变分自编码器的实现与简单应用)  \n      - 12.4.6 [实战项目 13 - 旧照片修复](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FBringing-Old-Photos-Back-to-Life) \n      - 小结     \n      - [参考文献](docs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12_4-变分自编码器VAE.md#参考文献) \n    - 参考文献\n  - 第 13 章 [深度增强学习](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md)\n    - 13.1 [引言-如何解决通用人工智能的难点](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#141-引言-如何解决通用人工智能的难点)\n    - 13.2 [什么是深度增强学习](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#142-什么是深度增强学习)\n      - 13.2.1 [深度学习](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#1421-深度学习)\n      - 13.2.2 [增强学习](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#1422-增强学习)\n      - 13.2.3 [二者的融合](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#1423-二者的融合)\n    - 13.3 [怎么利用深度增强学习解决问题](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#143-怎么利用深度增强学习解决问题)\n      - 13.3.1 [Policy-based DRL](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#1431-policy-based-drl)\n      - 13.3.2 [Value-based DRL](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#1432-value-based-drl)\n      - 13.3.3 [Model-based DRL](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#1433-model-based-drl)\n    - 13.4 [深度增强学习在计算机视觉中的应用](#144-深度增强学习在计算机视觉中的应用)\n    - [小结](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#小结)\n    - [参考文献](\u002Fdocs\u002F3_进阶篇\u002Fchapter13-深度增强学习\u002Fchapter13-深度增强学习.md#参考文献)\n  - 第 14 章 [视频理解](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md)\n    - 14.1 [概述](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#141-概述)\n    - 14.2 [视频理解场景中的主要问题](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#142-视频理解场景中的主要问题)\n    - 14.3 [常用数据集](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#143-常用数据集)\n    - 14.4 [主流方法与模型架构](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#144-主流方法与模型架构)\n    - 14.5 [指标 METRICS](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#145-指标-metrics)\n    - 14.6 [可能的未来方向](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#146-可能的未来方向)\n    - [小结](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#小结)\n    - [参考文献](\u002Fdocs\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解.md#参考文献)\n  - 第 15 章 [迁移学习](.\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习)\n    - 15.1 [概述](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#151-迁移学习概述)\n      - 15.1.1 [背景](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#1511-背景)\n      - 15.1.2 [定义及分类](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#1512-定义及分类)\n      - 15.1.3 [关键点](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#1513-关键点)\n    - 15.2 [基于实例的迁移](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#152-基于实例的迁移)\n    - 15.3 [基于特征的迁移](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#153-基于特征的迁移)\n    - 15.4 [基于共享参数的迁移](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#154-基于共享参数的迁移)\n    - 15.5 [深度学习和迁移学习结合](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习概述.md#155-深度学习和迁移学习结合)\n    - 15.7 [实战项目 14 - 蚂蚁和蜜蜂的分类问题](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习的应用.md)\n      - 15.7.1 [迁移学习在计算机视觉领域的应用](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习的应用.md#1571-迁移学习在计算机视觉领域的应用)\n      - 15.7.2 [实战项目: 蚂蚁和蜜蜂的分类问题](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习的应用.md#1572-实战项目-蚂蚁和蜜蜂的分类问题)\n    - [小结](#小结)\n    - [参考文献](#参考文献)\n  - 第 16 章 [计算机视觉中的注意力机制 Attention is All You Need](.\u002Fnotebooks\u002Fchapter16_Attention\u002F1_Attention.ipynb)\n    - 16.1 概述\n    - 16.2 Attention with RNNs\n    - 16.3 [Self-attention 自注意力](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FnUd7YtCci1_AwQ4nOwK9bA)\n    - 16.4 软注意力（soft-attention）\n      - 16.4.1 空间域注意力\n      - 16.4.2 通道注意力\n      - 16.4.3 Positional encoding\n      - 16.4.4 混合域模型\n      - 16.4.5 Masked attention\n      - 16.4.6 Multi-head attention\n    - 16.5 强注意力（hard attention）\n    - 16.6 [Attention九层塔 - 注意力机制的九重理解](\u002Fdocs\u002F3_进阶篇\u002Fchapter16-注意力机制%20Attention%20is%20All%20You%20Need\u002Fchapter16_Attention-is-All-You-Need.md)\n    - 小结\n    - 参考文献\n  - 第 17 章 [跨界模型 Transformer](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md)\n    - 17.1 [思想和框图](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#%E4%B8%80%E6%80%9D%E6%83%B3%E5%92%8C%E6%A1%86%E5%9B%BE)\n    - 17.2 [实现细节](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#二实现细节)\n      - [17.2.1 Encoder](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#2-1-Encoder)\n      - [17.2.2 Decoder](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#2-2-Decoder)\n      - [17.2.3 Self-Attention](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#2-3-Self-Attention)\n      - [17.2.4 Multi-Headed Attention](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#2-4-Multi-Headed-Attention)\n      - [17.2.5 Positional Encoding](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#2-5-Positional-Encoding)\n    - 17.3 [应用任务和结果](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#三-应用任务和结果)\n      - 17.3.1 [NLP领域](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#3-1-NLP领域)\n      - 17.3.2 [CV领域](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#3-2-CV领域)\n        - 17.3.2.1 [检测DETR](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#3-2-1-检测DETR)\n        - 17.3.2.2 [分类ViT](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#3-2-2-分类ViT)\n        - 17.3.2.3 [分割SETR](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#3-2-3-分割SETR)\n        - 17.3.2.4 [Deformable-DETR](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#3-2-4-Deformable-DETR)\n    - 17.4 [优点及分析](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#四-优点及分析)\n    - 17.5 [缺点及分析](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#五-缺点及分析)\n    - [实战项目 15 - 基于Transformer的视频实例分割网络VisTR (CVPR2021)](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F115339803)\n    - 小结\n    - [参考文献](\u002Fdocs\u002F3_%E8%BF%9B%E9%98%B6%E7%AF%87\u002Fchapter17-%E8%B7%A8%E7%95%8C%E6%A8%A1%E5%9E%8B%20Transformer\u002Fchapter17_Transformer.md#六-参考文献)\n  - 第 18 章 [知识蒸馏](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002Fe3c_-rs2rncmWhbm-cU5rA)\n    - 18.1 概要\n    - 18.2 KD主要方法\n      - 18.2.1 Logits(Response)-based Knowledge\n      - 18.2.2 Feature-based Knowledge\n      - 18.2.3 Relation-based Knowledge\n    - 18.3 知识蒸馏的应用 NLP-BERT\n    - 18.4 常见疑问解答\n    - [实战项目 16 - 支付宝CVPR细粒度视觉分类挑战赛夺冠方案解读](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FRTkBQJ7Uj86Wxt7HmwWKzA)\n    - 小结\n    - [参考文献](#参考文献)\n  - 第 19 章 [Normalization 模型](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F107650487)\n    - 19.1 从Mini-Batch SGD说起\n    - 19.2 Normalization到底是在做什么\n    - 19.3 Batch Normalization如何做\n      - 19.3.1 前向神经网络中的BN\n      - 19.3.2 CNN网络中的BN\n      - 19.3.3 Batch Norm的四大罪状\n    - 19.4 Layer Normalization、Instance Normalization及Group Normalization\n      - 19.4.1 Layer Normalization\n      - 19.4.2 Instance Normalization\n      - 19.4.3 Group Normalization\n      - 19.4.4 用一个故事来总结\n    - 19.5 Normalization操作的Re-Scaling不变性\n    - 19.6 Batch Normalization为何有效\n    - 小结\n    - [参考文献](#参考文献)\n  - 第 20 章 [模型压缩与裁剪](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002Fe3c_-rs2rncmWhbm-cU5rA) \n    - 20.1 概述\n    - 20.2 模型压缩\n      - 20.2.1 线性或非线性量化（1990~2014 - 至今）\n      - 20.2.2 结构或非结构剪枝（1989~2014 - 至今\n      - 20.2.3 网络结构搜索（2016 - 至今）\n      - 20.2.4 权重矩阵的低秩分解（）\n      - 20.2.5 知识蒸馏（2014-至今）\n    - 20.3 模型优化加速\n      - 20.3.1 Op-Level 的快速算法\n      - 20.3.2 Layer0-level 的快速算法\n      - 20.3.3 硬件计算单元优化算法\n      \t- CPU、GPU和NPU\n      \t- ASIC 和 FPGA\n      \t- PIM（NDP）\n    - 20.4 优化工具与库\n      - 20.4.1 TensorRT Nvidia)\n      - 20.4.2 TVM (Tensor Virtual Machine)\n      - 20.4.3 Tensor Comprehension  (Facebook)\n      - 20.4.4 Distiller (Intel)\n    - 小结\n    - [参考文献](#六-参考文献)\n  - \u003Cb>\u003Ch4>附录\u003C\u002Fh4>\u003C\u002Fb>\n    - A 矩阵\n    - B [常用激活函数总结](https:\u002F\u002Fmp.weixin.qq.com\u002Fs?__biz=MzIxMjg1Njc3Mw==&mid=2247484495&idx=1&sn=0bbb2094d93169baf20eedb284bc668f)\n    - C [梯度下降法](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F106089198)\n    - D [深度学习调参技巧总结](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F107650479)\n  - \u003Cb>\u003Ch4>[后记](\u002Fdocs\u002Fbook_postscript.md)\u003C\u002Fh4>\u003C\u002Fb>\n  - \u003Cb>\u003Ch4>[参考文献](#参考文献-1)\u003C\u002Fh4>\u003C\u002Fb>\n\n\u003Cbr>\n- \u003Cb>更新中 ...\u003C\u002Fb>\n\n\u003Cbr>[收起](#-本书目录)\n\u003C\u002Ftr>\n\u003C\u002Ftd>\n\u003C\u002Ftable>\n\n\u003C\u002Fdetails>\n\n[Index](#-以用促学先会后懂-)\n\n\n\n## 🔍 文件浏览\n\n按书中内容先后顺序逐章阅读，或者选取特定章节祥读 📁 \u003Ccode>docs\u002F\u003C\u002Fcode> \u003Csup>1\u003C\u002Fsup>，动手实践章节代码，在代码文件 📁 \u003Ccode>code\u002F\u003C\u002Fcode> \u003Csup>2\u003C\u002Fsup> 下找到对应代码，本地测试或者Colab 📁 \u003Ccode>notebooks\u002F\u003C\u002Fcode> \u003Csup>3\u003C\u002Fsup> 在线测试。\n\n> - 📁 \u003Ccode>L0CV\u002F\u003C\u002Fcode> - 专为本项目建立的 ``💮 L0CV`` 包 \n> - 📁 \u003Ccode>code\u002F\u003C\u002Fcode> - 书中完整代码\n> - 📁 \u003Ccode>datasets\u002F\u003C\u002Fcode> - 本书所用数据集\n>   - 📁 \u003Ccode>images\u002F\u003C\u002Fcode> - 经典图像处理图片\n> - 📁 \u003Ccode>docs\u002F\u003C\u002Fcode> - 全书按照一下几个篇目进行编写\n>   - 📁 \u003Ccode>0_绪论\u002F\u003C\u002Fcode> - 全书绪论\n>   - 📁 \u003Ccode>1_理论篇\u002F\u003C\u002Fcode> - 基本理论和算法基础\n>   - 📁 \u003Ccode>2_实战篇\u002F\u003C\u002Fcode> - 项目实战教程\n>   - 📁 \u003Ccode>3_进阶篇\u002F\u003C\u002Fcode> - 最新CV模型和算法\n>   - 📁 \u003Ccode>附件\u002F\u003C\u002Fcode> - 所需数学和统计学知识\n>   - 📁 \u003Ccode>img\u002F\u003C\u002Fcode> - 各章节所使用的插图\n> - 📁 \u003Ccode>models\u002F\u003C\u002Fcode> - 封装可用的预训练模型\n> - 📁 \u003Ccode>notebooks\u002F\u003C\u002Fcode> - 🚩 全书 Colab notebook，可在线测试 \u003Ca href=\"https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action\u002Fmain\u002Fnotebooks\u002F\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa>\n>   - 📁 \u003Ccode>chapter01_neural-networks\u002F\u003C\u002Fcode> - 第 1 章 - 神经网络 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter02_CNN\u002F\u003C\u002Fcode> - 第 2 章 - 卷积神经网络 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter03_Image-Classification\u003C\u002Fcode> - 第 3 章 - 图像分类 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter04_recurrent-neural-networks\u002F\u003C\u002Fcode> - 第 4 章 - 递归神经网络 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter05_graph-neural-network\u002F\u003C\u002Fcode> - 第 5 章 - 图神经网络 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter07_optimization\u002F\u003C\u002Fcode> - 第 6 章 - 模型拟合与优化算法 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter08_environment-setup-and-tool-use\u002F\u003C\u002Fcode> - 第 7 章 - 软件环境搭建与工具使用 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter09_convolutional-neural-networks\u002F\u003C\u002Fcode> - 第 8 章 - 经典神经网络架构：原理与PyTorch实现 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter12_practice-projects\u003C\u002Fcode> - 第 12 章 - 计算机视觉课题研究初探 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter13_Understanding-and-Visualizing\u002F\u003C\u002Fcode> - 第 13 章 - 可视化与理解卷积神经网络 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter14_GAN\u002F\u003C\u002Fcode> - 第 14 章 - 生成对抗模型 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter15_Transfer-Learning\u002F\u003C\u002Fcode> - 第 15 章 - 迪移学习 Jupyter Notebook 实现\n>   - \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action#-以用促学先会后懂-\">\u003Cimg align=\"right\" alt=\"Go for it!\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fdd292873828228a753a9bd2de4576dbf8cc3902c\u002Fres\u002Fui\u002Ffooter-rocket.svg\" height=\"260\" title=\"Do what you like, and do it best!\"\u002F>\u003C\u002Fa>\n>   - 📁 \u003Ccode>chapter16_Attention\u002F\u003C\u002Fcode> - 第 16 章 - 注意力机制 Jupyter Notebook 实现\n>   - 📁 \u003Ccode>chapter17_Transformers\u002F\u003C\u002Fcode> - 第 17 章 - Transformers Jupyter Notebook 实现\n>   - ...\n>   - 📁 \u003Ccode>imgs\u002F\u003C\u002Fcode> - Jupyter Notebook 中用到的图片\n>   - 📁 \u003Ccode>docker\u002F\u003C\u002Fcode> - 为降低读者的学习成本，目前未进行搭建\n>   - 📁 \u003Ccode>res\u002F\u003C\u002Fcode> - ui 图片及全书思维导图PDF\n>   - 📄 \u003Ccode>README.md\u003C\u002Fcode> - 全书介绍及目录\n\n[Index](#-以用促学先会后懂-)\n\n## L0CV DemoDay\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_634f27e79333.png\" title=\"L0CV Demo Day\"> \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002FL0CV-Universe\">L0CV-Universe\u003C\u002Fa>\n\u003C\u002Fp>\n\n如果你也是从这里出发，在开源的项目中应用进去，并在标题下给出引用 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002F\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-💮 %20L0CV-lightgreen.svg\" alt=\"L0CV\" title=\"L0CV\">\u003C\u002Fa>，您的项目将会在这里展现！\n\n\u003Ch5 align=\"center\">\u003Ci>以用促学，先会后懂。理解深度学习的最佳方法是学以致用。\u003C\u002Fi>\u003C\u002Fh5>\n\n\u003Ctable class=\"table table-striped table-bordered table-vcenter\">\n    \u003Ctbody class=ai-notebooks-table-content>\n    \u003Ctr>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter02_CNN\u002FPytorch_MNIST.ipynb\" target=\"_blank\">\u003Cimg width=\"%40\"  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_838af248615a.png\">\u003C\u002Fa>\n            \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fdocs\u002F2__实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.12%20实战Kaggle比赛：图像分类（CIFAR-10）.md\" target=\"_blank\">\u003Cimg width=\"%40\"  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_37764e17a307.png\">\u003C\u002Fa>\n            \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fdocs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.13%20实战Kaggle比赛：狗的品种识别（ImageNet%20Dogs）.md\" target=\"_blank\">\u003Cimg width=\"%40\"  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_7f57a3612618.png\">\u003C\u002Fa>\n            \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter12_practice-projects\u002FBringing-Old-Photo-Back-to-Life.ipynb\" target=\"_blank\">\u003Cimg width=\"%40\"  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_a10fe3de42bf.png\">\u003C\u002Fa>\n                \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002FAwesome-Lane-Detection\u002Ftree\u002Fmain\u002Flane-detector\" target=\"_blank\">\u003Cimg width=\"%40\"  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_716299d1e373.png\">\u003C\u002Fa>\n                \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter12-生成对抗模型\u002Fchapter12.3.3_neural-style.md\" target=\"_blank\">\u003Cimg width=\"%40\"  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_3c52873d047d.png\">\u003C\u002Fa>\n                \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n*《计算机视觉实战演练：算法与应用》V1.2 *部分项目还在更新中*\n\n\u003Cbr>\n\u003Cp align=\"left\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_a489ce47f27a.png\" title=\"Works with L0CV\" width=\"120\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n| 实战项目 | 章节 | Binder | Google Colab | \n| :-- | :---| :---:| :---: |\n| [实战项目 1 - 手写字分类](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F108531735) | 第 1 章 - 神经网络 | | |\n| [实战项目 2 - 动手搭建一个卷积神经网络](\u002Fdocs\u002F1_理论篇\u002Fchapter2_CNN\u002Fchapter2_CNN-in-Action.md) | 第 2 章 - 卷积神经网络 | | |\n| [实战项目 3 - 基于卷积神经网络的人脸表情识别](https:\u002F\u002Fblog.csdn.net\u002Fcharmve\u002Fcategory_9754344.html) | 第 3 章 - 图像分类 | | |\n| [实战项目 4 - 使用卷积神经网络对CIFAR10图片进行分类](http:\u002F\u002Fmp.weixin.qq.com\u002Fs?__biz=MzIxMjg1Njc3Mw%3D%3D&chksm=97bef597a0c97c813e185e1bbf987b93d496c6ead8371364fd175d9bac46e6dcf7059cf81cb2&idx=1&mid=2247487293&scene=21&sn=89684d1c107177983dc1b4dca8c20a5b#wechat_redirect) | 第 3 章 - 图像分类 | | |\n| [实战项目 5 - 使用OpenCV进行图像全景拼接](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F107897468) | 第 6 章 - 软件环境搭建与工具使用 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002FOpenCV-ImageStitching.ipynb\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter08_environment-setup-and-tool-use\u002FOpenCV-ImageStitching.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 6 - Kaggle比赛：图像分类（CIFAR-10）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.12%20实战Kaggle比赛：图像分类（CIFAR-10）.md) | 第 8 章 - 著名数据集及基准 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter10_dataset-and-benchmark\u002Fkaggle_cifar10.ipynb\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter10_dataset-and-benchmark\u002Fkaggle_cifar10.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 7 - Kaggle比赛：狗的品种识别（ImageNet Dogs）](docs\u002F2_实战篇\u002Fchapter7_经典卷积神经网络架构-原理与PyTorch实现\u002F7.13%20实战Kaggle比赛：狗的品种识别（ImageNet%20Dogs）.md) | 第 8 章 - 著名数据集及基准 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter10_dataset-and-benchmark\u002Fkaggle_dog.ipynb\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter10_dataset-and-benchmark\u002Fkaggle_dog.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 8 - 基于PolarNet的点云端到端语义分割项目实战]() | 第 9 章 - 检测与分割实战项目 || |\n| [实战项目 9 - 基于PyTorch的YOLO5目标检测项目实战]() | 第 9 章 - 检测与分割实战项目 || |\n| [实战项目 10 - 实时高分辨率背景抠图](\u002Fdocs\u002F2_实战篇\u002Fchapter9_检测与分割实战项目\u002F9.3%20实例分割.md#932-实战项目-8-实时高分辨率背景抠图) | 第 9 章 - 检测与分割实战项目 || |\n| [实战项目 11 - 车道线检测项目实战](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F116678477) | 第 10 章 - 计算机视觉课题研究初探 | | |\n| [实战项目 12 - PyTorch 如何使用TensorBoard](\u002Fdocs\u002F3_进阶篇\u002Fchapter11-可视化和理解\u002Fchapter11-visualization-and-understanding.md) | 第 13 章 - 可视ization and understanding | | |\n| [实战项目 13 - 图像样式迁移]() | 第 14 章 生成对抗模型 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb#\u002F\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 14 - 旧照片修复](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FBringing-Old-Photos-Back-to-Life) | 第 14 章 - 生成对抗模型 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter12_practice-projects\u002FBringing-Old-Photo-Back-to-Life.ipynb\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 15 - 动漫头像生成](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FBringing-Old-Photos-Back-to-Life) | 第 14 章 - 生成对抗模型 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter12_practice-projects\u002FAnime-StyleGAN2.ipynb\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [项目实战 16 - 视频理解项目实战 SlowFast + Multi-Moments in Time](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002F3_进阶篇\u002Fchapter14-视频理解\u002Fchapter14-视频理解?id=_147-视频理解项目实战) | 第 16 章 - 视频理解 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter12_practice-projects\u002FBringing-Old-Photo-Back-to-Life.ipynb\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 17 - 蚂蚁和蜜蜂的分类问题](https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Ftree\u002Fmain\u002Fdocs\u002F3_进阶篇\u002Fchapter15_迁移学习\u002Fchapter15_迁移学习的应用.md) | 第 17 章 - 迁移学习 | \u003Ca href=\"https:\u002F\u002Fnbviewer.jupyter.org\u002Fformat\u002Fslides\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter15_Transfer-Learning\u002FTL-ants-bees-classification.ipynb#\u002F\" \u002F> \u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> | \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> |\n| [实战项目 18 - 基于Transformer的视频实例分割网络VisTR (CVPR2021)](https:\u002F\u002Fblog.csdn.net\u002FCharmve\u002Farticle\u002Fdetails\u002F115339803) | 第 19 章 - 跨界模型 Transformer | | |\n| [实战项目 19 - 支付宝CVPR细粒度视觉分类挑战赛夺冠方案解读](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FRTkBQJ7Uj86Wxt7HmwWKzA)| 第 20 章 - 知识蒸馏 | | |\n| ...  | ... | ... |\n\n\u003Cbr>\n\n[Index](#-以用促学先会后懂-)\n\n\n\n## 🔑 如何食用\n\n\u003Cdetails>\u003Csummary>🔎 详细攻略展开\u003C\u002Fsummary>\n\n### 方法一 Jupyter Notebook（推荐方式 ✨）\n\n#### 1. 本地运行\n\n- 安装依赖包\n```\npip3 install -r requirements.txt\n```\n- 安装 Jupyter\n```\npython3 -m pip install --upgrade pip\npython3 -m pip install jupyter\n```\n- 查看并运行 Jupyter\n\n请在终端（Mac \u002F Linux）或命令提示符（Windows）上运行以下命令：\n\n```shell\ncd notebooks\njupyter notebook\n```\n\n#### 2. 远程运行\n\n- 打开每章节首页，点击 \u003Ca target=\"_blank\" href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002Fnotebooks\u002Fchapter09_computer-vision\u002F9.11_neural-style.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" >\u003C\u002Fa> 可直接打开 Google Colab ，点击 \u003Ccode>\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_62fa12c161e3.png\" alt=\"Copy to Drive\" title=\"Copy to Drive\">\u003C\u002Fcode> [Copy to Drive] 即可在线运行测试。 \n\n- 点击 \u003Ca href=\"https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action\u002Fmain\u002Fnotebooks\u002F\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa> 也可在 ``mybinder`` 查看和在线运行。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_5ae404369c54.png\" width=60% alt=\"Run on Colab\" title=\"Run on Colab\">\n  \u003Cbr>\n  图2 例子：12.3.3 样式迁移\n\u003C\u002Fp> \n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_b435e1a4a4fe.png\" width=60% alt=\"点击 Copy to Drive\">\n  \u003Cbr>图3 例子：12.3.3 样式迁移 Colab 点击 \u003Ccode>\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_62fa12c161e3.png\" alt=\"Copy to Drive\" title=\"Copy to Drive\">\u003C\u002Fcode> [Copy to Drive]\n\u003C\u002Fp>\n\n\n### 方法二 使用 ``\u002Fcode`` \n#### 1. 运行环境 + L0CV 加载\n- 安装依赖包\n```shell\nsudo apt-get update\npip3 install -r requirements.txt\n```\n- 创建 L0CV\n```shell\npython3 setup.py\n```\n- 测试环境\n\n```shell\ncd code\npython3 L0CV_test.py\n```\n\n#### 2. 直接调用每个章节的代码测试\n\n```python3\nimport L0CV\n```\n\n\u003Cbr>\n\n[收起](#-如何食用)\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t  \n\u003C\u002Fdetails>\n\n\u003Ctable class=\"table table-striped table-bordered table-vcenter\">\n    \u003Ctbody class=ai-notebooks-table-content>\n    \u003Ctr>\n        \u003Ctd colspan=\"1\" rowspan=\"1\" class=\"ai-notebooks-table-points ai-orange-link\">\n        \u003Cdiv class=\"mdl-cell mdl-cell--5-col mdl-cell--middle\">\n            \u003Cdiv class=\"content\">\n            \u003Ch2 style=\"text-align:center\">每一小节都是可以运行的 \u003Ca href=\"https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action\u002Fmain\u002Fnotebooks\u002F\">Jupyter 记事本\u003C\u002Fa>\u003C\u002Fh2>\n            \u003Cp>你可以自由修改代码和超参数来获取及时反馈，从而积累深度学习的实战经验。\u003C\u002Fp>\n            \u003C\u002Fdiv>\n            \u003Cdiv class=\"mdl-grid running\" align=\"center\" style=\"text-align:center\">\n                \u003Cdiv class=\"running-item\">\n                    \u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002FREADME?id=🔎-如何食用\">\n                    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_22187dfec810.png\" width=\"60\">\n                    \u003Cp>Run\u003Cbr>locally\u003C\u002Fp>\n                    \u003C\u002Fa>\n                \u003C\u002Fdiv>\n                \u003Cdiv class=\"running-item\">\n                    \u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F#\u002FREADME?id=🔎-如何食用\">\n                    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_f270788fc699.png\" width=\"60\">\n                    \u003Cp>Google\u003Cbr>Colab\u003C\u002Fp>\n                    \u003C\u002Fa>\n                \u003C\u002Fdiv>\n            \u003C\u002Fdiv>\n        \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--7-col\">\n                \u003Cimg class=\"illustration_img\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_4f10e3f5cabd.gif\"\u002F>\n            \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n\u003Ctable class=\"table table-striped table-bordered table-vcenter\">\n    \u003Ctbody class=ai-notebooks-table-content>\n    \u003Ctr>\n        \u003Ctd colspan=\"3\" rowspan=\"1\" class=\"ai-notebooks-table-points ai-orange-link\">\n            \u003Cdiv class=\"features-2 mdl-grid\">\n                \u003Ch2 style=\"text-align:center\">公式 + 图示 + 代码\u003C\u002Fh2>\n                \u003Cp>我们不仅结合文字、公式和图示来阐明深度学习里常用的模型和算法，还提供代码来演示如何从零开始实现它们，并使用真实数据来提供一个交互式的学习体验。\u003C\u002Fp>\n            \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Cimg class=\"illustration_img\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_2e1bcf094232.jpg\">\u003C\u002Fimg>\n                \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Cimg class=\"illustration_img\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_2ccf0870ca6a.jpg\"\u002F>\n                \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Cdiv class=\"mdl-cell mdl-cell--4-col\">\n                \u003Cimg class=\"illustration_img\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_b944945e9c9d.jpg\"\u002F>\n                \u003C\u002Fdiv>\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n[Index](#-以用促学先会后懂-)\n\n## ❓ 常见问题\n\n- **在线教程页面无法打开**：\n\n    测试中存在部分人打不开在线教程的情况。\n\n    部分小伙伴反馈尝试切换浏览器后可以正常打开了，如果仍然不行，最有效的解决办法是科学上网。\n\n- **无法加载图片的解决办法**：\n\n    根本解决办法还是科学上网，也可以尝试修改host文件看下是否能解决。\n\n    解决方案: 修改host文件 \u003Ccode>\u003Ca href=\"https:\u002F\u002Fwww.jianshu.com\u002Fp\u002F25e5e07b2464\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_5687cae80d71.png\" alt=\"Apple\" title=\"Apple\">\u003C\u002Fcode> Mac\u003C\u002Fa> \u003Ccode>\u003Ca href=\"https:\u002F\u002Fblog.csdn.net\u002Fu011583927\u002Farticle\u002Fdetails\u002F104384169\">\u003Cimg height=\"20\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_379f8d054e4d.png\" alt=\"Win10\" title=\"Win10\">\u003C\u002Fcode> Windows\u003C\u002Fa>\n\n- **公式无法正常显示解决办法**：\n\n    GitHub中的Markdown原生是不支持LATEX公式显示的，如果你喜欢在本项目中直接浏览教程，可以安装Chrome的`MathJax Plugin for Github`插件让大部分公式正常显示。而docs文件夹已经利用docsify被部署到了GitHub Pages上，包含公式的章节强力建议使用 [《计算机视觉实战演练：算法与应用》 在线阅读](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action) 进行学习。\n    \n    当然如果你还想跑一下运行相关代码的话还是得把本项目clone下来，然后运行code文件夹下相关代码。\n\n- **Jupyter Notebook 无法在 GitHub 上呈现？** [使用 nbviewer](https:\u002F\u002Fleaherb.com\u002Fnotebook_wont_render_use_nbviewer\u002F)。 \u003Ca href=\"https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002FCharmve\u002Fcomputer-vision-in-action\u002Fmain\u002Fnotebooks\u002F\">\u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg\" alt=\"Binder\">\u003C\u002Fa>\n\n[Index](#-以用促学先会后懂-)\n\n## 致谢\n\u003Ca href=\"https:\u002F\u002Fmaiweiai.github.io\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_6e645809282d.png\" height=\"36\" alt=\"迈微AI研习社\" title=\"迈微AI研习社\"> \u003C\u002Fa> \u003Ca href=\"https:\u002F\u002Fmadewithml.com\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_aecae356305b.png\" height=\"30\" alt=\"Made With ML\" title=\"Made With ML\"> \u003C\u002Fa> &nbsp;&nbsp; \u003Ca href=\"https:\u002F\u002Fwww.epubit.com\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_ef3a93068740.png\" height=\"30\" alt=\"异步社区\" title=\"异步社区\"> \u003C\u002Fa>  &nbsp;&nbsp; \u003Ca href=\"https:\u002F\u002F360.cn\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_ab81ff5e3c14.png\" height=\"36\" alt=\"奇虎360\" title=\"奇虎360\"> \u003C\u002Fa>\n\n[Index](#-以用促学先会后懂-)\n\n## 参考文献\n\n感谢前人的杰出工作，我才得以写出此书。感谢 [\u003Cb>参考文献\u003C\u002Fb>](docs\u002FREFERENCE.md) 中列出及未列出的，所有对此开源工作有帮助的前辈！\n\n[Index](#-以用促学先会后懂-)\n\n## 许可协议\n\n\u003Ca href=\"https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0\" target=\"_blank\" style=\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202.0-red?logo=apache\" alt=\"代码许可\">\u003C\u002Fa> \u003Ca rel=\"DocLicense\" href=\"http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F\">\u003Cimg alt=\"知识共享许可协议\" style=\"border-width:0\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs%20license-CC%20BY--NC--SA%204.0-green?logo=creativecommons\" title=\"CC BY--NC--SA 4.0\"\u002F>\u003C\u002Fa>\n\t\n- ``L0CV``代码部分采用 [Apache 2.0协议](https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0) 进行许可，包括名为 \u003Cb>\u003Cem>L0CV\u003C\u002Fem>\u003C\u002Fb> 的原创第三方库、``\u002Fcode``和``\u002Fnotebook``下的源代码。遵循许可的前提下，你可以自由地对代码进行修改，再发布，可以将代码用作商业用途。但要求你：\n  - **署名**：在原有代码和衍生代码中，保留原作者署名及代码来源信息。\n  - **保留许可证**：在原有代码和衍生代码中，保留``Apache 2.0``协议文件。\n\n- ``L0CV``文档部分采用 [知识共享署名 4.0 国际许可协议](http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002F) 进行许可。 遵循许可的前提下，你可以自由地共享，包括在任何媒介上以任何形式复制、发行本作品，亦可以自由地演绎、修改、转换或以本作品为基础进行二次创作。但要求你：\n  - **署名**：应在使用本文档的全部或部分内容时候，注明原作者及来源信息。\n  - **非商业性使用**：不得用于商业出版或其他任何带有商业性质的行为。如需商业使用，请联系作者。\n  - **相同方式共享的条件**：在本文档基础上演绎、修改的作品，应当继续以知识共享署名 4.0国际许可协议进行许可。\n\n[Index](#-以用促学先会后懂-)\n\n## 👥 社区互助\n\n如果您在使用的过程中碰到问题，可以通过下面几个途径寻求帮助，同时我们也鼓励资深用户通过下面的途径给新人提供帮助。\n\n- 通过 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fdiscussions\" target=\"_blank\" style=\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGitHub-Discussions-green?logo=github\" alt=\"GitHub Discuss\">\u003C\u002Fa> 提问时，建议使用 `Q&A` 标签。\n\n- 通过 \u003Ca href=\"http:\u002F\u002Fstackoverflow.com\u002Fquestions\u002Ftagged\u002FL0CV\" target=\"_blank\" style=\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-Stack%20 Overflow-gray?logo=stackoverflow\" alt=\"Stack Overflow\">\u003C\u002Fa> 或者 \u003Ca href=\"https:\u002F\u002Fsegmentfault.com\u002Ft\u002FL0CV\" target=\"_blank\" style=\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-Segment%20 Fault-gray?logo=mongodb\" alt=\"Segment Fault\">\u003C\u002Fa> 提问时，建议加上 `L0CV` 标签。\n\n- \u003Ca href=\"https:\u002F\u002Fsegmentfault.com\u002Ft\u002FL0CV\" target=\"_blank\" style=\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F微信-L0CV-green?logo=wechat\" alt=\"Segment Fault\">\u003C\u002Fa> 微信、知乎、微博开话题可以生成tag，如微信聊天、朋友圈加 ``#L0CV`` 可话题交流。\n\n- L0CV 读者微信交流群 (加我微信Yida_Zhang2，备注：L0CV-高校\u002F企业-称呼)\n\n[Index](#-以用促学先会后懂-)\n\n\n## 💖 支持本项目\n\n请通过捐赠来支持我继续推进该项目。非常感谢所有在[赞助者名单](https:\u002F\u002Fcharmve.github.io\u002Fsponsor.html)中的朋友们。 \u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fsponsor.html\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fstyle--5eba00.svg?label=Coffee&amp;logo=ko-fi&amp;style=social\" alt=\"BuymeaCoffee\"\u002F>\u003C\u002Fa>\n\n\u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fsponsor.html\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fcdn.buymeacoffee.com\u002Fbuttons\u002Fv2\u002Fdefault-red.png\" alt=\"Buy Me A Coffee\" width=\"180\" >\u003C\u002Fa>\n\n\n\u003C!--\n\n## 关注我们\n\u003Cdiv align=center>\n\u003Cp>扫描下方二维码，然后回复关键词“\u003Cb>计算机视觉实战教程\u003C\u002Fb>”，即可加入“读者交流群”\u003C\u002Fp>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_readme_fe1f06d96458.png\" width = \"250\" height = \"270\" alt=\"迈微AI研习社是一个专注AI领域的开源组织，作者系CSDN博客专家，主要分享机器学习算法、计算机视觉等相关内容，每周研读顶会论文，持续关注前沿技术动态。底部有菜单分类，关注我们，一起学习成长。\">\n\u003C\u002Fdiv>\n\n- 若本书里没有你想要理论和实战项目，或者你发现本书哪个地方有错误，请毫不犹豫地去本仓库的 Issues（ 地址 https:\u002F\u002Fgithub.com\u002Fcharmve\u002Fcomputer-vision-in-action\u002Fissues ）进行反馈，在对应版块提交你希望补充的内容或者勘误信息，作者通常会在 24 小时以内给您回复，超过 24 小时未回复的话可以邮件联系我（微信 MaiweiE_com）；\n\n- 同时，我也欢迎大家加入本项目的建设中来，欢迎 [pull request](https:\u002F\u002Fgithub.com\u002Fcharmve\u002Fcomputer-vision-in-action\u002Fpulls)！\n\n- \u003Cem>请尽管表达你们的意见和建议，GitHub issues 和 电子书下方都可以留言，也可写邮件给我，我一定会回！\u003C\u002Fem>\n\n[Index](#-以用促学先会后懂-)\n-->\n\n## 贡献\n\n作者会尽最大努力来确保书中内容的准确性，但难免会存在疏漏与不妥之处。欢迎您将发现的问题反馈给我们，帮助提升本开放资源的质量。\n\n\u003Cdiv align=\"center\">\n\t\u003Ctable>\n\t\u003Ctr>\n\t\u003Ctd>\n\t\t\u003Cdiv class=\"f5 contribution\">\n\t\t\t\u003Ch3 class=\"f4\">Help us make these docs great!\u003C\u002Fh3>\n\t\t\t\u003Cp class=\"color-text-secondary f6\">All \u003Cb>\u003Ci>VC-action\u003C\u002Fi>\u003C\u002Fb> docs are open source. See something that's wrong or unclear? \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fpulls\">Submit a pull request\u003C\u002Fa>.\u003C\u002Fp>\n\t\t\t\u003Ca class=\"btn btn-outline\" href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fedit\u002Fmain\u002FREADME.md\">\n\t\t\t\t\u003Csvg version=\"1.1\" width=\"16\" height=\"16\" viewBox=\"0 0 16 16\" class=\"octicon octicon-git-pull-request\" aria-hidden=\"true\">\u003Cpath fill-rule=\"evenodd\" d=\"M7.177 3.073L9.573.677A.25.25 0 0110 .854v4.792a.25.25 0 01-.427.177L7.177 3.427a.25.25 0 010-.354zM3.75 2.5a.75.75 0 100 1.5.75.75 0 000-1.5zm-2.25.75a2.25 2.25 0 113 2.122v5.256a2.251 2.251 0 11-1.5 0V5.372A2.25 2.25 0 011.5 3.25zM11 2.5h-1V4h1a1 1 0 011 1v5.628a2.251 2.251 0 101.5 0V5A2.5 2.5 0 0011 2.5zm1 10.25a.75.75 0 111.5 0 .75.75 0 01-1.5 0zM3.75 12a.75.75 0 100 1.5.75.75 0 000-1.5z\">\u003C\u002Fpath>\u003C\u002Fsvg>\n\t\t\t\tMake a contribution\n\t\t\t\u003C\u002Fa>\n\t\t\t\u003Cbr>\u003Cp class=\"color-text-secondary f6 mt-2\">Or, \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fblob\u002Fmain\u002FCONTRIBUTING.md\" target=\"_blank\">learn how to contribute.\u003C\u002Fa>\u003C\u002Fp>\n\t\t\u003C\u002Fdiv>\n\t\t\u003Cdiv>\n\t\t\t\u003Ch3 class=\"mb-2 f4\">\n\t\t\t\tStill need help?\n\t\t\t\u003C\u002Fh3>\n\t\t\t\u003Ca id=\"ask-community\" href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fdiscussions\" class=\"btn btn-outline mr-4 mt-2\">\n\t\t\t\t\u003Csvg version=\"1.1\" width=\"16\" height=\"16\" viewBox=\"0 0 16 16\" class=\"octicon octicon-people\" aria-hidden=\"true\">\u003Cpath fill-rule=\"evenodd\" d=\"M5.5 3.5a2 2 0 100 4 2 2 0 000-4zM2 5.5a3.5 3.5 0 115.898 2.549 5.507 5.507 0 013.034 4.084.75.75 0 11-1.482.235 4.001 4.001 0 00-7.9 0 .75.75 0 01-1.482-.236A5.507 5.507 0 013.102 8.05 3.49 3.49 0 012 5.5zM11 4a.75.75 0 100 1.5 1.5 1.5 0 01.666 2.844.75.75 0 00-.416.672v.352a.75.75 0 00.574.73c1.2.289 2.162 1.2 2.522 2.372a.75.75 0 101.434-.44 5.01 5.01 0 00-2.56-3.012A3 3 0 0011 4z\">\u003C\u002Fpath>\u003C\u002Fsvg>\n\t\t\t\tAsk our community\n\t\t\t\u003C\u002Fa>\n\t\t\t\u003Ca id=\"contact-us\" href=\"https:\u002F\u002Fgithub.com\u002FCharmve\" class=\"btn btn-outline mt-2\">\n\t\t\t\t\u003Csvg version=\"1.1\" width=\"16\" height=\"16\" viewBox=\"0 0 16 16\" class=\"octicon octicon-comment-discussion\" aria-hidden=\"true\">\u003Cpath fill-rule=\"evenodd\" d=\"M1.5 2.75a.25.25 0 01.25-.25h8.5a.25.25 0 01.25.25v5.5a.25.25 0 01-.25.25h-3.5a.75.75 0 00-.53.22L3.5 11.44V9.25a.75.75 0 00-.75-.7vas h-1a.25.25 0 01-.25-.2vas v-5.5zM1.75 1A1.75 1.75 0 000 2.75v5.5C0 9.216.784 10 1.75 1H2v1.543a1.457 1.457 0 012.487 1.03L7.061 10h3.189A1.75 1.75 0 0112 8.25v-5.5A1.75 1.75 0 0110.25 1h-8.5zM14.5 4.75a.25.25 0 00-.25-.2vas h-.5a.75.7vas 0 110-1.5h.5c.966 0 1.75.784 1.75 1.75v5.5A1.75 1.7vas 0 0114.25 12H14v1.543a1.457 1.457 0 01-2.487 1.03L9.22 12.28a.75.7vas 0 111.06-1.06l2.22 2.22v-2.19a.75.7vas 0 01.75-.7vas h1a.25.2vas 0 00.2vas-.2vasv-5.5z\">\u003C\u002Fpath>\u003C\u002Fsvg>\n\t\t\t\tContact support\n\t\t\t\u003C\u002Fa>\n\t\t\u003C\u002Fdiv>\n\t\u003C\u002Ftd>\n\t\u003C\u002Ftr>\n\t\u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n[Index](#-以用促学先会后懂-)\n\n## 引用\n\n使用以下BibTeX格式引用本仓库：\n```\n@misc{computer-vision-in-action,\n  title={计算机视觉实战演练：算法与应用（Computer Vision in Action）},\n  author={Charmve},\n  year={2021.06},\n  publisher={Github},\n  journal={GitHub repository},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action}},\n}\n```\n\n[Index](#-以用促学先会后懂-)\n\n## 星标随时间变化\n\n\u003Cdiv class=\"main\">\n\t\u003Cp align=\"center\">\t\n\t\t\u003Cb>太棒了！\u003C\u002Fb>\t\n\t\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action\">\u003Cem>Charmve\u002Fcomputer-vision-in-action\u003C\u002Fem>\u003C\u002Fa>\n\t\t在2个月前创建，如今已获得\u003Cb>1546\u003C\u002Fb>颗星。\n  \u003C\u002Fp>\n\u003C\u002Fdiv>\n\t\n[![星标随时间变化](https:\u002F\u002Fstarchart.cc\u002FCharmve\u002Fcomputer-vision-in-action.svg)](https:\u002F\u002Fstarchart.cc\u002FCharmve\u002Fcomputer-vision-in-action)\n\n\u003Cbr>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action#-以用促学先会后懂-\">\u003Cimg align=\"right\" alt=\"加油吧！\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FCharmve\u002Fcomputer-vision-in-action\u002Fdd292873828228a753a9bd2de4576dbf8cc3902c\u002Fres\u002Fui\u002Ffooter-rocket.svg\" height=\"220\" title=\"做你喜欢的事，并把它做到最好！\"\u002F>\u003C\u002Fa>\n\u003Cbr>\n\u003Cp align=\"center\">欢迎随时提问，如果你觉得有地方可以改进，请提交PR！\u003C\u002Fp>\n\u003Ch2 align=\"center\">🌟 给这个仓库点个星吧 🌟\u003C\u002Fh2>\n\u003Cp align=\"center\">由 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCharmve\">Charmve\u003C\u002Fa> 和 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMaiweiAI\">maiwei.ai\u003C\u002Fa> 社区共同创建 | 部署于 \u003Ca href=\"https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F\">GitHub Pages\u003C\u002Fa>\u003C\u002Fp>","# computer-vision-in-action 快速上手指南\n\n## 环境准备\n\n本项目旨在提供计算机视觉的实战演练，支持多种运行方式（本地、云端、容器）。\n\n**系统要求：**\n*   操作系统：Linux \u002F macOS \u002F Windows (WSL 推荐)\n*   Python 版本：>= 3.8.10\n*   浏览器：现代浏览器（用于在线阅读和 Notebook 预览）\n\n**核心依赖：**\n*   PyTorch >= 1.9.0\n*   Jupyter Notebook \u002F JupyterLab >= 4.7.1\n*   L0CV (项目自定义工具包)\n\n## 安装步骤\n\n你可以选择以下任意一种方式进行环境搭建：\n\n### 方案一：本地源码安装（推荐）\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FCharmve\u002Fcomputer-vision-in-action.git\n    cd computer-vision-in-action\n    ```\n\n2.  **创建虚拟环境并安装依赖**\n    建议使用 `conda` 或 `venv` 创建独立环境。\n    ```bash\n    # 创建环境\n    conda create -n l0cv python=3.8.10\n    conda activate l0cv\n\n    # 安装核心依赖 (国内用户推荐使用清华源加速)\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    \n    # 安装项目自定义包 L0CV\n    pip install -e . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n### 方案二：使用 Docker（最简便，免配置）\n\n如果你已安装 Docker，可直接拉取预构建镜像，避免环境冲突。\n\n```bash\ndocker pull charmve\u002Fl0cv:latest\ndocker run -it -p 8888:8888 -v $(pwd):\u002Fworkspace charmve\u002Fl0cv:latest jupyter notebook --ip=0.0.0.0 --no-browser --allow-root\n```\n启动后，在浏览器访问终端输出的 `http:\u002F\u002Flocalhost:8888\u002F?token=...` 地址即可。\n\n### 方案三：云端免安装运行\n\n无需本地配置，直接在浏览器中运行 Notebook：\n\n*   **Google Colab:** 点击项目主页的 \"Run on Colab\" 徽章导入笔记本。\n*   **Binder:** 点击 \"Binder\" 徽章直接加载交互式环境。\n*   **Gitpod:** 使用 Gitpod 在线开发环境。\n\n## 基本使用\n\n本项目核心在于“以用促学”，通过运行 `notebooks` 目录下的交互式教程学习。\n\n### 1. 启动学习界面\n进入项目根目录，启动 Jupyter Notebook：\n```bash\njupyter notebook\n```\n浏览器将自动打开，导航至 `notebooks\u002F` 文件夹。\n\n### 2. 运行第一个示例\n在 `notebooks` 中找到基础章节（例如 `chapter1_Neural-Networks` 或 `chapter0_Overview`），打开任意 `.ipynb` 文件。\n\n**代码示例：**\n在 Notebook 单元格中，你可以直接调用项目封装的 `L0CV` 库进行快速实验：\n\n```python\nimport L0CV\nfrom L0CV import utils\n\n# 示例：加载并展示内置数据集或工具\n# 具体函数请参考对应章节的 Notebook 说明\nprint(\"Welcome to Computer Vision in Action!\")\n```\n\n### 3. 在线阅读与文档同步\n如果仅需查阅理论或查看渲染后的代码结果，可直接访问在线文档（更新最快）：\n*   **地址**: [https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F](https:\u002F\u002Fcharmve.github.io\u002Fcomputer-vision-in-action\u002F)\n\n> **提示**：建议边阅读在线文档，边在本地或云端运行对应的 Notebook 代码，以获得最佳学习效果。","某高校计算机专业研究生李明正在准备毕业论文，需要复现一篇关于“视频动作识别”的顶会论文算法，并验证其在自定义数据集上的效果。\n\n### 没有 computer-vision-in-action 时\n- **环境配置耗时极长**：为了运行论文代码，李明需要在本地手动安装特定版本的 PyTorch、OpenCV 及各类依赖库，频繁遭遇版本冲突和报错，整整两天无法跑通\"Hello World\"。\n- **理论与实践脱节**：手中只有晦涩的 PDF 论文和零散的 GitHub 代码片段，难以将书中的数学公式与具体的代码实现逻辑对应起来，理解成本极高。\n- **缺乏交互式调试**：想要修改某个卷积层参数观察效果，必须本地修改代码、重新运行整个脚本，无法实时查看中间特征图的变化，试错效率低下。\n- **资源孤立无援**：遇到算法瓶颈时，只能在通用论坛发帖求助，缺乏针对该具体项目的垂直交流社区，问题往往石沉大海。\n\n### 使用 computer-vision-in-action 后\n- **开箱即用的在线环境**：李明直接通过浏览器访问 L0CV 在线平台，无需本地配置任何环境，即可在预置好的 Jupyter Notebook 中一键运行视频理解相关的示例代码。\n- **代码与图文深度融合**：依托《计算机视觉实战演练》电子书，他能够边看动态图解边对照源码，清晰地看到 Transformer 模块在代码中的具体落地方式，迅速打通理论任督二脉。\n- **交互式闭环学习**：利用平台的交互特性，他实时修改网络超参数并立即可视化输出结果，快速验证了不同架构对动作识别准确率的影响，实验迭代速度提升数倍。\n- **精准社区支持**：在项目中内置的读者交流社区里，他找到了同样研究视频理解的伙伴，并参考作者更新的最新笔记，顺利解决了数据预处理的关键难题。\n\ncomputer-vision-in-action 通过“代码 + 图示 + 在线交互”的闭环模式，将枯燥的算法学习转化为高效的实战演练，极大降低了计算机视觉技术的入门与研发门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCharmve_computer-vision-in-action_fb72130a.png","Charmve","Wei ZHANG","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FCharmve_3126157e.jpg","Founder of @MaiweiAI Lab, @UFund-Me  and @DeepVTuber. My research interests lie at AI Infra, Machine Learning and Computer Vision.","公众号: 迈微AI研习社","Suzhou, Beijing, Shanghai, Hongkong","yidazhang1@gmail.com",null,"charmve.github.io","https:\u002F\u002Fgithub.com\u002FCharmve",[83,87,91],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",99.6,{"name":88,"color":89,"percentage":90},"Python","#3572A5",0.4,{"name":92,"color":93,"percentage":94},"Dockerfile","#384d54",0,2842,404,"2026-04-08T04:37:18","NOASSERTION","Linux, macOS, Windows","未说明 (项目基于 PyTorch，通常建议 NVIDIA GPU 以加速训练，但 README 未明确具体型号或显存要求)","未说明",{"notes":103,"python":104,"dependencies":105},"项目支持跨平台运行，只需浏览器即可通过在线阅读或使用 Binder\u002FColab 在线运行 Notebook；本地运行可安装作者提供的 'L0CV' 包简化环境配置；提供 Docker 镜像 (v1.0.1) 和 Gitpod 支持以进一步降低环境搭建难度。","3.8.10",[106,107,108],"PyTorch>=1.9.0","Jupyter>=4.7.1","L0CV (作者自定义第三方包)",[14,35,15],[111,112,113,114,115,116,117,118,119,120,121,122,123,124,125,126,127],"tutorial","charmve","machine-learning","computer-vision","deep-learning","deep-learning-tutorial","books","handbook","computer-vision-algorithms","in-action","pytorch","transformer","ipynb","jupyter-notebook","colab-notebook","notebook","neural-network","2026-03-27T02:49:30.150509","2026-04-08T19:19:50.858605",[],[]]