[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-YunYang1994--TensorFlow2.0-Examples":3,"tool-YunYang1994--TensorFlow2.0-Examples":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[14,35],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":73,"owner_twitter":73,"owner_website":73,"owner_url":78,"languages":79,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":92,"env_os":93,"env_gpu":94,"env_ram":93,"env_deps":95,"category_tags":103,"github_topics":104,"view_count":32,"oss_zip_url":73,"oss_zip_packed_at":73,"status":17,"created_at":124,"updated_at":125,"faqs":126,"releases":162},4245,"YunYang1994\u002FTensorFlow2.0-Examples","TensorFlow2.0-Examples","🙄 Difficult algorithm, Simple code.","TensorFlow2.0-Examples 是一个专为初学者和开发者打造的 TensorFlow 2.0 实战教程库。面对深度学习算法复杂、入门门槛高的问题，它秉持“算法虽难，代码要简”的理念，通过提供大量结构清晰、注释详尽的示例代码，帮助用户快速跨越理论与实践的鸿沟。\n\n该资源库内容覆盖全面，从打印\"Hello World\"、变量定义、基础运算等入门知识，到线性回归、逻辑回归、多层感知机等经典模型，再到 VGG16 等主流神经网络架构的复现，均提供了完整的实现方案。其独特的技术亮点在于同时提供了 Jupyter Notebook 交互式笔记和 Python 源代码，并重点讲解了 TensorFlow 2.0 的核心特性——GradientTape 自动微分机制，让用户能直观理解动态图的运作方式。\n\n无论是希望系统学习深度学习的学生、需要快速验证想法的研究人员，还是想要掌握 TensorFlow 2.0 新特性的软件工程师，都能从中获益。项目承诺持续更新，确保内容与框架版本同步，是上手 TensorFlow 2.0 不可多得的实用指南。","\u003Ch2 align=\"center\">\u003Ccode>🎉TensorFlow2.0-Examples🎉!\u003C\u002Fcode>\u003C\u002Fh2>\n\u003Cp align=\"center\">\"\u003Ci>Talk is cheap, show me the code.\u003C\u002Fi>\" \n  ----- Linus Torvalds\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FBranch-master-green.svg?longCache=true\"\n        alt=\"Branch\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fstargazers\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FYunYang1994\u002FTensorFlow2.0-Examples.svg?label=Stars&style=social\"\n        alt=\"Stars\">\n  \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fnetwork\u002Fmembers\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FYunYang1994\u002FTensorFlow2.0-Examples.svg?label=Forks&style=social\"\n        alt=\"Forks\">\n  \u003C\u002Fa>\n  \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsindresorhus\u002Fawesome\">\n   \u003Cimg src=\"https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg\"\n        alt=\"Awesome\">\n  \u003C\u002Fa>\n  \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fblob\u002Fmaster\u002FLICENSE\">\n   \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fmashape\u002Fapistatus.svg?maxAge=2592000\"\n        alt=\"Awesome\">\n\u003C\u002Fp>\n\u003Cdiv align=\"center\">\n  \u003Csub>Created by\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FYunYang1994\">YunYang1994\u003C\u002Fa>\n\u003C\u002Fdiv>\n\u003Cbr>\n    \nThis tutorial was designed for easily diving into TensorFlow2.0.  it includes both notebooks and source codes with explanation. **It will be continuously updated !** 🐍🐍🐍🐍🐍🐍\n\n## Contents\n\n#### 1 - Introduction\n- **Hello World** ([notebook](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F1-Introduction\u002Fhelloworld.ipynb)) ([code](1-Introduction\u002Fhelloworld.py)). Very simple example to learn how to print \"hello world\" using TensorFlow.\n- **Variable** ([notebook](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F1-Introduction\u002Fvariable.ipynb)) ([code](1-Introduction\u002Fvariable.py)). Learn to use variable in tensorflow.\n- **Basical operation** ([notebook](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F1-Introduction\u002Fbasic_operations.ipynb)) ([code](1-Introduction\u002Fbasic_operations.py)). A simple example that covers TensorFlow basic operations.\n- **Activation** ([notebook](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F1-Introduction\u002Factivation.ipynb)) ([code](1-Introduction\u002Factivation.py)). Start to know some activation functions in tensorflow.\n- **GradientTape** ([notebook](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F1-Introduction\u002FGradientTape.ipynb)) ([code](1-Introduction\u002FGradientTape.py)). Introduce a key technique for automatic differentiation\n\n#### 2 - Basical Models\n- **Linear Regression** ([notebook](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F2-Basical_Models\u002FLinear_Regression.ipynb)) ([code](2-Basical_Models\u002FLinear_Regression.py)). Implement a Linear Regression with TensorFlow.\n- **Logistic Regression** ([notebook](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F2-Basical_Models\u002FLogistic_Regression.ipynb)) ([code](2-Basical_Models\u002FLogistic_Regression.py)). Implement a Logistic Regression with TensorFlow.\n- **Multilayer Perceptron Layer** ([notebook](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F2-Basical_Models\u002FMultilayer_Perceptron.ipynb)) ([code](2-Basical_Models\u002FMultilayer_Perceptron.py)). Implement Multi-Layer Perceptron Model with TensorFlow.\n- **CNN** ([notebook](https:\u002F\u002Ftensorflow.google.cn\u002Ftutorials\u002Fquickstart\u002Fadvanced)) ([code](2-Basical_Models\u002FCNN.py)). Implement CNN Model with TensorFlow. \n\n#### 3 - Neural Network Architecture\n- **VGG16** ([notebook](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture)) ([code](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture\u002Fvgg16.py))([paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.1556.pdf)). VGG16: Very Deep Convolutional Networks for Large-Scale Image Recognition. \n- **Resnet** ([notebook](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture)) ([code](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture\u002Fresnet.py))([paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.03385.pdf)). Resnet: Deep Residual Learning for Image Recognition. 🔥🔥🔥\n- **AutoEncoder** ([notebook](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture)) ([code](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture\u002Fautoencoder.py))([paper](http:\u002F\u002Fwww.cs.toronto.edu\u002F~hinton\u002Fscience.pdf)). AutoEncoder: Reducing the Dimensionality of Data with Neural Networks.\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"65%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_d9d0ebf26157.gif\" style=\"max-width:65%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n- **FPN** ([notebook](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture)) ([code](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture\u002Ffpn.py))([paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1612.03144)). FPN: Feature Pyramid Networks for Object Detection. \n\n#### 4 - Object Detection\n- **RPN** ([notebook](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FRPN)) ([code](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FRPN\u002Frpn.py))([paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.06283.pdf)). RPN:  a Region Proposal Network 🔥🔥🔥🔥🔥\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"70%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_e6f7609f35f8.png\" style=\"max-width:70%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n- **MTCNN** ([notebook](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FMTCNN)) ([code](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FMTCNN\u002Fmtcnn.py))([paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.02878)). MTCNN: Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks. *(Face detection and Alignment)* 🔥🔥\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"40%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_b7669660b19b.jpg\" style=\"max-width:40%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n- **YOLOv3** ([notebook](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FYOLOV3)) ([code](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FYOLOV3\u002Fcore\u002Fyolov3.py))([paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1804.02767.pdf)). YOLOv3: An Incremental Improvement.🔥🔥🔥🔥\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"65%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_7b16739878a9.png\" style=\"max-width:65%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n- **SSD** ([notebook](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FSSD)) ([code](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FSSD\u002Fssd.py))([paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1512.02325)). SSD: Single Shot MultiBox Detector.🔥🔥🔥🔥 【TO DO】\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"56%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_fd76835e011f.png\" style=\"max-width:56%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n- **Faster R-CNN** ([notebook](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FFaster-RCNN)) ([code](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FFaster-RCNN\u002Ffrcnn.py))([paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1506.01497)). Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks.🔥🔥🔥🔥 【TO DO】\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"65%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_42cccae175ae.png\" style=\"max-width:65%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n#### 5 - Image Segmentation\n- **FCN** ([notebook](5-Image_Segmentation\u002FFCN)) ([code](5-Image_Segmentation\u002FFCN\u002Ffcn8s.py))([paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1411.4038)). FCN: Fully Convolutional Networks for Semantic Segmentation. 🔥🔥🔥🔥🔥\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"60%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_e2eb728fc86b.png\" style=\"max-width:60%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n- **Unet** ([notebook](5-Image_Segmentation\u002FUnet)) ([code](5-Image_Segmentation\u002FUnet\u002Ftrain.py))([paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1505.04597)). U-Net: Convolutional Networks for Biomedical Image Segmentation. 🔥🔥\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"50%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_1d8cbd27c29e.png\" style=\"max-width:50%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n#### 6 - Generative Adversarial Networks\n- **DCGAN** ([notebook](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F6-Generative_Adversarial_Networks\u002Fdcgan.ipynb)) ([code](6-Generative_Adversarial_Networks\u002Fdcgan.py))([paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1511.06434.pdf)).  Deep Convolutional Generative Adversarial Network.\n- **Pix2Pix** ([notebook](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F6-Generative_Adversarial_Networks\u002FPix2Pix.ipynb)) ([code](6-Generative_Adversarial_Networks\u002FPix2Pix.py))([paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.07004.pdf)).  Image-to-Image Translation with Conditional Adversarial Networks.\n\n#### 7 - Utils\n- **Multiple GPU Training** ([notebook](https:\u002F\u002Fyunyang1994.github.io\u002Fposts\u002FTensorFlow-的多卡-GPU-训练机制\u002F#more))([code](7-Utils\u002Fmulti_gpu_train.py)). Use multiple GPU to train your model.\n","\u003Ch2 align=\"center\">\u003Ccode>🎉TensorFlow2.0-Examples🎉!\u003C\u002Fcode>\u003C\u002Fh2>\n\u003Cp align=\"center\">\"\u003Ci>空谈误事，实干兴邦。\u003C\u002Fi>\" \n  ----- 林纳斯·托瓦兹\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FBranch-master-green.svg?longCache=true\"\n        alt=\"分支\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fstargazers\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FYunYang1994\u002FTensorFlow2.0-Examples.svg?label=Star&style=social\"\n        alt=\"星标\">\n  \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fnetwork\u002Fmembers\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FYunYang1994\u002FTensorFlow2.0-Examples.svg?label=Fork&style=social\"\n        alt=\"叉子\">\n  \u003C\u002Fa>\n  \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsindresorhus\u002Fawesome\">\n   \u003Cimg src=\"https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg\"\n        alt=\"Awesome\">\n  \u003C\u002Fa>\n  \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fblob\u002Fmaster\u002FLICENSE\">\n   \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fmashape\u002Fapistatus.svg?maxAge=2592000\"\n        alt=\"许可证\">\n\u003C\u002Fp>\n\u003Cdiv align=\"center\">\n  \u003Csub>由\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FYunYang1994\">YunYang1994\u003C\u002Fa>\n创建\u003C\u002Fdiv>\n\u003Cbr>\n    \n本教程旨在帮助大家轻松入门 TensorFlow 2.0。其中包含了带有解释的笔记本和源代码。**将持续更新！** 🐍🐍🐍🐍🐍🐍\n\n## 目录\n\n#### 1 - 简介\n- **Hello World** ([笔记本](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F1-Introduction\u002Fhelloworld.ipynb)) ([代码](1-Introduction\u002Fhelloworld.py))。一个非常简单的示例，教你如何使用 TensorFlow 打印“hello world”。\n- **变量** ([笔记本](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F1-Introduction\u002Fvariable.ipynb)) ([代码](1-Introduction\u002Fvariable.py))。学习在 TensorFlow 中使用变量。\n- **基础操作** ([笔记本](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F1-Introduction\u002Fbasic_operations.ipynb)) ([代码](1-Introduction\u002Fbasic_operations.py))。一个涵盖 TensorFlow 基础操作的简单示例。\n- **激活函数** ([笔记本](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F1-Introduction\u002Factivation.ipynb)) ([代码](1-Introduction\u002Factivation.py))。开始了解 TensorFlow 中的一些激活函数。\n- **GradientTape** ([笔记本](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F1-Introduction\u002FGradientTape.ipynb)) ([代码](1-Introduction\u002FGradientTape.py))。介绍自动微分的关键技术。\n\n#### 2 - 基础模型\n- **线性回归** ([笔记本](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F2-Basical_Models\u002FLinear_Regression.ipynb)) ([代码](2-Basical_Models\u002FLinear_Regression.py))。用 TensorFlow 实现线性回归模型。\n- **逻辑回归** ([笔记本](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F2-Basical_Models\u002FLogistic_Regression.ipynb)) ([代码](2-Basical_Models\u002FLogistic_Regression.py))。用 TensorFlow 实现逻辑回归模型。\n- **多层感知器** ([笔记本](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F2-Basical_Models\u002FMultilayer_Perceptron.ipynb)) ([代码](2-Basical_Models\u002FMultilayer_Perceptron.py))。用 TensorFlow 实现多层感知器模型。\n- **CNN** ([笔记本](https:\u002F\u002Ftensorflow.google.cn\u002Ftutorials\u002Fquickstart\u002Fadvanced)) ([代码](2-Basical_Models\u002FCNN.py))。用 TensorFlow 实现 CNN 模型。\n\n#### 3 - 神经网络架构\n- **VGG16** ([笔记本](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture)) ([代码](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture\u002Fvgg16.py))([论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.1556.pdf))。VGG16：用于大规模图像识别的超深卷积神经网络。\n- **ResNet** ([笔记本](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture)) ([代码](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture\u002Fresnet.py))([论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.03385.pdf))。ResNet：用于图像识别的深度残差学习。🔥🔥🔥\n- **自编码器** ([笔记本](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture)) ([代码](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture\u002Fautoencoder.py))([论文](http:\u002F\u002Fwww.cs.toronto.edu\u002F~hinton\u002Fscience.pdf))。自编码器：利用神经网络降低数据维度。\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"65%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_d9d0ebf26157.gif\" style=\"max-width:65%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n- **FPN** ([笔记本](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture)) ([代码](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F3-Neural_Network_Architecture\u002Ffpn.py))([论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1612.03144))。FPN：用于目标检测的特征金字塔网络。\n\n#### 4 - 目标检测\n- **RPN** ([笔记本](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FRPN)) ([代码](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FRPN\u002Frpn.py))([论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.06283.pdf))。RPN：区域建议网络 🔥🔥🔥🔥🔥\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"70%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_e6f7609f35f8.png\" style=\"max-width:70%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n- **MTCNN** ([笔记本](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FMTCNN)) ([代码](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FMTCNN\u002Fmtcnn.py))([论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.02878))。MTCNN：基于多任务级联卷积网络的人脸检测与对齐。（人脸检测与对齐）🔥🔥\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"40%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_b7669660b19b.jpg\" style=\"max-width:40%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n- **YOLOv3** ([笔记本](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FYOLOV3)) ([代码](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FYOLOV3\u002Fcore\u002Fyolov3.py))([论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1804.02767.pdf))。YOLOv3：一次增量改进。🔥🔥🔥🔥\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"65%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_7b16739878a9.png\" style=\"max-width:65%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n- **SSD** ([笔记本](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FSSD)) ([代码](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FSSD\u002Fssd.py))([论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1512.02325)). SSD：单次多框检测器。🔥🔥🔥🔥 【待完成】\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"56%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_fd76835e011f.png\" style=\"max-width:56%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n- **Faster R-CNN** ([笔记本](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FFaster-RCNN)) ([代码](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FFaster-RCNN\u002Ffrcnn.py))([论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1506.01497)). Faster R-CNN：基于区域建议网络的实时目标检测。🔥🔥🔥🔥 【待完成】\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"65%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_42cccae175ae.png\" style=\"max-width:65%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n#### 5 - 图像分割\n- **FCN** ([笔记本](5-Image_Segmentation\u002FFCN)) ([代码](5-Image_Segmentation\u002FFCN\u002Ffcn8s.py))([论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1411.4038)). FCN：用于语义分割的全卷积网络。 🔥🔥🔥🔥🔥\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"60%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_e2eb728fc86b.png\" style=\"max-width:60%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n- **Unet** ([笔记本](5-Image_Segmentation\u002FUnet)) ([代码](5-Image_Segmentation\u002FUnet\u002Ftrain.py))([论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1505.04597)). U-Net：用于生物医学图像分割的卷积网络。 🔥🔥\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"50%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_readme_1d8cbd27c29e.png\" style=\"max-width:50%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n#### 6 - 生成对抗网络\n- **DCGAN** ([笔记本](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F6-Generative_Adversarial_Networks\u002Fdcgan.ipynb)) ([代码](6-Generative_Adversarial_Networks\u002Fdcgan.py))([论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1511.06434.pdf)). 深度卷积生成对抗网络。\n- **Pix2Pix** ([笔记本](https:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002FYunYang1994\u002Ftensorflow2.0-examples\u002Fblob\u002Fmaster\u002F6-Generative_Adversarial_Networks\u002FPix2Pix.ipynb)) ([代码](6-Generative_Adversarial_Networks\u002FPix2Pix.py))([论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.07004.pdf)). 基于条件对抗网络的图像到图像转换。\n\n#### 7 - 工具\n- **多GPU训练** ([笔记本](https:\u002F\u002Fyunyang1994.github.io\u002Fposts\u002FTensorFlow-的多卡-GPU-训练机制\u002F#more))([代码](7-Utils\u002Fmulti_gpu_train.py)). 使用多块GPU来训练你的模型。","# TensorFlow2.0-Examples 快速上手指南\n\n本指南旨在帮助开发者快速上手 `TensorFlow2.0-Examples` 项目，通过丰富的代码示例（包含 Notebook 和源码）深入学习 TensorFlow 2.0 的核心功能、基础模型、经典网络架构及前沿应用（如目标检测、图像分割、GAN 等）。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows\n*   **Python 版本**: Python 3.6 - 3.8 (推荐 Python 3.7)\n*   **前置依赖**:\n    *   TensorFlow 2.x\n    *   Jupyter Notebook (用于运行 `.ipynb` 文件)\n    *   NumPy, Matplotlib, Pillow 等常用科学计算库\n\n> **💡 国内加速建议**\n> 推荐使用清华大学或阿里云镜像源安装依赖，以提升下载速度：\n> ```bash\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow jupyter notebook matplotlib pillow\n> ```\n\n## 安装步骤\n\n1.  **克隆项目仓库**\n    使用 git 将项目代码下载到本地：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples.git\n    cd TensorFlow2.0-Examples\n    ```\n\n2.  **安装依赖包**\n    进入项目目录后，安装运行示例所需的依赖（如果项目中包含 `requirements.txt`）：\n    ```bash\n    pip install -r requirements.txt\n    ```\n    *注：若项目中无 `requirements.txt`，请直接参考“环境准备”中的命令安装核心库。*\n\n3.  **验证环境**\n    启动 Jupyter Notebook 以查看并运行教程：\n    ```bash\n    jupyter notebook\n    ```\n    浏览器将自动打开，导航至项目文件夹即可看到各个章节的 Notebook 文件。\n\n## 基本使用\n\n本项目按模块分类，从基础语法到复杂模型层层递进。以下是运行第一个示例 **\"Hello World\"** 的步骤，用于验证 TensorFlow 是否正常工作。\n\n### 1. 运行 Hello World 示例\n\n你可以选择直接运行 Python 脚本或在 Jupyter Notebook 中交互运行。\n\n**方式 A：运行 Python 脚本**\n```bash\npython 1-Introduction\u002Fhelloworld.py\n```\n*预期输出：成功打印 \"hello world\" 及相关 Tensor 信息。*\n\n**方式 B：使用 Jupyter Notebook**\n在 Jupyter 界面中打开 `1-Introduction\u002Fhelloworld.ipynb`，依次执行单元格。\n\n### 2. 代码示例解析\n\n以下是 `helloworld.py` 的核心逻辑演示，展示了 TensorFlow 2.0 的即时执行模式（Eager Execution）：\n\n```python\nimport tensorflow as tf\n\n# 定义一个简单的字符串常量\nhello = tf.constant('Hello, TensorFlow!')\n\n# 直接打印 Tensor 的值（TF 2.0 默认开启 Eager Execution）\nprint(hello.numpy())\n```\n\n### 3. 探索更多示例\n\n项目结构清晰，你可以根据需求进入对应文件夹学习：\n\n*   **基础入门 (`1-Introduction`)**: 学习变量、基本运算、激活函数及 `GradientTape` 自动求导。\n*   **基础模型 (`2-Basical_Models`)**: 实现线性回归、逻辑回归、多层感知机 (MLP) 和 CNN。\n*   **经典架构 (`3-Neural_Network_Architecture`)**: 复现 VGG16, ResNet, AutoEncoder, FPN 等。\n*   **目标检测 (`4-Object_Detection`)**: 包含 RPN, MTCNN, YOLOv3, SSD, Faster R-CNN 等实战代码。\n*   **图像分割 (`5-Image_Segmentation`)**: 学习 FCN 和 U-Net 网络。\n*   **生成对抗网络 (`6-Generative_Adversarial_Networks`)**: 尝试 DCGAN 和 Pix2Pix。\n\n**提示**：每个文件夹下均提供 `.py` 源码和对应的 `.ipynb` 笔记，建议优先阅读 Notebook 以获取详细的代码解释和运行结果展示。","某高校人工智能实验室的研究生李明，正试图在两周内复现一篇论文中的图像分类算法，以完成他的毕业设计开题报告。\n\n### 没有 TensorFlow2.0-Examples 时\n- **环境配置迷茫**：面对 TensorFlow 2.0 全新的 API 架构，李明在官方文档中迷失，花费三天时间仍无法跑通最简单的\"Hello World\"示例，变量定义与梯度计算方式与旧版本差异巨大。\n- **基础代码从零造轮子**：为了验证思路，他需要手动编写线性回归和多层感知机的底层训练循环，反复调试 `GradientTape` 的自动微分逻辑，极易因细微语法错误导致模型不收敛。\n- **经典架构实现困难**：尝试搭建 VGG16 等经典网络时，缺乏标准的层堆叠参考代码，不得不四处搜索碎片化的博客教程，代码质量参差不齐且难以移植。\n- **学习曲线陡峭**：由于缺乏系统性的由浅入深案例，他在理解激活函数选择和基本运算组合时效率极低，严重挤压了核心算法创新的研究时间。\n\n### 使用 TensorFlow2.0-Examples 后\n- **快速上手新特性**：直接运行库中的\"Hello World\"和\"Variable\"示例，李明在 30 分钟内就掌握了 TF 2.0 的核心语法，迅速跨越了版本迁移的门槛。\n- **复用标准训练模板**：参考\"Linear Regression\"和\"Multilayer Perceptron\"的源码，他直接复用了一套完整的、包含自动微分逻辑的训练框架，将原本需两天的编码工作缩短至两小时。\n- **一键调用经典模型**：利用库中现成的\"CNN\"和\"VGG16\"实现代码，他无需关注底层细节即可快速搭建起高性能基线模型，立即开始调整超参数进行实验。\n- **系统化进阶学习**：依托该库从基础运算到复杂架构的清晰目录结构，李明能够按需查阅特定模块的实现细节，学习效率显著提升，提前一周完成了基线模型构建。\n\nTensorFlow2.0-Examples 通过将复杂的算法逻辑转化为简洁可用的代码模板，极大地降低了深度学习框架的学习成本与开发门槛，让研究者能专注于算法创新而非工程实现。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_TensorFlow2.0-Examples_203d0360.png","YunYang1994",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FYunYang1994_b988ddf9.jpg","合作请加微信：yylovelh0907","阿里巴巴千问C端事业部","GuangZhou, China","https:\u002F\u002Fgithub.com\u002FYunYang1994",[80,84],{"name":81,"color":82,"percentage":83},"Jupyter Notebook","#DA5B0B",85.8,{"name":85,"color":86,"percentage":87},"Python","#3572A5",14.2,1706,664,"2026-04-04T03:27:01","MIT",1,"未说明","部分示例（如多卡训练、YOLOv3、Faster R-CNN）需要 NVIDIA GPU，具体显存和 CUDA 版本取决于安装的 TensorFlow 2.0 对应版本，README 中未明确指定具体型号或最低显存要求。",{"notes":96,"python":97,"dependencies":98},"该项目是 TensorFlow 2.0 的示例集合，包含从基础操作到复杂模型（如 YOLOv3, Faster R-CNN, GANs）的代码。部分高级模型（如 Faster R-CNN, SSD）标记为【TO DO】可能尚未完成。运行前需确保安装与代码兼容的 TensorFlow 2.x 版本。项目提供 Notebook 和源代码两种形式。","未说明 (通常 TensorFlow 2.0 支持 Python 3.5-3.7)",[99,100,101,102],"tensorflow>=2.0","jupyter","numpy","matplotlib",[15,14],[105,106,107,108,109,110,111,112,113,114,115,116,117,118,119,120,121,122,123],"tensorflow2","tensorflow-examples","deep-learning","deep-neural-networks","machine-learning","gan","linear-regression","resnet","reinforcement-learning","image-classification","object-detection","convolutional-neural-network","pix2pix","dcgan-tensorflow","vgg16","yolov3","unet-image-segmentation","fcn8s","tensorflow","2026-03-27T02:49:30.150509","2026-04-06T15:01:03.165634",[127,132,137,142,147,152,157],{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},19339,"如何在 YOLOv3 示例中将模型保存为 .pb 扩展名的文件？","如果在保存过程中遇到 'NameError: name \"convert_variables_to_constants_v2\" is not defined' 错误，通常是因为缺少导入语句。请添加以下代码：\nfrom tensorflow.python.framework.convert_to_constants import convert_variables_to_constants_v2\n此外，对于 TensorFlow 2.3 及以上版本，建议参考官方 Issue 或相关教程导出推理模型。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fissues\u002F71",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},19340,"运行时报错 'Failed to get convolution algorithm' 或 'cuDNN failed to initialize' 如何解决？","这通常是 GPU 显存分配问题。在 TensorFlow 2.x 中，可以在代码开头添加以下配置来允许显存动态增长：\nimport tensorflow as tf\nconfig = tf.compat.v1.ConfigProto()\nconfig.gpu_options.allow_growth = True\nsession = tf.compat.v1.InteractiveSession(config=config)\n这将防止 TensorFlow 一次性占用所有显存导致 cuDNN 初始化失败。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fissues\u002F99",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},19341,"FCN 训练时出错，提示与 scipy 或图像读取接口有关，如何解决？","该问题通常是由于 `parser_voc.py` 中使用了过时的 `misc.imread()` 接口导致的。更换新的图像读取接口后，如果生成的 txt 数据格式不对也会引发错误。请检查数据预处理脚本，确保使用的图像读取函数（如改用 imageio 或 PIL）生成的标注数据格式与原代码逻辑兼容。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fissues\u002F93",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},19342,"为什么 YOLOv3 的模型定义使用函数式 API 而不是像 RPN、SSD 那样使用子类化 Model 的方法？","这是主要出于与 TensorFlow 1.x 版本兼容性的考虑。函数式 API 在转换和导出模型时在某些旧版本工作流中更为稳定，因此在该示例项目中保留了这种写法。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fissues\u002F113",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},19343,"运行 test.py 或 video_demo.py 时，第一帧预测正常，但从第二帧开始结果全是 NaN，怎么办？","这可能是权重加载或模型状态复用的问题。有用户反馈将 `utils.load_weights(model, \".\u002Fyolov3.weights\")` 放入预测循环内部（即每一帧都重新加载权重）可以解决 NaN 问题，但这会显著降低视频处理速度。建议检查 TensorFlow 版本兼容性（如 TF 2.7.0），或尝试在预测前重置模型状态，确认是否因 `model.predict_on_batch` 调用后模型权重丢失所致。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fissues\u002F121",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},19344,"YOLOv3 Dataset 类中，为什么 IoU 大于 0.3 的 prior box 都会被赋值给真值？这样设计有什么好处？","这种设计是为了让多个与真值框重叠度较高（IoU > 0.3）的先验框都参与回归任务的训练，而不仅仅是 IoU 最大的那个。这有助于模型学习到更多正样本特征，提高检测的鲁棒性。具体原理可参考作者的博客文章（若链接失效，需查阅 YOLOv3 原论文关于正样本匹配的策略）。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fissues\u002F62",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},19345,"如何将模型保存为 .h5 文件而不是默认的 .data 索引文件？","直接使用 `model.save('yolo3.h5')` 可能会报错，这通常是因为模型中包含自定义层或复杂的输入输出结构。确保在保存前已正确编译模型，并且所有自定义操作都已注册。如果使用的是 Weight 文件 (.weights)，需要先将其加载到构建好的 Keras 模型结构中，然后再调用 save 方法保存为 h5 格式。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Fissues\u002F48",[]]