[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-hzy46--Deep-Learning-21-Examples":3,"tool-hzy46--Deep-Learning-21-Examples":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":119,"forks":120,"last_commit_at":121,"license":76,"difficulty_score":122,"env_os":123,"env_gpu":124,"env_ram":124,"env_deps":125,"category_tags":130,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":132,"updated_at":133,"faqs":134,"releases":175},8835,"hzy46\u002FDeep-Learning-21-Examples","Deep-Learning-21-Examples","《21个项目玩转深度学习———基于TensorFlow的实践详解》配套代码","Deep-Learning-21-Examples 是畅销书《21 个项目玩转深度学习——基于 TensorFlow 的实践详解》的官方配套代码库。它旨在解决深度学习初学者“理论懂但不会做”的痛点，通过提供 21 个完整且可运行的实战项目，帮助用户在动手实验中轻松掌握核心算法与框架技巧。\n\n这套资源非常适合希望系统入门深度学习的开发者、学生及研究人员使用。其内容覆盖全面，从基础的 MNIST 手写数字识别，到进阶的图像风格迁移、GAN 生成对抗网络、机器翻译，再到前沿的深度强化学习（如 DQN、策略梯度），构成了一个循序渐进的学习路径。\n\n项目的独特亮点在于其“场景化教学”模式：不仅包含源代码，还针对每个章节提供了详细的环境配置指南和数据集下载指引。代码基于经典的 TensorFlow 1.x 版本编写，结构清晰，特别适合作为理解卷积神经网络（CNN）、循环神经网络（RNN）及强化学习底层逻辑的教学案例。无论你是想复现经典论文效果，还是寻找课程设计的灵感，Deep-Learning-21-Examples 都能让你在实践的乐趣中扎实提升技术能力。","## Deep-Learning-21-Examples\n\n本工程是《21个项目玩转深度学习———基于TensorFlow的实践详解》的配套代码，代码推荐的运行环境为：Ubuntu 14.04，Python 2.7、TensorFlow >= 1.4.0。请尽量使用类UNIX系统和Python 2运行本书的代码。\n\n欢迎有兴趣的同学猛戳下面的链接购买：\n- 京东：[https:\u002F\u002Fitem.jd.com\u002F12327358.html](https:\u002F\u002Fitem.jd.com\u002F12327358.html)\n- 天猫：[https:\u002F\u002Fdetail.tmall.com\u002Fitem.htm?id=566399074299](https:\u002F\u002Fdetail.tmall.com\u002Fitem.htm?id=566399074299)\n- 当当：[http:\u002F\u002Fproduct.dangdang.com\u002F25245282.html](http:\u002F\u002Fproduct.dangdang.com\u002F25245282.html)\n\n写作这本书的初衷是希望提供一个**深度学习实践案例的合集**，让每个人都可以在“动手实验”的过程中，比较轻松地掌握深度学习和TensorFlow的使用技巧，并且能完整地做出一些有意思的项目。**希望大家能在实践的过程中找到乐趣，如果有任何问题，欢迎通过[issues](https:\u002F\u002Fgithub.com\u002Fhzy46\u002FDeep-Learning-21-Examples\u002Fissues)提出纠错或改进建议。**\n\n### 快速指引\n\n以下是各章代码详细的运行方法：\n\n1. [MNIST机器学习入门](chapter_1\u002FREADME.md)\n2. [CIFAR-10与ImageNet图像识别](chapter_2\u002FREADME.md)\n3. [打造自己的图像识别模型](chapter_3\u002FREADME.md)\n4. [Deep Dream](chapter_4\u002FREADME.md)\n5. [深度学习中的目标检测](chapter_5\u002FREADME.md)\n6. [人脸检测和人脸识别](chapter_6\u002FREADME.md)\n7. [图像风格迁移](chapter_7\u002FREADME.md)\n8. [GAN与DCGAN入门](chapter_8\u002FREADME.md)\n9. [pix2pix模型与自动上色技术](chapter_9\u002FREADME.md)\n10. [超分辨率：让图像变得更清晰](chapter_10\u002FREADME.md)\n11. [CycleGAN与非配对图像转换](chapter_11\u002FREADME.md)\n12. [RNN基本结构与Char RNN文本生成](chapter_12\u002FREADME.md)\n13. [序列分类问题详解](chapter_13\u002FREADME.md)\n14. [词的向量表示：word2vec与词嵌入](chapter_14\u002FREADME.md)\n15. [在TensorFlow中进行时间序列预测](chapter_15\u002FREADME.md)\n16. [神经网络机器翻译技术](chapter_16\u002FREADME.md)\n17. [看图说话：将图像转换为文字](chapter_17\u002FREADME.md)\n18. [强化学习入门之Q Learning](chapter_18\u002FREADME.md)\n19. [强化学习入门之SARSA算法](chapter_19\u002FREADME.md)\n20. [深度强化学习：Deep Q Learning](chapter_20\u002FREADME.md)\n21. [策略梯度（Policy Gradient）算法](chapter_21\u002FREADME.md)\n\n本书包含的项目主要有三部分：第1～11章主要介绍CNN相关的项目，其中8~11章为GAN模型和它的几个重要变体；第12～17章主要介绍RNN、LSTM 相关的项目；第18～21章主要介绍强化学习相关的项目。\n\n### 各章data文件夹下载地址\n\n本工程主要包含的是项目的源代码文件，以chapter\\_1\u002F ~ chapter\\_21\u002F 标识。在有的章节中，还会额外需要一些数据集、模型等文件，我们用chapter_\u003C章节名>\\_data\u002F来表示。\n\n例如：第四章有chapter\\_4\u002F和chapter\\_4\\_data\u002F两个文件夹，前者是源代码，后者是在运行程序时会用的数据文件。\n\n由于数据文件通常比较大，建议读者在用到时候再进行下载，下载地址为：[https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1i7pKvFf](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1i7pKvFf)，提取码：1kmf。\n\n\n### 其他链接\n\n- 意见反馈邮箱：hzydl21 [at] 163.com\n- 我的专栏博客：[AI Insight](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fai-insight)\n\n### 致谢\n\n感谢电子工业出版社的孙学瑛女士和宋亚东先生为本书付出的努力，同时也感谢刘婧源同学给本书的宝贵建议。本书对于来自于网络的代码，在书中和配套代码的Readme文件中，均作了引用说明，在此也对原作者表示深深的感谢。\n","## 深度学习21个案例\n\n本工程是《21个项目玩转深度学习———基于TensorFlow的实践详解》的配套代码，代码推荐的运行环境为：Ubuntu 14.04，Python 2.7、TensorFlow >= 1.4.0。请尽量使用类UNIX系统和Python 2运行本书的代码。\n\n欢迎有兴趣的同学猛戳下面的链接购买：\n- 京东：[https:\u002F\u002Fitem.jd.com\u002F12327358.html](https:\u002F\u002Fitem.jd.com\u002F12327358.html)\n- 天猫：[https:\u002F\u002Fdetail.tmall.com\u002Fitem.htm?id=566399074299](https:\u002F\u002Fdetail.tmall.com\u002Fitem.htm?id=566399074299)\n- 当当：[http:\u002F\u002Fproduct.dangdang.com\u002F25245282.html](http:\u002F\u002Fproduct.dangdang.com\u002F25245282.html)\n\n写作这本书的初衷是希望提供一个**深度学习实践案例的合集**，让每个人都可以在“动手实验”的过程中，比较轻松地掌握深度学习和TensorFlow的使用技巧，并且能完整地做出一些有意思的项目。**希望大家能在实践的过程中找到乐趣，如果有任何问题，欢迎通过[issues](https:\u002F\u002Fgithub.com\u002Fhzy46\u002FDeep-Learning-21-Examples\u002Fissues)提出纠错或改进建议。**\n\n### 快速指引\n\n以下是各章代码详细的运行方法：\n\n1. [MNIST机器学习入门](chapter_1\u002FREADME.md)\n2. [CIFAR-10与ImageNet图像识别](chapter_2\u002FREADME.md)\n3. [打造自己的图像识别模型](chapter_3\u002FREADME.md)\n4. [Deep Dream](chapter_4\u002FREADME.md)\n5. [深度学习中的目标检测](chapter_5\u002FREADME.md)\n6. [人脸检测和人脸识别](chapter_6\u002FREADME.md)\n7. [图像风格迁移](chapter_7\u002FREADME.md)\n8. [GAN与DCGAN入门](chapter_8\u002FREADME.md)\n9. [pix2pix模型与自动上色技术](chapter_9\u002FREADME.md)\n10. [超分辨率：让图像变得更清晰](chapter_10\u002FREADME.md)\n11. [CycleGAN与非配对图像转换](chapter_11\u002FREADME.md)\n12. [RNN基本结构与Char RNN文本生成](chapter_12\u002FREADME.md)\n13. [序列分类问题详解](chapter_13\u002FREADME.md)\n14. [词的向量表示：word2vec与词嵌入](chapter_14\u002FREADME.md)\n15. [在TensorFlow中进行时间序列预测](chapter_15\u002FREADME.md)\n16. [神经网络机器翻译技术](chapter_16\u002FREADME.md)\n17. [看图说话：将图像转换为文字](chapter_17\u002FREADME.md)\n18. [强化学习入门之Q Learning](chapter_18\u002FREADME.md)\n19. [强化学习入门之SARSA算法](chapter_19\u002FREADME.md)\n20. [深度强化学习：Deep Q Learning](chapter_20\u002FREADME.md)\n21. [策略梯度（Policy Gradient）算法](chapter_21\u002FREADME.md)\n\n本书包含的项目主要有三部分：第1～11章主要介绍CNN相关的项目，其中8~11章为GAN模型和它的几个重要变体；第12～17章主要介绍RNN、LSTM 相关的项目；第18～21章主要介绍强化学习相关的项目。\n\n### 各章data文件夹下载地址\n\n本工程主要包含的是项目的源代码文件，以chapter\\_1\u002F ~ chapter\\_21\u002F 标识。在有的章节中，还会额外需要一些数据集、模型等文件，我们用chapter_\u003C章节名>\\_data\u002F来表示。\n\n例如：第四章有chapter\\_4\u002F和chapter\\_4\\_data\u002F两个文件夹，前者是源代码，后者是在运行程序时会用的数据文件。\n\n由于数据文件通常比较大，建议读者在用到时候再进行下载，下载地址为：[https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1i7pKvFf](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1i7pKvFf)，提取码：1kmf。\n\n\n### 其他链接\n\n- 意见反馈邮箱：hzydl21 [at] 163.com\n- 我的专栏博客：[AI Insight](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fai-insight)\n\n### 致谢\n\n感谢电子工业出版社的孙学瑛女士和宋亚东先生为本书付出的努力，同时也感谢刘婧源同学给本书的宝贵建议。本书对于来自于网络的代码，在书中和配套代码的Readme文件中，均作了引用说明，在此也对原作者表示深深的感谢。","# Deep-Learning-21-Examples 快速上手指南\n\n本指南基于《21 个项目玩转深度学习———基于 TensorFlow 的实践详解》配套代码，帮助开发者快速搭建环境并运行示例。\n\n## 环境准备\n\n本项目官方推荐在类 UNIX 系统下运行，以确保最佳兼容性。\n\n*   **操作系统**：推荐 Ubuntu 14.04 或更高版本（其他 Linux 发行版及 macOS 通常也可行）。\n*   **Python 版本**：Python 2.7（注：原书代码基于 Python 2 编写，若需使用 Python 3 可能需自行修改代码）。\n*   **核心框架**：TensorFlow >= 1.4.0。\n*   **其他依赖**：根据具体章节需求，可能需要安装 OpenCV、Pillow、Numpy 等常见科学计算库。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n首先从 GitHub 获取源代码：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhzy46\u002FDeep-Learning-21-Examples.git\ncd Deep-Learning-21-Examples\n```\n\n### 2. 安装 Python 依赖\n建议使用 `pip` 安装所需的 Python 包。由于原项目较老，建议先安装兼容 TensorFlow 1.x 版本的依赖：\n\n```bash\npip install tensorflow==1.15.0\npip install -r requirements.txt\n```\n*(注：若根目录无 `requirements.txt`，请根据各章节 `README.md` 中的具体指引安装对应库，如 `pip install opencv-python matplotlib` 等)*\n\n### 3. 下载数据集与模型文件\n代码中涉及的大型数据集和预训练模型未包含在 Git 仓库中，需单独下载。\n\n*   **下载地址**：[百度网盘链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1i7pKvFf)\n*   **提取码**：`1kmf`\n\n**使用说明**：\n各章节通常包含两个文件夹：\n*   `chapter_X\u002F`：源代码（已克隆）。\n*   `chapter_X_data\u002F`：数据文件（需手动下载）。\n\n请将下载并解压后的 `chapter_X_data` 文件夹放置在对应的章节目录下，确保程序运行时能正确读取路径。例如，运行第 4 章前，需确保目录结构如下：\n```text\nDeep-Learning-21-Examples\u002F\n├── chapter_4\u002F          # 代码\n└── chapter_4_data\u002F     # 下载的数据文件\n```\n\n## 基本使用\n\n本项目包含 21 个独立案例，涵盖 CNN、RNN、GAN 及强化学习等领域。以下以第一章\"MNIST 机器学习入门”为例演示运行流程。\n\n### 运行示例：MNIST 入门\n\n1.  进入第一章目录：\n    ```bash\n    cd chapter_1\n    ```\n\n2.  确保已下载该章所需数据（如有），然后运行主程序：\n    ```bash\n    python mnist_softmax.py\n    ```\n    *(具体脚本文件名请参考 `chapter_1\u002FREADME.md` 中的指引，不同章节入口脚本名称不同)*\n\n### 探索其他章节\n每个章节目录下均包含独立的 `README.md` 文件，详细说明了该特定项目的运行命令和参数。您可以按照以下模式切换实验：\n\n```bash\n# 例如运行第二章：CIFAR-10 图像识别\ncd ..\u002Fchapter_2\npython cifar10_train.py  # 示例命令，请以实际文件名为准\n```\n\n建议按照书籍章节顺序或兴趣点，依次进入对应 `chapter_X` 目录查阅说明并执行代码。","某高校人工智能实验室的研究生团队正致力于开发一套“老照片智能修复与上色系统”，需要在短时间内掌握从图像生成到风格迁移的多种深度学习技术。\n\n### 没有 Deep-Learning-21-Examples 时\n- **学习曲线陡峭**：团队成员需从零摸索 TensorFlow 1.x 的复杂 API，花费数周时间调试基础环境，却仍难以跑通第一个完整的 GAN 模型。\n- **代码碎片化严重**：网上关于 pix2pix 或超分辨率的代码多为片段式教程，缺乏统一的数据预处理和训练流程，导致整合不同模块时频繁报错。\n- **理论落地困难**：虽然理解了强化学习或 RNN 的数学原理，但面对具体的序列分类或机器翻译任务，不知如何构建有效的网络结构。\n- **试错成本高昂**：在调整超参数或设计损失函数时缺乏参考基准，往往需要反复进行无效实验，严重拖慢项目进度。\n\n### 使用 Deep-Linking-21-Examples 后\n- **快速上手实践**：直接复用书中第 9 章（pix2pix 自动上色）和第 10 章（超分辨率）的成熟代码，当天即可在本地复现核心功能，将环境配置时间缩短至几小时。\n- **全流程代码参考**：依托其完整的工程目录结构，团队清晰掌握了从数据加载、模型定义到训练评估的标准范式，轻松将图像修复与上色模块无缝集成。\n- **场景化技术映射**：通过第 12 章文本生成和第 16 章机器翻译的案例，迅速理解了 RNN 在处理时序数据上的通用逻辑，成功迁移至照片瑕疵的序列修复任务中。\n- **高效迭代优化**：以第 8 章 DCGAN 和第 11 章 CycleGAN 为基准线，团队能快速对比实验效果，精准定位模型缺陷，大幅减少了盲目调参的时间。\n\nDeep-Learning-21-Examples 通过将抽象算法转化为 21 个可运行的实战项目，帮助开发者跨越了从“懂理论”到“能落地”的关键鸿沟。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhzy46_Deep-Learning-21-Examples_b58c2929.png","hzy46","Zhiyuan He","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhzy46_abbdfcf1.jpg","China",null,"Shanghai","https:\u002F\u002Fgithub.com\u002Fhzy46",[80,84,88,92,96,100,104,108,112,115],{"name":81,"color":82,"percentage":83},"Python","#3572A5",91.3,{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",2.3,{"name":89,"color":90,"percentage":91},"JavaScript","#f1e05a",2.1,{"name":93,"color":94,"percentage":95},"HTML","#e34c26",1.6,{"name":97,"color":98,"percentage":99},"Shell","#89e051",1.1,{"name":101,"color":102,"percentage":103},"MATLAB","#e16737",0.7,{"name":105,"color":106,"percentage":107},"CSS","#663399",0.4,{"name":109,"color":110,"percentage":111},"Dockerfile","#384d54",0.2,{"name":113,"color":114,"percentage":111},"HCL","#844FBA",{"name":116,"color":117,"percentage":118},"Makefile","#427819",0,4672,1748,"2026-04-17T07:16:04",4,"Linux","未说明",{"notes":126,"python":127,"dependencies":128},"推荐使用类 UNIX 系统（如 Ubuntu 14.04）。部分章节需要额外下载数据集和模型文件（通过百度网盘），建议按需下载。代码基于较旧的 TensorFlow 1.x 版本和 Python 2.7，现代环境运行可能需要兼容调整。","2.7",[129],"TensorFlow>=1.4.0",[15,35,131],"其他","2026-03-27T02:49:30.150509","2026-04-18T14:13:02.667290",[135,140,145,150,155,160,165,170],{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},39629,"训练时遇到 OOM（显存不足）错误或模型训练卡住不更新怎么办？","这通常是因为显存或内存不足导致的。解决方案是修改训练脚本中的参数设置，例如减小 batch_size（批次大小），或者将相关数值调整为原来的 1\u002F10 进行测试。如果使用的是 GPU，请确保设备指定正确；如果是 CPU 环境，请移除强制指定 GPU 的代码。","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FDeep-Learning-21-Examples\u002Fissues\u002F29",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},39630,"在 Python 3 环境下生成 tfrecord 文件时报错 'TypeError: ... has type str, but expected one of: bytes' 如何解决？","这是因为 Python 3 中字符串和字节的区别。在调用 `tf.train.BytesList` 时，传入的值必须是 bytes 类型。如果原始数据是字符串（str），需要先使用 `.encode('utf-8')` 方法将其转换为 bytes 格式，例如：`value.encode('utf-8')`。","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FDeep-Learning-21-Examples\u002Fissues\u002F18",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},39631,"训练时报错 'Cannot assign a device for operation... GPU:0 but available devices are... CPU:0' 是什么意思？","这个错误表示代码强制要求使用 GPU 进行计算，但当前环境中没有检测到可用的 GPU 设备（只有 CPU）。解决方法有两种：1. 确保机器安装了正确的 NVIDIA 驱动和 CUDA\u002FcuDNN，并能被 TensorFlow 识别；2. 如果只想用 CPU 运行，需要修改代码，移除或注释掉强制指定 `\u002Fdevice:GPU:0` 的部分，让 TensorFlow 自动分配设备。","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FDeep-Learning-21-Examples\u002Fissues\u002F23",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},39632,"目标检测训练过程中显存占满导致电脑关机或程序崩溃如何解决？","这是显存溢出导致的。建议尝试以下方法：1. 将配置文件中的 batch_size 数值减小（例如改为原来的 1\u002F10）；2. 检查 TensorFlow 版本兼容性，尝试在当前平台重新编译 TensorFlow 以消除兼容性问题；3. 确认是否因修改配置文件导致路径或类型错误。","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FDeep-Learning-21-Examples\u002Fissues\u002F21",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},39633,"如何获取书中提到的数据集（如百度网盘链接失效或卫星图片源地址）？","如果书中的百度网盘链接失效，可以尝试联系作者获取新的分享链接。对于卫星图片等特定数据集，原爬虫程序可能已不可用，建议自行搜索并编写爬取 Google Map 的程序，或者在网上寻找其他公开的图像训练集替代。","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FDeep-Learning-21-Examples\u002Fissues\u002F15",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},39634,"运行 LSTM 时序预测时出现 'Skipping summary for...' 警告会影响结果吗？","这些警告是关于添加 TensorBoard summary 时的数据类型问题，通常不会影响模型的训练误差或最终结果的准确性。只要输出趋势看起来正常，可以忽略这些警告继续运行。","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FDeep-Learning-21-Examples\u002Fissues\u002F10",{"id":166,"question_zh":167,"answer_zh":168,"source_url":169},39635,"Softmax 回归代码中计算交叉熵时，tf.reduce_sum 是否需要指定 axis 参数？","理论上应当指定 `axis=1` 以按行求和。原代码未指定是为了便于理解，但这会导致计算结果相差一个常数倍数。如果在实际运行中发现加上 `axis=1` 后正确率变化，可能是因为学习率等其他超参数需要相应调整，但逻辑上加上 axis 是更规范的写法。","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FDeep-Learning-21-Examples\u002Fissues\u002F7",{"id":171,"question_zh":172,"answer_zh":173,"source_url":174},39636,"如果要训练自己的文本数据集，该如何生成 vocab（词汇表）文件？","可以编写一个简单的 Python 程序来生成。基本逻辑是：读取文本数据，按空格进行拆词，然后对拆分后的词语进行去重处理。注意标点符号与单词之间也需要有空格，以便将标点作为单独的词汇处理。所有由空格隔开的字符串算作一个词汇。","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FDeep-Learning-21-Examples\u002Fissues\u002F39",[]]