[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jeffheaton--t81_558_deep_learning":3,"tool-jeffheaton--t81_558_deep_learning":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",145895,2,"2026-04-08T11:32:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":73,"owner_website":80,"owner_url":81,"languages":82,"stars":103,"forks":104,"last_commit_at":105,"license":106,"difficulty_score":32,"env_os":107,"env_gpu":108,"env_ram":107,"env_deps":109,"category_tags":121,"github_topics":122,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":128,"updated_at":129,"faqs":130,"releases":161},5666,"jeffheaton\u002Ft81_558_deep_learning","t81_558_deep_learning","T81-558: Keras - Applications of Deep Neural Networks @Washington University in St. Louis","t81_558_deep_learning 是华盛顿大学圣路易斯分校开设的“深度神经网络应用”课程配套开源资源库，旨在通过实战案例帮助学习者掌握深度学习技术。该项目基于 Python、TensorFlow 和 Keras 框架，系统讲解了如何构建和处理处理表格数据、图像、文本及音频的神经网络模型。\n\n它主要解决了初学者在面对复杂深度学习概念时缺乏系统性指导和落地代码的问题。课程内容涵盖了从经典的神经网络结构到卷积神经网络（CNN）、长短期记忆网络（LSTM）、生成对抗网络（GAN）及强化学习等前沿架构，并展示了这些技术在计算机视觉、时间序列分析、自然语言处理及安全领域的具体应用。此外，项目还涉及高性能计算内容，演示了如何利用 GPU 和计算集群加速模型训练。\n\n这套资源非常适合具备一定编程基础的开发者、数据科学家以及希望深入理解深度学习原理的研究人员使用。即使你之前未接触过 Python，只要熟悉任意一门编程语言，也能跟随课程循序渐进地学习。其独特亮点在于将理论数学基础与实际工程应用紧密结合，提供了完整的 Jupyter Notebook 代码示例和配套教材，且内容随技术演进持续更新，","t81_558_deep_learning 是华盛顿大学圣路易斯分校开设的“深度神经网络应用”课程配套开源资源库，旨在通过实战案例帮助学习者掌握深度学习技术。该项目基于 Python、TensorFlow 和 Keras 框架，系统讲解了如何构建和处理处理表格数据、图像、文本及音频的神经网络模型。\n\n它主要解决了初学者在面对复杂深度学习概念时缺乏系统性指导和落地代码的问题。课程内容涵盖了从经典的神经网络结构到卷积神经网络（CNN）、长短期记忆网络（LSTM）、生成对抗网络（GAN）及强化学习等前沿架构，并展示了这些技术在计算机视觉、时间序列分析、自然语言处理及安全领域的具体应用。此外，项目还涉及高性能计算内容，演示了如何利用 GPU 和计算集群加速模型训练。\n\n这套资源非常适合具备一定编程基础的开发者、数据科学家以及希望深入理解深度学习原理的研究人员使用。即使你之前未接触过 Python，只要熟悉任意一门编程语言，也能跟随课程循序渐进地学习。其独特亮点在于将理论数学基础与实际工程应用紧密结合，提供了完整的 Jupyter Notebook 代码示例和配套教材，且内容随技术演进持续更新，是进入深度学习领域的一套高质量入门与实践指南。","# Important Note\n\nCurrent students of this course at Washington University should refer to the [PyTorch version of this course](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Fapp_deep_learning), which is what is currently offered at the university. This repository contains the previous Keras\u002FTensorFlow version.\n\n# T81 558:Applications of Deep Neural Networks - TensorFlow\n[Washington University in St. Louis](http:\u002F\u002Fwww.wustl.edu)\n\nInstructor: [Jeff Heaton](https:\u002F\u002Fsites.wustl.edu\u002Fjeffheaton\u002F)\n\n**The content of this course changes as technology evolves**, to keep up to date with changes [follow me on GitHub](https:\u002F\u002Fgithub.com\u002Fjeffheaton).\n\n* Section 1. Spring 2023, Monday, 2:30 PM, Location: Eads \u002F 216 \n* Section 2. Spring 2023, Online\n\n# Course Description\n\nDeep learning is a group of exciting new technologies for neural networks. Through a combination of advanced training techniques and neural network architectural components, it is now possible to create neural networks that can handle tabular data, images, text, and audio as both input and output. Deep learning allows a neural network to learn hierarchies of information in a way that is like the function of the human brain. This course will introduce the student to classic neural network structures, Convolution Neural Networks (CNN), Long Short-Term Memory (LSTM), Gated Recurrent Neural Networks (GRU), General Adversarial Networks (GAN) and reinforcement learning. Application of these architectures to computer vision, time series, security, natural language processing (NLP), and data generation will be covered. High Performance Computing (HPC) aspects will demonstrate how deep learning can be leveraged both on graphical processing units (GPUs), as well as grids. Focus is primarily upon the application of deep learning to problems, with some introduction to mathematical foundations. Students will use the Python programming language to implement deep learning using Google TensorFlow and Keras. It is not necessary to know Python prior to this course; however, familiarity of at least one programming language is assumed. This course will be delivered in a hybrid format that includes both classroom and online instruction.\n\n# Textbook\n\nThe complete text for this course is here on GitHub. This same material is also available in [book format](https:\u002F\u002Fwww.heatonresearch.com\u002Fbook\u002Fapplications-deep-neural-networks-keras.html). The course textbook is “Applications of Deep Neural networks with Keras“, ISBN 9798416344269.\n\nIf you would like to cite the material from this course\u002Fbook, please use the following BibTex citation:\n\n```\n@misc{heaton2020applications,\n    title={Applications of Deep Neural Networks},\n    author={Jeff Heaton},\n    year={2020},\n    eprint={2009.05673},\n    archivePrefix={arXiv},\n    primaryClass={cs.LG}\n}\n```\n\n# Objectives\n\n1. Explain how neural networks (deep and otherwise) compare to other machine learning models.\n2. Determine when a deep neural network would be a good choice for a particular problem.\n3. Demonstrate your understanding of the material through a final project uploaded to GitHub.\n\n# Syllabus\nThis syllabus presents the expected class schedule, due dates, and reading assignments.  [Download current syllabus.](https:\u002F\u002Fdata.heatonresearch.com\u002Fwustl\u002Fjheaton-t81-558-spring-2023-syllabus.pdf)\n\nModule|Content\n---|---\n[Module 1](t81_558_class_01_1_overview.ipynb)\u003Cbr>**Meet on 01\u002F23\u002F2023** | **Module 1: Python Preliminaries**\u003Cul>\u003Cli>Part 1.1: Course Overview\u003Cli>Part 1.2: Introduction to Python\u003Cli>Part 1.3: Python Lists, Dictionaries, Sets & JSON\u003Cli>Part 1.4: File Handling\u003Cli>Part 1.5: Functions, Lambdas, and Map\u002FReducePython Preliminaries\u003Cli>**We will meet on campus this week! (first meeting)**\u003C\u002Ful>\n[Module 2](t81_558_class_02_1_python_pandas.ipynb)\u003Cbr>Week of 01\u002F30\u002F2023 | **Module 2: Python for Machine Learning**\u003Cul>\u003Cli>\tPart 2.1: Introduction to Pandas for Deep Learning\u003Cli>Part 2.2: Encoding Categorical Values in Pandas\u003Cli>Part 2.3: Grouping, Sorting, and Shuffling\u003Cli>Part 2.4: Using Apply and Map in Pandas\u003Cli>Part 2.5: Feature Engineering in Pandas\u003Cli>[Module 1 Program](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class1.ipynb) due: 01\u002F31\u002F2023\u003Cli> Icebreaker due: 01\u002F31\u002F2023\u003C\u002Ful>\n[Module 3](t81_558_class_03_1_neural_net.ipynb)\u003Cbr>Week of 02\u002F06\u002F2023 | **Module 3: TensorFlow and Keras for Neural Networks**\u003Cul>\u003Cli>Part 3.1: Deep Learning and Neural Network Introduction\u003Cli>Part 3.2: Introduction to Tensorflow & Keras\u003Cli>Part 3.3: Saving and Loading a Keras Neural Network\u003Cli>Part 3.4: Early Stopping in Keras to Prevent Overfitting\u003Cli>Part 3.5: Extracting Keras Weights and Manual Neural Network Calculation\u003Cli>[Module 2: Program](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class2.ipynb) due: 02\u002F07\u002F2023\u003C\u002Ful>\n[Module 4](t81_558_class_04_1_feature_encode.ipynb)\u003Cbr>Week of 02\u002F13\u002F2023 |**Module 4: Training for Tabular Data**\u003Cul>\u003Cli>Part 4.1: Encoding a Feature Vector for Keras Deep Learning\u003Cli>Part 4.2: Keras Multiclass Classification for Deep Neural Networks with ROC and AUC\u003Cli>Part 4.3: Keras Regression for Deep Neural Networks with RMSE\u003Cli>Part 4.4: Backpropagation, Nesterov Momentum, and ADAM Training\u003Cli>Part 4.5: Neural Network RMSE and Log Loss Error Calculation from Scratch\u003Cli>[Module 3 Program](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class3.ipynb) due: 02\u002F14\u002F2023\u003C\u002Ful>\n[Module 5](t81_558_class_05_1_reg_ridge_lasso.ipynb)\u003Cbr>**Meet on 02\u002F20\u002F2023** | **Module 5: Regularization and Dropout**\u003Cul>\u003Cli>Part 5.1: Introduction to Regularization: Ridge and Lasso\u003Cli>Part 5.2: Using K-Fold Cross Validation with Keras\u003Cli>Part 5.3: Using L1 and L2 Regularization with Keras to Decrease Overfitting\u003Cli>Part 5.4: Drop Out for Keras to Decrease Overfitting\u003Cli>Part 5.5: Bootstrapping and Benchmarking Hyperparameters\u003Cli>[Module 4 Program](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class4.ipynb) due: 02\u002F21\u002F2023\u003Cli>**We will meet on campus this week! (second meeting)**\u003C\u002Ful>\n[Module 6](t81_558_class_06_1_python_images.ipynb)\u003Cbr>Week of 02\u002F27\u002F2023 | **Module 6: CNN for Vision**\u003Cul>\tPart 6.1: Image Processing in Python\u003Cli>Part 6.2: Using Convolutional Networks with Keras\u003Cli>Part 6.3: Using Pretrained Neural Networks\u003Cli>Part 6.4: Looking at Keras Generators and Image Augmentation\u003Cli>Part 6.5: Recognizing Multiple Images with YOLOv5\u003Cli>[Module 5 Program](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class5.ipynb) due: 02\u002F28\u002F2023\u003C\u002Ful>\n[Module 7](t81_558_class_07_1_gan_intro.ipynb)\u003Cbr>Week of 03\u002F06\u002F2023 | **Module 7: Generative Adversarial Networks (GANs)**\u003Cul>\u003Cli>Part 7.1: Introduction to GANS for Image and Data Generation\u003Cli>Part 7.2: Train StyleGAN3 with your Own Images\u003Cli>Part 7.3: Exploring the StyleGAN Latent Vector\u003Cli>Part 7.4: GANS to Enhance Old Photographs Deoldify\u003Cli>Part 7.5: GANs for Tabular Synthetic Data Generation\u003Cli>[Module 6 Assignment](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class6.ipynb) due: 03\u002F07\u002F2023\u003C\u002Ful>\n[Module 8](t81_558_class_08_1_kaggle_intro.ipynb)\u003Cbr>Week of 03\u002F20\u002F2023 | **Module 8: Kaggle**\u003Cul>\u003Cli>Part 8.1: Introduction to Kaggle\u003Cli>Part 8.2: Building Ensembles with Scikit-Learn and Keras\u003Cli>Part 8.3: How Should you Architect Your Keras Neural Network: Hyperparameters\u003Cli>Part 8.4: Bayesian Hyperparameter Optimization for Keras\u003Cli>Part 8.5: Current Semester's Kaggle\u003Cli>[Module 7 Assignment](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class7.ipynb) due: 03\u002F21\u002F2023\u003C\u002Ful>\n[Module 9](t81_558_class_09_1_keras_transfer.ipynb)\u003Cbr>**Meet on 03\u002F27\u002F2023** | **Module 9: Transfer Learning**\u003Cul>\u003Cli>Part 9.1: Introduction to Keras Transfer Learning\u003Cli>Part 9.2: Keras Transfer Learning for Computer Vision\u003Cli>Part 9.3: Transfer Learning for NLP with Keras\u003Cli>Part 9.4: Transfer Learning for Facial Feature Recognition\u003Cli>Part 9.5: Transfer Learning for Style Transfer\u003Cli>**We will meet on campus this week! (third meeting)**\u003Cli>[Module 8 Assignment](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class8.ipynb) due: 03\u002F28\u002F2023\u003C\u002Ful>\n[Module 10](t81_558_class_10_1_timeseries.ipynb)\u003Cbr>Week of 04\u002F03\u002F2023 | **Module 10: Time Series in Keras**\u003Cul>\u003Cli>Part 10.1: Time Series Data Encoding for Deep Learning, Keras\u003Cli>Part 10.2: Programming LSTM with Keras and\u003Cli>Part 10.3: Text Generation with Keras\u003Cli>Part 10.4: Introduction to Transformers\u003Cli>Part 10.5: Transformers for Timeseries\u003Cli>[Module 9 Assignment](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class9.ipynb) due: 04\u002F04\u002F2023\u003C\u002Ful>\n[Module 11](t81_558_class_11_01_huggingface.ipynb)\u003Cbr>Week of 04\u002F10\u002F2023 | **Module 11: Natural Language Processing**\u003Cul>\u003Cli>Part 11.1: Hugging Face Introduction\u003Cli>Part 11.2: Hugging Face Tokenizers\u003Cli>Part 11.3: Hugging Face Data Sets\u003Cli>Part 11.4: Training a Model in Hugging Face\u003Cli>Part 11.5: What are Embedding Layers in Keras\u003Cli>[Module 10 Assignment](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class10.ipynb) due: 04\u002F11\u002F2023\u003C\u002Ful>\n[Module 12](t81_558_class_12_01_ai_gym.ipynb)\u003Cbr>Week of 04\u002F17\u002F2023 | **Module 12: Reinforcement Learning**\u003Cul>\u003Cli>Kaggle Assignment due: 04\u002F17\u002F2023 (approx 4-6PM, due to Kaggle GMT timezone)\u003Cli>Part 12.1: Introduction to the OpenAI Gym\u003Cli>Part 12.2: Introduction to Q-Learning for Keras\u003Cli>Part 12.3: Keras Q-Learning in the OpenAI Gym\u003Cli>Part 12.4: Atari Games with Keras Neural Networks\u003Cli>Part 12.5: Application of Reinforcement Learning\u003C\u002Ful>\n[Module 13](t81_558_class_13_01_flask.ipynb)\u003Cbr>**Meet on 04\u002F24\u002F2023** | **Module 13: Deployment and Monitoring**\u003Cul>\u003Cli>Part 13.1: Flask and Deep Learning Web Services \u003Cli>Part 13.2: Interrupting and Continuing Training\u003Cli>Part 13.3: Using a Keras Deep Neural Network with a Web Application\u003Cli>Part 13.4: When to Retrain Your Neural Network\u003Cli>Part 13.5: Tensor Processing Units (TPUs)\u003Cli>Final Project due 05\u002F08\u002F2023\u003Cli>**We will meet on campus this week! (fourth meeting)**\u003C\u002Ful>\n\n# Datasets\n\n* [Datasets can be downloaded here](https:\u002F\u002Fdata.heatonresearch.com\u002Fdata\u002Ft81-558\u002Findex.html)\n\n","# 重要提示\n\n华盛顿大学本课程的在校学生应参考[本课程的PyTorch版本](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Fapp_deep_learning)，该版本是目前大学实际开设的课程。本仓库包含的是之前的Keras\u002FTensorFlow版本。\n\n# T81 558：深度神经网络应用 - TensorFlow\n[圣路易斯华盛顿大学](http:\u002F\u002Fwww.wustl.edu)\n\n授课教师：[杰夫·希顿](https:\u002F\u002Fsites.wustl.edu\u002Fjeffheaton\u002F)\n\n**本课程内容会随着技术的发展而不断更新**，如需了解最新动态，请在[GitHub上关注我](https:\u002F\u002Fgithub.com\u002Fjeffheaton)。\n\n* 第1节：2023年春季，周一下午2:30，地点：Eads \u002F 216\n* 第2节：2023年春季，线上\n\n# 课程简介\n\n深度学习是一系列令人振奋的新技术，专为神经网络设计。通过结合先进的训练方法和独特的神经网络架构组件，如今我们能够构建出既能处理表格数据、图像、文本和音频作为输入，也能生成这些类型数据作为输出的神经网络。深度学习使神经网络能够以类似于人脑的方式学习信息的层次结构。本课程将向学生介绍经典的神经网络结构、卷积神经网络（CNN）、长短期记忆网络（LSTM）、门控循环神经网络（GRU）、生成对抗网络（GAN）以及强化学习。课程还将涵盖这些架构在计算机视觉、时间序列分析、网络安全、自然语言处理（NLP）和数据生成等领域的应用。此外，课程还将探讨高性能计算（HPC）的相关内容，展示如何利用图形处理器（GPU）以及分布式计算集群来加速深度学习任务。本课程主要侧重于深度学习的实际应用，同时也会简要介绍其数学基础。学生将使用Python编程语言，借助Google TensorFlow和Keras实现深度学习模型。无需事先掌握Python，但要求至少熟悉一种编程语言。本课程采用混合教学模式，结合课堂讲授与在线学习。\n\n# 教材\n\n本课程的完整教材已发布在GitHub上。相同的内容也以书籍形式出版，名为《使用Keras的深度神经网络应用》，ISBN 9798416344269。如需引用本课程或本书中的内容，请使用以下BibTeX格式：\n\n```\n@misc{heaton2020applications,\n    title={Applications of Deep Neural Networks},\n    author={Jeff Heaton},\n    year={2020},\n    eprint={2009.05673},\n    archivePrefix={arXiv},\n    primaryClass={cs.LG}\n}\n```\n\n# 学习目标\n\n1. 解释神经网络（包括深度神经网络及其他类型）与其他机器学习模型相比有何异同。\n2. 判断在特定问题中是否适合使用深度神经网络。\n3. 通过在GitHub上提交的期末项目，展示对课程内容的理解。\n\n# 课程大纲\n本课程大纲列出了预期的课程安排、作业截止日期及阅读材料。[下载当前课程大纲。](https:\u002F\u002Fdata.heatonresearch.com\u002Fwustl\u002Fjheaton-t81-558-spring-2023-syllabus.pdf)\n\n模块|内容\n---|---\n[模块1](t81_558_class_01_1_overview.ipynb)\u003Cbr>**2023年1月23日见面** | **模块1：Python预备知识**\u003Cul>\u003Cli>第1.1部分：课程概述\u003Cli>第1.2部分：Python简介\u003Cli>第1.3部分：Python列表、字典、集合与JSON\u003Cli>第1.4部分：文件处理\u003Cli>第1.5部分：函数、Lambda表达式以及Map\u002FReducePython预备知识\u003Cli>**本周我们将在校园见面！（第一次见面）**\u003C\u002Ful>\n[模块2](t81_558_class_02_1_python_pandas.ipynb)\u003Cbr>2023年1月30日当周 | **模块2：用于机器学习的Python**\u003Cul>\u003Cli>\t第2.1部分：面向深度学习的Pandas简介\u003Cli>第2.2部分：在Pandas中对分类变量进行编码\u003Cli>第2.3部分：分组、排序和打乱数据\u003Cli>第2.4部分：在Pandas中使用Apply和Map\u003Cli>第2.5部分：在Pandas中进行特征工程\u003Cli>[模块1程序](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class1.ipynb)截止日期：2023年1月31日\u003Cli> 破冰活动截止日期：2023年1月31日\u003C\u002Ful>\n[模块3](t81_558_class_03_1_neural_net.ipynb)\u003Cbr>2023年2月6日当周 | **模块3：用于神经网络的TensorFlow和Keras**\u003Cul>\u003Cli>第3.1部分：深度学习与神经网络导论\u003Cli>第3.2部分：Tensorflow与Keras简介\u003Cli>第3.3部分：保存和加载Keras神经网络\u003Cli>第3.4部分：在Keras中使用早停法防止过拟合\u003Cli>第3.5部分：提取Keras权重并手动计算神经网络\u003Cli>[模块2：程序](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class2.ipynb)截止日期：2023年2月7日\u003C\u002Ful>\n[模块4](t81_558_class_04_1_feature_encode.ipynb)\u003Cbr>2023年2月13日当周 |**模块4：表格型数据的训练**\u003Cul>\u003Cli>第4.1部分：为Keras深度学习编码特征向量\u003Cli>第4.2部分：具有ROC和AUC的Keras多分类问题\u003Cli>第4.3部分：具有RMSE的Keras回归问题\u003Cli>第4.4部分：反向传播、Nesterov动量及ADAM优化方法\u003Cli>第4.5部分：从头开始计算神经网络的RMSE和对数损失误差\u003Cli>[模块3程序](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class3.ipynb)截止日期：2023年2月14日\u003C\u002Ful>\n[模块5](t81_558_class_05_1_reg_ridge_lasso.ipynb)\u003Cbr>**2023年2月20日见面** | **模块5：正则化与Dropout**\u003Cul>\u003Cli>第5.1部分：正则化简介：Ridge和Lasso\u003Cli>第5.2部分：在Keras中使用K折交叉验证\u003Cli>第5.3部分：在Keras中使用L1和L2正则化来减少过拟合\u003Cli>第5.4部分：在Keras中使用Dropout来减少过拟合\u003Cli>第5.5部分：自助法与超参数基准测试\u003Cli>[模块4程序](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class4.ipynb)截止日期：2023年2月21日\u003Cli>**本周我们将在校园见面！（第二次见面）**\u003C\u002Ful>\n[模块6](t81_558_class_06_1_python_images.ipynb)\u003Cbr>2023年2月27日当周 | **模块6：用于视觉的CNN**\u003Cul>\t第6.1部分：Python中的图像处理\u003Cli>第6.2部分：在Keras中使用卷积网络\u003Cli>第6.3部分：使用预训练的神经网络\u003Cli>第6.4部分：了解Keras生成器和图像增强技术\u003Cli>第6.5部分：使用YOLOv5识别多张图片\u003Cli>[模块5程序](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class5.ipynb)截止日期：2023年2月28日\u003C\u002Ful>\n[模块7](t81_558_class_07_1_gan_intro.ipynb)\u003Cbr>2023年3月6日当周 | **模块7：生成对抗网络（GANs）**\u003Cul>\u003Cli>第7.1部分：GANs简介，用于图像和数据生成\u003Cli>第7.2部分：用你自己的图片训练StyleGAN3\u003Cli>第7.3部分：探索StyleGAN的潜在向量\u003Cli>第7.4部分：利用GANs修复旧照片Deoldify\u003Cli>第7.5部分：用于生成合成表格数据的GANs\u003Cli>[模块6作业](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class6.ipynb)截止日期：2023年3月7日\u003C\u002Ful>\n[模块8](t81_558_class_08_1_kaggle_intro.ipynb)\u003Cbr>2023年3月20日当周 | **模块8：Kaggle**\u003Cul>\u003Cli>第8.1部分：Kaggle简介\u003Cli>第8.2部分：使用Scikit-Learn和Keras构建集成模型\u003Cli>第8.3部分：你的Keras神经网络应该如何架构：超参数设置\u003Cli>第8.4部分：针对Keras的贝叶斯超参数优化\u003Cli>第8.5部分：本学期的Kaggle竞赛\u003Cli>[模块7作业](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class7.ipynb)截止日期：2023年3月21日\u003C\u002Ful>\n[模块9](t81_558_class_09_1_keras_transfer.ipynb)\u003Cbr>**2023年3月27日见面** | **模块9：迁移学习**\u003Cul>\u003Cli>第9.1部分：Keras迁移学习简介\u003Cli>第9.2部分：面向计算机视觉的Keras迁移学习\u003Cli>第9.3部分：使用Keras进行NLP领域的迁移学习\u003Cli>第9.4部分：用于面部特征识别的迁移学习\u003Cli>第9.5部分：用于风格迁移的迁移学习\u003Cli>**本周我们将在校园见面！（第三次见面）**\u003Cli>[模块8作业](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class8.ipynb)截止日期：2023年3月28日\u003C\u002Ful>\n[模块10](t81_558_class_10_1_timeseries.ipynb)\u003Cbr>2023年4月3日当周 | **模块10：Keras中的时间序列**\u003Cul>\u003Cli>第10.1部分：为深度学习和Keras编码时间序列数据\u003Cli>第10.2部分：使用Keras编程LSTM\u003Cli>第10.3部分：使用Keras生成文本\u003Cli>第10.4部分：Transformer简介\u003Cli>第10.5部分：用于时间序列的Transformer\u003Cli>[模块9作业](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class9.ipynb)截止日期：2023年4月4日\u003C\u002Ful>\n[模块11](t81_558_class_11_01_huggingface.ipynb)\u003Cbr>2023年4月10日当周 | **模块11：自然语言处理**\u003Cul>\u003Cli>第11.1部分：Hugging Face简介\u003Cli>第11.2部分：Hugging Face的分词器\u003Cli>第11.3部分：Hugging Face的数据集\u003Cli>第11.4部分：在Hugging Face中训练模型\u003Cli>第11.5部分：Keras中的嵌入层是什么\u003Cli>[模块10作业](https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fblob\u002Fmaster\u002Fassignments\u002Fassignment_yourname_class10.ipynb)截止日期：2023年4月11日\u003C\u002Ful>\n[模块12](t81_558_class_12_01_ai_gym.ipynb)\u003Cbr>2023年4月17日当周 | **模块12：强化学习**\u003Cul>\u003Cli>Kaggle作业截止日期：2023年4月17日（大约下午4-6点，因Kaggle采用GMT时区）\u003Cli>第12.1部分：OpenAI Gym简介\u003Cli>第12.2部分：Keras中的Q学习简介\u003Cli>第12.3部分：在OpenAI Gym中进行Keras Q学习\u003Cli>第12.4部分：使用Keras神经网络玩Atari游戏\u003Cli>第12.5部分：强化学习的应用\u003C\u002Ful>\n[模块13](t81_558_class_13_01_flask.ipynb)\u003Cbr>**2023年4月24日见面** | **模块13：部署与监控**\u003Cul>\u003Cli>第13.1部分：Flask与深度学习Web服务 \u003Cli>第13.2部分：中断与继续训练\u003Cli>第13.3部分：将Keras深度神经网络与Web应用结合使用\u003Cli>第13.4部分：何时重新训练你的神经网络\u003Cli>第13.5部分：张量处理单元（TPUs）\u003Cli>期末项目截止日期：2023年5月8日\u003Cli>**本周我们将在校园见面！（第四次见面）**\u003C\u002Ful>\n\n# 数据集\n\n* [数据集可在此下载](https:\u002F\u002Fdata.heatonresearch.com\u002Fdata\u002Ft81-558\u002Findex.html)","# t81_558_deep_learning 快速上手指南\n\n本仓库是华盛顿大学圣路易斯分校 T81-558 课程（深度神经网络应用）的 **Keras\u002FTensorFlow** 版本教材与代码实现。适合希望系统学习深度学习架构（如 CNN、LSTM、GAN、强化学习等）并掌握 Python 实现的开发者。\n\n> **注意**：该校当前学期已切换至 PyTorch 版本，本仓库保留的是经典的 Keras\u002FTensorFlow 实现，适合偏好该框架或需要参考旧版教材的用户。\n\n---\n\n## 环境准备\n\n### 系统要求\n- 操作系统：Windows \u002F macOS \u002F Linux\n- Python 版本：3.7 - 3.10（推荐 3.9）\n- 内存：建议 8GB 以上（处理图像或大规模数据时建议 16GB+）\n- GPU（可选）：支持 CUDA 的 NVIDIA 显卡可加速训练（需安装对应驱动）\n\n### 前置依赖\n- Python 包管理工具：`pip` 或 `conda`\n- 基础编程知识：熟悉至少一门编程语言（课程涵盖 Python 基础）\n- 网络环境：可访问 GitHub 及 Hugging Face、Kaggle 等外部资源\n\n---\n\n## 安装步骤\n\n1. **克隆仓库**\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning.git\ncd t81_558_deep_learning\n```\n\n2. **创建虚拟环境（推荐）**\n```bash\npython -m venv dl-env\nsource dl-env\u002Fbin\u002Factivate  # Linux\u002FmacOS\n# 或\ndl-env\\Scripts\\activate     # Windows\n```\n\n3. **安装核心依赖**\n```bash\npip install tensorflow==2.10.0 keras pandas numpy matplotlib scikit-learn jupyterlab\n```\n\n> 💡 国内用户可使用清华镜像加速安装：\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow==2.10.0 keras pandas numpy matplotlib scikit-learn jupyterlab\n```\n\n4. **安装额外模块（按需）**\n```bash\n# 图像处理\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple opencv-python pillow\n\n# NLP 与 Hugging Face\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple transformers datasets tokenizers\n\n# 强化学习\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple gym[atari] ale-py autorom[accept-rom-license]\n\n# Web 部署\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple flask\n```\n\n5. **启动 Jupyter Lab**\n```bash\njupyter lab\n```\n在浏览器中打开 `.ipynb` 文件即可开始学习各模块内容。\n\n---\n\n## 基本使用\n\n以下示例演示如何加载课程提供的第一个笔记本（Module 1），运行 Python 基础与课程概览：\n\n```python\n# 在 Jupyter 中打开并运行：\n# t81_558_class_01_1_overview.ipynb\n\n# 示例代码片段（来自 Module 1.2）：\nimport tensorflow as tf\nprint(\"TensorFlow version:\", tf.__version__)\n\n# 简单神经网络示例（来自 Module 3）\nfrom tensorflow.keras.models import Sequential\nfrom tensorflow.keras.layers import Dense\n\nmodel = Sequential([\n    Dense(10, activation='relu', input_shape=(5,)),\n    Dense(1, activation='sigmoid')\n])\n\nmodel.compile(optimizer='adam', loss='binary_crossentropy')\nprint(\"Model built successfully!\")\n```\n\n### 学习路径建议\n- 从 **Module 1** 开始，逐步完成每个 `.ipynb`  notebook\n- 每周对应一个模块，包含理论讲解 + 代码实践 + 作业提交链接\n- 所有数据集可通过 [官方下载页](https:\u002F\u002Fdata.heatonresearch.com\u002Fdata\u002Ft81-558\u002Findex.html) 获取\n- 最终需完成一个期末项目并上传至 GitHub\n\n---\n\n📚 教材同步：本课程配套书籍《Applications of Deep Neural Networks with Keras》可在 [Heaton Research](https:\u002F\u002Fwww.heatonresearch.com\u002Fbook\u002Fapplications-deep-neural-networks-keras.html) 获取纸质或电子版。","某高校数据科学团队正尝试构建一个能同时处理医疗影像、电子病历文本及时间序列生命体征的多模态疾病预测模型。\n\n### 没有 t81_558_deep_learning 时\n- 团队成员需从零摸索 CNN、LSTM 和 GAN 等复杂架构的数学原理与代码实现，缺乏系统性的 Keras\u002FTensorFlow 实战指引，导致开发周期漫长。\n- 面对图像、文本和表格混合数据时，不知如何设计统一的神经网络层级来提取特征，常因架构设计不当导致模型无法收敛或过拟合。\n- 缺少针对高性能计算（HPC）和 GPU 加速的具体优化方案，本地训练大规模深度模型耗时数天，严重拖慢实验迭代速度。\n- 课程提供的模块化笔记缺失，新手在 Python 数据预处理（如 Pandas 编码、JSON 处理）到深度学习落地的衔接上频繁出错。\n\n### 使用 t81_558_deep_learning 后\n- 团队直接复用课程中成熟的模块代码，快速搭建起包含卷积层、记忆单元和生成对抗网络的混合架构，将原型开发时间从数周缩短至几天。\n- 依据课程中关于多模态输入的经典案例，顺利实现了影像、文本与时间序列数据的融合处理，显著提升了模型对复杂医疗数据的特征提取能力。\n- 应用课程讲解的 GPU 网格计算策略，成功将模型训练时间压缩了 80%，使得每日多次超参数调优成为可能。\n- 借助从 Python 基础到高级深度学习的完整路径指导，团队成员迅速统一了数据清洗与模型部署的标准流程，大幅降低了协作沟通成本。\n\nt81_558_deep_learning 通过提供从理论基础到工业级落地的全栈式解决方案，帮助团队高效攻克了多模态深度学习的应用难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjeffheaton_t81_558_deep_learning_3c2c27b2.png","jeffheaton","Jeff Heaton","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjeffheaton_48f00fd5.jpg","Computer scientist that specializes in data science and artificial intelligence. VP AI Innovation at RGA, Adjunct faculty at WashU.","Reinsurance Group of America (@rgare)","St. Louis, MO, USA",null,"https:\u002F\u002Fwww.youtube.com\u002Fuser\u002FHeatonResearch","https:\u002F\u002Fgithub.com\u002Fjeffheaton",[83,87,91,94,97,100],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",99.9,{"name":88,"color":89,"percentage":90},"TeX","#3D6117",0,{"name":92,"color":93,"percentage":90},"Python","#3572A5",{"name":95,"color":96,"percentage":90},"JavaScript","#f1e05a",{"name":98,"color":99,"percentage":90},"CSS","#663399",{"name":101,"color":102,"percentage":90},"HTML","#e34c26",5744,2991,"2026-04-06T02:46:04","NOASSERTION","未说明","课程大纲提及高性能计算（HPC）部分将演示如何在 GPU 上运行，但未指定具体型号、显存大小或 CUDA 版本要求。",{"notes":110,"python":111,"dependencies":112},"1. 本仓库为课程的旧版内容，基于 Keras\u002FTensorFlow；华盛顿大学当前课程已升级为 PyTorch 版本。\n2. 课程涵盖卷积神经网络 (CNN)、LSTM、GAN、强化学习等架构。\n3. 数据集需从提供的链接单独下载。\n4. 课程假设学生至少熟悉一种编程语言，但不强制要求预先掌握 Python。","未说明 (仅提及使用 Python 编程语言，无需预先掌握)",[113,114,115,116,117,118,119,120],"tensorflow","keras","pandas","scikit-learn","flask","yolov5","huggingface","gym",[14,15],[123,124,113,114,125,126,127],"neural-network","machine-learning","deeplearning","gan","convolutional-neural-networks","2026-03-27T02:49:30.150509","2026-04-09T05:24:02.534550",[131,136,141,146,151,156],{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},25703,"在 Google Colab 上运行 Atari 示例时遇到数据类型（dtype）或形状不匹配的错误怎么办？","该问题通常由 TF-Agents 版本更新导致，新版本在 Atari 环境下的训练效率可能降低且存在兼容性问题。维护者已检查并提交了修复版本，使其能在 Colab 中完全运行。如果仍然遇到问题，建议注意 TF-Agents 团队可能不再优先支持 Atari 类，未来可能会迁移到更好的强化学习库。请确保拉取最新的代码版本。","https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fissues\u002F75",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},25704,"运行代码时出现 'len(img)=0' 或图像列表为空的错误如何解决？","这通常是因为数据集中没有正确加载图像或路径配置错误。首先确认你使用的是正确的数据集（如 flickr8K），并检查图像列表是否真的包含文件。由于该问题高度依赖具体环境上下文，维护者建议如果无法复现，可将此类特定环境配置问题发布到 StackOverflow 等社区寻求更详细的帮助，并提供具体的代码上下文和数据源位置。","https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fissues\u002F91",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},25705,"StyleGAN2-ADA PyTorch 训练时因 TensorBoard 导入错误（ImportError: cannot import name 'notf'）而停止怎么办？","这是由于 Logger 的破坏性变更导致的兼容性问题。维护者已确认该问题并提交了修复补丁。请更新仓库中的相关 Notebook（特别是 t81_558_class_07_2_train_gan.ipynb），应用最新的更改后即可正常训练。","https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fissues\u002F145",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},25706,"运行 AutoML 回归示例时出现意外错误或 Kernel 崩溃（Kernel died）的原因及解决方法？","Kernel 崩溃通常是安装问题或 GPU 资源不足导致的。此外，维护者在重新格式化代码时曾引入过一些错误，但已修复并提交。如果遇到此问题，首先检查是否漏掉了某些代码行（用户曾反馈跳过 4 行代码导致错误），然后确保拉取了最新的代码版本以获取修复后的内容。如果问题依旧，请检查本地环境的安装包和 GPU 资源状态。","https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fissues\u002F117",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},25707,"首次运行正常，但添加自定义代码后出现 'ModuleNotFoundError: No module named keras' 错误怎么办？","这通常是由于环境配置损坏或包路径混乱引起的。有效的解决方法是彻底卸载所有相关包和环境，然后重新克隆仓库并严格按照说明重新安装环境。有用户反馈在执行完全重装（uninstall everything and reinstall）后问题解决。如果是 Conda 环境解析失败（如 ResolvePackageNotFound），也建议清理现有环境后重试。","https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fissues\u002F22",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},25708,"使用 conda env update 安装依赖时卡在 'pip-installed dependencies' 警告处如何处理？","该警告提示环境文件中缺少显式的 pip 依赖项。解决方法是在你的环境配置文件（如 tools.yml）中明确添加 'pip' 作为依赖项。例如，在 yml 文件的 dependencies 列表中加入 '- pip'。该问题已在后续的 Pull Request (#101) 中修复，合并后只需更新文件即可消除此警告并顺利完成安装。","https:\u002F\u002Fgithub.com\u002Fjeffheaton\u002Ft81_558_deep_learning\u002Fissues\u002F102",[162,166,170,174,178,183,188,193,198,202,206],{"id":163,"version":164,"summary_zh":79,"released_at":165},163016,"2023-spring","2023-05-29T12:12:52",{"id":167,"version":168,"summary_zh":79,"released_at":169},163017,"2022-fall","2022-12-06T10:29:18",{"id":171,"version":172,"summary_zh":79,"released_at":173},163018,"2022-spring","2022-05-20T03:07:30",{"id":175,"version":176,"summary_zh":79,"released_at":177},163019,"fall-2021","2021-12-25T13:36:48",{"id":179,"version":180,"summary_zh":181,"released_at":182},163020,"2020-fall","2020年秋季学期结束时的快照。","2020-12-29T12:05:51",{"id":184,"version":185,"summary_zh":186,"released_at":187},163021,"2020-spring","该课程为2020年春季学期。","2020-08-23T23:31:22",{"id":189,"version":190,"summary_zh":191,"released_at":192},163022,"fall-2019","截至2019年秋季的课程。","2019-12-10T19:20:06",{"id":194,"version":195,"summary_zh":196,"released_at":197},163023,"spring-2019","这门课程，当时是2019年春季学期。","2019-04-19T22:46:41",{"id":199,"version":200,"summary_zh":79,"released_at":201},163024,"fall-2018","2018-12-08T13:22:06",{"id":203,"version":204,"summary_zh":79,"released_at":205},163025,"2017-fall","2017-12-11T20:11:05",{"id":207,"version":208,"summary_zh":79,"released_at":209},163026,"2017-spring","2017-05-05T00:56:24"]