[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-rasbt--deep-learning-book":3,"tool-rasbt--deep-learning-book":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":76,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":23,"env_os":96,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":106,"github_topics":107,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":116,"updated_at":117,"faqs":118,"releases":154},4082,"rasbt\u002Fdeep-learning-book","deep-learning-book","Repository for \"Introduction to Artificial Neural Networks and Deep Learning: A Practical Guide with Applications in Python\"","deep-learning-book 是畅销书《Python 机器学习》作者 Sebastian Raschka 推出的进阶开源项目，旨在为读者提供《人工神经网络与深度学习导论：Python 实战指南》一书的配套代码、练习解答及详细教程。它主要解决了深度学习领域中理论复杂、数学门槛高以及从概念到代码落地困难的问题，帮助学习者跨越从基础机器学习到深度神经网络的鸿沟。\n\n该项目非常适合具有一定 Python 基础的开发者、数据科学家、研究人员以及高校学生使用。无论是希望深入理解图像识别、语音处理背后的算法原理，还是需要在实际业务中构建卷积神经网络（CNN）、循环神经网络（RNN）或生成对抗网络（GAN），都能从中获得系统性的指导。\n\n其独特的技术亮点在于“理论与实践并重”的教学方式。除了涵盖感知机、反向传播、正则化等核心概念的清晰讲解外，项目还提供了基于 PyTorch（部分兼容 TensorFlow）的完整代码实现和独立的\"Model Zoo\"模型库。此外，书中附带了详细的数学附录，通俗地解释了线性代数、微积分和概率论等必备知识，让非数学专业的用户也能轻松上手，是通往深度学习深处的一座坚","deep-learning-book 是畅销书《Python 机器学习》作者 Sebastian Raschka 推出的进阶开源项目，旨在为读者提供《人工神经网络与深度学习导论：Python 实战指南》一书的配套代码、练习解答及详细教程。它主要解决了深度学习领域中理论复杂、数学门槛高以及从概念到代码落地困难的问题，帮助学习者跨越从基础机器学习到深度神经网络的鸿沟。\n\n该项目非常适合具有一定 Python 基础的开发者、数据科学家、研究人员以及高校学生使用。无论是希望深入理解图像识别、语音处理背后的算法原理，还是需要在实际业务中构建卷积神经网络（CNN）、循环神经网络（RNN）或生成对抗网络（GAN），都能从中获得系统性的指导。\n\n其独特的技术亮点在于“理论与实践并重”的教学方式。除了涵盖感知机、反向传播、正则化等核心概念的清晰讲解外，项目还提供了基于 PyTorch（部分兼容 TensorFlow）的完整代码实现和独立的\"Model Zoo\"模型库。此外，书中附带了详细的数学附录，通俗地解释了线性代数、微积分和概率论等必备知识，让非数学专业的用户也能轻松上手，是通往深度学习深处的一座坚实桥梁。","![Python 3.6](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.6-blue.svg)\n![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode%20License-MIT-blue.svg)\n[![Mailing List](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-Mailing%20List-lightgrey.svg)](https:\u002F\u002Fgroups.google.com\u002Fforum\u002F#!forum\u002Fann-and-dl-book)\n\n# Introduction to Artificial Neural Networks and Deep Learning: A Practical Guide with Applications in Python\n\nRepository for the book *Introduction to Artificial Neural Networks and Deep Learning: A Practical Guide with Applications in Python*.\n\n---\n\n**Deep learning is not just the talk of the town among tech folks. Deep learning allows us to tackle complex problems, training artificial neural networks to recognize complex patterns for image and speech recognition. In this book, we'll continue where we left off in [*Python Machine Learning*](https:\u002F\u002Fgithub.com\u002Frasbt\u002Fpython-machine-learning-book) and implement deep learning algorithms in [PyTorch](https:\u002F\u002Fpytorch.org).**\n\n---\n\n- This repository will contain the instructions, code examples, and solutions for the *Hands-On* and *Exercise* portions of each chapter.\n\n- PDF and ebook versions of the book will be available from [Leanpub](https:\u002F\u002Fleanpub.com\u002Fann-and-deeplearning).\n\n[![Deep Learning Book](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frasbt_deep-learning-book_readme_6b3f2b5a309b.jpg)](https:\u002F\u002Fleanpub.com\u002Fann-and-deeplearning)\n\n\nISBN-10: [TBA]  \nISBN-13: [TBA]  \nPaperback: est. 2018  \n\n---\n\n## Manuscripts \u002F Early Access Drafts\n\n- 01 - Introduction\n\n- 02 - The Perceptron \n\n- 03 - Optimizing Cost Functions with Gradient Descent\n\n- 04 - Logistic Regression and Softmax Regression\n\n- 05 - From Softmax Regression to Multilayer Perceptrons\n\n- 06 - Cross Validation and Performance Metrics\n\n- 07 - Regularization in Neural Networks\n\n- 08 - Learning Rates and Weight Initialization\n\n- 09 - Convolutional Neural Networks\n\n- 10 - Recurrent Neural Networks\n\n- 11 - Autoencoders\n\n- 12 - General Adverserial Neural Networks\n\n- 13 - Deep Generative Models\n\n- 14 - Reinforcement Learning\n\n#### Supporting Material\n\n- Appendix A: Mathematical Notation [[PDF](https:\u002F\u002Fsebastianraschka.com\u002Fpdf\u002Fbooks\u002Fdlb\u002Fappendix_a_math_notation.pdf)]\n\n- Appendix B: Algebra Basics [[PDF](https:\u002F\u002Fsebastianraschka.com\u002Fpdf\u002Fbooks\u002Fdlb\u002Fappendix_b_algebra.pdf)]\n\n- Appendix C: Linear Algebra Essentials\n\n- Appendix D: Calculus and Differentiation Primer [[PDF](https:\u002F\u002Fsebastianraschka.com\u002Fpdf\u002Fbooks\u002Fdlb\u002Fappendix_d_calculus.pdf)]\n\n- Appendix E: Probability Theory Overview\n\n- Appendix F: Notational Conventions Reference\n\n- Appendix G: Python Setup\n\n- Appendix H: Introduction to NumPy [[PDF](https:\u002F\u002Fsebastianraschka.com\u002Fpdf\u002Fbooks\u002Fdlb\u002Fappendix_numpy-intro.pdf)] [[Code Notebook](code\u002Fappendix_h_numpy-intro\u002Fappendix_numpy-intro.ipynb)]\n\n- Appendix I: PyTorch Basics \n\n- Appendix I (alt.): TensorFlow Basics [[PDF](https:\u002F\u002Fsebastianraschka.com\u002Fpdf\u002Fbooks\u002Fdlb\u002Fappendix_g_tensorflow.pdf)] [[Code Notebook](code\u002F_old-material\u002Fappendix_tensorflow-basics\u002Fappendix_tensorflow-basics.ipynb)]\n\n- Appendix J: Cloud Computing [[PDF](https:\u002F\u002Fsebastianraschka.com\u002Fpdf\u002Fbooks\u002Fdlb\u002Fappendix_cloud-computing.pdf)]\n\n#### Model Zoo\n\n- **[Model Zoo: A collection of standalone TensorFlow and PyTorch models in Jupyter Notebooks](https:\u002F\u002Fgithub.com\u002Frasbt\u002Fdeeplearning-models)**\n\n  \n\n---\n\n## About the Book\n\nMachine learning has become a central part of our life — as consumers, customers, and hopefully as researchers and practitioners! I appreciate all the nice feedback that you sent me about [*Python Machine Learning*](https:\u002F\u002Fgithub.com\u002Frasbt\u002Fpython-machine-learning-book), and I am so happy to hear that you found it so useful as a learning guide, helping you with your business applications and research projects. I have received many emails since its release. Also, in these very emails, you were asking me about a possible prequel or sequel.\n\nInitially, I was inclined to write more about the \"math\" parts, which can be a real hurdle for almost everyone without (or even with) a math major in college. Initially, I thought that writing a book about \"machine learning math\" was a cool thing to do. Now, I have ~15 chapters worth of notes about pre-calculus, calculus, linear algebra, statistics, and probability theory. However, I eventually came to a conclusion that there were too many other math books out there, already! Most of them are far better and more comprehensive and accurate than my potential ~500-page introduction to the topics that I had in store. After all, I think that the real motivation for learning and understanding a subject comes from being excited about it in the first place; if you are passionate about machine learning and you stumble upon the chain rule in calculus, you wouldn't have any problems to find a trusted resource via your favorite search engine these days.\n\nSo, instead of writing that \"prequel,\" let me write about something that's built upon the concepts that I introduced in the later chapters of [*Python Machine Learning*](https:\u002F\u002Fgithub.com\u002Frasbt\u002Fpython-machine-learning-book) -- algorithms for deep learning. After we coded a multi-layer perceptron (a certain kind of feedforward artificial neural network) from scratch, we took a brief look at some Python libraries for implementing deep learning algorithms, and I introduced convolutional and recurrent neural networks on a conceptual level.\n\nIn this book, I want to continue where I left off and want to implement deep neural networks and algorithms for deep learning algorithms from scratch, using Python, NumPy, and SciPy throughout this educational journey. In addition to the vanilla Python science-stack, we will implement these algorithms in [TensorFlow](https:\u002F\u002Fwww.tensorflow.org), highly performant yet very accessible deep learning library for implementing and applying deep learning to real-world problems.\n\n## License\n\n### Code\n\nAll code in this repository (including the code examples in Jupyter Notebooks) is open source content, released under the [MIT software license](LICENSE). In short, the permissive MIT license allows you to do anything with the code with proper attribution and without warranty; please check the MIT [LICENSE](LICENSE) notice for further details.\n\n### Text and Graphics\n\nAll non-code content and creative work in this repository, including text and graphics, is under exclusive copyright by the author, Sebastian Raschka. Unless noted otherwise, text content shared in this repository is intended for personal use only. You may use, modify, or share short text passages of this work with proper attribution to the author. However, if you are planning to modify and\u002For share substantial portions of this book for other writings, such as blog posts, magazine article, or teaching material, contact the author for permission.\n\nFigures and graphics marked by a *Creative Commons Attribution-ShareAlike 4.0 International* are free to share under the respective license terms (as listed in the *Creative Commons Attribution-ShareAlike 4.0 International* section in the [LICENSE](LICENSE) file) and proper attribution.\n\n\n## Acknowledgements\n\nI would like to give my special thanks to the readers, who caught various typos and errors and offered suggestions for clarifying my writing.\n\n- Appendix A: Artem Sobolev, Ryan Sun\n- Appendix B: Brett Miller, Ryan Sun\n- Appendix D: Marcel Blattner, Ignacio Campabadal, Ryan Sun\n- Appendix F: Guillermo Moncecchi‏, Ged Ridgway\n- Appendix H: Brett Miller\n","![Python 3.6](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.6-blue.svg)\n![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode%20License-MIT-blue.svg)\n[![Mailing List](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-Mailing%20List-lightgrey.svg)](https:\u002F\u002Fgroups.google.com\u002Fforum\u002F#!forum\u002Fann-and-dl-book)\n\n# 人工神经网络与深度学习导论：基于 Python 的实践指南\n\n本书《人工神经网络与深度学习导论：基于 Python 的实践指南》的代码仓库。\n\n---\n\n**深度学习不仅仅是科技圈内的热门话题。它使我们能够解决复杂问题，通过训练人工神经网络来识别图像和语音中的复杂模式。在本书中，我们将延续《Python 机器学习》（[GitHub 项目链接](https:\u002F\u002Fgithub.com\u002Frasbt\u002Fpython-machine-learning-book)）的内容，并在 [PyTorch](https:\u002F\u002Fpytorch.org) 中实现深度学习算法。**\n\n---\n\n- 本仓库将包含各章节“动手实践”和“练习”部分的说明、代码示例及解答。\n- 本书的 PDF 和电子书版本将在 [Leanpub](https:\u002F\u002Fleanpub.com\u002Fann-and-deeplearning) 上提供。\n[![深度学习书籍](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frasbt_deep-learning-book_readme_6b3f2b5a309b.jpg)](https:\u002F\u002Fleanpub.com\u002Fann-and-deeplearning)\n\n\nISBN-10：待定  \nISBN-13：待定  \n平装本：预计 2018 年出版  \n\n---\n\n## 手稿 \u002F 提前访问草稿\n\n- 01 - 引言\n- 02 - 感知器\n- 03 - 使用梯度下降优化损失函数\n- 04 - 逻辑回归与 Softmax 回归\n- 05 - 从 Softmax 回归到多层感知器\n- 06 - 交叉验证与性能指标\n- 07 - 神经网络中的正则化\n- 08 - 学习率与权重初始化\n- 09 - 卷积神经网络\n- 10 - 循环神经网络\n- 11 - 自编码器\n- 12 - 通用对抗神经网络\n- 13 - 深度生成模型\n- 14 - 强化学习\n\n#### 支持材料\n\n- 附录 A：数学符号 [[PDF](https:\u002F\u002Fsebastianraschka.com\u002Fpdf\u002Fbooks\u002Fdlb\u002Fappendix_a_math_notation.pdf)]\n- 附录 B：代数基础 [[PDF](https:\u002F\u002Fsebastianraschka.com\u002Fpdf\u002Fbooks\u002Fdlb\u002Fappendix_b_algebra.pdf)]\n- 附录 C：线性代数要点\n- 附录 D：微积分与导数入门 [[PDF](https:\u002F\u002Fsebastianraschka.com\u002Fpdf\u002Fbooks\u002Fdlb\u002Fappendix_d_calculus.pdf)]\n- 附录 E：概率论概述\n- 附录 F：符号约定参考\n- 附录 G：Python 环境搭建\n- 附录 H：NumPy 入门 [[PDF](https:\u002F\u002Fsebastianraschka.com\u002Fpdf\u002Fbooks\u002Fdlb\u002Fappendix_numpy-intro.pdf)] [[代码笔记本](code\u002Fappendix_h_numpy-intro\u002Fappendix_numpy-intro.ipynb)]\n- 附录 I：PyTorch 基础\n- 附录 I（替代版）：TensorFlow 基础 [[PDF](https:\u002F\u002Fsebastianraschka.com\u002Fpdf\u002Fbooks\u002Fdlb\u002Fappendix_g_tensorflow.pdf)] [[代码笔记本](code\u002F_old-material\u002Fappendix_tensorflow-basics\u002Fappendix_tensorflow-basics.ipynb)]\n- 附录 J：云计算 [[PDF](https:\u002F\u002Fsebastianraschka.com\u002Fpdf\u002Fbooks\u002Fdlb\u002Fappendix_cloud-computing.pdf)]\n\n#### 模型库\n\n- **[模型库：Jupyter Notebook 中的独立 TensorFlow 和 PyTorch 模型集合](https:\u002F\u002Fgithub.com\u002Frasbt\u002Fdeeplearning-models)**\n\n  \n\n---\n\n## 关于本书\n\n机器学习已经成为我们生活的核心组成部分——无论是作为消费者、客户，还是作为研究人员和从业者！我非常感谢大家对《Python 机器学习》（[GitHub 项目链接](https:\u002F\u002Fgithub.com\u002Frasbt\u002Fpython-machine-learning-book)）给予的积极反馈，也很高兴得知它对你们的学习、商业应用和研究项目都大有裨益。自该书出版以来，我收到了许多邮件，其中不少读者询问是否有续集或前传的可能性。\n\n起初，我曾考虑深入探讨“数学”部分，因为这对大多数没有数学专业背景的人来说确实是一大障碍。我一度认为编写一本关于“机器学习数学”的书会很有意义。如今，我已经积累了约 15 章关于预微积分、微积分、线性代数、统计学和概率论的笔记。然而，经过深思熟虑后，我意识到市面上已经有许多优秀的数学书籍，它们不仅内容更全面、准确，而且质量远超我计划撰写的这本约 500 页的入门读物。毕竟，真正驱动我们学习和理解一门学科的动力，往往来自于对它的热情；如果你对机器学习充满兴趣，当遇到微积分中的链式法则时，如今借助你常用的搜索引擎就能轻松找到可靠的参考资料。\n\n因此，与其写那本“前传”，不如围绕我在《Python 机器学习》（[GitHub 项目链接](https:\u002F\u002Fgithub.com\u002Frasbt\u002Fpython-machine-learning-book)）后几章中介绍的概念继续展开——即深度学习的相关算法。在亲手实现了一个多层感知器（一种前馈式人工神经网络）之后，我们简要了解了几种用于实现深度学习算法的 Python 库，并从概念层面介绍了卷积神经网络和循环神经网络。\n\n在这本书中，我打算继续之前的探索，使用 Python、NumPy 和 SciPy 从头开始实现深度神经网络及相关算法，贯穿整个学习过程。除了原生的 Python 科学计算栈之外，我们还将利用高性能且易于使用的深度学习框架 [TensorFlow](https:\u002F\u002Fwww.tensorflow.org)，将其应用于实际问题中。\n\n## 许可协议\n\n### 代码\n\n本仓库中的所有代码（包括 Jupyter Notebook 中的示例代码）均采用开源许可，遵循 [MIT 软件许可证](LICENSE)。简而言之，宽松的 MIT 许可允许你在适当注明出处且不提供任何担保的情况下自由使用这些代码；更多详细信息请参阅 LICENSE 文件中的 MIT 许可声明。\n\n### 文字与图形\n\n本仓库中的所有非代码内容及创意作品，包括文字和图形，均由作者 Sebastian Raschka 独家拥有版权。除非另有说明，本仓库中分享的文字内容仅供个人使用。您可以引用、修改或分享本文中的短小段落，但需注明作者出处。然而，如果您计划对本书的大量内容进行修改并用于其他创作，例如博客文章、杂志专栏或教学材料，请事先联系作者获取许可。\n\n标有 *知识共享署名-相同方式共享 4.0 国际许可* 的图片和图形，可在遵守相应许可条款（详见 LICENSE 文件中“知识共享署名-相同方式共享 4.0 国际许可”部分）及正确注明出处的前提下自由分享。\n\n## 致谢\n\n我要特别感谢各位读者，他们发现了文中的各种错别字和错误，并提出了许多有助于澄清我写作的建议。\n\n- 附录A：阿特姆·索博列夫、瑞安·孙\n- 附录B：布雷特·米勒、瑞安·孙\n- 附录D：马塞尔·布拉特纳、伊格纳西奥·坎帕巴达尔、瑞安·孙\n- 附录F：吉列尔莫·蒙塞奇、盖德·里奇韦\n- 附录H：布雷特·米勒","# deep-learning-book 快速上手指南\n\n本指南基于 Sebastian Raschka 的开源书籍《Introduction to Artificial Neural Networks and Deep Learning》，旨在帮助开发者快速搭建环境并运行书中的代码示例。本书重点使用 **Python**、**NumPy**、**SciPy** 以及 **PyTorch**（部分旧材料包含 TensorFlow）从零实现深度学习算法。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：推荐 Python 3.6 或更高版本\n*   **核心依赖库**：\n    *   `numpy`\n    *   `scipy`\n    *   `matplotlib`\n    *   `torch` (PyTorch)\n    *   `jupyter` (用于运行笔记本示例)\n\n> **国内加速建议**：\n> 推荐使用清华或阿里镜像源安装 Python 包，以提升下载速度。\n> *   清华源：`https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n> *   阿里源：`https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F`\n\n## 安装步骤\n\n### 1. 克隆项目仓库\n\n首先，将代码仓库克隆到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Frasbt\u002Fdeeplearning-book.git\ncd deeplearning-book\n```\n\n### 2. 创建虚拟环境（推荐）\n\n为了避免依赖冲突，建议创建独立的虚拟环境：\n\n```bash\npython -m venv dl-env\nsource dl-env\u002Fbin\u002Factivate  # Windows 用户请使用: dl-env\\Scripts\\activate\n```\n\n### 3. 安装依赖\n\n使用 pip 安装所需库。以下是使用**清华镜像源**的安装命令：\n\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple numpy scipy matplotlib jupyter torch torchvision\n```\n\n> **注意**：如果需要特定版本的 PyTorch（例如支持 CUDA），请访问 [PyTorch 官网](https:\u002F\u002Fpytorch.org) 获取对应的安装命令。书中主要示例基于 CPU 即可运行，但建议使用支持 CUDA 的版本以获得更好性能。\n\n## 基本使用\n\n本项目主要包含各章节的“动手实践”（Hands-On）和“练习”（Exercise）部分的代码，格式为 Jupyter Notebooks。\n\n### 1. 启动 Jupyter Notebook\n\n在项目根目录下启动 Jupyter：\n\n```bash\njupyter notebook\n```\n\n浏览器会自动打开界面，显示项目目录结构。\n\n### 2. 运行示例代码\n\n根据书籍目录，进入对应的章节文件夹。例如，要运行第 9 章“卷积神经网络”的示例：\n\n1.  在 Jupyter 界面中导航至 `code\u002Fch09-cnn\u002F` 目录（具体路径可能随版本更新略有变化，请参考仓库实际结构）。\n2.  点击 `.ipynb` 文件打开笔记本。\n3.  按顺序执行单元格（Cell），即可复现书中的神经网络构建、训练及可视化过程。\n\n### 3. 最小化代码示例\n\n如果您想快速测试 PyTorch 环境是否配置成功，可以新建一个 Notebook 并运行以下基础代码（对应书中从基础构建神经网络的思路）：\n\n```python\nimport torch\nimport torch.nn as nn\nimport numpy as np\n\n# 检查是否有可用的 GPU\ndevice = torch.device(\"cuda\" if torch.cuda.is_available() else \"cpu\")\nprint(f\"Using device: {device}\")\n\n# 定义一个简单的感知机 (Perceptron) 类示例\nclass Perceptron(torch.nn.Module):\n    def __init__(self, input_dim):\n        super(Perceptron, self).__init__()\n        self.linear = nn.Linear(input_dim, 1)\n        \n    def forward(self, x):\n        return torch.sigmoid(self.linear(x))\n\n# 实例化模型\nmodel = Perceptron(input_dim=3).to(device)\nprint(model)\n\n# 模拟输入数据\nX = torch.tensor([[1.0, 2.0, 3.0]], device=device)\noutput = model(X)\nprint(f\"Output: {output.item():.4f}\")\n```\n\n### 4. 获取更多资源\n\n*   **独立模型库**：书中提到的更多独立模型示例已整理在 [deeplearning-models](https:\u002F\u002Fgithub.com\u002Frasbt\u002Fdeeplearning-models) 仓库中。\n*   **数学附录**：如需复习线性代数、微积分等基础知识，可查看仓库中的 `appendix` 文件夹下的 PDF 文档或对应的 Code Notebook。","某初创公司的算法工程师小李，正负责从零搭建一个基于 PyTorch 的医疗影像病灶识别系统，急需深入理解卷积神经网络（CNN）的底层原理与代码实现。\n\n### 没有 deep-learning-book 时\n- **理论断层严重**：面对复杂的反向传播推导和梯度消失问题，只能碎片化搜索博客，缺乏系统性的数学讲解（如微积分与线性代数基础），导致模型调优全靠“猜”。\n- **代码落地困难**：虽然知道 CNN 的概念，但无法将论文公式转化为高效的 PyTorch 代码，在构建多层感知机和处理数据加载时频繁报错。\n- **调试无从下手**：遇到模型不收敛或过拟合时，不清楚是学习率设置不当、权重初始化有问题，还是正则化策略缺失，排查效率极低。\n- **资源分散混乱**：需要在 GitHub 各处寻找零散的示例代码，缺乏统一、经过验证的“模型动物园”参考，重复造轮子浪费大量时间。\n\n### 使用 deep-learning-book 后\n- **知识体系完整**：通过书中从感知机到深度生成模型的循序渐进章节，配合附录中的数学精讲，彻底理清了优化成本函数与正则化的内在逻辑。\n- **实战代码现成**：直接复用仓库中对应章节的 PyTorch 手撕代码（如第 9 章 CNN 实现），快速搭建了基准模型，将开发周期从数周缩短至几天。\n- **调参有据可依**：依据书中关于学习率调整和权重初始化的专门指导，精准定位并解决了训练震荡问题，显著提升了病灶识别的准确率。\n- **一站式资源库**：利用配套的 Model Zoo 和 Jupyter Notebook 案例，直接站在巨人的肩膀上进行二次开发，无需再为环境配置和基础算子发愁。\n\ndeep-learning-book 成功填补了理论与工程之间的鸿沟，让开发者能从数学根源理解深度学习，并迅速将其转化为可落地的 Python 解决方案。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frasbt_deep-learning-book_6b3f2b5a.jpg","rasbt","Sebastian Raschka","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Frasbt_4eb76c31.jpg","AI Research Engineer working on LLMs.",null,"https:\u002F\u002Fsebastianraschka.com","https:\u002F\u002Fgithub.com\u002Frasbt",[84,88],{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",96.4,{"name":89,"color":90,"percentage":91},"Python","#3572A5",3.6,2825,742,"2026-03-27T17:10:59","NOASSERTION","","未说明",{"notes":99,"python":100,"dependencies":101},"本书主要使用 PyTorch 实现深度学习算法，同时也包含 TensorFlow 相关内容。代码示例以 Jupyter Notebook 形式提供。附录中包含 Python 环境设置指南（Appendix G）和云计算介绍（Appendix J）。具体的硬件加速需求（如 GPU\u002FCUDA）在提供的文本中未明确提及，需参考书中云计算章节或具体代码示例。","3.6",[102,103,104,105],"PyTorch","TensorFlow","NumPy","SciPy",[54,51,13],[108,109,110,111,112,113,114,115],"deep-learning","neural-network","machine-learning","python","tensorflow","artificial-intelligence","data-science","pytorch","2026-03-27T02:49:30.150509","2026-04-06T09:05:23.704518",[119,124,129,134,139,144,149],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},18603,"在哪里可以阅读这本书的完整章节或找到相关代码？","作者尚未完成全书的编写，因此 LeanPub 上还没有完整章节。目前可以参考作者用于深度学习课程的讲义草稿：https:\u002F\u002Fgithub.com\u002Frasbt\u002Fstat479-deep-learning-ss19。作者计划在下次授课前将讲义整理为更易读的章节形式并上传。","https:\u002F\u002Fgithub.com\u002Frasbt\u002Fdeep-learning-book\u002Fissues\u002F77",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},18604,"书中的 RNN（循环神经网络）示例代码运行时报维度错误怎么办？","这通常是由于手动输入代码时出现了拼写错误。建议直接使用仓库中提供的原始 Jupyter Notebook 代码（https:\u002F\u002Fgithub.com\u002Frasbt\u002Fpython-machine-learning-book-2nd-edition\u002Fblob\u002Fmaster\u002Fcode\u002Fch16\u002Fch16.ipynb），该代码在 TensorFlow v1.13.1 版本下测试通过。也可以尝试作者在 Google Colab 上提供的简化版笔记本进行验证：https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1L-ppNmZQLDs394xtdGJl34bj9e1uKeBD。","https:\u002F\u002Fgithub.com\u002Frasbt\u002Fdeep-learning-book\u002Fissues\u002F78",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},18605,"PyTorch 版本的笔记本是否已更新到 PyTorch 1.0？","目前只有少数笔记本（约 2 个）为了优化可读性而专门在 PyTorch 1.0 下重新运行过。对于其他笔记本，作者确认 PyTorch 0.4 和 1.0 之间没有影响代码运行的实质性差异。作者计划近期将所有笔记本统一在 PyTorch 1.0 环境下运行并更新。","https:\u002F\u002Fgithub.com\u002Frasbt\u002Fdeep-learning-book\u002Fissues\u002F72",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},18606,"变分自编码器（VAE）的代码示例中是否缺少 KL 散度损失项？","是的，这是一个疏忽。早期的实现版本中包含了 KL 散度组件，但在清理代码和复制常规自编码器的训练过程时被意外移除。正确的实现应当包含 KL 散度损失项，作者已确认会将此部分加回代码中。参考包含该组件的早期版本：https:\u002F\u002Fgithub.com\u002Frasbt\u002Fdeep-learning-book\u002Fblob\u002F1d3ab598b9184491b5e9a4107fd4e249baced540\u002Fcode\u002Fmodel_zoo\u002Fpytorch_ipynb\u002Fautoencoder_var.ipynb。","https:\u002F\u002Fgithub.com\u002Frasbt\u002Fdeep-learning-book\u002Fissues\u002F59",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},18607,"除了感知机章节外，其他章节的代码何时发布？","由于作者春季事务繁忙，其他章节的代码尚未完成。目前没有具体的发布时间表，一旦材料编写完成，作者会立即上传到仓库中。","https:\u002F\u002Fgithub.com\u002Frasbt\u002Fdeep-learning-book\u002Fissues\u002F55",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},18608,"安装 solarpi 或其他第三方应用时遇到导入错误如何解决？","该仓库主要用于深度学习书籍相关内容，不适合讨论第三方应用（如 solarpi, pysolar）的安装问题。遇到的错误（如 `from . import numeric as math`）通常与特定包的版本或安装有关。建议将此类问题提交到对应项目的仓库（如 solarpi 或 pysolar）或在 StackOverflow 上提问。如果是 Flask 相关错误，请检查 raven 包的安装是否正确。","https:\u002F\u002Fgithub.com\u002Frasbt\u002Fdeep-learning-book\u002Fissues\u002F65",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},18609,"代码文件中出现 `y_trai` 导致报错是怎么回事？","这是文件 `01_weight_zero_learning_rate.py` 中的一个拼写错误。代码行 `ax[0].scatter(X_train[y_trai == 1, 0]...` 中的 `y_trai` 应修正为 `y_train`。手动修改该变量名即可解决此错误。","https:\u002F\u002Fgithub.com\u002Frasbt\u002Fdeep-learning-book\u002Fissues\u002F86",[]]