[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-DOsinga--deep_learning_cookbook":3,"tool-DOsinga--deep_learning_cookbook":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":75,"owner_website":82,"owner_url":83,"languages":84,"stars":100,"forks":101,"last_commit_at":102,"license":103,"difficulty_score":23,"env_os":104,"env_gpu":105,"env_ram":106,"env_deps":107,"category_tags":112,"github_topics":81,"view_count":23,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":113,"updated_at":114,"faqs":115,"releases":145},3939,"DOsinga\u002Fdeep_learning_cookbook","deep_learning_cookbook","Deep Learning Cookbox","deep_learning_cookbook 是一个包含 35 个 Python 笔记本的开源项目，旨在通过实战代码演示 Keras 框架中的核心深度学习技术。它配套同名书籍，但完全独立可用，帮助用户从零开始掌握机器学习的关键应用。\n\n该项目主要解决了深度学习“入门难、落地难”的问题。通过具体的代码示例，它涵盖了从利用预训练词向量（Word2Vec）探索词语关系、构建基于维基百科数据的电影推荐系统，到使用 LSTM 生成莎士比亚风格文本或 Python 代码，以及问答匹配和文本分类等丰富场景。用户无需配置昂贵的 GPU 环境即可在 CPU 上运行学习，尽管计算速度会稍慢。\n\ndeep_learning_cookbook 特别适合开发者、数据科学初学者以及希望快速验证算法思路的研究人员。其独特的技术亮点在于将抽象的理论与真实世界的数据紧密结合，例如通过分析维基百科链接结构来生成电影嵌入向量，或利用 t-SNE 将高维数据可视化。无论你是想提升工程能力还是深化理论理解，这里提供的“食谱”式教程都能让你像查阅菜谱一样，轻松找到解决特定 AI 问题的方案并直接复用代码。","# Deep Learning Cookbook Notebooks\n\nThis repository contains 35 python notebooks demonstrating most of the key\nmachine learning techniques in Keras. The notebooks accompany the book\n[Deep Learning Cookbook](https:\u002F\u002Fwww.amazon.com\u002FDeep-Learning-Cookbook-Practical-Recipes) but work well on their own. A GPU is not required to run them,\nbut on a mere CPU things will take quite a while.\n\n## Getting started\n\nTo get started, setup a virtual env, install the requirements and start the notebook server:\n\n```Bash\ngit clone https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook.git\ncd deep_learning_cookbook\npython3 -m venv venv3\nsource venv3\u002Fbin\u002Factivate\npip install -r requirements.txt\njupyter notebook\n```\n\n## The notebooks\n\n#### [03.1 Using pre trained word embeddings](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F03.1%20Using%20pre%20trained%20word%20embeddings.ipynb)\n\nIn this notebook, we'll use a pretrained word embedding model (Word2Vec) to explore how word embeddings allow us\nto explore similarities between words and relationships between words. For example, find the capital of a country\nor the main products of a company. We'll finish with a demonstration of using t-SNE to plot high dimensional\nspaces on a 2D graph. \n\n#### [03.2 Domain specific ranking using word2vec cosine distance](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F03.2%20Domain%20specific%20ranking%20using%20word2vec%20cosine%20distance.ipynb)\n\nBuilding on the previous recipe, we'll use the distances between the words to do domain specific rankings. Specifically\nwe'll look at countries. First we create a small classifier to find all countries in the set of words, based on a small\nsample. We'll then use a similar approach to show relevance for specific words for countries. For example, since\ncricket is closer to India than to Germany, cricket is probably more relevant. We can plot this on a world map which\nlights up countries based on their relevance for specific words.\n\n#### [04.1 Collect movie data from Wikipedia](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F04.1%20Collect%20movie%20data%20from%20Wikipedia.ipynb)\n\nThis notebook shows how to download a dump of the Wikipedia and parse it to extract structured data by using the\ncategory and template information. We'll use this to create a set of movies including rating data.\n\n#### [04.2 Build a recommender system based on outgoing Wikipedia links](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F04.2%20Build%20a%20recommender%20system%20based%20on%20outgoing%20Wikipedia%20links.ipynb)\n\nBased on the structured data extracted in the previous notebook, we'll train a network that learns to predict a movie\nbased on the outgoing links on the corresponding Wikipedia page. This creates embeddings for the movies. This in\nturn lets us recommend movies based on other movies - similar movies are next to each other in the embedding\nspace.\n\n#### [05.1 Generating Text in the Style of an Example Text](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F05.1%20Generating%20Text%20in%20the%20Style%20of%20an%20Example%20Text.ipynb)\n\nWe train an LSTM to write Shakespeare. We'll follow this up with one that generates Python code by training a similar\nLSTM on the Python system codebase. Visualizing what the network has learned shows us what the Python producing\nnetwork is paying attention to as it produces or read Python code.\n\n#### [06.1 Question matching](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F06.1%20Question%20matching.ipynb)\n\nIn this notebook we train a network to learn how to match questions and answers from stackoverflow; this sort of indexing\nthan allows us to find given a question what the most likely answer in a database is. We try a variety of approaches to\nimprove upon the first not terribly great results.\n\n#### [07.1 Text Classification](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F07.1%20Text%20Classification.ipynb)\n\nThis notebook shows eight different machine learning approaches to classify texts into a variety of sentiments. The first\nthree are classical learners, followed by a number of deep learning models, character or word based and lstm vs cnn. The\nbest approach is to combine all approaches in one model.\n\n#### [07.2 Emoji Suggestions](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F07.2%20Emoji%20Suggestions.ipynb)\n\nWe start by harvesting a large set of tweets and we keep the ones that contain exactly one emoji (you can skip this step,\na training set is included). We then train a number of deep models to use the tweet minus the emoji to predict the missing\nemoji. We end up effectively with a model that can find the best emoji for a given bit of text.\n\n#### [07.3 Tweet Embeddings](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F07.3%20Tweet%20Embeddings.ipynb)\n\nSome experimental code (not included in the book) to semantically index tweets such that tweets that are similar show\nup next to each other; effectively doing what Word2Vec does for words, but now for tweets.\n\n#### [08.1 Sequence to sequence mapping](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F08.1%20Sequence%20to%20sequence%20mapping.ipynb)\n#### [08.2 Import Gutenberg](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F08.2%20Import%20Gutenberg.ipynb)\n\nSmall notebook demonstrating how to download books from the Gutenberg project. Tokenizes a set of book in preparation of\nthe subword tokenizing in the next notebook.\n\n#### [09.1 Reusing a pretrained image recognition network](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F09.1%20Reusing%20a%20pretrained%20image%20recognition%20network.ipynb)\n\nQuick notebook demonstrating how to load a pretrained network and apply it on an image of, well, what else? a cat.\nShows how to normalize the image and decode the predictions.\n\n#### [09.2 Images as embeddings](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F09.2%20Images%20as%20embeddings.ipynb)\n\nIn this notebook we use the Flickr API to fetch a feed of search results for the search term cat. By running each result through a pre-trained network\nwe get vectors that project the images in a 'space'. The center of that space in some way represents the most cat image possible. By reranking on\ndistance to that center we can weed out images that are less cat like. Effectively we can improve upon the Flickr search results without\nknowing the content!\n\n#### [09.3 Retraining](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F09.3%20Retraining.ipynb)\n#### [10.1 Building an inverse image search service](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F10.1%20Building%20an%20inverse%20image%20search%20service.ipynb)\n#### [11.1 Detecting Multiple Images](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F11.1%20Detecting%20Multiple%20Images.ipynb)\n\nUse the fact that imag classification networks extract features per larger square sub-image to detect multiple dogs and cats in the same\nimage or at least to know where in the image you can find your cat or dog. The approach her is a lot simpler than what is the state of the\nart, but also a lot easier to follow, so a good way to get started.\n\n#### [12.1 Activation Optimization](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F12.1%20Activation%20Optimization.ipynb)\n#### [12.2 Neural Style](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F12.2%20Neural%20Style.ipynb)\n#### [13.1 Quick Draw Cat Autoencoder](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F13.1%20Quick%20Draw%20Cat%20Autoencoder.ipynb)\n#### [13.2 Variational Autoencoder](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F13.2%20Variational%20Autoencoder.ipynb)\n#### [13.5 Quick Draw Autoencoder](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F13.5%20Quick%20Draw%20Autoencoder.ipynb)\n#### [14.1 Importing icons](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F14.1%20Importing%20icons.ipynb)\n#### [14.2 Icon Autoencoding](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F14.2%20Icon%20Autoencoding.ipynb)\n#### [14.2 Variational Autoencoder Icons](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F14.2%20Variational%20Autoencoder%20Icons.ipynb)\n#### [14.3 Icon GAN](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F14.3%20Icon%20GAN.ipynb)\n#### [14.4 Icon RNN](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F14.4%20Icon%20RNN.ipynb)\n#### [15.1 Song Classification](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F15.1%20Song%20Classification.ipynb)\n#### [15.2 Index Local MP3s](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F15.2%20Index%20Local%20MP3s.ipynb)\n#### [15.3 Spotify Playlists](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F15.3%20Spotify%20Playlists.ipynb)\n#### [15.4 Train a music recommender](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F15.4%20Train%20a%20music%20recommender.ipynb)\n#### [16.1 Productionize Embeddings](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F16.1%20Productionize%20Embeddings.ipynb)\n#### [16.2 Prepare Keras model for Tensorflow Serving](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F16.2%20Prepare%20Keras%20model%20for%20Tensorflow%20Serving.ipynb)\n#### [16.3 Prepare model for iOS](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F16.3%20Prepare%20model%20for%20iOS.ipynb)\n#### [16.4 Simple Text Generation](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F16.4%20Simple%20Text%20Generation.ipynb)\n#### [Simple Seq2Seq](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002FSimple%20Seq2Seq.ipynb)\n\nSimple sequence-to-sequence mapping demo. The notebook shows how to teach a network how to form plurals.\n","# 深度学习 Cookbook 笔记本\n\n此仓库包含 35 个 Python 笔记本，演示了 Keras 中大多数关键的机器学习技术。这些笔记本与书籍《深度学习 Cookbook》配套使用，但也可以独立运行。运行它们并不需要 GPU，不过仅靠 CPU 执行时会花费相当长的时间。\n\n## 快速入门\n\n要开始使用，请设置一个虚拟环境，安装所需依赖，并启动 Jupyter Notebook 服务器：\n\n```Bash\ngit clone https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook.git\ncd deep_learning_cookbook\npython3 -m venv venv3\nsource venv3\u002Fbin\u002Factivate\npip install -r requirements.txt\njupyter notebook\n```\n\n## 笔记本内容\n\n#### [03.1 使用预训练词嵌入](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F03.1%20Using%20pre%20trained%20word%20embeddings.ipynb)\n\n在本笔记本中，我们将使用一个预训练的词嵌入模型（Word2Vec），探索词嵌入如何帮助我们分析词语之间的相似性及关系。例如，找出某个国家的首都或某公司的主要产品。最后，我们将演示如何使用 t-SNE 将高维空间映射到二维图表上。\n\n#### [03.2 基于 Word2Vec 余弦距离的领域特定排名](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F03.2%20Domain%20specific%20ranking%20using%20word2vec%20cosine%20distance.ipynb)\n\n延续前一个示例，我们将利用词语之间的距离来进行领域特定的排名。具体来说，我们会以国家为例：首先根据一个小样本创建一个小型分类器，用于识别文本中的所有国家名称；然后采用类似的方法，展示特定词语与各国的相关性。例如，由于“板球”与“印度”的相关性高于“德国”，因此“板球”可能更适用于描述印度。我们可以将这一结果绘制在世界地图上，用颜色深浅表示不同国家与特定词语的相关程度。\n\n#### [04.1 从维基百科收集电影数据](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F04.1%20Collect%20movie%20data%20from%20Wikipedia.ipynb)\n\n本笔记本展示了如何下载维基百科的数据转储文件，并通过解析其类别和模板信息提取结构化数据。我们将利用这些数据构建一个包含评分信息的电影数据集。\n\n#### [04.2 基于维基百科外链的推荐系统](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F04.2%20Build%20a%20recommender%20system%20based%20on%20outgoing%20Wikipedia%20links.ipynb)\n\n基于上一个笔记本中提取的结构化数据，我们将训练一个神经网络，使其能够根据维基百科页面上的外链预测对应的电影。这将为每部电影生成嵌入向量，从而实现基于其他电影的推荐——在嵌入空间中，相似的电影彼此靠近。\n\n#### [05.1 生成模仿示例文本风格的文本](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F05.1%20Generating%20Text%20in%20the%20Style%20of%20an%20Example%20Text.ipynb)\n\n我们训练了一个 LSTM 模型来模仿莎士比亚的写作风格。随后，我们又训练了一个类似的 LSTM 模型，让它学习生成 Python 代码，训练数据来源于 Python 的官方代码库。通过可视化网络学到的内容，我们可以了解生成 Python 代码的模型在读取或生成代码时关注的重点。\n\n#### [06.1 问题匹配](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F06.1%20Question%20matching.ipynb)\n\n在本笔记本中，我们将训练一个神经网络，使其学会匹配 Stack Overflow 上的问题和答案。这种索引方式允许我们在给定一个问题时，快速找到数据库中最可能的答案。我们尝试了多种方法来改进最初不太理想的结果。\n\n#### [07.1 文本分类](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F07.1%20Text%20Classification.ipynb)\n\n本笔记本展示了八种不同的机器学习方法，用于将文本分类为多种情感类别。前三种是传统机器学习方法，接下来是一些深度学习模型，包括基于字符、基于单词的模型，以及 LSTM 和 CNN 的对比。最佳方案是将所有方法结合到一个模型中。\n\n#### [07.2 表情符号建议](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F07.2%20Emoji%20Suggestions.ipynb)\n\n我们首先收集大量推文，并筛选出只包含一个表情符号的推文（这一步可以跳过，因为已提供训练数据）。然后，我们训练多个深度学习模型，让它们根据不含表情符号的推文内容预测缺失的表情符号。最终，我们得到了一个可以根据给定文本推荐最合适的表情符号的模型。\n\n#### [07.3 推文嵌入](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F07.3%20Tweet%20Embeddings.ipynb)\n\n一些实验性代码（未收录于书中），用于对推文进行语义索引，使相似的推文在索引中彼此相邻。这实际上相当于 Word2Vec 对词语所做的工作，只不过这里应用于推文。\n\n#### [08.1 序列到序列映射](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F08.1%20Sequence%20to%20sequence%20mapping.ipynb)\n#### [08.2 导入古腾堡计划的书籍](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F08.2%20Import%20Gutenberg.ipynb)\n\n这两个小笔记本演示了如何从古腾堡计划下载书籍，并对书籍文本进行分词处理，为下一个笔记本中的子词分词做准备。\n\n#### [09.1 复用预训练图像识别网络](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F09.1%20Reusing%20a%20pretrained%20image%20recognition%20network.ipynb)\n\n这是一个简短的笔记本，演示如何加载一个预训练的网络，并将其应用于一张猫的图片。它还展示了如何对图像进行归一化处理，以及如何解码预测结果。\n\n#### [09.2 图像作为嵌入](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F09.2%20Images%20as%20embeddings.ipynb)\n\n在本笔记本中，我们使用 Flickr API 获取搜索关键词“猫”的结果流。通过对每个结果应用预训练的网络，我们可以得到将图像投影到某个“空间”中的向量。这个空间的中心在某种程度上代表了最“猫”的图像。通过按与该中心的距离重新排序，我们可以过滤掉那些不太像猫的图像。这样一来，即使不了解图片的具体内容，我们也能够有效改进 Flickr 的搜索结果！\n\n#### [09.3 重新训练](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F09.3%20Retraining.ipynb)\n#### [10.1 构建反向图像搜索服务](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F10.1%20Building%20an%20inverse%20image%20search%20service.ipynb)\n#### [11.1 多张图像检测](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F11.1%20Detecting%20Multiple%20Images.ipynb)\n\n利用图像分类网络会从较大的方形子图像中提取特征这一特性，可以在同一张图像中检测多只狗和猫，或者至少确定图像中哪些区域可能存在猫或狗。这里介绍的方法比当前最先进的方法简单得多，同时也更容易理解，因此是入门的好方式。\n\n#### [12.1 激活优化](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F12.1%20Activation%20Optimization.ipynb)\n#### [12.2 神经风格迁移](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F12.2%20Neural%20Style.ipynb)\n#### [13.1 Quick Draw 猫自动编码器](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F13.1%20Quick%20Draw%20Cat%20Autoencoder.ipynb)\n#### [13.2 变分自动编码器](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F13.2%20Variational%20Autoencoder.ipynb)\n#### [13.5 Quick Draw 自动编码器](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F13.5%20Quick%20Draw%20Autoencoder.ipynb)\n#### [14.1 导入图标](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F14.1%20Importing%20icons.ipynb)\n#### [14.2 图标自动编码](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F14.2%20Icon%20Autoencoding.ipynb)\n#### [14.2 变分自动编码器与图标](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F14.2%20Variational%20Autoencoder%20Icons.ipynb)\n#### [14.3 图标生成对抗网络](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F14.3%20Icon%20GAN.ipynb)\n#### [14.4 图标循环神经网络](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F14.4%20Icon%20RNN.ipynb)\n#### [15.1 歌曲分类](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F15.1%20Song%20Classification.ipynb)\n#### [15.2 本地MP3索引](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F15.2%20Index%20Local%20MP3s.ipynb)\n#### [15.3 Spotify播放列表](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F15.3%20Spotify%20Playlists.ipynb)\n#### [15.4 训练音乐推荐系统](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F15.4%20Train%20a%20music%20recommender.ipynb)\n#### [16.1 将嵌入模型投入生产](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F16.1%20Productionize%20Embeddings.ipynb)\n#### [16.2 为TensorFlow Serving准备Keras模型](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F16.2%20Prepare%20Keras%20model%20for%20Tensorflow%20Serving.ipynb)\n#### [16.3 为iOS平台准备模型](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F16.3%20Prepare%20model%20for%20iOS.ipynb)\n#### [16.4 简单文本生成](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002F16.4%20Simple%20Text%20Generation.ipynb)\n#### [简单序列到序列模型](https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fblob\u002Fmaster\u002FSimple%20Seq2Seq.ipynb)\n\n简单的序列到序列映射演示。该笔记本展示了如何训练一个神经网络来生成复数形式。","# Deep Learning Cookbook 快速上手指南\n\n本仓库包含 35 个 Python Notebook，演示了使用 Keras 实现的关键机器学习技术。这些示例源自《Deep Learning Cookbook》一书，但也可独立运行学习。虽然无需 GPU 即可运行，但在纯 CPU 环境下训练时间会显著增加。\n\n## 环境准备\n\n*   **操作系统**：Linux, macOS 或 Windows (需支持 Python 3)\n*   **Python 版本**：Python 3.6+\n*   **硬件建议**：推荐使用 NVIDIA GPU 以加速模型训练；若仅使用 CPU，请预留充足的等待时间。\n*   **前置依赖**：确保已安装 `git` 和 `pip`。\n\n> **国内开发者提示**：在安装依赖时，建议指定清华或阿里镜像源以大幅提升下载速度。\n\n## 安装步骤\n\n请在终端中依次执行以下命令来克隆项目、创建虚拟环境并安装依赖：\n\n```Bash\ngit clone https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook.git\ncd deep_learning_cookbook\npython3 -m venv venv3\nsource venv3\u002Fbin\u002Factivate\n# 国内用户建议使用如下命令加速安装：\n# pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\npip install -r requirements.txt\njupyter notebook\n```\n\n*注：Windows 用户激活虚拟环境的命令为 `venv3\\Scripts\\activate`。*\n\n## 基本使用\n\n启动上述命令后，浏览器将自动打开 Jupyter Notebook 界面。你可以直接点击列表中的任意 `.ipynb` 文件开始学习。\n\n### 最简单的使用示例：复用预训练图像识别网络\n\n推荐从 **09.1 Reusing a pretrained image recognition network** 开始，这是一个无需长时间训练即可看到效果的示例。\n\n1.  在 Jupyter 界面中打开 `09.1 Reusing a pretrained image recognition network.ipynb`。\n2.  该示例将加载一个预训练好的神经网络模型。\n3.  代码会自动处理一张猫的图像，进行归一化操作，并输出识别预测结果。\n4.  按顺序点击单元格运行（Shift + Enter），即可观察如何解码预测结果并识别图像内容。\n\n### 其他精选入门路径\n\n*   **文本生成**：运行 `05.1 Generating Text in the Style of an Example Text.ipynb`，观察 LSTM 如何模仿莎士比亚风格写作或生成 Python 代码。\n*   **词向量探索**：运行 `03.1 Using pre trained word embeddings.ipynb`，利用 Word2Vec 探索词语间的相似性与关系（如“国家 - 首都”类比）。\n*   **推荐系统**：运行 `04.2 Build a recommender system based on outgoing Wikipedia links.ipynb`，基于维基百科链接构建电影推荐引擎。\n\n所有 Notebook 均自包含数据和逻辑，可直接运行体验深度学习在不同领域的应用。","某初创教育科技公司急需构建一个智能问答系统，用于自动匹配学生提问与历史题库中的最佳答案，但团队缺乏深度学习落地经验。\n\n### 没有 deep_learning_cookbook 时\n- 开发人员需从零查阅大量分散的学术论文和文档，难以快速掌握如何使用 Keras 构建问题匹配模型。\n- 在尝试复现经典算法时，常因数据预处理、网络结构搭建等细节错误导致模型无法收敛，调试耗时数周。\n- 缺乏现成的文本分类和语义匹配代码参考，团队不得不反复试错，严重拖慢了产品原型上线进度。\n- 对于如何优化初始效果不佳的模型（如调整超参数或改进网络层），团队缺乏系统的实验思路和指导。\n\n### 使用 deep_learning_cookbook 后\n- 团队直接复用 `06.1 Question matching` 笔记本中的成熟代码，快速搭建了基于 StackOverflow 数据的问题 - 答案匹配网络。\n- 借助书中提供的完整数据流处理和模型训练流程，避免了常见坑点，将模型从搭建到跑通的时间缩短至两天。\n- 参考 `07.1 Text Classification` 等章节的多种优化策略，迅速迭代模型架构，显著提升了匹配准确率。\n- 利用笔记本中可视化的实验结果分析工具，直观理解网络学习到的特征，为后续调优提供了明确方向。\n\ndeep_learning_cookbook 通过提供“开箱即用”的实战代码和系统化指导，将团队从繁琐的基础探索中解放出来，实现了深度学习模型的快速落地与迭代。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDOsinga_deep_learning_cookbook_24aa3222.png","DOsinga","Douwe Osinga","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FDOsinga_177820d3.jpg","Blockerdieblock","Block","Miami Beach",null,"https:\u002F\u002Fdouwe.com","https:\u002F\u002Fgithub.com\u002FDOsinga",[85,89,93,97],{"name":86,"color":87,"percentage":88},"Jupyter Notebook","#DA5B0B",99.9,{"name":90,"color":91,"percentage":92},"Python","#3572A5",0.1,{"name":94,"color":95,"percentage":96},"HTML","#e34c26",0,{"name":98,"color":99,"percentage":96},"JavaScript","#f1e05a",691,337,"2026-03-30T19:02:33","Apache-2.0","Linux, macOS, Windows","非必需（CPU 可运行但速度较慢），无具体型号或显存要求","未说明",{"notes":108,"python":109,"dependencies":110},"该工具包含 35 个基于 Keras 的机器学习示例笔记本。虽然不需要 GPU 即可运行，但在纯 CPU 环境下执行时间会显著延长。需通过 requirements.txt 安装具体依赖库。","3.x (通过 python3 -m venv 推断)",[111,86],"Keras",[26,13],"2026-03-27T02:49:30.150509","2026-04-06T05:35:45.610634",[116,121,126,131,136,141],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},17982,"在 Ubuntu 系统上安装 bsddb3 时提示找不到本地 Berkeley DB 安装怎么办？","这是因为系统缺少 Berkeley DB 库。对于 Conda 环境，建议从源码构建以适应环境；对于原生 Ubuntu 18.04 系统，通常可以直接安装。如果仍然失败，可以尝试指定 Berkeley DB 的路径进行安装，或者参考相关 Issue #62 获取更详细的解决方案。","https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fissues\u002F59",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},17983,"在 Windows 上安装 requirements.txt 时遇到 pyproj、fiona 或 geopandas 编译错误如何解决？","Windows 上直接通过 pip 安装这些地理空间库常因缺少编译器环境而失败。推荐解决方案是使用 Anaconda 环境，并运行命令 `conda install -c conda-forge geopandas`。该命令会自动安装包括 pyproj、shapely、geopandas 和 fiona 在内的所有依赖。剩余未安装的包再手动通过 pip 安装。如果版本号与 requirements.txt 不一致，通常可以忽略，或者使用 pip-tools 重新生成 requirements 文件。","https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fissues\u002F27",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},17984,"Mac 用户在 pip install 时遇到 leveldb 相关的安装错误如何处理？","Mac 系统通常默认未安装 leveldb。解决方法是使用 Homebrew 先安装 leveldb：`brew install leveldb`。如果遇到更复杂的 Berkeley DB 相关错误，可能需要执行以下步骤：\n1. `brew install berkeley-db@4`\n2. 设置环境变量并安装特定包：`BERKELEYDB_DIR=\u002Fusr\u002Flocal\u002FCellar\u002Fberkeley-db@4\u002F4.8.30\u002F pip install scrapy-deltafetch`\n3. 重新安装特定版本的 leveldb：`brew install https:\u002F\u002Fraw.githubusercontent.com\u002FHomebrew\u002Fhomebrew-core\u002F86c8b39428a4e485e8afcc02f2e31da9d53007a0\u002FFormula\u002Fleveldb.rb`\n4. 最后重新运行 `sudo BERKELEYDB_DIR=... pip3 install -r requirements.txt`。","https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fissues\u002F6",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},17985,"在 CentOS 或其他 Linux 发行版上运行 Jupyter Notebook 时报错 'No module named pysqlite2' 怎么办？","该错误是因为操作系统缺少 SQLite 开发库。在 CentOS 7 上，需要安装 `sqlite-devel` 包（命令：`yum install sqlite-devel` 或 `dnf install sqlite-devel`），然后重新编译或安装 Python 3，使 Python 能够正确链接 SQLite 库。安装完成后再次激活虚拟环境并运行 Jupyter Notebook 即可解决。","https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fissues\u002F61",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},17986,"运行文本分类笔记本（07.1 Text Classification.ipynb）时提示 'inverse_vocab is not defined' 错误如何修复？","这是笔记本代码缺失导致的。在执行报错的单元格（通常是第 8 个单元格）之前，需要手动添加一行代码来定义 `inverse_vocab` 变量。请添加以下代码：\n`inverse_vocab = {idx: word for word, idx in tfidf_vec.vocabulary_.items()}`\n添加后重新运行即可恢复正常。","https:\u002F\u002Fgithub.com\u002FDOsinga\u002Fdeep_learning_cookbook\u002Fissues\u002F17",{"id":142,"question_zh":143,"answer_zh":144,"source_url":135},17987,"项目推荐在什么操作系统环境下运行？Windows 是否支持良好？","项目维护者建议在 Linux 或 macOS (OSX) 环境下运行。虽然代码理论上支持 Windows，但在 Windows 上依赖管理较为混乱，许多 Python 包的预编译 wheel 文件缺少正确的底层库支持，导致安装和运行经常出错。如果遇到难以解决的 Windows 兼容性问题，建议使用 Linux 虚拟机或 WSL (Windows Subsystem for Linux)。",[]]