[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-m2dsupsdlclass--lectures-labs":3,"tool-m2dsupsdlclass--lectures-labs":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",151918,2,"2026-04-12T11:33:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":32,"env_os":102,"env_gpu":103,"env_ram":102,"env_deps":104,"category_tags":111,"github_topics":112,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":137},6915,"m2dsupsdlclass\u002Flectures-labs","lectures-labs","Slides and Jupyter notebooks for the Deep Learning lectures at Master Year 2 Data Science from Institut Polytechnique de Paris","lectures-labs 是巴黎理工学院数据科学硕士项目配套的深度学习开源教学资源库，旨在通过“理论幻灯片 + 实战代码”的双轨模式，帮助学习者系统掌握深度学习核心知识。它有效解决了传统课程中理论与实践脱节的痛点，让用户不仅能理解神经网络、反向传播、卷积网络（CNN）、循环网络（RNN）及生成模型等抽象概念，还能立即通过 Jupyter Notebook 进行动手验证。\n\n这套资源特别适合高校学生、自学者以及希望夯实基础的 AI 开发者使用。其内容覆盖从入门简介到物体检测、自然语言处理（NLP）、推荐系统及不平衡分类等高级应用，结构清晰且循序渐进。独特的技术亮点在于提供了基于 NumPy 从零实现反向传播的练习，帮助使用者深入理解算法底层逻辑，同时包含大量基于 Keras 和 TensorFlow 的工业级案例（如 RetinaNet 目标检测、三元组损失推荐系统）。此外，所有实验环境支持一键在 Binder 上运行，无需本地配置即可开始学习，极大地降低了上手门槛，是连接学术理论与工程实践的优质桥梁。","# Deep Learning course: lecture slides and lab notebooks\n\n\u003Ca href=\"https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fmaster\">\n  \u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge.svg\" \u002F>\n\u003C\u002Fa>\n\nThis course is being taught at as part of [Master Year 2 Data Science IP-Paris](https:\u002F\u002Fwww.ip-paris.fr\u002Feducation\u002Fmasters\u002Fmention-mathematiques-appliquees-statistiques\u002Fmaster-year-2-data-science)\n\n## Table of contents\n\nThe course covers the basics of Deep Learning, with a focus on applications.\n\n### Lecture slides\n\n  - [Intro to Deep Learning](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F01_intro_to_deep_learning\u002Findex.html)\n  - [Neural Networks and Backpropagation](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F02_backprop\u002Findex.html)\n  - [Embeddings and Recommender Systems](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F03_recommender_systems\u002Findex.html)\n  - [Convolutional Neural Networks for Image Classification](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F04_conv_nets\u002Findex.html)\n  - [Deep Learning for Object Detection and Image Segmentation](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F05_conv_nets_2\u002Findex.html)\n  - [Recurrent Neural Networks and NLP](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F06_deep_nlp\u002Findex.html)\n  - [Sequence to sequence, attention and memory](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F07_deep_nlp_2\u002Findex.html)\n  - [Expressivity, Optimization and Generalization](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F08_expressivity_optimization_generalization\u002Findex.html)\n  - [Imbalanced classification and metric learning](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F09_imbalanced_classif_metric_learning\u002Findex.html)\n  - [Unsupervised Deep Learning and Generative models](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F10_unsupervised_generative_models\u002Findex.html)\n\nNote: press \"P\" to display the presenter's notes that include some comments and\nadditional references.\n\n### Lab and Home Assignment Notebooks\n\nThe Jupyter notebooks for the labs can be found in the `labs` folder of\nthe [github repository](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002F):\n\n    git clone https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\n\nThese notebooks only work with `keras and tensorflow`\nPlease follow the [installation\\_instructions.md](\nhttps:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Finstallation_instructions.md)\nto get started.\n\nDirect links to the rendered notebooks including solutions (to be updated in rendered mode): \n\n#### Lab 1: Intro to Deep Learning\n\n  - [Demo: Object Detection with pretrained RetinaNet with Keras](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F01_keras\u002FDemo_RetinaNet.ipynb)\n  - [Intro to MLP with Keras](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F01_keras\u002FIntro%20Keras.ipynb)\n\n#### Lab 2: Neural Networks and Backpropagation\n\n  - [Backpropagation in Neural Networks using Numpy](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F02_backprop\u002FBackpropagation_numpy.ipynb)\n  - [Bonus: Backpropagation using TensorFlow](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F02_backprop\u002FBackpropagation_tensorflow.ipynb)\n\n#### Lab 3: Embeddings and Recommender Systems\n\n  - [Short Intro to Embeddings with Keras](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F03_neural_recsys\u002FShort_Intro_to_Embeddings_with_Keras_rendered.ipynb)\n  - [Neural Recommender Systems with Explicit Feedback](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F03_neural_recsys\u002FExplicit_Feedback_Neural_Recommender_System_rendered.ipynb)\n  - [Neural Recommender Systems with Implicit Feedback and the Triplet Loss](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F03_neural_recsys\u002FImplicit_Feedback_Recsys_with_the_triplet_loss_rendered.ipynb)\n\n#### Lab 4: Convolutional Neural Networks for Image Classification\n\n  - [Convolutions](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F04_conv_nets\u002FConvolutions.ipynb)\n  - [Pretrained ConvNets with Keras](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F04_conv_nets\u002FPretrained_ConvNets_with_Keras_rendered.ipynb)\n  - [Fine Tuning a pretrained ConvNet with Keras (GPU required)](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F04_conv_nets\u002FFine_Tuning_Deep_CNNs_with_GPU_rendered.ipynb)\n  - [Bonus: Convolution and ConvNets with TensorFlow](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F04_conv_nets\u002FConvNets_with_TensorFlow_rendered.ipynb)\n\n#### Lab 5: Deep Learning for Object Dection and Image Segmentation\n\n  - [Fully Convolutional Neural Networks](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F05_conv_nets_2\u002FFully_Convolutional_Neural_Networks_rendered.ipynb)\n  - [ConvNets for Classification and Localization](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F05_conv_nets_2\u002FConvNets_for_Classification_and_Localization_rendered.ipynb)\n\n#### Lab 6: Text Classification, Word Embeddings and Language Models\n\n  - [Text Classification and Word Vectors](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F06_deep_nlp\u002FNLP_word_vectors_classification_rendered.ipynb)\n  - [Character Level Language Model (GPU required)](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F06_deep_nlp\u002FCharacter_Level_Language_Model_rendered.ipynb)\n  - [Transformers (BERT fine-tuning): Joint Intent Classification and Slot Filling](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F06_deep_nlp\u002FTransformers_Joint_Intent_Classification_Slot_Filling_rendered.ipynb)\n\n#### Lab 7: Sequence to Sequence for Machine Translation\n\n  - [Translation of Numeric Phrases with Seq2Seq](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F07_seq2seq\u002FTranslation_of_Numeric_Phrases_with_Seq2Seq_rendered.ipynb)\n  \n#### Lab 8: Intro to PyTorch\n\n  - [Pytorch Introduction to Autograd](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F08_frameworks\u002FA_PyTorch_introduction__autograd_in_action.ipynb)\n  - [Pytorch classification of Fashion MNIST](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F08_frameworks\u002FFashion_MNIST_classification.ipynb)\n  - [Stochastic Optimization Landscape in Pytorch](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F08_frameworks\u002FMinimal_MLP__stochastic_optimization_landscape.ipynb)\n\n#### Lab 9: Siamese Networks and Triplet loss\n\n  - [Face verification using Siamese Nets](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F09_triplet_loss\u002FFace_Verification_Using_Siamese_Nets.ipynb)\n  - [Face verification using Triplet loss](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F09_triplet_loss\u002FFace_Verification_Using_Triplet_Loss.ipynb)\n\n#### Lab 10: Variational Auto Encoder\n\n  - [VAE on Fashion MNIST](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F10_unsupervised_generative_models\u002FVariational_AutoEncoders.ipynb)\n  \n## Acknowledgments\n\nThis lecture is built and maintained by Olivier Grisel and Charles Ollion\n\nCharles Ollion, head of research at [Heuritech](http:\u002F\u002Fwww.heuritech.com) -\nOlivier Grisel, software engineer at\n[Inria](https:\u002F\u002Fteam.inria.fr\u002Fparietal\u002Fen)\n\n\u003Ca href=\"http:\u002F\u002Fwww.heuritech.com\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fm2dsupsdlclass_lectures-labs_readme_fe3e938a32b2.png\"\nwidth=\"300\"\u002F>\u003C\u002Fa> \u003Ca href=\"https:\u002F\u002Fteam.inria.fr\u002Fparietal\u002Fen\">\u003Cimg\nsrc=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fm2dsupsdlclass_lectures-labs_readme_4f53a1aeb94c.png\" width=\"250\"\u002F>\u003C\u002Fa>\n\nWe thank the  Orange-Keyrus-Thalès chair for supporting this class.\n\n## License\n\nAll the code in this repository is made available under the MIT license\nunless otherwise noted.\n\nThe slides are published under the terms of the [CC-By 4.0\nlicense](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002F).\n","# 深度学习课程：讲义幻灯片与实验笔记\n\n\u003Ca href=\"https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fmaster\">\n  \u003Cimg src=\"https:\u002F\u002Fmybinder.org\u002Fbadge.svg\" \u002F>\n\u003C\u002Fa>\n\n本课程作为[巴黎IP-Paris应用数学与统计学硕士二年级数据科学专业](https:\u002F\u002Fwww.ip-paris.fr\u002Feducation\u002Fmasters\u002Fmention-mathematiques-appliquees-statistiques\u002Fmaster-year-2-data-science)的一部分进行授课。\n\n## 目录\n\n本课程涵盖深度学习的基础知识，并重点关注其应用。\n\n### 讲义幻灯片\n\n  - [深度学习导论](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F01_intro_to_deep_learning\u002Findex.html)\n  - [神经网络与反向传播](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F02_backprop\u002Findex.html)\n  - [嵌入与推荐系统](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F03_recommender_systems\u002Findex.html)\n  - [用于图像分类的卷积神经网络](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F04_conv_nets\u002Findex.html)\n  - [用于目标检测和图像分割的深度学习](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F05_conv_nets_2\u002Findex.html)\n  - [循环神经网络与自然语言处理](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F06_deep_nlp\u002Findex.html)\n  - [序列到序列模型、注意力机制与记忆](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F07_deep_nlp_2\u002Findex.html)\n  - [表达能力、优化与泛化](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F08_expressivity_optimization_generalization\u002Findex.html)\n  - [不平衡分类与度量学习](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F09_imbalanced_classif_metric_learning\u002Findex.html)\n  - [无监督深度学习与生成模型](https:\u002F\u002Fm2dsupsdlclass.github.io\u002Flectures-labs\u002Fslides\u002F10_unsupervised_generative_models\u002Findex.html)\n\n注意：按下“P”键可显示演讲者备注，其中包含一些注释和补充参考文献。\n\n### 实验室与家庭作业笔记本\n\n实验室的 Jupyter 笔记本位于 [GitHub 仓库](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002F) 的 `labs` 文件夹中：\n\n    git clone https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\n\n这些笔记本仅适用于 `keras 和 tensorflow`。请按照 [installation_instructions.md](\nhttps:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Finstallation_instructions.md)\n中的说明进行安装和配置，以开始使用。\n\n包含解决方案的渲染后笔记本的直接链接（将在渲染模式下更新）：\n\n#### 实验 1：深度学习入门\n\n  - [演示：使用 Keras 预训练的 RetinaNet 进行目标检测](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F01_keras\u002FDemo_RetinaNet.ipynb)\n  - [Keras 中的多层感知机入门](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F01_keras\u002FIntro%20Keras.ipynb)\n\n#### 实验 2：神经网络与反向传播\n\n  - [使用 NumPy 实现神经网络中的反向传播](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F02_backprop\u002FBackpropagation_numpy.ipynb)\n  - [附加内容：使用 TensorFlow 实现反向传播](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F02_backprop\u002FBackpropagation_tensorflow.ipynb)\n\n#### 实验 3：嵌入与推荐系统\n\n  - [Keras 中嵌入的简短介绍](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F03_neural_recsys\u002FShort_Intro_to_Embeddings_with_Keras_rendered.ipynb)\n  - [基于显式反馈的神经网络推荐系统](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F03_neural_recsys\u002FExplicit_Feedback_Neural_Recommender_System_rendered.ipynb)\n  - [基于隐式反馈和三元组损失的神经网络推荐系统](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F03_neural_recsys\u002FImplicit_Feedback_Recsys_with_the_triplet_loss_rendered.ipynb)\n\n#### 实验 4：用于图像分类的卷积神经网络\n\n  - [卷积操作](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F04_conv_nets\u002FConvolutions.ipynb)\n  - [使用 Keras 的预训练卷积神经网络](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F04_conv_nets\u002FPretrained_ConvNets_with_Keras_rendered.ipynb)\n  - [使用 Keras 微调预训练的卷积神经网络（需要 GPU）](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F04_conv_nets\u002FFine_Tuning_Deep_CNNs_with_GPU_rendered.ipynb)\n  - [附加内容：使用 TensorFlow 的卷积与卷积神经网络](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F04_conv_nets\u002FConvNets_with_TensorFlow_rendered.ipynb)\n\n#### 实验 5：用于目标检测和图像分割的深度学习\n\n  - [全卷积神经网络](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F05_conv_nets_2\u002FFully_Convolutional_Neural_Networks_rendered.ipynb)\n  - [用于分类和定位的卷积神经网络](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F05_conv_nets_2\u002FConvNets_for_Classification_and_Localization_rendered.ipynb)\n\n#### 实验 6：文本分类、词嵌入与语言模型\n\n  - [文本分类与词向量](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F06_deep_nlp\u002FNLP_word_vectors_classification_rendered.ipynb)\n  - [字符级语言模型（需要 GPU）](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F06_deep_nlp\u002FCharacter_Level_Language_Model_rendered.ipynb)\n  - [Transformer（BERT 微调）：意图分类与槽位填充联合任务](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F06_deep_nlp\u002FTransformers_Joint_Intent_Classification_Slot_Filling_rendered.ipynb)\n\n#### 实验 7：用于机器翻译的序列到序列模型\n\n  - [使用 Seq2Seq 模型翻译数字短语](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F07_seq2seq\u002FTranslation_of_Numeric_Phrases_with_Seq2Seq_rendered.ipynb)\n\n#### 实验 8：PyTorch 入门\n\n  - [PyTorch 自动求导简介](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F08_frameworks\u002FA_PyTorch_introduction__autograd_in_action.ipynb)\n  - [PyTorch 对 Fashion MNIST 数据集的分类](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F08_frameworks\u002FFashion_MNIST_classification.ipynb)\n  - [PyTorch 中的随机优化景观](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F08_frameworks\u002FMinimal_MLP__stochastic_optimization_landscape.ipynb)\n\n#### 实验 9：暹罗网络与三元组损失\n\n  - [使用暹罗网络进行人脸验证](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F09_triplet_loss\u002FFace_Verification_Using_Siamese_Nets.ipynb)\n  - [使用三元组损失进行人脸验证](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F09_triplet_loss\u002FFace_Verification_Using_Triplet_Loss.ipynb)\n\n#### 实验 10：变分自编码器\n\n  - [Fashion MNIST 数据集上的变分自编码器](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Flabs\u002F10_unsupervised_generative_models\u002FVariational_AutoEncoders.ipynb)\n\n## 致谢\n\n本课程由 Olivier Grisel 和 Charles Ollion 构建并维护。\n\nCharles Ollion 是 [Heuritech](http:\u002F\u002Fwww.heuritech.com) 的研究负责人；  \nOlivier Grisel 是 [Inria](https:\u002F\u002Fteam.inria.fr\u002Fparietal\u002Fen) 的软件工程师。\n\n\u003Ca href=\"http:\u002F\u002Fwww.heuritech.com\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fm2dsupsdlclass_lectures-labs_readme_fe3e938a32b2.png\"\nwidth=\"300\"\u002F>\u003C\u002Fa> \u003Ca href=\"https:\u002F\u002Fteam.inria.fr\u002Fparietal\u002Fen\">\u003Cimg\nsrc=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fm2dsupsdlclass_lectures-labs_readme_4f53a1aeb94c.png\" width=\"250\"\u002F>\u003C\u002Fa>\n\n我们感谢 Orange-Keyrus-Thalès 教席对本课程的支持。\n\n## 许可证\n\n本仓库中的所有代码均在未另行说明的情况下，以 MIT 许可证发布。\n\n幻灯片则根据 [CC-By 4.0 许可证](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002F) 的条款发布。","# lectures-labs 快速上手指南\n\n`lectures-labs` 是巴黎理工学院（IP-Paris）数据科学硕士课程的开源深度学习教程，包含完整的讲座幻灯片和基于 Jupyter Notebook 的实验代码。课程涵盖从基础神经网络到 Transformer、目标检测及生成模型等前沿应用。\n\n## 环境准备\n\n本项目的实验代码（Labs）主要依赖 **Python** 生态，核心框架为 **TensorFlow** 和 **Keras**，部分进阶实验（如 Lab 8）涉及 **PyTorch**。\n\n*   **操作系统**：Linux, macOS 或 Windows (推荐 WSL2)\n*   **Python 版本**：建议 Python 3.8 - 3.10\n*   **硬件要求**：\n    *   基础实验：普通 CPU 即可运行。\n    *   进阶实验（如微调 CNN、字符级语言模型）：**强烈建议配备 NVIDIA GPU** 以加速训练。\n*   **前置依赖**：\n    *   Git\n    *   Jupyter Lab \u002F Notebook\n    *   TensorFlow & Keras\n    *   PyTorch (可选，用于特定实验)\n\n> **提示**：如果您不想在本地配置环境，可以直接点击项目首页的 [![Binder](https:\u002F\u002Fmybinder.org\u002Fbadge.svg)](https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fmaster) 按钮，在浏览器中免费启动云端交互式环境。\n\n## 安装步骤\n\n### 1. 克隆项目仓库\n\n首先将代码库下载到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs.git\ncd lectures-labs\n```\n\n### 2. 创建虚拟环境并安装依赖\n\n建议使用 `conda` 或 `venv` 创建隔离环境。以下以 `conda` 为例（国内用户可使用清华源加速）：\n\n```bash\n# 创建名为 dl-course 的环境，指定 Python 版本\nconda create -n dl-course python=3.9 -y\nconda activate dl-course\n\n# 【可选】配置清华镜像源加速下载\nconda config --add channels https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装核心依赖\n# 注意：具体包版本请参考仓库根目录下的 requirements.txt 或 installation_instructions.md\npip install tensorflow keras jupyterlab matplotlib scikit-learn pandas numpy\n\n# 如果需要运行 Lab 8 (PyTorch 相关)，请额外安装：\npip install torch torchvision torchaudio\n```\n\n> **重要说明**：请务必查阅仓库中的 [`installation_instructions.md`](https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fblob\u002Fmaster\u002Finstallation_instructions.md) 文件，以获取最新且最准确的依赖版本列表，因为深度学习库更新频繁。\n\n### 3. 启动 Jupyter Lab\n\n安装完成后，在项目根目录启动服务：\n\n```bash\njupyter lab\n```\n\n浏览器会自动打开界面，您可以导航至 `labs\u002F` 文件夹开始实验。\n\n## 基本使用\n\n本项目分为“讲座幻灯片”和“实验笔记”两部分。\n\n### 1. 浏览讲座幻灯片\n所有幻灯片已渲染为 HTML 格式。您可以直接在浏览器中打开 `slides\u002F` 目录下的对应章节。\n*   **技巧**：在幻灯片页面按下键盘上的 **`P`** 键，可显示演讲者备注（包含额外评论和参考文献）。\n\n### 2. 运行第一个实验 (Lab 1)\n\n进入 `labs\u002F01_keras\u002F` 目录，打开 `Intro Keras.ipynb`。这是一个最简单的入门示例，演示如何使用 Keras 构建多层感知机 (MLP)。\n\n**代码示例片段（在 Notebook 单元格中运行）：**\n\n```python\nimport tensorflow as tf\nfrom tensorflow import keras\nimport numpy as np\n\n# 加载 MNIST 数据集\n(x_train, y_train), (x_test, y_test) = keras.datasets.mnist.load_data()\n\n# 数据预处理\nx_train = x_train.astype(\"float32\") \u002F 255.0\nx_test = x_test.astype(\"float32\") \u002F 255.0\nx_train = x_train.reshape(-1, 28 * 28)\nx_test = x_test.reshape(-1, 28 * 28)\n\n# 构建简单的 MLP 模型\nmodel = keras.Sequential([\n    keras.layers.Dense(64, activation=\"relu\", input_shape=(784,)),\n    keras.layers.Dropout(0.2),\n    keras.layers.Dense(10, activation=\"softmax\")\n])\n\n# 编译模型\nmodel.compile(\n    optimizer=\"adam\",\n    loss=\"sparse_categorical_crossentropy\",\n    metrics=[\"accuracy\"]\n)\n\n# 训练模型\nmodel.fit(x_train, y_train, batch_size=32, epochs=5, validation_split=0.1)\n```\n\n### 3. 探索其他主题\n按照目录结构依次学习：\n*   **Lab 2**: 使用 Numpy 手动实现反向传播，深入理解原理。\n*   **Lab 4**: 卷积神经网络 (CNN) 与图像分类（含预训练模型微调）。\n*   **Lab 6**: 自然语言处理 (NLP)，包含 Word Embeddings 和 BERT 微调。\n*   **Lab 10**: 无监督学习与变分自编码器 (VAE)。\n\n所有实验笔记均提供了解决方案（Rendered 模式），方便对照学习。","某高校数据科学硕士班的研究生正在准备深度学习课程的期末项目，需要快速掌握从反向传播推导到推荐系统实战的全套技能。\n\n### 没有 lectures-labs 时\n- 理论课件与代码实验严重脱节，学生看完幻灯片后仍需花费数小时寻找匹配的 TensorFlow\u002FKeras 示例代码。\n- 缺乏系统的进阶路径，从基础的 MLP 到复杂的序列模型（Sequence to Sequence），学习者容易在碎片化的网络资源中迷失方向。\n- 环境配置门槛高，缺少统一的安装指引，导致大量时间浪费在解决版本冲突和依赖报错上，而非算法本身。\n- 难以深入理解底层原理，如反向传播的数学推导，往往只能死记硬背公式而无法通过 NumPy 手动实现来验证。\n\n### 使用 lectures-labs 后\n- 课程幻灯片与 Jupyter Notebook 实验室笔记一一对应，学生可点击链接直接在 Binder 中运行包含预训练 RetinaNet 或神经推荐系统的完整案例。\n- 提供从入门到生成式模型的十大模块结构化内容，涵盖图像分割、NLP 及不平衡分类等前沿应用，学习路径清晰连贯。\n- 内置详细的安装说明和云端运行入口，一键即可启动基于 Keras 和 TensorFlow 的实验环境，彻底消除配置障碍。\n- 通过“用 NumPy 手写反向传播”等专项练习，将抽象数学公式转化为可执行代码，真正吃透神经网络的核心机制。\n\nlectures-labs 通过将顶尖学府的理论讲义与工业级实战代码深度融合，让深度学习的学习过程从“纸上谈兵”转变为“即学即用”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fm2dsupsdlclass_lectures-labs_466bb04f.png","m2dsupsdlclass","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fm2dsupsdlclass_6e7e9eae.png","Master Datascience Université Paris Saclay Deep Learning",null,"https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass",[78,82,86,90,94],{"name":79,"color":80,"percentage":81},"Jupyter Notebook","#DA5B0B",98.2,{"name":83,"color":84,"percentage":85},"HTML","#e34c26",0.7,{"name":87,"color":88,"percentage":89},"Python","#3572A5",0.6,{"name":91,"color":92,"percentage":93},"CSS","#663399",0.5,{"name":95,"color":96,"percentage":97},"SCSS","#c6538c",0,1465,662,"2026-04-09T18:49:19","MIT","未说明","部分实验必需（如微调预训练 CNN、字符级语言模型），具体型号和显存大小未说明，需支持 TensorFlow\u002FKeras 的 GPU 环境",{"notes":105,"python":102,"dependencies":106},"该工具为深度学习课程讲义与实验笔记本。大部分实验基于 Keras 和 TensorFlow，部分实验（Lab 8-10）使用 PyTorch。README 明确指出需参考仓库中的 'installation_instructions.md' 文件获取详细的安装指南。部分特定实验（如微调深度 CNN、字符级语言模型）明确标注需要 GPU。可通过 MyBinder 在线运行部分内容。",[107,108,109,110],"tensorflow","keras","numpy","torch",[14],[113,114,115,116,117,118],"deep-learning","neural-network","jupyter-notebook","slide","python","lecture","2026-03-27T02:49:30.150509","2026-04-13T00:23:27.540139",[122,127,132],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},31159,"为什么在最新版本的 Keras\u002FTensorFlow 中 'Sequential' 对象没有 'predict_classes' 属性？","该函数已在 TensorFlow 2.6 版本中被移除。如果代码中出现此错误，请检查并更新代码以使用新的预测方法（通常直接使用 model.predict() 然后处理输出），或者确认您使用的教程代码是否已针对新版本进行了修复。","https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fissues\u002F32",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},31160,"在使用自定义 SoftmaxMap 层进行全卷积网络训练时，遇到标签格式不匹配的问题如何解决？","问题通常源于训练阶段使用的标签格式不正确。当使用 flow_from_directory 进行数据增强时，它会自动生成 2D 标签，但全卷积网络（特别是涉及 SoftmaxMap 层时）通常需要 4D 标签。解决方法是修改数据生成流程，确保输出的标签维度与模型期望的 4D 格式一致。","https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fissues\u002F3",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},31161,"是否有该课程的视频录像可以观看？","很遗憾，该课程没有公开的录像资源可供分享。建议仅参考提供的讲义和实验室代码材料进行学习。","https:\u002F\u002Fgithub.com\u002Fm2dsupsdlclass\u002Flectures-labs\u002Fissues\u002F12",[138,143,148,153,158],{"id":139,"version":140,"summary_zh":141,"released_at":142},223065,"totallylookslike","第09实验室的数据集","2022-03-09T17:18:56",{"id":144,"version":145,"summary_zh":146,"released_at":147},223066,"0.4","用于第6次实验第一部分的预训练模型，该实验基于序列到序列模型实现法语数字短语的翻译。","2017-03-05T23:43:16",{"id":149,"version":150,"summary_zh":151,"released_at":152},223067,"0.3","摘自 Glove 6B：\n\n10万英文单词，维度 d=100\n","2017-02-25T19:51:09",{"id":154,"version":155,"summary_zh":156,"released_at":157},223068,"0.2","在表示预计算脚本中，对 `os.listdir` 的结果调用了 `sorted` 函数，以确保文件系统无关的确定性排序。","2017-02-24T20:09:01",{"id":159,"version":160,"summary_zh":161,"released_at":162},223069,"0.1","用于第04号实验的预计算表示\n\n`classif_and_loc.ipynb` 将加载此文件\n","2017-02-21T19:34:10"]