[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xiaohu2015--DeepLearning_tutorials":3,"tool-xiaohu2015--DeepLearning_tutorials":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,2,"2026-04-07T23:26:32",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":80,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":96,"env_deps":97,"category_tags":103,"github_topics":104,"view_count":32,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":114,"updated_at":115,"faqs":116,"releases":142},5281,"xiaohu2015\u002FDeepLearning_tutorials","DeepLearning_tutorials","The deeplearning algorithms implemented by tensorflow","DeepLearning_tutorials 是一个基于 TensorFlow 框架的深度学习算法教学与实现项目。它致力于将经典的深度学习理论转化为可运行的代码，帮助学习者跨越从数学公式到实际编程的鸿沟。\n\n该项目系统地实现了从基础的逻辑回归、多层感知机（MLP），到复杂的卷积神经网络（CNN）、去噪自编码器（DA\u002FSDA）、受限玻尔兹曼机（RBM）及深度信念网络（DBN）等核心算法。其独特亮点在于不仅涵盖了基础模型，还收录了 MobileNet、ResNet、DenseNet 等主流轻量级与深层网络架构，以及 YOLO 和 SSD 等目标检测算法的实现。项目初衷是复现著名的 Theano 版深度学习教程，为习惯使用 TensorFlow 的开发者提供同等质量的参考范例。\n\nDeepLearning_tutorials 非常适合人工智能领域的初学者、高校学生以及希望深入理解模型底层实现的开发者和研究人员。对于想要动手实践而非仅停留在理论层面的用户，这里提供了清晰的代码结构和环境指引（支持 Python 3.5 及早期 TensorFlow\u002FPyTorch 版本），是入门深度学习、复现经","DeepLearning_tutorials 是一个基于 TensorFlow 框架的深度学习算法教学与实现项目。它致力于将经典的深度学习理论转化为可运行的代码，帮助学习者跨越从数学公式到实际编程的鸿沟。\n\n该项目系统地实现了从基础的逻辑回归、多层感知机（MLP），到复杂的卷积神经网络（CNN）、去噪自编码器（DA\u002FSDA）、受限玻尔兹曼机（RBM）及深度信念网络（DBN）等核心算法。其独特亮点在于不仅涵盖了基础模型，还收录了 MobileNet、ResNet、DenseNet 等主流轻量级与深层网络架构，以及 YOLO 和 SSD 等目标检测算法的实现。项目初衷是复现著名的 Theano 版深度学习教程，为习惯使用 TensorFlow 的开发者提供同等质量的参考范例。\n\nDeepLearning_tutorials 非常适合人工智能领域的初学者、高校学生以及希望深入理解模型底层实现的开发者和研究人员。对于想要动手实践而非仅停留在理论层面的用户，这里提供了清晰的代码结构和环境指引（支持 Python 3.5 及早期 TensorFlow\u002FPyTorch 版本），是入门深度学习、复现经典论文模型的理想资源库。","# Deep Learning Tutorials with Tensorflow\nThe deeplearning algorithms are carefully implemented by [tensorflow](https:\u002F\u002Fwww.tensorflow.org\u002F).  \n### Environment\n- Python 3.5\n- tensorflow 1.4\n- pytorch 0.2.0\n\n### The deeplearning algorithms includes (now):\n- Logistic Regression  [logisticRegression.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002FlogisticRegression.py)\n- Multi-Layer Perceptron (MLP) [mlp.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Fmlp.py)\n- Convolution Neural Network (CNN) [cnn.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Fcnn.py)\n- Denoising Aotoencoder (DA) [da.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Fda.py)\n- Stacked Denoising Autoencoder (SDA) [sda.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Fsda.py)\n- Restricted Boltzmann Machine (RBM) [[rbm.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Frbm.py)    [gbrbm.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Fgbrbm.py)]\n- Deep Belief Network (DBN) [dbn.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Fdbn.py)\n\nNote: the project aims at imitating the well-implemented algorithms in [Deep Learning Tutorials](http:\u002F\u002Fwww.deeplearning.net\u002Ftutorial\u002F) (coded by [Theano](http:\u002F\u002Fdeeplearning.net\u002Fsoftware\u002Ftheano\u002Findex.html)).\n\n### CNN Models\n- MobileNet [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002FMobileNet.py) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.04861) [ref](https:\u002F\u002Fgithub.com\u002FZehaos\u002FMobileNet\u002Fblob\u002Fmaster\u002Fnets\u002Fmobilenet.py)]\n- MobileNetv2 [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002Fmobilenet_v2.py) [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1801.04381.pdf) [ref](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fslim\u002Fnets\u002Fmobilenet)]\n- SqueezeNet [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002FSqueezeNet.py) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1602.07360)]\n- ResNet [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002FResNet50.py) [caffe ref](https:\u002F\u002Fgithub.com\u002FKaimingHe\u002Fdeep-residual-networks) [paper1](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385) [paper2](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.05027)]\n- ShuffleNet [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002FShuffleNet.py) by pytorch [paper](http:\u002F\u002Fcn.arxiv.org\u002Fpdf\u002F1707.01083v2)]\n- ShuffleNetv2 [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002Fshufflenet_v2.py) [ref](https:\u002F\u002Fgithub.com\u002Ftensorpack\u002Ftensorpack\u002Fblob\u002Fmaster\u002Fexamples\u002FImageNetModels\u002Fshufflenet.py) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.11164)] \n- DenseNet [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002Fdensenet.py) [pytorch_ref](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fvision\u002Fblob\u002Fmaster\u002Ftorchvision\u002Fmodels\u002Fdensenet.py) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993)]\n\n### Object detection\n- YOLOv1 [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FObjectDetections\u002Fyolo\u002Fyolo_tf.py) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1506.02640) [ref](https:\u002F\u002Fgithub.com\u002Fgliese581gg\u002FYOLO_tensorflow)]\n- SSD [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FObjectDetections\u002FSSD\u002FSSD_demo.py) [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.10012.pdf) [slides](http:\u002F\u002Fwww.cs.unc.edu\u002F~wliu\u002Fpapers\u002Fssd_eccv2016_slide.pdf) [cafe](https:\u002F\u002Fgithub.com\u002Fweiliu89\u002Fcaffe\u002Ftree\u002Fssd) [TF](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.02325) [pytorch](https:\u002F\u002Fgithub.com\u002Famdegroot\u002Fssd.pytorch) ]\n- YOLOv2 [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002FObjectDetections\u002Fyolo2) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1612.08242) [ref](https:\u002F\u002Fgithub.com\u002Fyhcc\u002Fyolo2)]\n\n### Practical examples\nYou can find more practical examples with tensorflow here:\n- CNN for setence classification [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002Fexamples\u002Fcnn_setence_classification)] [[blog](http:\u002F\u002Fwww.wildml.com\u002F2015\u002F12\u002Fimplementing-a-cnn-for-text-classification-in-tensorflow\u002F)] [[paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1408.5882v2.pdf)]\n- RNN for language model [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002Fexamples\u002Frnn_language_model)] [[blog](http:\u002F\u002Fwww.wildml.com\u002F2015\u002F09\u002Frecurrent-neural-networks-tutorial-part-2-implementing-a-language-model-rnn-with-python-numpy-and-theano\u002F)] [[blog_cn](http:\u002F\u002Fblog.csdn.net\u002Fxiaohu2022\u002Farticle\u002Fdetails\u002F54578013)]\n- LSTM for language model (PTB data) [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002Fexamples\u002Flstm_model_ptb)] [[tutorial](https:\u002F\u002Fwww.tensorflow.org\u002Fversions\u002Fr0.12\u002Ftutorials\u002Frecurrent\u002Findex.html#recurrent-neural-networks)] [[paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.2329.pdf)]\n- VGG model for image classification (object recongnition) [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002Fexamples\u002FVGG)] [[source](https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftensorflow-vgg)]\n- Residual network for cifar10_dataset [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002Fexamples\u002FResnet)] [[source](https:\u002F\u002Fgithub.com\u002Fwenxinxu\u002Fresnet-in-tensorflow)] [[paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.05027v3.pdf)]\n- LSTM for time series prediction [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fexamples\u002Flstm_time_series_regression)] [[source](https:\u002F\u002Fgithub.com\u002FMorvanZhou\u002Ftutorials\u002Fblob\u002Fmaster\u002FtensorflowTUT\u002Ftf20_RNN2.2\u002Ffull_code.py)]\n- Generative adversarial network (GAN) [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fexamples\u002Fgan)]\n- Variational autoencoder (VAE) [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002Fexamples\u002FVAE)]\n\n### Results\n![1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_90a7ccba7f24.png)\n![2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_434b91610a19.png)\n![3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_293711d9e730.png)\n![4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_31c0a6350ce9.png)\n![5](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_abe2c53b9ada.png)\n\n### Fun Blogs\n- [Chatbots with Seq2Seq](http:\u002F\u002Fsuriyadeepan.github.io\u002F2016-06-28-easy-seq2seq\u002F)\n\n### Personal Notes\n- Tensorflow for RNNs [[tf_rnn.ipynb](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fnotes\u002Ftf_rnn.ipynb)]\n- Tensorflow for Autoencoder [[tf_autoencoder.ipynb](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fnotes\u002Ftf_autoencoder.ipynb)]\n\n### Other Tutorials\n- [ageron\u002Fhandson-ml\n](https:\u002F\u002Fgithub.com\u002Fageron\u002Fhandson-ml\u002F)\n- [Hvass-Labs\u002FTensorFlow-Tutorials\n](https:\u002F\u002Fgithub.com\u002FHvass-Labs\u002FTensorFlow-Tutorials)\n- [BinRoot\u002FTensorFlow-Book\n](https:\u002F\u002Fgithub.com\u002FBinRoot\u002FTensorFlow-Book)\n- [sjchoi86\u002Fdl_tutorials_10weeks\n](https:\u002F\u002Fgithub.com\u002Fsjchoi86\u002Fdl_tutorials_10weeks)\n\n#### Don't hesitate to star this project if it is helpful!\n### If you benefit from the tutorial, please make a small donation by WeChat sweep.\n![weichat](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_4ce0dbf56d4e.jpg)\n## 微信号：xiaoxiaohu1994\n## 欢迎关注微信公众号：机器学习算法全栈工程师(Jeemy110)\n![公众号](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_81fd540566d9.jpg)\n","# 使用 TensorFlow 的深度学习教程\n这些深度学习算法由 [tensorflow](https:\u002F\u002Fwww.tensorflow.org\u002F) 精心实现。  \n### 环境\n- Python 3.5\n- tensorflow 1.4\n- pytorch 0.2.0\n\n### 目前包含的深度学习算法有：\n- 逻辑回归  [logisticRegression.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002FlogisticRegression.py)\n- 多层感知机 (MLP) [mlp.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Fmlp.py)\n- 卷积神经网络 (CNN) [cnn.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Fcnn.py)\n- 去噪自编码器 (DA) [da.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Fda.py)\n- 堆叠去噪自编码器 (SDA) [sda.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Fsda.py)\n- 受限玻尔兹曼机 (RBM) [[rbm.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Frbm.py)    [gbrbm.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Fgbrbm.py)]\n- 深度信念网络 (DBN) [dbn.py](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fmodels\u002Fdbn.py)\n\n注意：该项目旨在模仿 [Deep Learning Tutorials](http:\u002F\u002Fwww.deeplearning.net\u002Ftutorial\u002F) 中实现良好的算法（由 [Theano](http:\u002F\u002Fdeeplearning.net\u002Fsoftware\u002Ftheano\u002Findex.html) 编写）。\n\n### CNN 模型\n- MobileNet [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002FMobileNet.py) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.04861) [ref](https:\u002F\u002Fgithub.com\u002FZehaos\u002FMobileNet\u002Fblob\u002Fmaster\u002Fnets\u002Fmobilenet.py)]\n- MobileNetv2 [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002Fmobilenet_v2.py) [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1801.04381.pdf) [ref](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fslim\u002Fnets\u002Fmobilenet)]\n- SqueezeNet [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002FSqueezeNet.py) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1602.07360)]\n- ResNet [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002FResNet50.py) [caffe ref](https:\u002F\u002Fgithub.com\u002FKaimingHe\u002Fdeep-residual-networks) [paper1](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385) [paper2](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.05027)]\n- ShuffleNet [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002FShuffleNet.py) 由 pytorch 实现 [paper](http:\u002F\u002Fcn.arxiv.org\u002Fpdf\u002F1707.01083v2)]\n- ShuffleNetv2 [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002Fshufflenet_v2.py) [ref](https:\u002F\u002Fgithub.com\u002Ftensorpack\u002Ftensorpack\u002Fblob\u002Fmaster\u002Fexamples\u002FImageNetModels\u002Fshufflenet.py) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.11164)] \n- DenseNet [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FCNNs\u002Fdensenet.py) [pytorch_ref](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fvision\u002Fblob\u002Fmaster\u002Ftorchvision\u002Fmodels\u002Fdensenet.py) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993)]\n\n### 目标检测\n- YOLOv1 [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FObjectDetections\u002Fyolo\u002Fyolo_tf.py) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1506.02640) [ref](https:\u002F\u002Fgithub.com\u002Fgliese581gg\u002FYOLO_tensorflow)]\n- SSD [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002FObjectDetections\u002FSSD\u002FSSD_demo.py) [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.10012.pdf) [slides](http:\u002F\u002Fwww.cs.unc.edu\u002F~wliu\u002Fpapers\u002Fssd_eccv2016_slide.pdf) [cafe](https:\u002F\u002Fgithub.com\u002Fweiliu89\u002Fcaffe\u002Ftree\u002Fssd) [TF](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.02325) [pytorch](https:\u002F\u002Fgithub.com\u002Famdegroot\u002Fssd.pytorch) ]\n- YOLOv2 [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002FObjectDetections\u002Fyolo2) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1612.08242) [ref](https:\u002F\u002Fgithub.com\u002Fyhcc\u002Fyolo2)]\n\n### 实用示例\n您可以在这里找到更多使用 tensorflow 的实用示例：\n- 用于句子分类的 CNN [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002Fexamples\u002Fcnn_setence_classification)] [[blog](http:\u002F\u002Fwww.wildml.com\u002F2015\u002F12\u002Fimplementing-a-cnn-for-text-classification-in-tensorflow\u002F)] [[paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1408.5882v2.pdf)]\n- 用于语言模型的 RNN [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002Fexamples\u002Frnn_language_model)] [[blog](http:\u002F\u002Fwww.wildml.com\u002F2015\u002F09\u002Frecurrent-neural-networks-tutorial-part-2-implementing-a-language-model-rnn-with-python-numpy-and-theano\u002F)] [[blog_cn](http:\u002F\u002Fblog.csdn.net\u002Fxiaohu2022\u002Farticle\u002Fdetails\u002F54578013)]\n- 用于语言模型（PTB 数据）的 LSTM [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002Fexamples\u002Flstm_model_ptb)] [[tutorial](https:\u002F\u002Fwww.tensorflow.org\u002Fversions\u002Fr0.12\u002Ftutorials\u002Frecurrent\u002Findex.html#recurrent-neural-networks)] [[paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.2329.pdf)]\n- 用于图像分类（物体识别）的 VGG 模型 [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002Fexamples\u002FVGG)] [[source](https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftensorflow-vgg)]\n- 用于 cifar10 数据集的残差网络 [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002Fexamples\u002FResnet)] [[source](https:\u002F\u002Fgithub.com\u002Fwenxinxu\u002Fresnet-in-tensorflow)] [[paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.05027v3.pdf)]\n- 用于时间序列预测的 LSTM [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fexamples\u002Flstm_time_series_regression)] [[source](https:\u002F\u002Fgithub.com\u002FMorvanZhou\u002Ftutorials\u002Fblob\u002Fmaster\u002FtensorflowTUT\u002Ftf20_RNN2.2\u002Ffull_code.py)]\n- 生成对抗网络 (GAN) [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fexamples\u002Fgan)]\n- 变分自编码器 (VAE) [[self](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Ftree\u002Fmaster\u002Fexamples\u002FVAE)]\n\n### 结果\n![1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_90a7ccba7f24.png)\n![2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_434b91610a19.png)\n![3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_293711d9e730.png)\n![4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_31c0a6350ce9.png)\n![5](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_abe2c53b9ada.png)\n\n### 有趣博客\n- [使用 Seq2Seq 的聊天机器人](http:\u002F\u002Fsuriyadeepan.github.io\u002F2016-06-28-easy-seq2seq\u002F)\n\n### 个人笔记\n- RNN 的 TensorFlow 实现 [[tf_rnn.ipynb](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fnotes\u002Ftf_rnn.ipynb)]\n- 自编码器的 TensorFlow 实现 [[tf_autoencoder.ipynb](https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fblob\u002Fmaster\u002Fnotes\u002Ftf_autoencoder.ipynb)]\n\n### 其他教程\n- [ageron\u002Fhandson-ml\n](https:\u002F\u002Fgithub.com\u002Fageron\u002Fhandson-ml\u002F)\n- [Hvass-Labs\u002FTensorFlow-Tutorials\n](https:\u002F\u002Fgithub.com\u002FHvass-Labs\u002FTensorFlow-Tutorials)\n- [BinRoot\u002FTensorFlow-Book\n](https:\u002F\u002Fgithub.com\u002FBinRoot\u002FTensorFlow-Book)\n- [sjchoi86\u002Fdl_tutorials_10weeks\n](https:\u002F\u002Fgithub.com\u002Fsjchoi86\u002Fdl_tutorials_10weeks)\n\n#### 如果本项目对您有帮助，请不要吝惜给它点个赞！\n### 如果您从本教程中受益，请通过微信扫码进行小额捐赠。\n![weichat](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_4ce0dbf56d4e.jpg)\n## 微信号：xiaoxiaohu1994\n## 欢迎关注微信公众号：机器学习算法全栈工程师(Jeemy110)\n![公众号](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_readme_81fd540566d9.jpg)","# DeepLearning_tutorials 快速上手指南\n\n本指南基于 TensorFlow 实现，涵盖了从基础逻辑回归到主流 CNN、目标检测及生成模型等多种深度学习算法。\n\n## 环境准备\n\n本项目主要基于 **TensorFlow 1.4** 构建，部分模型（如 ShuffleNet）依赖 **PyTorch 0.2.0**。请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux \u002F macOS \u002F Windows\n*   **Python 版本**: 3.5 (推荐 3.5.x，高版本可能存在兼容性问题)\n*   **核心依赖**:\n    *   `tensorflow` == 1.4\n    *   `pytorch` == 0.2.0 (可选，仅用于特定模型)\n    *   `numpy`, `scipy`, `matplotlib` 等科学计算库\n\n> **注意**：由于项目基于较旧的 TensorFlow 1.x 版本，建议创建独立的虚拟环境以避免依赖冲突。国内用户可使用清华源或阿里源加速安装。\n\n## 安装步骤\n\n### 1. 克隆项目\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials.git\ncd DeepLearning_tutorials\n```\n\n### 2. 创建虚拟环境并安装依赖\n推荐使用 `conda` 或 `venv` 管理环境。以下以 `pip` 配合国内镜像源为例：\n\n```bash\n# 创建 Python 3.5 环境 (如果使用 conda)\n# conda create -n dl_tutorial python=3.5\n# conda activate dl_tutorial\n\n# 安装 TensorFlow 1.4 (使用清华镜像加速)\npip install tensorflow==1.4 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装 PyTorch 0.2.0 (旧版本需指定来源，若无需可跳过)\n# 注意：pytorch 0.2.0 较老，可能需要从历史版本源安装或使用 conda\npip install torch==0.2.0.post3 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装其他通用依赖\npip install numpy scipy matplotlib pillow -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n项目结构清晰，核心算法位于 `models\u002F` 目录，经典网络架构位于 `CNNs\u002F` 和 `ObjectDetections\u002F` 目录，实用案例位于 `examples\u002F` 目录。\n\n### 1. 运行基础算法示例\n以多层感知机 (MLP) 为例，直接进入对应脚本运行（需确保当前目录下有对应的数据集，通常代码内会自动下载 MNIST 等标准数据集）：\n\n```bash\ncd models\npython mlp.py\n```\n\n其他基础模型同理：\n*   逻辑回归: `python logisticRegression.py`\n*   卷积神经网络: `python cnn.py`\n*   去噪自编码器: `python da.py`\n\n### 2. 运行经典 CNN 模型\n在 `CNNs` 目录下提供了 MobileNet, ResNet, DenseNet 等现代架构的实现。\n\n```bash\ncd ..\u002FCNNs\n# 运行 ResNet50 示例\npython ResNet50.py\n```\n\n### 3. 运行实用案例 (Practical Examples)\n项目包含文本分类、语言模型、时间序列预测等完整案例。以 LSTM 时间序列预测为例：\n\n```bash\ncd ..\u002Fexamples\u002Flstm_time_series_regression\npython \u003C主脚本文件名> \n# 注：具体入口脚本请查看该目录下的 .py 文件，通常为包含 main 函数的文件\n```\n\n### 4. 查看笔记与教程\n项目 `notes\u002F` 目录下包含 Jupyter Notebook 格式的简明教程，适合交互式学习：\n*   RNN 教程: `notes\u002Ftf_rnn.ipynb`\n*   自编码器教程: `notes\u002Ftf_autoencoder.ipynb`\n\n您可以使用 Jupyter Notebook 打开查看：\n```bash\njupyter notebook notes\u002Ftf_rnn.ipynb\n```","某初创公司的算法工程师团队正致力于开发一款基于移动端的工业零件缺陷检测系统，需要在资源受限的设备上快速验证多种轻量级卷积神经网络模型。\n\n### 没有 DeepLearning_tutorials 时\n- **重复造轮子耗时严重**：团队成员需从零编写 MobileNet、ShuffleNet 等经典模型的底层 TensorFlow 代码，极易因细节疏忽导致模型无法收敛。\n- **复现论文门槛高**：面对 YOLOv2 或 DenseNet 等复杂架构，开发者需花费大量时间研读原始论文并对照官方晦涩的参考实现进行调试。\n- **环境配置混乱**：缺乏统一的标准实现模板，不同成员使用的 TensorFlow 版本和数据结构不一致，导致代码合并时冲突频发。\n- **基线对比困难**：由于缺乏标准化的逻辑回归、MLP 等基础算法作为参照，难以科学评估新提出的改进策略是否真正有效。\n\n### 使用 DeepLearning_tutorials 后\n- **即插即用加速开发**：直接调用项目中已精心实现的 MobileNetv2 和 SqueezeNet 代码，将模型搭建时间从数天缩短至几小时。\n- **清晰的学习路径**：依托对 Theano 经典教程的高质量 TensorFlow 复刻，团队成员能迅速理解 RBM、DBN 等深奥算法的核心逻辑与代码映射。\n- **统一的技术底座**：基于项目提供的标准环境配置（Python 3.5 + TF 1.4）和规范化代码结构，确保了团队协作的高效性与一致性。\n- **便捷的实验迭代**：利用内置的 CNN 文本分类及目标检测（SSD\u002FYOLO）示例作为强力基线，快速定位性能瓶颈并优化自定义模型。\n\nDeepLearning_tutorials 通过提供高质量、全覆盖的深度学习算法实现，将研发团队从繁琐的底层编码中解放出来，使其能专注于核心业务逻辑的创新与落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaohu2015_DeepLearning_tutorials_22fbba14.png","xiaohu2015","Hu Ye","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxiaohu2015_66609247.jpg","Make your hands dirty！","HUST","China","xiaohuzc@gmail.com",null,"https:\u002F\u002Fgithub.com\u002Fxiaohu2015",[83,87],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",82.2,{"name":88,"color":89,"percentage":90},"Python","#3572A5",17.8,1839,766,"2026-04-02T08:34:44",4,"","未说明",{"notes":98,"python":99,"dependencies":100},"该项目主要基于较旧的 TensorFlow 1.4 和 PyTorch 0.2.0 版本，旨在复现经典的深度学习算法（如逻辑回归、MLP、CNN、RBM 等）及经典网络模型（如 MobileNet, ResNet, YOLOv1\u002Fv2 等）。由于依赖库版本非常陈旧，在现代环境中直接运行可能会遇到严重的兼容性问题，建议搭建独立的旧版环境或使用容器技术运行。","3.5",[101,102],"tensorflow==1.4","pytorch==0.2.0",[14],[105,106,107,108,109,110,111,112,113],"tensorflow","deep-learning-algorithms","cnn","dbn","deep-learning-tutorial","lstm","sda","mlp","rbm","2026-03-27T02:49:30.150509","2026-04-08T09:14:27.031843",[117,122,127,132,137],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},23932,"在哪里可以找到 ShuffleNetV2 的训练文件？","该项目未提供 ShuffleNetV2 的原始训练代码。维护者说明，现有的训练权重是从其他实现转换而来的，因此无法提供对应的训练文件。","https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fissues\u002F12",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},23933,"为什么代码中看不到用于训练的损失函数？","部分模型并未包含完整的训练代码，因此在项目中找不到对应的损失函数定义。这些模型主要提供推理或预训练权重的使用示例。","https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fissues\u002F5",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},23934,"如何修改模型使其只检测并输出单一目标（例如只画车的框）？","不需要重新训练或修改模型结构导致维度错误。只需修改绘图部分的代码，屏蔽掉除目标类别（如“车”）以外的其他类别即可实现单目标输出。","https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fissues\u002F4",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},23935,"GBRBM 预训练对连续数据的效果不明显，是否有相关建议？","维护者指出，深度信念网络（DBN）及其预训练技术近年来已缺乏相关研究支持，其优势在当前深度学习环境下已不再显著，因此预训练效果可能与直接训练无异。","https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fissues\u002F2",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},23936,"项目是否实现了高斯 - 伯努利受限玻尔兹曼机（GBRBM）？如何实现可见单元为高斯分布的 RBM？","当前项目主要实现了二值 RBM。若需实现可见单元为高斯分布的 GBRBM，可以参考 Yusugomori 的 DeepLearning 项目代码进行修改：https:\u002F\u002Fgithub.com\u002Fyusugomori\u002FDeepLearning","https:\u002F\u002Fgithub.com\u002Fxiaohu2015\u002FDeepLearning_tutorials\u002Fissues\u002F1",[]]