[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-terryum--awesome-deep-learning-papers":3,"tool-terryum--awesome-deep-learning-papers":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",156033,2,"2026-04-14T23:32:00",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":95,"env_os":96,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":101,"github_topics":102,"view_count":32,"oss_zip_url":94,"oss_zip_packed_at":94,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":139},7672,"terryum\u002Fawesome-deep-learning-papers","awesome-deep-learning-papers","The most cited deep learning papers","awesome-deep-learning-papers 是一份精心整理的深度学习经典论文清单，主要收录了 2012 年至 2016 年间引用率最高的前 100 篇核心文献。在深度学习领域论文数量呈爆炸式增长的背景下，初学者和研究者往往面临信息过载、难以筛选高质量资料的困境。这份列表通过严格的引用量标准和学术影响力评估，去芜存菁，帮助用户快速锁定那些跨越具体应用领域、具有里程碑意义的“必读”奠基之作。\n\n该资源特别适合人工智能领域的研究人员、学生以及希望系统构建知识体系的开发者使用。其独特之处在于不仅提供静态列表，还建立了动态维护机制：严格限定核心榜单为 100 篇，新增论文时需替换旧作，确保清单始终代表最精华的内容；同时设有“超过前 100 篇”及新旧论文分区，兼顾了广度与深度。此外，项目还提供了便捷的脚本工具，支持用户一键下载全部论文原文、提取作者信息或获取参考文献格式文件，极大地提升了文献调研的效率。尽管官方已停止对列表进行日常更新以应对海量新发论文，但它依然是回顾深度学习早期发展历程、理解核心技术演进的最佳入门指南。","# Awesome - Most Cited Deep Learning Papers\n\n[![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fsindresorhus\u002Fawesome)\n\n[Notice] This list is not being maintained anymore because of the overwhelming amount of deep learning papers published every day since 2017.\n\nA curated list of the most cited deep learning papers (2012-2016)\n\nWe believe that there exist *classic* deep learning papers which are worth reading regardless of their application domain. Rather than providing overwhelming amount of papers, We would like to provide a *curated list* of the awesome deep learning papers which are considered as *must-reads* in certain research domains.\n\n## Background\n\nBefore this list, there exist other *awesome deep learning lists*, for example, [Deep Vision](https:\u002F\u002Fgithub.com\u002Fkjw0612\u002Fawesome-deep-vision) and [Awesome Recurrent Neural Networks](https:\u002F\u002Fgithub.com\u002Fkjw0612\u002Fawesome-rnn). Also, after this list comes out, another awesome list for deep learning beginners, called [Deep Learning Papers Reading Roadmap](https:\u002F\u002Fgithub.com\u002Fsongrotek\u002FDeep-Learning-Papers-Reading-Roadmap), has been created and loved by many deep learning researchers.\n\nAlthough the *Roadmap List* includes lots of important deep learning papers, it feels overwhelming for me to read them all. As I mentioned in the introduction, I believe that seminal works can give us lessons regardless of their application domain. Thus, I would like to introduce **top 100 deep learning papers** here as a good starting point of overviewing deep learning researches.\n\nTo get the news for newly released papers everyday, follow my [twitter](https:\u002F\u002Ftwitter.com\u002FTerryUm_ML) or [facebook page](https:\u002F\u002Fwww.facebook.com\u002Fterryum.io\u002F)! \n\n## Awesome list criteria\n\n1. A list of **top 100 deep learning papers** published from 2012 to 2016 is suggested.\n2. If a paper is added to the list, another paper (usually from *More Papers from 2016\" section) should be removed to keep top 100 papers. (Thus, removing papers is also important contributions as well as adding papers)\n3. Papers that are important, but failed to be included in the list, will be listed in *More than Top 100* section.\n4. Please refer to *New Papers* and *Old Papers* sections for the papers published in recent 6 months or before 2012.\n\n*(Citation criteria)*\n- **\u003C 6 months** : *New Papers* (by discussion)\n- **2016** :  +60 citations or \"More Papers from 2016\"\n- **2015** :  +200 citations\n- **2014** :  +400 citations\n- **2013** :  +600 citations\n- **2012** :  +800 citations\n- **~2012** : *Old Papers* (by discussion)\n\nPlease note that we prefer seminal deep learning papers that can be applied to various researches rather than application papers. For that reason, some papers that meet the criteria may not be accepted while others can be. It depends on the impact of the paper, applicability to other researches scarcity of the research domain, and so on.\n\n**We need your contributions!**\n\nIf you have any suggestions (missing papers, new papers, key researchers or typos), please feel free to edit and pull a request.\n(Please read the [contributing guide](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fblob\u002Fmaster\u002FContributing.md) for further instructions, though just letting me know the title of papers can also be a big contribution to us.)\n\n(Update) You can download all top-100 papers with [this](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fblob\u002Fmaster\u002Ffetch_papers.py) and collect all authors' names with [this](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fblob\u002Fmaster\u002Fget_authors.py). Also, [bib file](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fblob\u002Fmaster\u002Ftop100papers.bib) for all top-100 papers are available. Thanks, doodhwala, [Sven](https:\u002F\u002Fgithub.com\u002Fsunshinemyson) and [grepinsight](https:\u002F\u002Fgithub.com\u002Fgrepinsight)!\n\n+ Can anyone contribute the code for obtaining the statistics of the authors of Top-100 papers?\n\n\n## Contents\n\n* [Understanding \u002F Generalization \u002F Transfer](#understanding--generalization--transfer)\n* [Optimization \u002F Training Techniques](#optimization--training-techniques)\n* [Unsupervised \u002F Generative Models](#unsupervised--generative-models)\n* [Convolutional Network Models](#convolutional-neural-network-models)\n* [Image Segmentation \u002F Object Detection](#image-segmentation--object-detection)\n* [Image \u002F Video \u002F Etc](#image--video--etc)\n* [Natural Language Processing \u002F RNNs](#natural-language-processing--rnns)\n* [Speech \u002F Other Domain](#speech--other-domain)\n* [Reinforcement Learning \u002F Robotics](#reinforcement-learning--robotics)\n* [More Papers from 2016](#more-papers-from-2016)\n\n*(More than Top 100)*\n\n* [New Papers](#new-papers) : Less than 6 months\n* [Old Papers](#old-papers) : Before 2012\n* [HW \u002F SW \u002F Dataset](#hw--sw--dataset) : Technical reports\n* [Book \u002F Survey \u002F Review](#book--survey--review)\n* [Video Lectures \u002F Tutorials \u002F Blogs](#video-lectures--tutorials--blogs)\n* [Appendix: More than Top 100](#appendix-more-than-top-100) : More papers not in the list\n\n* * *\n\n### Understanding \u002F Generalization \u002F Transfer\n- **Distilling the knowledge in a neural network** (2015), G. Hinton et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1503.02531)\n- **Deep neural networks are easily fooled: High confidence predictions for unrecognizable images** (2015), A. Nguyen et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.1897)\n- **How transferable are features in deep neural networks?** (2014), J. Yosinski et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5347-how-transferable-are-features-in-deep-neural-networks.pdf)\n- **CNN features off-the-Shelf: An astounding baseline for recognition** (2014), A. Razavian et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002F\u002Fopenaccess\u002Fcontent_cvpr_workshops_2014\u002FW15\u002Fpapers\u002FRazavian_CNN_Features_Off-the-Shelf_2014_CVPR_paper.pdf)\n- **Learning and transferring mid-Level image representations using convolutional neural networks** (2014), M. Oquab et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2014\u002Fpapers\u002FOquab_Learning_and_Transferring_2014_CVPR_paper.pdf)\n- **Visualizing and understanding convolutional networks** (2014), M. Zeiler and R. Fergus [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1311.2901)\n- **Decaf: A deep convolutional activation feature for generic visual recognition** (2014), J. Donahue et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1310.1531)\n\n\u003C!---[Key researchers]  [Geoffrey Hinton](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=JicYPdAAAAAJ), [Yoshua Bengio](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=kukA0LcAAAAJ), [Jason Yosinski](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=gxL1qj8AAAAJ) -->\n\n### Optimization \u002F Training Techniques\n- **Training very deep networks** (2015), R. Srivastava et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5850-training-very-deep-networks.pdf)\n- **Batch normalization: Accelerating deep network training by reducing internal covariate shift** (2015), S. Loffe and C. Szegedy [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1502.03167)\n- **Delving deep into rectifiers: Surpassing human-level performance on imagenet classification** (2015), K. He et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FHe_Delving_Deep_into_ICCV_2015_paper.pdf)\n- **Dropout: A simple way to prevent neural networks from overfitting** (2014), N. Srivastava et al. [[pdf]](http:\u002F\u002Fjmlr.org\u002Fpapers\u002Fvolume15\u002Fsrivastava14a\u002Fsrivastava14a.pdf)\n- **Adam: A method for stochastic optimization** (2014), D. Kingma and J. Ba [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.6980)\n- **Improving neural networks by preventing co-adaptation of feature detectors** (2012), G. Hinton et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1207.0580.pdf)\n- **Random search for hyper-parameter optimization** (2012) J. Bergstra and Y. Bengio [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fpapers\u002Fvolume13\u002Fbergstra12a\u002Fbergstra12a)\n\n\u003C!---[Key researchers] [Geoffrey Hinton](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=JicYPdAAAAAJ), [Yoshua Bengio](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=kukA0LcAAAAJ), [Christian Szegedy](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=3QeF7mAAAAAJ), [Sergey Ioffe](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=S5zOyIkAAAAJ), [Kaming He](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=DhtAFkwAAAAJ), [Diederik P. Kingma](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=yyIoQu4AAAAJ)-->\n\n### Unsupervised \u002F Generative Models\n- **Pixel recurrent neural networks** (2016), A. Oord et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1601.06759v2.pdf)\n- **Improved techniques for training GANs** (2016), T. Salimans et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F6125-improved-techniques-for-training-gans.pdf)\n- **Unsupervised representation learning with deep convolutional generative adversarial networks** (2015), A. Radford et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1511.06434v2)\n- **DRAW: A recurrent neural network for image generation** (2015), K. Gregor et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1502.04623)\n- **Generative adversarial nets** (2014), I. Goodfellow et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5423-generative-adversarial-nets.pdf)\n- **Auto-encoding variational Bayes** (2013), D. Kingma and M. Welling [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1312.6114)\n- **Building high-level features using large scale unsupervised learning** (2013), Q. Le et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1112.6209)\n\n\u003C!---[Key researchers] [Yoshua Bengio](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=kukA0LcAAAAJ), [Ian Goodfellow](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=iYN86KEAAAAJ), [Alex Graves](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=DaFHynwAAAAJ)-->\n### Convolutional Neural Network Models\n- **Rethinking the inception architecture for computer vision** (2016), C. Szegedy et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FSzegedy_Rethinking_the_Inception_CVPR_2016_paper.pdf)\n- **Inception-v4, inception-resnet and the impact of residual connections on learning** (2016), C. Szegedy et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.07261)\n- **Identity Mappings in Deep Residual Networks** (2016), K. He et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.05027v2.pdf)\n- **Deep residual learning for image recognition** (2016), K. He et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.03385)\n- **Spatial transformer network** (2015), M. Jaderberg et al., [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5854-spatial-transformer-networks.pdf)\n- **Going deeper with convolutions** (2015), C. Szegedy et al.  [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FSzegedy_Going_Deeper_With_2015_CVPR_paper.pdf)\n- **Very deep convolutional networks for large-scale image recognition** (2014), K. Simonyan and A. Zisserman [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.1556)\n- **Return of the devil in the details: delving deep into convolutional nets** (2014), K. Chatfield et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1405.3531)\n- **OverFeat: Integrated recognition, localization and detection using convolutional networks** (2013), P. Sermanet et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1312.6229)\n- **Maxout networks** (2013), I. Goodfellow et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1302.4389v4)\n- **Network in network** (2013), M. Lin et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1312.4400)\n- **ImageNet classification with deep convolutional neural networks** (2012), A. Krizhevsky et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf)\n\n\u003C!---[Key researchers]  [Christian Szegedy](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=3QeF7mAAAAAJ), [Kaming He](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=DhtAFkwAAAAJ), [Shaoqing Ren](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=AUhj438AAAAJ), [Jian Sun](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=ALVSZAYAAAAJ), [Geoffrey Hinton](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=JicYPdAAAAAJ), [Yoshua Bengio](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=kukA0LcAAAAJ), [Yann LeCun](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=WLN3QrAAAAAJ)-->\n\n### Image: Segmentation \u002F Object Detection\n- **You only look once: Unified, real-time object detection** (2016), J. Redmon et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FRedmon_You_Only_Look_CVPR_2016_paper.pdf)\n- **Fully convolutional networks for semantic segmentation** (2015), J. Long et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FLong_Fully_Convolutional_Networks_2015_CVPR_paper.pdf)\n- **Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks** (2015), S. Ren et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5638-faster-r-cnn-towards-real-time-object-detection-with-region-proposal-networks.pdf)\n- **Fast R-CNN** (2015), R. Girshick [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FGirshick_Fast_R-CNN_ICCV_2015_paper.pdf)\n- **Rich feature hierarchies for accurate object detection and semantic segmentation** (2014), R. Girshick et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2014\u002Fpapers\u002FGirshick_Rich_Feature_Hierarchies_2014_CVPR_paper.pdf)\n- **Spatial pyramid pooling in deep convolutional networks for visual recognition** (2014), K. He et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1406.4729)\n- **Semantic image segmentation with deep convolutional nets and fully connected CRFs**, L. Chen et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.7062)\n- **Learning hierarchical features for scene labeling** (2013), C. Farabet et al. [[pdf]](https:\u002F\u002Fhal-enpc.archives-ouvertes.fr\u002Fdocs\u002F00\u002F74\u002F20\u002F77\u002FPDF\u002Ffarabet-pami-13.pdf)\n\n\u003C!---[Key researchers]  [Ross Girshick](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=W8VIEZgAAAAJ), [Jeff Donahue](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=UfbuDH8AAAAJ), [Trevor Darrell](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=bh-uRFMAAAAJ)-->\n\n### Image \u002F Video \u002F Etc\n- **Image Super-Resolution Using Deep Convolutional Networks** (2016), C. Dong et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1501.00092v3.pdf)\n- **A neural algorithm of artistic style** (2015), L. Gatys et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1508.06576)\n- **Deep visual-semantic alignments for generating image descriptions** (2015), A. Karpathy and L. Fei-Fei [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FKarpathy_Deep_Visual-Semantic_Alignments_2015_CVPR_paper.pdf)\n- **Show, attend and tell: Neural image caption generation with visual attention** (2015), K. Xu et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1502.03044)\n- **Show and tell: A neural image caption generator** (2015), O. Vinyals et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FVinyals_Show_and_Tell_2015_CVPR_paper.pdf)\n- **Long-term recurrent convolutional networks for visual recognition and description** (2015), J. Donahue et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FDonahue_Long-Term_Recurrent_Convolutional_2015_CVPR_paper.pdf)\n- **VQA: Visual question answering** (2015), S. Antol et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FAntol_VQA_Visual_Question_ICCV_2015_paper.pdf)\n- **DeepFace: Closing the gap to human-level performance in face verification** (2014), Y. Taigman et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2014\u002Fpapers\u002FTaigman_DeepFace_Closing_the_2014_CVPR_paper.pdf):\n- **Large-scale video classification with convolutional neural networks** (2014), A. Karpathy et al. [[pdf]](http:\u002F\u002Fvision.stanford.edu\u002Fpdf\u002Fkarpathy14.pdf)\n- **Two-stream convolutional networks for action recognition in videos** (2014), K. Simonyan et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5353-two-stream-convolutional-networks-for-action-recognition-in-videos.pdf)\n- **3D convolutional neural networks for human action recognition** (2013), S. Ji et al. [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002Ficml2010_JiXYY10.pdf)\n\n\u003C!---[Key researchers]  [Oriol Vinyals](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=NkzyCvUAAAAJ), [Andrej Karpathy](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=l8WuQJgAAAAJ)-->\n\n\u003C!---[Key researchers]  [Alex Graves](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=DaFHynwAAAAJ)-->\n\n### Natural Language Processing \u002F RNNs\n- **Neural Architectures for Named Entity Recognition** (2016), G. Lample et al. [[pdf]](http:\u002F\u002Faclweb.org\u002Fanthology\u002FN\u002FN16\u002FN16-1030.pdf)\n- **Exploring the limits of language modeling** (2016), R. Jozefowicz et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.02410)\n- **Teaching machines to read and comprehend** (2015), K. Hermann et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5945-teaching-machines-to-read-and-comprehend.pdf)\n- **Effective approaches to attention-based neural machine translation** (2015), M. Luong et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1508.04025)\n- **Conditional random fields as recurrent neural networks** (2015), S. Zheng and S. Jayasumana. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FZheng_Conditional_Random_Fields_ICCV_2015_paper.pdf)\n- **Memory networks** (2014), J. Weston et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1410.3916)\n- **Neural turing machines** (2014), A. Graves et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1410.5401)\n- **Neural machine translation by jointly learning to align and translate** (2014), D. Bahdanau et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.0473)\n- **Sequence to sequence learning with neural networks** (2014), I. Sutskever et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5346-sequence-to-sequence-learning-with-neural-networks.pdf)\n- **Learning phrase representations using RNN encoder-decoder for statistical machine translation** (2014), K. Cho et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1406.1078)\n- **A convolutional neural network for modeling sentences** (2014), N. Kalchbrenner et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1404.2188v1)\n- **Convolutional neural networks for sentence classification** (2014), Y. Kim [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1408.5882)\n- **Glove: Global vectors for word representation** (2014), J. Pennington et al. [[pdf]](http:\u002F\u002Fanthology.aclweb.org\u002FD\u002FD14\u002FD14-1162.pdf)\n- **Distributed representations of sentences and documents** (2014), Q. Le and T. Mikolov [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1405.4053)\n- **Distributed representations of words and phrases and their compositionality** (2013), T. Mikolov et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf)\n- **Efficient estimation of word representations in vector space** (2013), T. Mikolov et al.  [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1301.3781)\n- **Recursive deep models for semantic compositionality over a sentiment treebank** (2013), R. Socher et al. [[pdf]](http:\u002F\u002Fciteseerx.ist.psu.edu\u002Fviewdoc\u002Fdownload?doi=10.1.1.383.1327&rep=rep1&type=pdf)\n- **Generating sequences with recurrent neural networks** (2013), A. Graves. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1308.0850)\n\n\u003C!---[Key researchers]  [Kyunghyun Cho](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=0RAmmIAAAAAJ), [Oriol Vinyals](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=NkzyCvUAAAAJ), [Richard Socher](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=FaOcyfMAAAAJ), [Tomas Mikolov](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=oBu8kMMAAAAJ), [Christopher D. Manning](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=1zmDOdwAAAAJ), [Yoshua Bengio](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=kukA0LcAAAAJ)-->\n\n### Speech \u002F Other Domain\n- **End-to-end attention-based large vocabulary speech recognition** (2016), D. Bahdanau et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1508.04395)\n- **Deep speech 2: End-to-end speech recognition in English and Mandarin** (2015), D. Amodei et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.02595)\n- **Speech recognition with deep recurrent neural networks** (2013), A. Graves [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1303.5778.pdf)\n- **Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups** (2012), G. Hinton et al. [[pdf]](http:\u002F\u002Fwww.cs.toronto.edu\u002F~asamir\u002Fpapers\u002FSPM_DNN_12.pdf)\n- **Context-dependent pre-trained deep neural networks for large-vocabulary speech recognition** (2012) G. Dahl et al. [[pdf]](http:\u002F\u002Fciteseerx.ist.psu.edu\u002Fviewdoc\u002Fdownload?doi=10.1.1.337.7548&rep=rep1&type=pdf)\n- **Acoustic modeling using deep belief networks** (2012), A. Mohamed et al. [[pdf]](http:\u002F\u002Fwww.cs.toronto.edu\u002F~asamir\u002Fpapers\u002FspeechDBN_jrnl.pdf)\n\n\u003C!---[Key researchers]  [Alex Graves](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=DaFHynwAAAAJ), [Geoffrey Hinton](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=JicYPdAAAAAJ), [Dong Yu](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=tMY31_gAAAAJ)-->\n\n### Reinforcement Learning \u002F Robotics\n- **End-to-end training of deep visuomotor policies** (2016), S. Levine et al. [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fpapers\u002Fvolume17\u002F15-522\u002Fsource\u002F15-522.pdf)\n- **Learning Hand-Eye Coordination for Robotic Grasping with Deep Learning and Large-Scale Data Collection** (2016), S. Levine et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.02199)\n- **Asynchronous methods for deep reinforcement learning** (2016), V. Mnih et al. [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv48\u002Fmniha16.pdf)\n- **Deep Reinforcement Learning with Double Q-Learning** (2016), H. Hasselt et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1509.06461.pdf )\n- **Mastering the game of Go with deep neural networks and tree search** (2016), D. Silver et al. [[pdf]](http:\u002F\u002Fwww.nature.com\u002Fnature\u002Fjournal\u002Fv529\u002Fn7587\u002Ffull\u002Fnature16961.html)\n- **Continuous control with deep reinforcement learning** (2015), T. Lillicrap et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1509.02971)\n- **Human-level control through deep reinforcement learning** (2015), V. Mnih et al. [[pdf]](http:\u002F\u002Fwww.davidqiu.com:8888\u002Fresearch\u002Fnature14236.pdf)\n- **Deep learning for detecting robotic grasps** (2015), I. Lenz et al. [[pdf]](http:\u002F\u002Fwww.cs.cornell.edu\u002F~asaxena\u002Fpapers\u002Flenz_lee_saxena_deep_learning_grasping_ijrr2014.pdf)\n- **Playing atari with deep reinforcement learning** (2013), V. Mnih et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1312.5602.pdf))\n\n\u003C!---[Key researchers]  [Sergey Levine](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=8R35rCwAAAAJ), [Volodymyr Mnih](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=rLdfJ1gAAAAJ), [David Silver](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=-8DNE4UAAAAJ)-->\n\n### More Papers from 2016\n- **Layer Normalization** (2016), J. Ba et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1607.06450v1.pdf)\n- **Learning to learn by gradient descent by gradient descent** (2016), M. Andrychowicz et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.04474v1)\n- **Domain-adversarial training of neural networks** (2016), Y. Ganin et al. [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fpapers\u002Fvolume17\u002F15-239\u002Fsource\u002F15-239.pdf)\n- **WaveNet: A Generative Model for Raw Audio** (2016), A. Oord et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1609.03499v2) [[web]](https:\u002F\u002Fdeepmind.com\u002Fblog\u002Fwavenet-generative-model-raw-audio\u002F)\n- **Colorful image colorization** (2016), R. Zhang et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.08511)\n- **Generative visual manipulation on the natural image manifold** (2016), J. Zhu et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1609.03552)\n- **Texture networks: Feed-forward synthesis of textures and stylized images** (2016), D Ulyanov et al. [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv48\u002Fulyanov16.pdf)\n- **SSD: Single shot multibox detector** (2016), W. Liu et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.02325)\n- **SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and\u003C 1MB model size** (2016), F. Iandola et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.07360)\n- **Eie: Efficient inference engine on compressed deep neural network** (2016), S. Han et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.01528)\n- **Binarized neural networks: Training deep neural networks with weights and activations constrained to+ 1 or-1** (2016), M. Courbariaux et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.02830)\n- **Dynamic memory networks for visual and textual question answering** (2016), C. Xiong et al. [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv48\u002Fxiong16.pdf)\n- **Stacked attention networks for image question answering** (2016), Z. Yang et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FYang_Stacked_Attention_Networks_CVPR_2016_paper.pdf)\n- **Hybrid computing using a neural network with dynamic external memory** (2016), A. Graves et al. [[pdf]](https:\u002F\u002Fwww.gwern.net\u002Fdocs\u002F2016-graves.pdf)\n- **Google's neural machine translation system: Bridging the gap between human and machine translation** (2016), Y. Wu et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1609.08144)\n\n* * *\n\n\n### New papers\n*Newly published papers (\u003C 6 months) which are worth reading*\n- MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications (2017), Andrew G. Howard et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1704.04861.pdf)\n- Convolutional Sequence to Sequence Learning (2017), Jonas Gehring et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1705.03122)\n- A Knowledge-Grounded Neural Conversation Model (2017), Marjan Ghazvininejad et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.01932)\n- Accurate, Large Minibatch SGD:Training ImageNet in 1 Hour (2017), Priya Goyal et al. [[pdf]](https:\u002F\u002Fresearch.fb.com\u002Fwp-content\u002Fuploads\u002F2017\u002F06\u002Fimagenet1kin1h3.pdf)\n- TACOTRON: Towards end-to-end speech synthesis (2017), Y. Wang et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.10135.pdf)\n- Deep Photo Style Transfer (2017), F. Luan et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.07511v1.pdf)\n- Evolution Strategies as a Scalable Alternative to Reinforcement Learning (2017), T. Salimans et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.03864v1.pdf)\n- Deformable Convolutional Networks (2017), J. Dai et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.06211v2.pdf)\n- Mask R-CNN (2017), K. He et al. [[pdf]](https:\u002F\u002F128.84.21.199\u002Fpdf\u002F1703.06870)\n- Learning to discover cross-domain relations with generative adversarial networks (2017), T. Kim et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.05192v1.pdf) \n- Deep voice: Real-time neural text-to-speech (2017), S. Arik et al., [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.07825v2.pdf)\n- PixelNet: Representation of the pixels, by the pixels, and for the pixels (2017), A. Bansal et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.06506v1.pdf)\n- Batch renormalization: Towards reducing minibatch dependence in batch-normalized models (2017), S. Ioffe. [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1702.03275)\n- Wasserstein GAN (2017), M. Arjovsky et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.07875v1)\n- Understanding deep learning requires rethinking generalization (2017), C. Zhang et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.03530)\n- Least squares generative adversarial networks (2016), X. Mao et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.04076v2)\n\n\n### Old Papers\n*Classic papers published before 2012*\n- An analysis of single-layer networks in unsupervised feature learning (2011), A. Coates et al. [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002FAISTATS2011_CoatesNL11.pdf)\n- Deep sparse rectifier neural networks (2011), X. Glorot et al. [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002FAISTATS2011_GlorotBB11.pdf)\n- Natural language processing (almost) from scratch (2011), R. Collobert et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1103.0398)\n- Recurrent neural network based language model (2010), T. Mikolov et al. [[pdf]](http:\u002F\u002Fwww.fit.vutbr.cz\u002Fresearch\u002Fgroups\u002Fspeech\u002Fservite\u002F2010\u002Frnnlm_mikolov.pdf)\n- Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion (2010), P. Vincent et al. [[pdf]](http:\u002F\u002Fciteseerx.ist.psu.edu\u002Fviewdoc\u002Fdownload?doi=10.1.1.297.3484&rep=rep1&type=pdf)\n- Learning mid-level features for recognition (2010), Y. Boureau [[pdf]](http:\u002F\u002Fece.duke.edu\u002F~lcarin\u002Fboureau-cvpr-10.pdf)\n- A practical guide to training restricted boltzmann machines (2010), G. Hinton [[pdf]](http:\u002F\u002Fwww.csri.utoronto.ca\u002F~hinton\u002Fabsps\u002FguideTR.pdf)\n- Understanding the difficulty of training deep feedforward neural networks (2010), X. Glorot and Y. Bengio [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002FAISTATS2010_GlorotB10.pdf)\n- Why does unsupervised pre-training help deep learning (2010), D. Erhan et al. [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002FAISTATS2010_ErhanCBV10.pdf)\n- Learning deep architectures for AI (2009), Y. Bengio. [[pdf]](http:\u002F\u002Fsanghv.com\u002Fdownload\u002Fsoft\u002Fmachine%20learning,%20artificial%20intelligence,%20mathematics%20ebooks\u002FML\u002Flearning%20deep%20architectures%20for%20AI%20(2009).pdf)\n- Convolutional deep belief networks for scalable unsupervised learning of hierarchical representations (2009), H. Lee et al. [[pdf]](http:\u002F\u002Fciteseerx.ist.psu.edu\u002Fviewdoc\u002Fdownload?doi=10.1.1.149.802&rep=rep1&type=pdf)\n- Greedy layer-wise training of deep networks (2007), Y. Bengio et al. [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002FNIPS2006_739.pdf)\n- Reducing the dimensionality of data with neural networks, G. Hinton and R. Salakhutdinov. [[pdf]](http:\u002F\u002Fhomes.mpimf-heidelberg.mpg.de\u002F~mhelmsta\u002Fpdf\u002F2006%20Hinton%20Salakhudtkinov%20Science.pdf)\n- A fast learning algorithm for deep belief nets (2006), G. Hinton et al. [[pdf]](http:\u002F\u002Fnuyoo.utm.mx\u002F~jjf\u002Frna\u002FA8%20A%20fast%20learning%20algorithm%20for%20deep%20belief%20nets.pdf)\n- Gradient-based learning applied to document recognition (1998), Y. LeCun et al. [[pdf]](http:\u002F\u002Fyann.lecun.com\u002Fexdb\u002Fpublis\u002Fpdf\u002Flecun-01a.pdf)\n- Long short-term memory (1997), S. Hochreiter and J. Schmidhuber. [[pdf]](http:\u002F\u002Fwww.mitpressjournals.org\u002Fdoi\u002Fpdfplus\u002F10.1162\u002Fneco.1997.9.8.1735)\n\n\n### HW \u002F SW \u002F Dataset\n-  SQuAD: 100,000+ Questions for Machine Comprehension of Text (2016), Rajpurkar et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.05250.pdf)\n- OpenAI gym (2016), G. Brockman et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.01540)\n- TensorFlow: Large-scale machine learning on heterogeneous distributed systems (2016), M. Abadi et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.04467)\n- Theano: A Python framework for fast computation of mathematical expressions, R. Al-Rfou et al.\n- Torch7: A matlab-like environment for machine learning, R. Collobert et al. [[pdf]](https:\u002F\u002Fronan.collobert.com\u002Fpub\u002Fmatos\u002F2011_torch7_nipsw.pdf)\n- MatConvNet: Convolutional neural networks for matlab (2015), A. Vedaldi and K. Lenc [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.4564)\n- Imagenet large scale visual recognition challenge (2015), O. Russakovsky et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.0575)\n- Caffe: Convolutional architecture for fast feature embedding (2014), Y. Jia et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1408.5093)\n\n\n### Book \u002F Survey \u002F Review\n- On the Origin of Deep Learning (2017), H. Wang and Bhiksha Raj. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.07800)\n- Deep Reinforcement Learning: An Overview (2017), Y. Li, [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.07274v2.pdf)\n- Neural Machine Translation and Sequence-to-sequence Models(2017): A Tutorial, G. Neubig. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.01619v1.pdf)\n- Neural Network and Deep Learning (Book, Jan 2017), Michael Nielsen. [[html]](http:\u002F\u002Fneuralnetworksanddeeplearning.com\u002Findex.html)\n- Deep learning (Book, 2016), Goodfellow et al. [[html]](http:\u002F\u002Fwww.deeplearningbook.org\u002F)\n- LSTM: A search space odyssey (2016), K. Greff et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1503.04069.pdf?utm_content=buffereddc5&utm_medium=social&utm_source=plus.google.com&utm_campaign=buffer)\n- Tutorial on Variational Autoencoders (2016), C. Doersch. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.05908)\n- Deep learning (2015), Y. LeCun, Y. Bengio and G. Hinton [[pdf]](https:\u002F\u002Fwww.cs.toronto.edu\u002F~hinton\u002Fabsps\u002FNatureDeepReview.pdf)\n- Deep learning in neural networks: An overview (2015), J. Schmidhuber [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1404.7828)\n- Representation learning: A review and new perspectives (2013), Y. Bengio et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1206.5538)\n\n### Video Lectures \u002F Tutorials \u002F Blogs\n\n*(Lectures)*\n- CS231n, Convolutional Neural Networks for Visual Recognition, Stanford University [[web]](http:\u002F\u002Fcs231n.stanford.edu\u002F)\n- CS224d, Deep Learning for Natural Language Processing, Stanford University [[web]](http:\u002F\u002Fcs224d.stanford.edu\u002F)\n- Oxford Deep NLP 2017, Deep Learning for Natural Language Processing, University of Oxford [[web]](https:\u002F\u002Fgithub.com\u002Foxford-cs-deepnlp-2017\u002Flectures)\n\n*(Tutorials)*\n- NIPS 2016 Tutorials, Long Beach [[web]](https:\u002F\u002Fnips.cc\u002FConferences\u002F2016\u002FSchedule?type=Tutorial)\n- ICML 2016 Tutorials, New York City [[web]](http:\u002F\u002Ftechtalks.tv\u002Ficml\u002F2016\u002Ftutorials\u002F)\n- ICLR 2016 Videos, San Juan [[web]](http:\u002F\u002Fvideolectures.net\u002Ficlr2016_san_juan\u002F)\n- Deep Learning Summer School 2016, Montreal [[web]](http:\u002F\u002Fvideolectures.net\u002Fdeeplearning2016_montreal\u002F)\n- Bay Area Deep Learning School 2016, Stanford [[web]](https:\u002F\u002Fwww.bayareadlschool.org\u002F)\n\n*(Blogs)*\n- OpenAI [[web]](https:\u002F\u002Fwww.openai.com\u002F)\n- Distill [[web]](http:\u002F\u002Fdistill.pub\u002F)\n- Andrej Karpathy Blog [[web]](http:\u002F\u002Fkarpathy.github.io\u002F)\n- Colah's Blog [[Web]](http:\u002F\u002Fcolah.github.io\u002F)\n- WildML [[Web]](http:\u002F\u002Fwww.wildml.com\u002F)\n- FastML [[web]](http:\u002F\u002Fwww.fastml.com\u002F)\n- TheMorningPaper [[web]](https:\u002F\u002Fblog.acolyer.org)\n\n### Appendix: More than Top 100\n*(2016)*\n- A character-level decoder without explicit segmentation for neural machine translation (2016), J. Chung et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.06147)\n- Dermatologist-level classification of skin cancer with deep neural networks (2017), A. Esteva et al. [[html]](http:\u002F\u002Fwww.nature.com\u002Fnature\u002Fjournal\u002Fv542\u002Fn7639\u002Ffull\u002Fnature21056.html)\n- Weakly supervised object localization with multi-fold multiple instance learning (2017), R. Gokberk et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1503.00949)\n- Brain tumor segmentation with deep neural networks (2017), M. Havaei et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1505.03540)\n- Professor Forcing: A New Algorithm for Training Recurrent Networks (2016), A. Lamb et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1610.09038)\n- Adversarially learned inference (2016), V. Dumoulin et al. [[web]](https:\u002F\u002Fishmaelbelghazi.github.io\u002FALI\u002F)[[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.00704v1)\n- Understanding convolutional neural networks (2016), J. Koushik [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1605.09081v1)\n- Taking the human out of the loop: A review of bayesian optimization (2016), B. Shahriari et al. [[pdf]](https:\u002F\u002Fwww.cs.ox.ac.uk\u002Fpeople\u002Fnando.defreitas\u002Fpublications\u002FBayesOptLoop.pdf)\n- Adaptive computation time for recurrent neural networks (2016), A. Graves [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.08983)\n- Densely connected convolutional networks (2016), G. Huang et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1608.06993v1)\n- Region-based convolutional networks for accurate object detection and segmentation (2016), R. Girshick et al. \n- Continuous deep q-learning with model-based acceleration (2016), S. Gu et al. [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv48\u002Fgu16.pdf)\n- A thorough examination of the cnn\u002Fdaily mail reading comprehension task (2016), D. Chen et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.02858)\n- Achieving open vocabulary neural machine translation with hybrid word-character models, M. Luong and C. Manning. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1604.00788)\n- Very Deep Convolutional Networks for Natural Language Processing (2016), A. Conneau et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.01781)\n- Bag of tricks for efficient text classification (2016), A. Joulin et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1607.01759)\n- Efficient piecewise training of deep structured models for semantic segmentation (2016), G. Lin et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FLin_Efficient_Piecewise_Training_CVPR_2016_paper.pdf)\n- Learning to compose neural networks for question answering (2016), J. Andreas et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1601.01705)\n- Perceptual losses for real-time style transfer and super-resolution (2016), J. Johnson et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.08155)\n- Reading text in the wild with convolutional neural networks (2016), M. Jaderberg et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.1842)\n- What makes for effective detection proposals? (2016), J. Hosang et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1502.05082)\n- Inside-outside net: Detecting objects in context with skip pooling and recurrent neural networks (2016), S. Bell et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FBell_Inside-Outside_Net_Detecting_CVPR_2016_paper.pdf).\n- Instance-aware semantic segmentation via multi-task network cascades (2016), J. Dai et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FDai_Instance-Aware_Semantic_Segmentation_CVPR_2016_paper.pdf)\n- Conditional image generation with pixelcnn decoders (2016), A. van den Oord et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F6527-tree-structured-reinforcement-learning-for-sequential-object-localization.pdf)\n- Deep networks with stochastic depth (2016), G. Huang et al., [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.09382)\n- Consistency and Fluctuations For Stochastic Gradient Langevin Dynamics (2016), Yee Whye Teh et al. [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fpapers\u002Fvolume17\u002Fteh16a\u002Fteh16a.pdf)\n\n*(2015)*\n- Ask your neurons: A neural-based approach to answering questions about images (2015), M. Malinowski et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FMalinowski_Ask_Your_Neurons_ICCV_2015_paper.pdf)\n- Exploring models and data for image question answering (2015), M. Ren et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5640-stochastic-variational-inference-for-hidden-markov-models.pdf)\n- Are you talking to a machine? dataset and methods for multilingual image question (2015), H. Gao et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5641-are-you-talking-to-a-machine-dataset-and-methods-for-multilingual-image-question.pdf)\n- Mind's eye: A recurrent visual representation for image caption generation (2015), X. Chen and C. Zitnick. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FChen_Minds_Eye_A_2015_CVPR_paper.pdf)\n- From captions to visual concepts and back (2015), H. Fang et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FFang_From_Captions_to_2015_CVPR_paper.pdf).\n- Towards AI-complete question answering: A set of prerequisite toy tasks (2015), J. Weston et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1502.05698)\n- Ask me anything: Dynamic memory networks for natural language processing (2015), A. Kumar et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.07285)\n- Unsupervised learning of video representations using LSTMs (2015), N. Srivastava et al. [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv37\u002Fsrivastava15.pdf)\n- Deep compression: Compressing deep neural networks with pruning, trained quantization and huffman coding (2015), S. Han et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1510.00149)\n- Improved semantic representations from tree-structured long short-term memory networks (2015), K. Tai et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1503.00075)\n- Character-aware neural language models (2015), Y. Kim et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1508.06615)\n- Grammar as a foreign language (2015), O. Vinyals et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5635-grammar-as-a-foreign-language.pdf)\n- Trust Region Policy Optimization (2015), J. Schulman et al. [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv37\u002Fschulman15.pdf)\n- Beyond short snippents: Deep networks for video classification (2015) [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FNg_Beyond_Short_Snippets_2015_CVPR_paper.pdf)\n- Learning Deconvolution Network for Semantic Segmentation (2015), H. Noh et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1505.04366v1)\n- Learning spatiotemporal features with 3d convolutional networks (2015), D. Tran et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FTran_Learning_Spatiotemporal_Features_ICCV_2015_paper.pdf)\n- Understanding neural networks through deep visualization (2015), J. Yosinski et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.06579)\n- An Empirical Exploration of Recurrent Network Architectures (2015), R. Jozefowicz et al.  [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv37\u002Fjozefowicz15.pdf)\n- Deep generative image models using a￼ laplacian pyramid of adversarial networks (2015), E.Denton et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5773-deep-generative-image-models-using-a-laplacian-pyramid-of-adversarial-networks.pdf)\n- Gated Feedback Recurrent Neural Networks (2015), J. Chung et al. [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv37\u002Fchung15.pdf)\n- Fast and accurate deep network learning by exponential linear units (ELUS) (2015), D. Clevert et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1511.07289.pdf%5Cnhttp:\u002F\u002Farxiv.org\u002Fabs\u002F1511.07289%5Cnhttp:\u002F\u002Farxiv.org\u002Fabs\u002F1511.07289)\n- Pointer networks (2015), O. Vinyals et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5866-pointer-networks.pdf)\n- Visualizing and Understanding Recurrent Networks (2015), A. Karpathy et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.02078)\n- Attention-based models for speech recognition (2015), J. Chorowski et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5847-attention-based-models-for-speech-recognition.pdf)\n- End-to-end memory networks (2015), S. Sukbaatar et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5846-end-to-end-memory-networks.pdf)\n- Describing videos by exploiting temporal structure (2015), L. Yao et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FYao_Describing_Videos_by_ICCV_2015_paper.pdf)\n- A neural conversational model (2015), O. Vinyals and Q. Le. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.05869.pdf)\n- Improving distributional similarity with lessons learned from word embeddings, O. Levy et al. [[pdf]] (https:\u002F\u002Fwww.transacl.org\u002Fojs\u002Findex.php\u002Ftacl\u002Farticle\u002Fdownload\u002F570\u002F124)\n- Transition-Based Dependency Parsing with Stack Long Short-Term Memory (2015), C. Dyer et al. [[pdf]](http:\u002F\u002Faclweb.org\u002Fanthology\u002FP\u002FP15\u002FP15-1033.pdf)\n- Improved Transition-Based Parsing by Modeling Characters instead of Words with LSTMs (2015), M. Ballesteros et al. [[pdf]](http:\u002F\u002Faclweb.org\u002Fanthology\u002FD\u002FD15\u002FD15-1041.pdf)\n- Finding function in form: Compositional character models for open vocabulary word representation (2015), W. Ling et al. [[pdf]](http:\u002F\u002Faclweb.org\u002Fanthology\u002FD\u002FD15\u002FD15-1176.pdf)\n\n\n*(~2014)*\n- DeepPose: Human pose estimation via deep neural networks (2014), A. Toshev and C. Szegedy [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2014\u002Fpapers\u002FToshev_DeepPose_Human_Pose_2014_CVPR_paper.pdf)\n- Learning a Deep Convolutional Network for Image Super-Resolution (2014, C. Dong et al. [[pdf]](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FChen_Change_Loy\u002Fpublication\u002F264552416_Lecture_Notes_in_Computer_Science\u002Flinks\u002F53e583e50cf25d674e9c280e.pdf)\n- Recurrent models of visual attention (2014), V. Mnih et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1406.6247.pdf)\n- Empirical evaluation of gated recurrent neural networks on sequence modeling (2014), J. Chung et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.3555)\n- Addressing the rare word problem in neural machine translation (2014), M. Luong et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1410.8206)\n- On the properties of neural machine translation: Encoder-decoder approaches (2014), K. Cho et. al.\n- Recurrent neural network regularization (2014), W. Zaremba et al. [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.2329)\n- Intriguing properties of neural networks (2014), C. Szegedy et al. [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1312.6199.pdf)\n- Towards end-to-end speech recognition with recurrent neural networks (2014), A. Graves and N. Jaitly. [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv32\u002Fgraves14.pdf)\n- Scalable object detection using deep neural networks (2014), D. Erhan et al. [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2014\u002Fpapers\u002FErhan_Scalable_Object_Detection_2014_CVPR_paper.pdf)\n- On the importance of initialization and momentum in deep learning (2013), I. Sutskever et al. [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002Ficml2013_sutskever13.pdf)\n- Regularization of neural networks using dropconnect (2013), L. Wan et al. [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002Ficml2013_wan13.pdf)\n- Learning Hierarchical Features for Scene Labeling (2013), C. Farabet et al. [[pdf]](https:\u002F\u002Fhal-enpc.archives-ouvertes.fr\u002Fdocs\u002F00\u002F74\u002F20\u002F77\u002FPDF\u002Ffarabet-pami-13.pdf)\n- Linguistic Regularities in Continuous Space Word Representations (2013), T. Mikolov et al. [[pdf]](http:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FN13-1#page=784)\n- Large scale distributed deep networks (2012), J. Dean et al. [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F4687-large-scale-distributed-deep-networks.pdf)\n- A Fast and Accurate Dependency Parser using Neural Networks. Chen and Manning. [[pdf]](http:\u002F\u002Fcs.stanford.edu\u002Fpeople\u002Fdanqi\u002Fpapers\u002Femnlp2014.pdf)\n\n\n\n## Acknowledgement\n\nThank you for all your contributions. Please make sure to read the [contributing guide](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fblob\u002Fmaster\u002FContributing.md) before you make a pull request.\n\n## License\n[![CC0](http:\u002F\u002Fmirrors.creativecommons.org\u002Fpresskit\u002Fbuttons\u002F88x31\u002Fsvg\u002Fcc-zero.svg)](https:\u002F\u002Fcreativecommons.org\u002Fpublicdomain\u002Fzero\u002F1.0\u002F)\n\nTo the extent possible under law, [Terry T. Um](https:\u002F\u002Fwww.facebook.com\u002Fterryum.io\u002F) has waived all copyright and related or neighboring rights to this work.\n","# 令人惊叹——引用次数最多的深度学习论文\n\n[![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fsindresorhus\u002Fawesome)\n\n【注】由于自2017年以来每天都有大量深度学习论文发表，本列表已不再维护。\n\n一份精选的、引用次数最多的深度学习论文清单（2012—2016年）\n\n我们认为，存在一些无论应用于哪个领域都值得阅读的“经典”深度学习论文。与其提供数量庞大的论文列表，我们更希望呈现一份精心挑选的、在特定研究领域被视为“必读”的优秀深度学习论文清单。\n\n## 背景\n\n在此列表之前，已经存在其他“深度学习精彩列表”，例如[Deep Vision](https:\u002F\u002Fgithub.com\u002Fkjw0612\u002Fawesome-deep-vision)和[Awesome Recurrent Neural Networks](https:\u002F\u002Fgithub.com\u002Fkjw0612\u002Fawesome-rnn)。此外，在本列表发布之后，又出现了一份面向深度学习初学者的精彩列表，名为[Deep Learning Papers Reading Roadmap](https:\u002F\u002Fgithub.com\u002Fsongrotek\u002FDeep-Learning-Papers-Reading-Roadmap)，深受众多深度学习研究者的喜爱。\n\n尽管“路线图列表”收录了许多重要的深度学习论文，但要全部读完仍让人感到压力巨大。正如我在前言中所提到的，我认为那些开创性的工作无论其应用领域如何，都能为我们带来启发。因此，我在此推荐**前100篇深度学习论文**，作为概览深度学习研究的良好起点。\n\n如需每日获取最新论文资讯，请关注我的[推特](https:\u002F\u002Ftwitter.com\u002FTerryUm_ML)或[脸书主页](https:\u002F\u002Fwww.facebook.com\u002Fterryum.io\u002F)！\n\n## 精彩列表标准\n\n1. 建议列出2012年至2016年间发表的**前100篇深度学习论文**。\n2. 若有新论文加入列表，则应移除另一篇论文（通常来自“更多2016年论文”部分），以保持前100篇的规模。（因此，移除论文与添加论文同样重要）\n3. 那些虽重要但未能入选的论文，将被列入“超过前100篇”部分。\n4. 请参阅“新论文”和“旧论文”部分，了解最近6个月内或2012年之前发表的论文。\n\n*（引用标准）*\n- **\u003C 6个月**：*新论文*（经讨论决定）\n- **2016年**：+60次引用，或归入“更多2016年论文”\n- **2015年**：+200次引用\n- **2014年**：+400次引用\n- **2013年**：+600次引用\n- **2012年**：+800次引用\n- **~2012年**：*旧论文*（经讨论决定）\n\n请注意，我们更倾向于那些可应用于多种研究领域的开创性深度学习论文，而非专注于特定应用的论文。因此，有些符合标准的论文可能不会被收录，而另一些则可能被接受。这取决于论文的影响、对其他研究的适用性以及该研究领域的稀缺程度等因素。\n\n**我们需要您的贡献！**\n\n如果您有任何建议（遗漏的论文、新论文、关键研究人员或错别字等），欢迎随时编辑并提交拉取请求。\n（请阅读[贡献指南](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fblob\u002Fmaster\u002FContributing.md)以获取更多说明，不过仅仅告知我们论文标题对我们来说也是一项巨大的帮助。）\n\n（更新）您可以使用[这个脚本](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fblob\u002Fmaster\u002Ffetch_papers.py)下载所有前100篇论文，并用[这个脚本](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fblob\u002Fmaster\u002Fget_authors.py)收集所有作者的名字。此外，还提供了包含所有前100篇论文的[BibTeX文件](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fblob\u002Fmaster\u002Ftop100papers.bib)。感谢doodhwala、[Sven](https:\u002F\u002Fgithub.com\u002Fsunshinemyson)和[grepinsight](https:\u002F\u002Fgithub.com\u002Fgrepinsight)！\n\n+ 是否有人愿意贡献代码，用于统计前100篇论文的作者信息呢？\n\n## 目录\n\n* [理解\u002F泛化\u002F迁移](#understanding--generalization--transfer)\n* [优化\u002F训练技巧](#optimization--training-techniques)\n* [无监督\u002F生成模型](#unsupervised--generative-models)\n* [卷积神经网络模型](#convolutional-neural-network-models)\n* [图像分割\u002F目标检测](#image-segmentation--object-detection)\n* [图像\u002F视频\u002F其他](#image--video--etc)\n* [自然语言处理\u002FRNN](#natural-language-processing--rnns)\n* [语音及其他领域](#speech--other-domain)\n* [强化学习\u002F机器人学](#reinforcement-learning--robotics)\n* [更多2016年论文](#more-papers-from-2016)\n\n*（超过前100篇）*\n\n* [新论文](#new-papers)：发表时间不足6个月\n* [旧论文](#old-papers)：发表于2012年之前\n* [硬件\u002F软件\u002F数据集](#hw--sw--dataset)：技术报告\n* [书籍\u002F综述\u002F评论](#book--survey--review)\n* [视频讲座\u002F教程\u002F博客](#video-lectures--tutorials--blogs)\n* [附录：超过前100篇](#appendix-more-than-top-100)：未列入列表的更多论文\n\n* * *\n\n### 理解\u002F泛化\u002F迁移\n- **神经网络中的知识蒸馏**（2015年），G. Hinton等[[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1503.02531)\n- **深度神经网络极易被欺骗：对无法识别图像的高置信度预测**（2015年），A. Nguyen等[[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.1897)\n- **深度神经网络中的特征有多强的可迁移性？**（2014年），J. Yosinski等[[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5347-how-transferable-are-features-in-deep-neural-networks.pdf)\n- **CNN的现成特征：一种惊人的分类基线**（2014年），A. Razavian等[[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002F\u002Fopenaccess\u002Fcontent_cvpr_workshops_2014\u002FW15\u002Fpapers\u002FRazavian_CNN_Features_Off-the-Shelf_2014_CVPR_paper.pdf)\n- **利用卷积神经网络学习和迁移中级图像表示**（2014年），M. Oquab等[[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2014\u002Fpapers\u002FOquab_Learning_and_Transferring_2014_CVPR_paper.pdf)\n- **可视化与理解卷积网络**（2014年），M. Zeiler和R. Fergus[[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1311.2901)\n- **DeCAF：一种用于通用视觉识别的深度卷积激活特征**（2014年），J. Donahue等[[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1310.1531)\n\n\u003C!---[关键研究人员]  [杰弗里·辛顿](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=JicYPdAAAAAJ), [约书亚·本吉奥](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=kukA0LcAAAAJ), [杰森·约辛斯基](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=gxL1qj8AAAAJ) -->\n\n### 优化\u002F训练技巧\n- **训练非常深的网络**（2015），R. 斯里瓦斯塔瓦等 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5850-training-very-deep-networks.pdf)\n- **批归一化：通过减少内部协变量偏移加速深度网络训练**（2015），S. 洛菲和 C. 谢盖迪 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1502.03167)\n- **深入研究修正线性单元：在 ImageNet 分类任务上超越人类水平性能**（2015），K. 何等 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FHe_Delving_Deep_into_ICCV_2015_paper.pdf)\n- **Dropout：防止神经网络过拟合的简单方法**（2014），N. 斯里瓦斯塔瓦等 [[pdf]](http:\u002F\u002Fjmlr.org\u002Fpapers\u002Fvolume15\u002Fsrivastava14a\u002Fsrivastava14a.pdf)\n- **Adam：一种随机优化方法**（2014），D. 金格玛和 J. 巴 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.6980)\n- **通过防止特征检测器的协同适应来改进神经网络**（2012），G. 希顿等 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1207.0580.pdf)\n- **超参数优化的随机搜索**（2012）J. 伯格斯特拉和 Y. 本吉奥 [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fpapers\u002Fvolume13\u002Fbergstra12a\u002Fbergstra12a)\n\n\u003C!---[关键研究人员] [杰弗里·辛顿](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=JicYPdAAAAAJ)、[约书亚·本吉奥](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=kukA0LcAAAAJ)、[克里斯蒂安·谢盖迪](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=3QeF7mAAAAAJ)、[谢尔盖·伊奥费](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=S5zOyIkAAAAJ)、[何凯明](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=DhtAFkwAAAAJ)、[迪德里克·P·金格玛](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=yyIoQu4AAAAJ)-->\n\n### 无监督\u002F生成模型\n- **像素递归神经网络**（2016），A. 奥德等 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1601.06759v2.pdf)\n- **GAN 训练技术的改进**（2016），T. 萨利曼斯等 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F6125-improved-techniques-for-training-gans.pdf)\n- **使用深度卷积生成对抗网络进行无监督表征学习**（2015），A. 拉德福德等 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1511.06434v2)\n- **DRAW：用于图像生成的循环神经网络**（2015），K. 格雷戈尔等 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1502.04623)\n- **生成对抗网络**（2014），I. 古德费洛等 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5423-generative-adversarial-nets.pdf)\n- **变分自编码器**（2013），D. 金格玛和 M. 韦林 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1312.6114)\n- **利用大规模无监督学习构建高层特征**（2013），Q. 乐等 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1112.6209)\n\n\u003C!---[关键研究人员] [约书亚·本吉奥](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=kukA0LcAAAAJ)、[伊恩·古德费洛](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=iYN86KEAAAAJ)、[亚历克斯·格雷夫斯](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=DaFHynwAAAAJ)-->\n### 卷积神经网络模型\n- **重新思考计算机视觉中的 Inception 架构**（2016），C. 谢盖迪等 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FSzegedy_Rethinking_the_Inception_CVPR_2016_paper.pdf)\n- **Inception-v4、Inception-ResNet 以及残差连接对学习的影响**（2016），C. 谢盖迪等 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.07261)\n- **深度残差网络中的恒等映射**（2016），K. 何等 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.05027v2.pdf)\n- **用于图像识别的深度残差学习**（2016），K. 何等 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.03385)\n- **空间变换网络**（2015），M. 贾德伯格等，[[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5854-spatial-transformer-networks.pdf)\n- **更深的卷积网络**（2015），C. 谢盖迪等 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FSzegedy_Going_Deeper_With_2015_CVPR_paper.pdf)\n- **用于大规模图像识别的非常深的卷积网络**（2014），K. 西蒙尼扬和 A. 赛瑟曼 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.1556)\n- **细节中的魔鬼再现：深入卷积网络**（2014），K. 查特菲尔德等 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1405.3531)\n- **OverFeat：使用卷积网络实现集成式识别、定位与检测**（2013），P. 塞尔马内等 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1312.6229)\n- **Maxout 网络**（2013），I. 古德费洛等 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1302.4389v4)\n- **网络中的网络**（2013），M. 林等 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1312.4400)\n- **使用深度卷积神经网络进行 ImageNet 分类**（2012），A. 克里泽夫斯基等 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf)\n\n\u003C!---[关键研究人员] [克里斯蒂安·谢盖迪](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=3QeF7mAAAAAJ)、[何凯明](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=DhtAFkwAAAAJ)、[任少卿](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=AUhj438AAAAJ)、[孙剑](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=ALVSZAYAAAAJ)、[杰弗里·辛顿](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=JicYPdAAAAAJ)、[约书亚·本吉奥](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=kukA0LcAAAAJ)、[扬·勒丘恩](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=WLN3QrAAAAAJ)-->\n\n### 图像：分割 \u002F 目标检测\n- **You only look once: 统一的实时目标检测**（2016），J. Redmon 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FRedmon_You_Only_Look_CVPR_2016_paper.pdf)\n- **用于语义分割的全卷积网络**（2015），J. Long 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FLong_Fully_Convolutional_Networks_2015_CVPR_paper.pdf)\n- **Faster R-CNN：通过区域提议网络实现实时目标检测**（2015），S. Ren 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5638-faster-r-cnn-towards-real-time-object-detection-with-region-proposal-networks.pdf)\n- **Fast R-CNN**（2015），R. Girshick [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FGirshick_Fast_R-CNN_ICCV_2015_paper.pdf)\n- **用于精确目标检测和语义分割的丰富特征层次结构**（2014），R. Girshick 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2014\u002Fpapers\u002FGirshick_Rich_Feature_Hierarchies_2014_CVPR_paper.pdf)\n- **深度卷积网络中的空间金字塔池化用于视觉识别**（2014），K. He 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1406.4729)\n- **基于深度卷积网络和全连接条件随机场的语义图像分割**，L. Chen 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.7062)\n- **学习场景标注的层次化特征**（2013），C. Farabet 等人 [[pdf]](https:\u002F\u002Fhal-enpc.archives-ouvertes.fr\u002Fdocs\u002F00\u002F74\u002F20\u002F77\u002FPDF\u002Ffarabet-pami-13.pdf)\n\n\u003C!---[关键研究人员]  [罗斯·吉尔希克](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=W8VIEZgAAAAJ), [杰夫·多纳休](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=UfbuDH8AAAAJ), [特雷弗·达雷尔](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=bh-uRFMAAAAJ)-->\n\n### 图像 \u002F 视频 \u002F 其他\n- **基于深度卷积网络的图像超分辨率**（2016），C. Dong 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1501.00092v3.pdf)\n- **艺术风格的神经算法**（2015），L. Gatys 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1508.06576)\n- **用于生成图像描述的深度视觉—语义对齐**（2015），A. Karpathy 和 L. Fei-Fei [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FKarpathy_Deep_Visual-Semantic_Alignments_2015_CVPR_paper.pdf)\n- **展示、关注与讲述：带有视觉注意力的神经图像字幕生成**（2015），K. Xu 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1502.03044)\n- **展示与讲述：一种神经图像字幕生成器**（2015），O. Vinyals 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FVinyals_Show_and_Tell_2015_CVPR_paper.pdf)\n- **用于视觉识别和描述的长期递归卷积网络**（2015），J. Donahue 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FDonahue_Long-Term_Recurrent_Convolutional_2015_CVPR_paper.pdf)\n- **VQA：视觉问答**（2015），S. Antol 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FAntol_VQA_Visual_Question_ICCV_2015_paper.pdf)\n- **DeepFace：在人脸验证中缩小与人类水平性能的差距**（2014），Y. Taigman 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2014\u002Fpapers\u002FTaigman_DeepFace_Closing_the_2014_CVPR_paper.pdf):\n- **基于卷积神经网络的大规模视频分类**（2014），A. Karpathy 等人 [[pdf]](http:\u002F\u002Fvision.stanford.edu\u002Fpdf\u002Fkarpathy14.pdf)\n- **用于视频中动作识别的双流卷积网络**（2014），K. Simonyan 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5353-two-stream-convolutional-networks-for-action-recognition-in-videos.pdf)\n- **用于人体动作识别的三维卷积神经网络**（2013），S. Ji 等人 [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002Ficml2010_JiXYY10.pdf)\n\n\u003C!---[关键研究人员]  [奥里奥尔·维尼亚尔斯](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=NkzyCvUAAAAJ), [安德烈·卡帕西](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=l8WuQJgAAAAJ)-->\n\n\u003C!---[关键研究人员]  [亚历克斯·格雷夫斯](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=DaFHynwAAAAJ)-->\n\n### 自然语言处理 \u002F RNN\n- **用于命名实体识别的神经网络架构**（2016），G. Lample 等人 [[pdf]](http:\u002F\u002Faclweb.org\u002Fanthology\u002FN\u002FN16\u002FN16-1030.pdf)\n- **探索语言模型的极限**（2016），R. Jozefowicz 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.02410)\n- **教机器阅读与理解**（2015），K. Hermann 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5945-teaching-machines-to-read-and-comprehend.pdf)\n- **基于注意力机制的有效神经机器翻译方法**（2015），M. Luong 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1508.04025)\n- **条件随机场作为循环神经网络**（2015），S. Zheng 和 S. Jayasumana [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FZheng_Conditional_Random_Fields_ICCV_2015_paper.pdf)\n- **记忆网络**（2014），J. Weston 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1410.3916)\n- **神经图灵机**（2014），A. Graves 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1410.5401)\n- **通过联合学习对齐与翻译实现的神经机器翻译**（2014），D. Bahdanau 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.0473)\n- **基于神经网络的序列到序列学习**（2014），I. Sutskever 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5346-sequence-to-sequence-learning-with-neural-networks.pdf)\n- **利用 RNN 编码器-解码器学习短语表示以进行统计机器翻译**（2014），K. Cho 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1406.1078)\n- **用于句子建模的卷积神经网络**（2014），N. Kalchbrenner 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1404.2188v1)\n- **用于句子分类的卷积神经网络**（2014），Y. Kim [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1408.5882)\n- **GloVe：单词表示的全局向量**（2014），J. Pennington 等人 [[pdf]](http:\u002F\u002Fanthology.aclweb.org\u002FD\u002FD14\u002FD14-1162.pdf)\n- **句子和文档的分布式表示**（2014），Q. Le 和 T. Mikolov [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1405.4053)\n- **单词和短语的分布式表示及其组合性**（2013），T. Mikolov 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf)\n- **向量空间中单词表示的有效估计**（2013），T. Mikolov 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1301.3781)\n- **基于递归深度模型的情感树库语义组合性研究**（2013），R. Socher 等人 [[pdf]](http:\u002F\u002Fciteseerx.ist.psu.edu\u002Fviewdoc\u002Fdownload?doi=10.1.1.383.1327&rep=rep1&type=pdf)\n- **利用循环神经网络生成序列**（2013），A. Graves [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1308.0850)\n\n\u003C!---[关键研究人员]  [Kyunghyun Cho](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=0RAmmIAAAAAJ), [Oriol Vinyals](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=NkzyCvUAAAAJ), [Richard Socher](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=FaOcyfMAAAAJ), [Tomas Mikolov](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=oBu8kMMAAAAJ), [Christopher D. Manning](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=1zmDOdwAAAAJ), [Yoshua Bengio](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=kukA0LcAAAAJ)-->\n\n### 语音 \u002F 其他领域\n- **端到端基于注意力的大词汇量语音识别**（2016），D. Bahdanau 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1508.04395)\n- **Deep Speech 2：英语和普通话的端到端语音识别**（2015），D. Amodei 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.02595)\n- **基于深度循环神经网络的语音识别**（2013），A. Graves [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1303.5778.pdf)\n- **用于语音识别声学建模的深度神经网络：四个研究小组的共同见解**（2012），G. Hinton 等人 [[pdf]](http:\u002F\u002Fwww.cs.toronto.edu\u002F~asamir\u002Fpapers\u002FSPM_DNN_12.pdf)\n- **用于大词汇量语音识别的上下文相关预训练深度神经网络**（2012）G. Dahl 等人 [[pdf]](http:\u002F\u002Fciteseerx.ist.psu.edu\u002Fviewdoc\u002Fdownload?doi=10.1.1.337.7548&rep=rep1&type=pdf)\n- **使用深度信念网络进行声学建模**（2012），A. Mohamed 等人 [[pdf]](http:\u002F\u002Fwww.cs.toronto.edu\u002F~asamir\u002Fpapers\u002FspeechDBN_jrnl.pdf)\n\n\u003C!---[关键研究人员]  [Alex Graves](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=DaFHynwAAAAJ), [Geoffrey Hinton](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=JicYPdAAAAAJ), [Dong Yu](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=tMY31_gAAAAJ)-->\n\n### 强化学习 \u002F 机器人学\n- **深度视觉-运动策略的端到端训练**（2016），S. Levine 等人 [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fpapers\u002Fvolume17\u002F15-522\u002Fsource\u002F15-522.pdf)\n- **利用深度学习和大规模数据收集学习机器人抓取的手眼协调**（2016），S. Levine 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.02199)\n- **深度强化学习的异步方法**（2016），V. Mnih 等人 [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv48\u002Fmniha16.pdf)\n- **采用双 Q 学习的深度强化学习**（2016），H. Hasselt 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1509.06461.pdf )\n- **结合深度神经网络与树搜索掌握围棋游戏**（2016），D. Silver 等人 [[pdf]](http:\u002F\u002Fwww.nature.com\u002Fnature\u002Fjournal\u002Fv529\u002Fn7587\u002Ffull\u002Fnature16961.html)\n- **深度强化学习的连续控制**（2015），T. Lillicrap 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1509.02971)\n- **通过深度强化学习达到人类水平的控制**（2015），V. Mnih 等人 [[pdf]](http:\u002F\u002Fwww.davidqiu.com:8888\u002Fresearch\u002Fnature14236.pdf)\n- **利用深度学习检测机器人抓取动作**（2015），I. Lenz 等人 [[pdf]](http:\u002F\u002Fwww.cs.cornell.edu\u002F~asaxena\u002Fpapers\u002Flenz_lee_saxena_deep_learning_grasping_ijrr2014.pdf)\n- **利用深度强化学习玩雅达利游戏**（2013），V. Mnih 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1312.5602.pdf))\n\n\u003C!---[关键研究人员]  [Sergey Levine](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=8R35rCwAAAAJ), [Volodymyr Mnih](https:\u002F\u002Fscholar.google.ca\u002Fcitations?hl=en&user=rLdfJ1gAAAAJ), [David Silver](https:\u002F\u002Fscholar.google.ca\u002Fcitations?user=-8DNE4UAAAAJ)-->\n\n### 2016年的更多论文\n- **层归一化**（2016），J. Ba 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1607.06450v1.pdf)\n- **通过梯度下降学习如何进行梯度下降**（2016），M. Andrychowicz 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.04474v1)\n- **神经网络的领域对抗训练**（2016），Y. Ganin 等人 [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fpapers\u002Fvolume17\u002F15-239\u002Fsource\u002F15-239.pdf)\n- **WaveNet：一种用于原始音频的生成模型**（2016），A. Oord 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1609.03499v2) [[web]](https:\u002F\u002Fdeepmind.com\u002Fblog\u002Fwavenet-generative-model-raw-audio\u002F)\n- **彩色图像着色**（2016），R. Zhang 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.08511)\n- **自然图像流形上的生成式视觉操控**（2016），J. Zhu 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1609.03552)\n- **纹理网络：纹理与风格化图像的前馈合成**（2016），D Ulyanov 等人 [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv48\u002Fulyanov16.pdf)\n- **SSD：单次多框检测器**（2016），W. Liu 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.02325)\n- **SqueezeNet：参数量减少50倍、模型大小小于1MB却达到AlexNet级别精度**（2016），F. Iandola 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.07360)\n- **Eie：压缩深度神经网络上的高效推理引擎**（2016），S. Han 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.01528)\n- **二值化神经网络：将权重和激活限制为+1或-1的深度神经网络训练方法**（2016），M. Courbariaux 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.02830)\n- **用于视觉和文本问答的动态记忆网络**（2016），C. Xiong 等人 [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv48\u002Fxiong16.pdf)\n- **用于图像问答的堆叠注意力网络**（2016），Z. Yang 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FYang_Stacked_Attention_Networks_CVPR_2016_paper.pdf)\n- **使用具有动态外部内存的神经网络的混合计算**（2016），A. Graves 等人 [[pdf]](https:\u002F\u002Fwww.gwern.net\u002Fdocs\u002F2016-graves.pdf)\n- **谷歌的神经机器翻译系统：弥合人类与机器翻译之间的鸿沟**（2016），Y. Wu 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1609.08144)\n\n* * *\n\n\n### 新论文\n*新近发表（\u003C 6个月）且值得一读的论文*\n- MobileNets：适用于移动视觉应用的高效卷积神经网络（2017），Andrew G. Howard 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1704.04861.pdf)\n- 卷积序列到序列学习（2017），Jonas Gehring 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1705.03122)\n- 基于知识的神经对话模型（2017），Marjan Ghazvininejad 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.01932)\n- 高精度大批量SGD：1小时内训练ImageNet（2017），Priya Goyal 等人 [[pdf]](https:\u002F\u002Fresearch.fb.com\u002Fwp-content\u002Fuploads\u002F2017\u002F06\u002Fimagenet1kin1h3.pdf)\n- TACOTRON：迈向端到端语音合成（2017），Y. Wang 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.10135.pdf)\n- 深度照片风格迁移（2017），F. Luan 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.07511v1.pdf)\n- 进化策略作为强化学习的可扩展替代方案（2017），T. Salimans 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.03864v1.pdf)\n- 可变形卷积网络（2017），J. Dai 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.06211v2.pdf)\n- Mask R-CNN（2017），K. He 等人 [[pdf]](https:\u002F\u002F128.84.21.199\u002Fpdf\u002F1703.06870)\n- 使用生成对抗网络发现跨域关系的学习（2017），T. Kim 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.05192v1.pdf)\n- Deep Voice：实时神经文本转语音（2017），S. Arik 等人，[[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.07825v2.pdf)\n- PixelNet：由像素、为像素而设计的像素表示（2017），A. Bansal 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.06506v1.pdf)\n- 批量重归一化：朝着降低批量归一化模型对小批量依赖的方向努力（2017），S. Ioffe。[[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1702.03275)\n- Wasserstein GAN（2017），M. Arjovsky 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.07875v1)\n- 理解深度学习需要重新思考泛化问题（2017），C. Zhang 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.03530)\n- 最小二乘生成对抗网络（2016），X. Mao 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.04076v2)\n\n### 老文献\n*2012年之前发表的经典论文*\n- 无监督特征学习中的单层网络分析（2011），A. Coates 等人 [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002FAISTATS2011_CoatesNL11.pdf)\n- 深度稀疏修正神经网络（2011），X. Glorot 等人 [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002FAISTATS2011_GlorotBB11.pdf)\n- 几乎从零开始的自然语言处理（2011），R. Collobert 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1103.0398)\n- 基于循环神经网络的语言模型（2010），T. Mikolov 等人 [[pdf]](http:\u002F\u002Fwww.fit.vutbr.cz\u002Fresearch\u002Fgroups\u002Fspeech\u002Fservite\u002F2010\u002Frnnlm_mikolov.pdf)\n- 堆叠去噪自编码器：在深度网络中通过局部去噪准则学习有用表示（2010），P. Vincent 等人 [[pdf]](http:\u002F\u002Fciteseerx.ist.psu.edu\u002Fviewdoc\u002Fdownload?doi=10.1.1.297.3484&rep=rep1&type=pdf)\n- 学习用于识别的中层特征（2010），Y. Boureau [[pdf]](http:\u002F\u002Fece.duke.edu\u002F~lcarin\u002Fboureau-cvpr-10.pdf)\n- 训练受限玻尔兹曼机的实用指南（2010），G. Hinton [[pdf]](http:\u002F\u002Fwww.csri.utoronto.ca\u002F~hinton\u002Fabsps\u002FguideTR.pdf)\n- 理解训练深度前馈神经网络的困难（2010），X. Glorot 和 Y. Bengio [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002FAISTATS2010_GlorotB10.pdf)\n- 为什么无监督预训练有助于深度学习（2010），D. Erhan 等人 [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002FAISTATS2010_ErhanCBV10.pdf)\n- 学习面向人工智能的深度架构（2009），Y. Bengio。[[pdf]](http:\u002F\u002Fsanghv.com\u002Fdownload\u002Fsoft\u002Fmachine%20learning,%20artificial%20intelligence,%20mathematics%20ebooks\u002FML\u002Flearning%20deep%20architectures%20for%20AI%20(2009).pdf)\n- 用于层次化表示可扩展无监督学习的卷积深度信念网络（2009），H. Lee 等人 [[pdf]](http:\u002F\u002Fciteseerx.ist.psu.edu\u002Fviewdoc\u002Fdownload?doi=10.1.1.149.802&rep=rep1&type=pdf)\n- 深度网络的贪婪分层训练（2007），Y. Bengio 等人 [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002FNIPS2006_739.pdf)\n- 使用神经网络降低数据维度，G. Hinton 和 R. Salakhutdinov。[[pdf]](http:\u002F\u002Fhomes.mpimf-heidelberg.mpg.de\u002F~mhelmsta\u002Fpdf\u002F2006%20Hinton%20Salakhudtkinov%20Science.pdf)\n- 深度信念网络的快速学习算法（2006），G. Hinton 等人 [[pdf]](http:\u002F\u002Fnuyoo.utm.mx\u002F~jjf\u002Frna\u002FA8%20A%20fast%20learning%20algorithm%20for%20deep%20belief%20nets.pdf)\n- 基于梯度的学习应用于文档识别（1998），Y. LeCun 等人 [[pdf]](http:\u002F\u002Fyann.lecun.com\u002Fexdb\u002Fpublis\u002Fpdf\u002Flecun-01a.pdf)\n- 长短期记忆（1997），S. Hochreiter 和 J. Schmidhuber。[[pdf]](http:\u002F\u002Fwww.mitpressjournals.org\u002Fdoi\u002Fpdfplus\u002F10.1162\u002Fneco.1997.9.8.1735)\n\n\n### 硬件 \u002F 软件 \u002F 数据集\n- SQuAD：用于文本机器理解的10万+个问题（2016），Rajpurkar 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.05250.pdf)\n- OpenAI gym（2016），G. Brockman 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.01540)\n- TensorFlow：异构分布式系统上的大规模机器学习（2016），M. Abadi 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.04467)\n- Theano：用于快速计算数学表达式的 Python 框架，R. Al-Rfou 等人。\n- Torch7：用于机器学习的类 MATLAB 环境，R. Collobert 等人 [[pdf]](https:\u002F\u002Fronan.collobert.com\u002Fpub\u002Fmatos\u002F2011_torch7_nipsw.pdf)\n- MatConvNet：用于 MATLAB 的卷积神经网络（2015），A. Vedaldi 和 K. Lenc [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.4564)\n- ImageNet 大规模视觉识别挑战赛（2015），O. Russakovsky 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.0575)\n- Caffe：用于快速特征嵌入的卷积架构（2014），Y. Jia 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1408.5093)\n\n\n### 书籍 \u002F 综述 \u002F 评论\n- 关于深度学习的起源（2017），H. Wang 和 Bhiksha Raj。[[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.07800)\n- 深度强化学习：概述（2017），Y. Li，[[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.07274v2.pdf)\n- 神经机器翻译与序列到序列模型（2017）：教程，G. Neubig。[[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.01619v1.pdf)\n- 神经网络与深度学习（书，2017年1月），Michael Nielsen。[[html]](http:\u002F\u002Fneuralnetworksanddeeplearning.com\u002Findex.html)\n- 深度学习（书，2016），Goodfellow 等人。[[html]](http:\u002F\u002Fwww.deeplearningbook.org\u002F)\n- LSTM：搜索空间的奥德赛（2016），K. Greff 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1503.04069.pdf?utm_content=buffereddc5&utm_medium=social&utm_source=plus.google.com&utm_campaign=buffer)\n- 变分自编码器教程（2016），C. Doersch。[[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.05908)\n- 深度学习（2015），Y. LeCun、Y. Bengio 和 G. Hinton [[pdf]](https:\u002F\u002Fwww.cs.toronto.edu\u002F~hinton\u002Fabsps\u002FNatureDeepReview.pdf)\n- 神经网络中的深度学习：概述（2015），J. Schmidhuber [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1404.7828)\n- 表征学习：回顾与新视角（2013），Y. Bengio 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1206.5538)\n\n### 视频讲座 \u002F 教程 \u002F 博客\n\n*(讲座)*\n- CS231n，用于视觉识别的卷积神经网络，斯坦福大学 [[web]](http:\u002F\u002Fcs231n.stanford.edu\u002F)\n- CS224d，自然语言处理的深度学习，斯坦福大学 [[web]](http:\u002F\u002Fcs224d.stanford.edu\u002F)\n- 牛津深度 NLP 2017，自然语言处理的深度学习，牛津大学 [[web]](https:\u002F\u002Fgithub.com\u002Foxford-cs-deepnlp-2017\u002Flectures)\n\n*(教程)*\n- NIPS 2016 教程，长滩 [[web]](https:\u002F\u002Fnips.cc\u002FConferences\u002F2016\u002FSchedule?type=Tutorial)\n- ICML 2016 教程，纽约市 [[web]](http:\u002F\u002Ftechtalks.tv\u002Ficml\u002F2016\u002Ftutorials\u002F)\n- ICLR 2016 视频，圣胡安 [[web]](http:\u002F\u002Fvideolectures.net\u002Ficlr2016_san_juan\u002F)\n- 2016 年蒙特利尔深度学习暑期学校 [[web]](http:\u002F\u002Fvideolectures.net\u002Fdeeplearning2016_montreal\u002F)\n- 2016 年湾区深度学习学校，斯坦福 [[web]](https:\u002F\u002Fwww.bayareadlschool.org\u002F)\n\n*(博客)*\n- OpenAI [[web]](https:\u002F\u002Fwww.openai.com\u002F)\n- Distill [[web]](http:\u002F\u002Fdistill.pub\u002F)\n- Andrej Karpathy 博客 [[web]](http:\u002F\u002Fkarpathy.github.io\u002F)\n- Colah 的博客 [[Web]](http:\u002F\u002Fcolah.github.io\u002F)\n- WildML [[Web]](http:\u002F\u002Fwww.wildml.com\u002F)\n- FastML [[web]](http:\u002F\u002Fwww.fastml.com\u002F)\n- TheMorningPaper [[web]](https:\u002F\u002Fblog.acolyer.org)\n\n### 附录：不止于前100篇\n*(2016)*\n- 用于神经机器翻译的无显式分词字符级解码器（2016），J. Chung 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.06147)\n- 基于深度神经网络的皮肤癌分类达到皮肤科医生水平（2017），A. Esteva 等人 [[html]](http:\u002F\u002Fwww.nature.com\u002Fnature\u002Fjournal\u002Fv542\u002Fn7639\u002Ffull\u002Fnature21056.html)\n- 基于多折多实例学习的弱监督目标定位（2017），R. Gokberk 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1503.00949)\n- 基于深度神经网络的脑肿瘤分割（2017），M. Havaei 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1505.03540)\n- 教授强制：一种训练循环网络的新算法（2016），A. Lamb 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1610.09038)\n- 对抗性学习推理（2016），V. Dumoulin 等人 [[web]](https:\u002F\u002Fishmaelbelghazi.github.io\u002FALI\u002F)[[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.00704v1)\n- 理解卷积神经网络（2016），J. Koushik [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1605.09081v1)\n- 将人类排除在闭环之外：贝叶斯优化综述（2016），B. Shahriari 等人 [[pdf]](https:\u002F\u002Fwww.cs.ox.ac.uk\u002Fpeople\u002Fnando.defreitas\u002Fpublications\u002FBayesOptLoop.pdf)\n- 循环神经网络的自适应计算时间（2016），A. Graves [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.08983)\n- 密集连接的卷积网络（2016），G. Huang 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1608.06993v1)\n- 基于区域的卷积网络，用于精确的目标检测和分割（2016），R. Girshick 等人\n- 基于模型加速的连续深度Q学习（2016），S. Gu 等人 [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv48\u002Fgu16.pdf)\n- 对CNN\u002FDaily Mail阅读理解任务的深入研究（2016），D. Chen 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.02858)\n- 利用混合词-字符模型实现开放词汇量的神经机器翻译，M. Luong 和 C. Manning。[[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1604.00788)\n- 用于自然语言处理的超深卷积网络（2016），A. Conneau 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.01781)\n- 高效文本分类的技巧大全（2016），A. Joulin 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1607.01759)\n- 语义分割中深度结构化模型的高效分段训练（2016），G. Lin 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FLin_Efficient_Piecewise_Training_CVPR_2016_paper.pdf)\n- 学习组合神经网络以进行问答（2016），J. Andreas 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1601.01705)\n- 用于实时风格迁移和超分辨率的感知损失（2016），J. Johnson 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.08155)\n- 使用卷积神经网络在野外读取文本（2016），M. Jaderberg 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.1842)\n- 什么构成了有效的检测建议？（2016），J. Hosang 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1502.05082)\n- 内外网：利用跳跃池化和循环神经网络在上下文中检测目标（2016），S. Bell 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FBell_Inside-Outside_Net_Detecting_CVPR_2016_paper.pdf)。\n- 基于多任务网络级联的实例感知语义分割（2016），J. Dai 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FDai_Instance-Aware_Semantic_Segmentation_CVPR_2016_paper.pdf)\n- 基于PixelCNN解码器的条件图像生成（2016），A. van den Oord 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F6527-tree-structured-reinforcement-learning-for-sequential-object-localization.pdf)\n- 具有随机深度的深度网络（2016），G. Huang 等人，[[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.09382)\n- 随机梯度朗之万动力学的一致性与波动性（2016），Yee Whye Teh 等人 [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fpapers\u002Fvolume17\u002Fteh16a\u002Fteh16a.pdf)\n\n*(2015)*\n- 问问你的神经元：一种基于神经网络的图像问答方法（2015），M. Malinowski 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FMalinowski_Ask_Your_Neurons_ICCV_2015_paper.pdf)\n- 探索图像问答的模型与数据（2015），M. Ren 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5640-stochastic-variational-inference-for-hidden-markov-models.pdf)\n- 你在和机器对话吗？多语言图像问答数据集及方法（2015），H. Gao 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5641-are-you-talking-to-a-machine-dataset-and-methods-for-multilingual-image-question.pdf)\n- 心灵之眼：用于图像字幕生成的循环视觉表示（2015），X. Chen 和 C. Zitnick [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FChen_Minds_Eye_A_2015_CVPR_paper.pdf)\n- 从字幕到视觉概念再返回（2015），H. Fang 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FFang_From_Captions_to_2015_CVPR_paper.pdf)。\n- 朝向人工智能完备的问答：一组先决条件玩具任务（2015），J. Weston 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1502.05698)\n- 随便问吧：用于自然语言处理的动态记忆网络（2015），A. Kumar 等人 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.07285)\n- 使用 LSTM 进行视频表示的无监督学习（2015），N. Srivastava 等人 [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv37\u002Fsrivastava15.pdf)\n- 深度压缩：通过剪枝、训练后量化和霍夫曼编码压缩深度神经网络（2015），S. Han 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1510.00149)\n- 基于树结构长短期记忆网络的语义表示改进（2015），K. Tai 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1503.00075)\n- 字符感知的神经语言模型（2015），Y. Kim 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1508.06615)\n- 文法作为一门外语（2015），O. Vinyals 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5635-grammar-as-a-foreign-language.pdf)\n- 约束区域策略优化（2015），J. Schulman 等人 [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv37\u002Fschulman15.pdf)\n- 不止于短片段：用于视频分类的深度网络（2015）[[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2015\u002Fpapers\u002FNg_Beyond_Short_Snippets_2015_CVPR_paper.pdf)\n- 用于语义分割的反卷积网络学习（2015），H. Noh 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1505.04366v1)\n- 使用三维卷积网络学习时空特征（2015），D. Tran 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FTran_Learning_Spatiotemporal_Features_ICCV_2015_paper.pdf)\n- 通过深度可视化理解神经网络（2015），J. Yosinski 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.06579)\n- 循环网络架构的实证探索（2015），R. Jozefowicz 等人 [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv37\u002Fjozefowicz15.pdf)\n- 使用对抗网络拉普拉斯金字塔的深度生成图像模型（2015），E. Denton 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5773-deep-generative-image-models-using-a-laplacian-pyramid-of-adversarial-networks.pdf)\n- 门控反馈循环神经网络（2015），J. Chung 等人 [[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv37\u002Fchung15.pdf)\n- 基于指数线性单元（ELUs）的快速且精确的深度网络学习（2015），D. Clevert 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1511.07289.pdf%5Cnhttp:\u002F\u002Farxiv.org\u002Fabs\u002F1511.07289%5Cnhttp:\u002F\u002Farxiv.org\u002Fabs\u002F1511.07289)\n- 指针网络（2015），O. Vinyals 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5866-pointer-networks.pdf)\n- 可视化与理解循环网络（2015），A. Karpathy 等人 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.02078)\n- 基于注意力机制的语音识别模型（2015），J. Chorowski 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5847-attention-based-models-for-speech-recognition.pdf)\n- 端到端记忆网络（2015），S. Sukbaatar 等人 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5846-end-to-end-memory-networks.pdf)\n- 利用时间结构描述视频（2015），L. Yao 等人 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FYao_Describing_Videos_by_ICCV_2015_paper.pdf)\n- 一种神经对话模型（2015），O. Vinyals 和 Q. Le [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.05869.pdf)\n- 借鉴词嵌入经验提升分布相似性，O. Levy 等人 [[pdf]] (https:\u002F\u002Fwww.transacl.org\u002Fojs\u002Findex.php\u002Ftacl\u002Farticle\u002Fdownload\u002F570\u002F124)\n- 基于堆栈式长短期记忆的依存句法分析（2015），C. Dyer 等人 [[pdf]](http:\u002F\u002Faclweb.org\u002Fanthology\u002FP\u002FP15\u002FP15-1033.pdf)\n- 使用 LSTM 对字符而非单词建模以改进基于转换的句法分析（2015），M. Ballesteros 等人 [[pdf]](http:\u002F\u002Faclweb.org\u002Fanthology\u002FD\u002FD15\u002FD15-1041.pdf)\n- 由形见意：用于开放词汇表征的组合式字符模型（2015），W. Ling 等人 [[pdf]](http:\u002F\u002Faclweb.org\u002Fanthology\u002FD\u002FD15\u002FD15-1176.pdf)\n\n*(~2014)*\n- DeepPose：基于深度神经网络的人体姿态估计（2014年），A. Toshev 和 C. Szegedy [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2014\u002Fpapers\u002FToshev_DeepPose_Human_Pose_2014_CVPR_paper.pdf)\n- 学习用于图像超分辨率的深度卷积网络（2014年，C. Dong 等）[[pdf]](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FChen_Change_Loy\u002Fpublication\u002F264552416_Lecture_Notes_in_Computer_Science\u002Flinks\u002F53e583e50cf25d674e9c280e.pdf)\n- 视觉注意力的循环模型（2014年），V. Mnih 等 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1406.6247.pdf)\n- 门控循环神经网络在序列建模中的经验评估（2014年），J. Chung 等 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.3555)\n- 解决神经机器翻译中的罕见词问题（2014年），M. Luong 等 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1410.8206)\n- 关于神经机器翻译的性质：编码器-解码器方法（2014年），K. Cho 等\n- 循环神经网络正则化（2014年），W. Zaremba 等 [[pdf]](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.2329)\n- 神经网络的有趣特性（2014年），C. Szegedy 等 [[pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1312.6199.pdf)\n- 基于循环神经网络的端到端语音识别（2014年），A. Graves 和 N. Jaitly。[[pdf]](http:\u002F\u002Fwww.jmlr.org\u002Fproceedings\u002Fpapers\u002Fv32\u002Fgraves14.pdf)\n- 使用深度神经网络的可扩展目标检测（2014年），D. Erhan 等 [[pdf]](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2014\u002Fpapers\u002FErhan_Scalable_Object_Detection_2014_CVPR_paper.pdf)\n- 深度学习中初始化和动量的重要性（2013年），I. Sutskever 等 [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002Ficml2013_sutskever13.pdf)\n- 使用DropConnect对神经网络进行正则化（2013年），L. Wan 等 [[pdf]](http:\u002F\u002Fmachinelearning.wustl.edu\u002Fmlpapers\u002Fpaper_files\u002Ficml2013_wan13.pdf)\n- 用于场景标注的层次特征学习（2013年），C. Farabet 等 [[pdf]](https:\u002F\u002Fhal-enpc.archives-ouvertes.fr\u002Fdocs\u002F00\u002F74\u002F20\u002F77\u002FPDF\u002Ffarabet-pami-13.pdf)\n- 连续空间词表示中的语言规律性（2013年），T. Mikolov 等 [[pdf]](http:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FN13-1#page=784)\n- 大规模分布式深度网络（2012年），J. Dean 等 [[pdf]](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F4687-large-scale-distributed-deep-networks.pdf)\n- 使用神经网络的快速且准确的依存句法分析器。Chen 和 Manning。[[pdf]](http:\u002F\u002Fcs.stanford.edu\u002Fpeople\u002Fdanqi\u002Fpapers\u002Femnlp2014.pdf)\n\n\n\n\n\n## 致谢\n\n感谢大家的贡献。请在提交拉取请求之前务必阅读[贡献指南](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fblob\u002Fmaster\u002FContributing.md)。\n\n## 许可证\n[![CC0](http:\u002F\u002Fmirrors.creativecommons.org\u002Fpresskit\u002Fbuttons\u002F88x31\u002Fsvg\u002Fcc-zero.svg)](https:\u002F\u002Fcreativecommons.org\u002Fpublicdomain\u002Fzero\u002F1.0\u002F)\n\n在法律允许的最大范围内，[Terry T. Um](https:\u002F\u002Fwww.facebook.com\u002Fterryum.io\u002F) 已放弃本作品的所有版权及相关或邻接权利。","# awesome-deep-learning-papers 快速上手指南\n\n`awesome-deep-learning-papers` 并非一个需要安装运行的软件库，而是一个精选的深度学习经典论文清单（2012-2016 年高引用论文）。本指南将帮助你快速获取、阅读和管理这些论文资源。\n\n## 环境准备\n\n本项目无需特定的系统环境或编程语言依赖，只需具备以下条件：\n- **操作系统**：Windows、macOS 或 Linux 均可。\n- **基础工具**：\n  - `git`：用于克隆仓库。\n  - 浏览器或 PDF 阅读器：用于阅读论文。\n  - (可选) Python 3.x：如果你希望运行脚本批量下载论文或提取作者信息。\n\n## 安装步骤\n\n### 方法一：直接浏览在线列表（推荐）\n最直接的方式是访问 GitHub 仓库页面在线阅读分类整理的论文列表及链接：\n```bash\n# 在浏览器中打开\nhttps:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\n```\n\n### 方法二：克隆仓库到本地\n如果你希望离线查看或运行辅助脚本，请执行以下命令：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers.git\ncd awesome-deep-learning-papers\n```\n\n> **国内加速提示**：如果克隆速度较慢，可使用国内镜像源（如 Gitee 镜像，若有）或配置 git 代理。\n> ```bash\n> # 示例：使用代理加速（需根据实际网络环境配置）\n> git clone https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers.git --config http.proxy=http:\u002F\u002F127.0.0.1:7890\n> ```\n\n### (可选) 安装 Python 依赖\n若要使用项目提供的批量下载脚本，确保已安装 Python 及 `requests` 库：\n```bash\npip install requests\n```\n\n## 基本使用\n\n### 1. 在线阅读与检索\n仓库 `README.md` 已将论文按领域分类（如卷积网络、生成模型、NLP 等）。你可以直接在文件中搜索关键词（如 \"ResNet\", \"GAN\", \"Attention\"）找到对应论文标题和 arXiv\u002FPDF 链接。\n\n**核心分类包括：**\n- **Understanding \u002F Generalization**: 知识蒸馏、特征迁移等。\n- **Optimization**: Batch Normalization, Adam, Dropout 等。\n- **Generative Models**: GAN, VAE, PixelRNN 等。\n- **CNN Models**: ResNet, Inception, VGG, AlexNet 等。\n\n### 2. 批量下载论文 (Python 脚本)\n项目提供了脚本一键下载前 100 篇经典论文的 PDF 文件。\n\n**下载所有 Top-100 论文：**\n```bash\npython fetch_papers.py\n```\n*执行后，脚本会自动创建目录并将论文 PDF 下载到本地。*\n\n**提取所有作者姓名：**\n```bash\npython get_authors.py\n```\n\n### 3. 使用 BibTeX 引用\n如果你正在撰写学术论文，可以直接使用项目提供的 `top100papers.bib` 文件。将该文件复制到你的 LaTeX 项目目录，并在 `.tex` 文件中引用：\n\n```latex\n\\bibliographystyle{plain}\n\\bibliography{top100papers}\n```\n\n### 4. 贡献与更新\n由于该列表主要维护至 2016 年的经典论文，若你需要查找最新论文，建议关注作者提到的社交媒体渠道或查阅列表中的 \"New Papers\" 附录部分。如有遗漏的经典论文，欢迎通过 Pull Request 贡献。","某高校人工智能实验室的硕士研究生李明，正着手开展关于卷积神经网络优化的课题研究，急需在两周内梳理出该领域的核心理论脉络以确立研究起点。\n\n### 没有 awesome-deep-learning-papers 时\n- **文献筛选如大海捞针**：面对谷歌学术上海量的搜索结果，难以区分哪些是奠基性的经典论文，哪些只是普通的增量研究，耗费大量时间阅读低价值文档。\n- **缺乏权威引用标准**：不确定 2012 至 2016 年间哪些论文真正定义了行业标准，担心遗漏关键理论（如 AlexNet、ResNet 的原始提出者），导致开题报告理论基础薄弱。\n- **学习路径混乱无序**：网络上各类书单杂乱无章，缺乏经过严格引用数据筛选的“必读”清单，初学者容易陷入细节而忽视领域发展的宏观逻辑。\n- **资料收集效率低下**：需要手动逐个查找论文 PDF、整理作者信息和 BibTeX 引用格式，繁琐的准备工作挤占了核心思考时间。\n\n### 使用 awesome-deep-learning-papers 后\n- **直击领域核心精华**：直接获取经严格筛选的“前 100 篇”高引论文列表，迅速锁定 2012-2016 年间最具影响力的奠基之作，瞬间明确研究坐标。\n- **建立扎实理论框架**：依据列表中的经典架构（如 VGG、GoogLeNet）按图索骥，快速构建起对深度学习演进史的清晰认知，确保研究方向不偏航。\n- **遵循科学阅读路线**：依托这份被社区公认的“必读”清单，制定出从基础原理到前沿突破的高效阅读计划，避免在次要文献上浪费精力。\n- **一键获取科研资源**：利用仓库提供的脚本自动批量下载顶会论文 PDF 并生成标准的 BibTeX 文件，将资料准备时间从数天缩短至几分钟。\n\nawesome-deep-learning-papers 通过提供一份经过时间验证的顶级论文清单，帮助研究者从信息过载中解脱，将宝贵精力聚焦于真正的创新思考之上。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fterryum_awesome-deep-learning-papers_74ccfebc.png","terryum","Terry Taewoong Um","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fterryum_e493a480.jpg","From lab to life. I'm an AI & robotics researcher, entrepreneur, and writer. I build Physical AI for the beauty industry.","Cosmax","Seoul, South Korea","terry.t.um@gmail.com","TerryUm_ML","https:\u002F\u002Fterry.artlab.ai\u002F","https:\u002F\u002Fgithub.com\u002Fterryum",[83,87],{"name":84,"color":85,"percentage":86},"TeX","#3D6117",85.7,{"name":88,"color":89,"percentage":90},"Python","#3572A5",14.3,26109,4441,"2026-04-14T09:16:42",null,1,"","未说明",{"notes":99,"python":97,"dependencies":100},"该项目并非可运行的软件工具，而是一个深度学习论文的阅读清单（Awesome List）。它主要包含论文标题、作者和 PDF 下载链接，因此没有操作系统、GPU、内存或 Python 环境等运行需求。README 中提到的 Python 脚本（fetch_papers.py, get_authors.py）仅用于抓取列表中的论文元数据，对运行环境无特殊要求。",[],[14],[103,104,105],"deep-learning","deep-neural-networks","machine-learning","2026-03-27T02:49:30.150509","2026-04-15T13:15:07.072513",[109,114,119,124,129,134],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},34339,"项目是否收录需要付费下载的 IEEE 论文？","项目优先收录提供免费下载链接（如 arXiv）的论文。但如果论文质量非常高，即使无法免费下载，也会被添加到列表中。","https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fissues\u002F51",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},34340,"运行 fetch_papers.py 脚本时出现语法错误或命令未找到怎么办？","该脚本可能需要使用 Python 2.7 运行。请尝试使用 Python 2.7 执行，并确保安装了 'requests' 库。安装命令示例：`c:\\Python27\\python.exe -m pip install requests`。","https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fissues\u002F59",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},34341,"为什么列表中同时存在两篇关于 Dropout 的论文（2012 年和 2014 年）？","2014 年的论文是 2012 年论文的扩展版。Dropout 概念最初在 2012 年提出，而 2014 年的论文包含了更多的理论和实证研究。由于两篇论文引用量均超过 1500 次，因此都保留在列表中。","https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fissues\u002F33",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},34342,"发现列表中的论文链接失效或指向错误内容该怎么办？","请提交 Issue 报告错误的链接，并提供正确的可用链接（例如 arXiv 链接或官方修正后的 PDF 地址）。维护者在确认后会尽快修复。例如，若原链接失效，可查找对应的 arXiv 版本链接提供出来。","https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fissues\u002F87",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},34343,"如何向项目推荐新的论文资源或书籍？","用户可以通过提交 Pull Request (PR) 的方式添加新的资源。虽然也可以先开 Issue 讨论，但维护者建议直接制作 PR 以提高效率。","https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fissues\u002F44",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},34344,"项目是否有计划支持 BibTeX (*.bib) 格式以便导入文献管理软件？","维护者同意这是一个好主意，因为许多研究人员熟悉 LaTeX 和 bib 文件。目前的构想是建立一个包含 DOI 和 PDF 链接的 bib 文件，并编写脚本自动从 bib 文件生成 Markdown 列表，但当时尚未找到合适的实现代码。","https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers\u002Fissues\u002F20",[]]