[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-abhshkdz--papers":3,"tool-abhshkdz--papers":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":23,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":23,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,60,43,61,15,62,26,13,63],"数据工具","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":75,"owner_website":82,"owner_url":83,"languages":84,"stars":85,"forks":86,"last_commit_at":87,"license":84,"difficulty_score":88,"env_os":89,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":94,"github_topics":95,"view_count":23,"oss_zip_url":84,"oss_zip_packed_at":84,"status":16,"created_at":101,"updated_at":102,"faqs":103,"releases":104},4185,"abhshkdz\u002Fpapers","papers",":paperclip: Summaries of papers on deep learning","papers 是一个专注于深度学习领域的论文摘要合集项目，旨在帮助读者快速掌握前沿学术成果的核心内容。面对海量且晦涩难懂的学术论文，研究人员和开发者往往需要耗费大量时间通读全文才能提取关键信息。papers 通过提供精选论文的通俗化解读与结构化综述，有效解决了这一痛点，让用户能高效筛选出与自己工作相关的研究进展。\n\n该项目特别适合人工智能领域的研究人员、算法工程师以及希望跟进技术动态的学生使用。其独特亮点在于不仅列出了原始论文链接，还附带了由社区贡献的深度评测（Review），涵盖了从“世界模型”、“残差网络”到“视觉对话生成”等 2016 至 2018 年间的经典工作。这些摘要保留了技术细节的准确性，同时降低了阅读门槛，帮助用户在几分钟内理解复杂模型的架构思路与创新点。无论是为了寻找灵感、复现实验，还是构建知识体系，papers 都是一份值得信赖的入门指南与参考资料库。","Summaries of papers on deep learning.\n\n2018\n\n- World Models [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.10122)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fworld-models.md)]\n    - David Ha, Jürgen Schmidhuber, ArXiv, 2018\n\n2017\n\n- A Deep Compositional Framework for Human-like Language Acquisition in Virtual Environment [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.09831)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fa-deep-compositional-framework-for-human-like-language-acquisition-in-virtual-environment.md)]\n    - Haonan Yu, Haichao Zhang, Wei Xu, ArXiv, 2017\n- A simple neural network module for relational reasoning [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.01427)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fa-simple-neural-network-module-for-relational-reasoning.md)]\n    - Adam Santoro, David Raposo, David G.T. Barrett, Mateusz Malinowski, Razvan Pascanu, Peter Battaglia, Timothy Lillicrap, NIPS, 2017\n- Are You Talking to Me? Reasoned Visual Dialog Generation through Adversarial Learning [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.07613)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fare-you-talking-to-me-reasoned-visual-dialog-generation-through-adversarial-learning.md)]\n    - Qi Wu, Peng Wang, Chunhua Shen, Ian Reid, Anton van den Hengel, ArXiv, 2017\n- From Red Wine to Red Tomato: Composition with Context [[Paper](http:\u002F\u002Fwww.cs.cmu.edu\u002F~imisra\u002Fdata\u002Fcomposing_cvpr17.pdf)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Ffrom-red-wine-to-red-tomato-composition-with-context.md)]\n    - Ishan Misra, Abhinav Gupta, Martial Hebert, CVPR, 2017\n- Towards Diverse and Natural Image Descriptions via a Conditional GAN [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.06029)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Ftowards-diverse-and-natural-image-descriptions-via-a-conditional-gan.md)]\n    - Bo Dai, Sanja Fidler, Raquel Urtasun, Dahua Lin, ICCV, 2017\n\n2016\n\n- Actions ~ Transformations [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.00795)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Factions-~-transformations.md)]\n    - Xiaolong Wang, Ali Farhadi, Abhinav Gupta, CVPR, 2016\n- Building Machines That Learn and Think Like People [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.00289)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fbuilding-machines-that-learn-and-think-like-people.md)]\n    - Brenden M. Lake, Tomer D. Ullman, Joshua B. Tenenbaum, Samuel J. Gershman, Behavioral and Brain Sciences, 2016\n- Deep Compositional Question Answering with Neural Module Networks [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.02799)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdeep-compositional-question-answering-with-neural-module-networks.md)]\n    - Jacob Andreas, Marcus Rohrbach, Trevor Darrell, Dan Klein, CVPR, 2016\n- Deep Networks with Stochastic Depth [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.09382)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdeep-networks-with-stochastic-depth.md)]\n    - Gao Huang, Yu Sun, Zhuang Liu, Daniel Sedra, Kilian Weinberger, ArXiv, 2016\n- Deep Reinforcement Learning for Dialogue Generation [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.01541)] [[Review](reviews\u002Fdeep-reinforcement-learning-for-dialogue-generation.md)]\n    - Jiwei Li, Will Monroe, Alan Ritter, Michel Galley, Jianfeng Gao, Dan Jurafsky, ArXiv, 2016\n- Deep Residual Learning for Image Recognition [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdeep-residual-learning-for-image-recognition.md)]\n    - Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun, ArXiv, 2016\n- Delving Deeper into Convolutional Networks for Learning Video Representations [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.06432)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdelving-deeper-into-convolutional-networks-for-learning-video-representations.md)]\n    - Nicolas Ballas, Li Yao, Chris Pal, Aaron Courville, ICLR, 2016\n- Dynamic Capacity Networks [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.07838)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdynamic-capacity-networks.md)]\n    - Amjad Almahairi, Nicolas Ballas, Tim Cooijmans, Yin Zheng, Hugo Larochelle, Aaron Courville, ICML, 2016\n- Identity Mappings in Deep Residual Networks [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1603.05027)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fidentity-mappings-in-deep-residual-networks.md)]\n    - Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun, ArXiv, 2016\n- Net2Net: Accelerating Learning via Knowledge Transfer [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.05641)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fnet2net-accelerating-learning-via-knowledge-transfer.md)]\n    - Tianqi Chen, Ian Goodfellow, Jonathon Shlens, ICLR, 2016\n- Perceptual Losses for Real-Time Style Transfer and Super-Resolution [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.08155)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fperceptual-losses-for-real-time-style-transfer-and-super-resolution.md)]\n    - Justin Johnson, Alexandre Alahi, Li Fei-Fei, ArXiv, 2016\n- Recurrent Batch Normalization [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1603.09025)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Frecurrent-batch-normalization.md)]\n    - Tim Cooijmans, Nicolas Ballas, César Laurent, Aaron Courville, ArXiv, 2016\n- Residual Networks are Exponential Ensembles of Relatively Shallow Networks [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1605.06431)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fresidual-networks-are-exponential-ensembles-of-relatively-shallow-networks.md)]\n    - Andreas Veit, Michael Wilber, Serge Belongie, ArXiv, 2016\n- Residual Networks of Residual Networks: Multilevel Residual Networks, ArXiv, 2016 [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1608.02908)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fresidual-networks-of-residual-networks-multilevel-residual-networks.md)]\n    - Ke Zhang, Miao Sun, Tony X. Han, Xingfang Yuan, Liru Guo, Tao Liu, ArXiv, 2016\n\n2015\n\n- Deep Visual Analogy-Making [[Paper](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5845-deep-visual-analogy-making)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdeep-visual-analogy-making.md)]\n    - Scott E. Reed, Yi Zhang, Yuting Zhang, Honglak Lee, NIPS, 2015\n- DenseCap: Fully Convolutional Localization Networks for Dense Captioning [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.07571)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdensecap-fully-convolutional-localization-networks-for-dense-captioning.md)]\n    - Justin Johnson, Andrej Karpathy, Li Fei-Fei, ArXiv, 2015\n- DRAW: A Recurrent Neural Network For Image Generation [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1502.04623)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdraw-a-recurrent-neural-network-for-image-generation.md)]\n    - Karol Gregor, Ivo Danihelka, Alex Graves, Danilo Jimenez Rezende, Daan Wierstra, ICML, 2015\n- Neural Machine Translation by Jointly Learning to Align and Translate [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1409.0473)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fneural-machine-translation-by-jointly-learning-to-align-and-translate.md)]\n    - Dzmitry Bahdanau, Kyunghyun Cho, Yoshua Bengio, ICLR, 2015\n- Object Detectors Emerge in Deep Scene CNNs [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1412.6856)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fobject-detectors-emerge-in-deep-scene-cnns.md)]\n    - Bolei Zhou, Aditya Khosla, Agata Lapedriza, Aude Oliva, Antonio Torralba, ICLR, 2015\n- Spatial Transformer Networks [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1506.02025)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fspatial-transformer-networks.md)]\n    - Max Jaderberg, Karen Simonyan, Andrew Zisserman, Koray Kavukcuoglu, NIPS, 2015\n- Stacked Attention Networks for Image Question Answering [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.02274)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fstacked-attention-networks-for-image-question-answering.md)]\n    - Zichao Yang, Xiaodong He, Jianfeng Gao, Li Deng, Alex Smola, ArXiv, 2015\n- Striving for Simplicity: the All Convolutional Net [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1412.6806)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fall-convolutional-net.md)]\n    - Jost Tobias Springenberg, Alexey Dosovitskiy, Thomas Brox, Martin Riedmiller, ICLR, 2015\n- You Only Look Once: Unified, Real-Time Object Detection [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1506.02640)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fyou-only-look-once-unified-real-time-object-detection.md)]\n    - Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi, ArXiv15\n\n2014\n\n- Convolutional Neural Networks for Sentence Classification [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1408.5882)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fconvolutional-neural-networks-for-sentence-classification.md)]\n    - Yoon Kim, EMNLP, 2014\n- Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1312.6034)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdeep-inside-convolutional-networks.md)]\n    - Karen Simonyan, Andrea Vedaldi, Andrew Zisserman, ICLR, 2014\n- Going Deeper with Convolutions [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1409.4842)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fgoing-deeper-with-convolutions.md)]\n    - Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, Andrew Rabinovich, ArXiv, 2014\n- How transferable are features in deep neural networks? [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1411.1792)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fhow-transferable-are-features-in-deep-neural-networks.md)]\n    - Jason Yosinski, Jeff Clune, Yoshua Bengio, Hod Lipson, NIPS, 2014\n- Intriguing Properties of Neural Networks [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1312.6199)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fintriguing-properties-of-neural-networks.md)]\n    - Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow, Rob Fergus, ICLR, 2014\n- Learning Deep Features for Scene Recognition using Places Database [[Paper](http:\u002F\u002Fplaces.csail.mit.edu\u002Fplaces_NIPS14.pdf)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Flearning-deep-features-for-scene-recognition-using-places-database.md)]\n    - Bolei Zhou, Agata Lapedriza, Jianxiong Xiao, Antonio Torralba, Aude Oliva, NIPS, 2014\n- Network in Network [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1312.4400)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fnetwork-in-network.md)]\n    - Min Lin, Qiang Chen, Shuicheng Yan, ICLR, 2014\n- Neural Turing Machines [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1410.5401)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fneural-turing-machines.md)]\n    - Alex Graves, Greg Wayne, Ivo Danihelka, ArXiv, 2014\n- Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1311.2524)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Frich-feature-hierarchies-for-accurate-object-detection-and-semantic-segmentation.md)]\n    - Ross Girshick, Jeff Donahue, Trevor Darrell, Jitendra Malik, CVPR, 2014\n- Sequence to Sequence Learning with Neural Networks [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1409.3215)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fsequence-to-sequence-learning-with-neural-networks.md)]\n    - Ilya Sutskever, Oriol Vinyals, Quoc V. Le, NIPS, 2014\n- Very Deep Convolutional Networks for Large-Scale Image Recognition [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1409.1556)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fvery-deep-convolutional-networks-for-large-scale-image-recognition.md)]\n    - Karen Simonyan, Andrew Zisserman, ArXiv, 2014\n- Visualizing and Understanding Convolutional Networks [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F1311.2901)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fvisualizing-and-understanding-convolutional-networks.md)]\n    - Matthew D Zeiler, Rob Fergus, ECCV, 2014\n\n2012\n\n- ImageNet Classification with Deep Convolutional Neural Networks [[Paper](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fimagenet-classification-with-deep-convolutional-neural-networks.md)]\n    - Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton, NIPS, 2012\n- What Question Would Turing Pose Today? [[Paper](http:\u002F\u002Fwww.aaai.org\u002Fojs\u002Findex.php\u002Faimagazine\u002Farticle\u002Fview\u002F2441)] [[Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fwhat-question-would-turing-pose-today.md)]\n    - Barbara Grosz, AI Magazine, 2012\n","深度学习论文摘要。\n\n2018年\n\n- 世界模型 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.10122)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fworld-models.md)]\n    - 大卫·哈、尤尔根·施密德胡伯，ArXiv，2018年\n\n2017年\n\n- 虚拟环境中类人语言习得的深度组合框架 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.09831)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fa-deep-compositional-framework-for-human-like-language-acquisition-in-virtual-environment.md)]\n    - 于浩楠、张海超、徐伟，ArXiv，2017年\n- 用于关系推理的简单神经网络模块 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.01427)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fa-simple-neural-network-module-for-relational-reasoning.md)]\n    - 亚当·桑托罗、大卫·拉波索、大卫·G.T.巴雷特、马特乌什·马利诺夫斯基、拉兹万·帕斯卡努、彼得·巴塔利亚、蒂莫西·利利克拉普，NIPS，2017年\n- 你在和我讲话吗？通过对抗学习实现有理性的视觉对话生成 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.07613)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fare-you-talking-to-me-reasoned-visual-dialog-generation-through-adversarial-learning.md)]\n    - 吴琦、王鹏、沈春华、伊恩·里德、安东·范登亨格尔，ArXiv，2017年\n- 从红酒到红番茄：带上下文的组合 [[论文](http:\u002F\u002Fwww.cs.cmu.edu\u002F~imisra\u002Fdata\u002Fcomposing_cvpr17.pdf)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Ffrom-red-wine-to-red-tomato-composition-with-context.md)]\n    - 伊山·米斯拉、阿比纳夫·古普塔、马蒂厄·埃贝尔，CVPR，2017年\n- 通过条件生成对抗网络实现多样且自然的图像描述 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.06029)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Ftowards-diverse-and-natural-image-descriptions-via-a-conditional-gan.md)]\n    - 戴博、桑贾·菲德勒、拉凯尔·乌尔塔孙、林大华，ICCV，2017年\n\n2016年\n\n- 行动 ~ 变换 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.00795)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Factions-~-transformations.md)]\n    - 王晓龙、阿里·法尔哈迪、阿比纳夫·古普塔，CVPR，2016年\n- 构建像人一样学习和思考的机器 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.00289)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fbuilding-machines-that-learn-and-think-like-people.md)]\n    - 布伦登·M·莱克、托默·D·乌尔曼、乔舒亚·B·特南鲍姆、塞缪尔·J·格什曼，行为与脑科学，2016年\n- 使用神经模块网络进行深度组合式问答 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.02799)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdeep-compositional-question-answering-with-neural-module-networks.md)]\n    - 雅各布·安德烈亚斯、马库斯·罗尔巴赫、特雷弗·达雷尔、丹·克莱因，CVPR，2016年\n- 具有随机深度的深度网络 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.09382)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdeep-networks-with-stochastic-depth.md)]\n    - 黄高、孙宇、刘壮、丹尼尔·塞德拉、基利安·温伯格，ArXiv，2016年\n- 对话生成中的深度强化学习 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1606.01541)] [[评论](reviews\u002Fdeep-reinforcement-learning-for-dialogue-generation.md)]\n    - 李季伟、威尔·门罗、艾伦·里特、米歇尔·加利、高剑峰、丹·朱拉夫斯基，ArXiv，2016年\n- 用于图像识别的深度残差学习 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdeep-residual-learning-for-image-recognition.md)]\n    - 凯明·何、张翔宇、任少青、孙健，ArXiv，2016年\n- 深入卷积网络以学习视频表示 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.06432)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdelving-deeper-into-convolutional-networks-for-learning-video-representations.md)]\n    - 尼古拉斯·巴拉斯、姚力、克里斯·帕尔、亚伦·库维尔，ICLR，2016年\n- 动态容量网络 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.07838)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdynamic-capacity-networks.md)]\n    - 阿姆贾德·阿尔马海里、尼古拉斯·巴拉斯、蒂姆·库伊曼斯、尹正、雨果·拉罗谢尔、亚伦·库维尔，ICML，2016年\n- 深度残差网络中的恒等映射 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1603.05027)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fidentity-mappings-in-deep-residual-networks.md)]\n    - 凯明·何、张翔宇、任少青、孙健，ArXiv，2016年\n- Net2Net：通过知识迁移加速学习 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.05641)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fnet2net-accelerating-learning-via-knowledge-transfer.md)]\n    - 陈天奇、伊恩·古德费洛、乔纳森·施伦斯，ICLR，2016年\n- 用于实时风格迁移和超分辨率的感知损失 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.08155)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fperceptual-losses-for-real-time-style-transfer-and-super-resolution.md)]\n    - 贾斯汀·约翰逊、亚历山大·阿拉伊、李飞飞，ArXiv，2016年\n- 循环批归一化 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1603.09025)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Frecurrent-batch-normalization.md)]\n    - 蒂姆·库伊曼斯、尼古拉斯·巴拉斯、塞萨尔·劳伦特、亚伦·库维尔，ArXiv，2016年\n- 残差网络是相对浅层网络的指数级集成 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1605.06431)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fresidual-networks-are-exponential-ensembles-of-relatively-shallow-networks.md)]\n    - 安德烈亚斯·韦特、迈克尔·威尔伯、塞尔日·贝隆吉，ArXiv，2016年\n- 残差网络的残差网络：多层级残差网络，ArXiv，2016年 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1608.02908)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fresidual-networks-of-residual-networks-multilevel-residual-networks.md)]\n    - 张科、孙淼、韩东旭、袁兴芳、郭丽茹、刘涛，ArXiv，2016年\n\n2015年\n\n- 深度视觉类比构建 [[论文](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5845-deep-visual-analogy-making)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdeep-visual-analogy-making.md)]\n    - 斯科特·E·里德、张毅、张宇婷、李宏乐，NIPS，2015年\n- DenseCap：用于密集字幕生成的全卷积定位网络 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.07571)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdensecap-fully-convolutional-localization-networks-for-dense-captioning.md)]\n    - 贾斯汀·约翰逊、安德烈·卡帕西、李飞飞，ArXiv，2015年\n- DRAW：用于图像生成的循环神经网络 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1502.04623)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdraw-a-recurrent-neural-network-for-image-generation.md)]\n    - 卡罗尔·格雷戈尔、伊沃·丹尼赫尔卡、亚历克斯·格雷夫斯、达尼洛·希门尼斯·雷森德、达安·维尔斯特拉，ICML，2015年\n- 通过联合学习对齐与翻译实现神经机器翻译 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1409.0473)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fneural-machine-translation-by-jointly-learning-to-align-and-translate.md)]\n    - 季米特里·巴赫达诺夫、邱炯炫、约书亚·本吉奥，ICLR，2015年\n- 深层场景CNN中涌现的目标检测器 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1412.6856)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fobject-detectors-emerge-in-deep-scene-cnns.md)]\n    - 周博磊、阿迪提亚·科斯拉、阿加塔·拉佩德里扎、奥黛·奥利瓦、安东尼奥·托拉尔巴，ICLR，2015年\n- 空间变换网络 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1506.02025)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fspatial-transformer-networks.md)]\n    - 马克斯·雅德伯格、凯伦·西蒙扬、安德鲁·齐瑟曼、科雷·卡武克乔卢，NIPS，2015年\n- 用于图像问答的堆叠注意力网络 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.02274)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fstacked-attention-networks-for-image-question-answering.md)]\n    - 杨子超、何晓东、高建峰、邓丽、亚历克斯·斯莫拉，ArXiv，2015年\n- 追求简单：全卷积网络 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1412.6806)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fall-convolutional-net.md)]\n    - 约斯特·托比亚斯·施普林根贝格、阿列克谢·多索维茨基、托马斯·布罗克斯、马丁·里德米勒，ICLR，2015年\n- 你只看一次：统一的实时目标检测 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1506.02640)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fyou-only-look-once-unified-real-time-object-detection.md)]\n    - 约瑟夫·雷德蒙、桑托什·迪瓦拉、罗斯·吉尔希克、阿里·法哈迪，ArXiv，2015年\n\n2014年\n\n- 用于句子分类的卷积神经网络 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1408.5882)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fconvolutional-neural-networks-for-sentence-classification.md)]\n    - 尹金，EMNLP，2014年\n- 卷积网络深处：图像分类模型与显著性图的可视化 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1312.6034)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fdeep-inside-convolutional-networks.md)]\n    - 凯伦·西蒙扬、安德烈亚·韦达尔迪、安德鲁·齐瑟曼，ICLR，2014年\n- 更深层次的卷积 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1409.4842)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fgoing-deeper-with-convolutions.md)]\n    - 克里斯蒂安·塞格迪、魏刘、杨青嘉、皮埃尔·塞尔曼内、斯科特·里德、德拉戈米尔·安古洛夫、杜米特鲁·埃尔汉、文森特·范霍克、安德鲁·拉比诺维奇，ArXiv，2014年\n- 深度神经网络中的特征有多大的可迁移性？ [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1411.1792)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fhow-transferable-are-features-in-deep-neural-networks.md)]\n    - 杰森·约辛斯基、杰夫·克鲁恩、约书亚·本吉奥、霍德·利普森，NIPS，2014年\n- 神经网络的有趣特性 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1312.6199)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fintriguing-properties-of-neural-networks.md)]\n    - 克里斯蒂安·塞格迪、沃伊切赫·扎伦巴、伊利亚·苏茨凯弗、琼·布鲁纳、杜米特鲁·埃尔汉、伊恩·古德费洛、罗布·费格斯，ICLR，2014年\n- 使用Places数据库学习场景识别的深度特征 [[论文](http:\u002F\u002Fplaces.csail.mit.edu\u002Fplaces_NIPS14.pdf)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Flearning-deep-features-for-scene-recognition-using-places-database.md)]\n    - 周博磊、阿加塔·拉佩德里扎、肖建雄、安东尼奥·托拉尔巴、奥黛·奥利瓦，NIPS，2014年\n- 网络中的网络 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1312.4400)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fnetwork-in-network.md)]\n    - 林敏、陈强、颜水成，ICLR，2014年\n- 神经图灵机 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1410.5401)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fneural-turing-machines.md)]\n    - 亚历克斯·格雷夫斯、格雷格·韦恩、伊沃·丹尼赫尔卡，ArXiv，2014年\n- 用于精确目标检测和语义分割的丰富特征层次结构 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1311.2524)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Frich-feature-hierarchies-for-accurate-object-detection-and-semantic-segmentation.md)]\n    - 罗斯·吉尔希克、杰夫·多纳休、特雷弗·达雷尔、吉滕德拉·马利克，CVPR，2014年\n- 使用神经网络进行序列到序列学习 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1409.3215)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fsequence-to-sequence-learning-with-neural-networks.md)]\n    - 伊利亚·苏茨凯弗、奥里奥尔·维尼亚尔斯、郭文·黎，NIPS，2014年\n- 用于大规模图像识别的非常深的卷积网络 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1409.1556)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fvery-deep-convolutional-networks-for-large-scale-image-recognition.md)]\n    - 凯伦·西蒙扬、安德鲁·齐瑟曼，ArXiv，2014年\n- 可视化与理解卷积网络 [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F1311.2901)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fvisualizing-and-understanding-convolutional-networks.md)]\n    - 马修·D·泽勒、罗布·费格斯，ECCV，2014年\n\n2012年\n\n- 使用深度卷积神经网络进行ImageNet分类 [[论文](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fimagenet-classification-with-deep-convolutional-neural-networks.md)]\n    - 亚历克斯·克里泽夫斯基、伊利亚·苏茨凯弗、杰弗里·辛顿，NIPS，2012年\n- 图灵今天会提出什么问题？ [[论文](http:\u002F\u002Fwww.aaai.org\u002Fojs\u002Findex.php\u002Faimagazine\u002Farticle\u002Fview\u002F2441)] [[评论](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fwhat-question-would-turing-pose-today.md)]\n    - 芭芭拉·格罗斯，AI杂志，2012年","# papers 快速上手指南\n\n`papers` 并非一个可执行的软件工具或代码库，而是一个**深度学习论文精选清单与解读仓库**。它汇集了 2014 年至 2018 年间的重要深度学习论文，并提供了对应的中文\u002F英文导读（Review）。\n\n本指南将帮助你快速访问和利用该资源。\n\n## 环境准备\n\n本项目无需安装任何 Python 包或配置运行环境，仅需具备以下条件：\n- **操作系统**：Windows \u002F macOS \u002F Linux 均可\n- **前置依赖**：\n  - 现代浏览器（用于直接在线阅读）\n  - 或 Git 命令行工具（用于克隆仓库到本地）\n\n## 安装步骤\n\n你可以选择以下任一方式获取内容：\n\n### 方式一：在线浏览（推荐）\n直接访问 GitHub 仓库页面，无需安装：\n```text\nhttps:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\n```\n\n### 方式二：克隆到本地\n若需离线阅读或贡献内容，请使用以下命令克隆仓库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers.git\ncd papers\n```\n\n> **国内加速建议**：如果克隆速度较慢，可使用国内镜像源（如 Gitee 镜像，若有）或配置 Git 代理。\n> ```bash\n> # 示例：使用代理加速（根据实际网络环境调整）\n> git clone https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers.git --config http.proxy=http:\u002F\u002F127.0.0.1:7890\n> ```\n\n## 基本使用\n\n### 1. 查找论文\n进入仓库根目录后，按年份文件夹（如 `2018`, `2017`）或直接查看 `README.md` 列表，找到你感兴趣的论文标题。\n\n### 2. 阅读导读（Review）\n每个论文条目下都包含 `[Review]` 链接。点击该链接可查看详细的论文解读。\n- **在线查看**：直接在 GitHub 上点击链接阅读 Markdown 文件。\n- **本地查看**：在克隆后的目录中，进入 `reviews\u002F` 文件夹，打开对应的 `.md` 文件。\n\n**示例：阅读 \"World Models\" 的导读**\n- 在线链接：[World Models Review](https:\u002F\u002Fgithub.com\u002Fabhshkdz\u002Fpapers\u002Fblob\u002Fmaster\u002Freviews\u002Fworld-models.md)\n- 本地路径：`papers\u002Freviews\u002Fworld-models.md`\n\n### 3. 获取原文\n每个条目均提供 `[Paper]` 链接，指向 arXiv 或会议官方 PDF，点击即可下载或阅读原文。\n\n---\n*注：本仓库主要为静态文档资源，无命令行交互功能。*","某高校人工智能实验室的研究生团队正致力于复现经典的“世界模型（World Models）”架构，以构建能在虚拟环境中自主学习的智能体。\n\n### 没有 papers 时\n- 研究人员需手动在 arXiv 上检索海量文献，难以快速筛选出与深度学习和关系推理最相关的核心论文。\n- 面对《Deep Residual Learning》或《Neural Module Networks》等长篇技术文档，团队成员需耗费数天逐字精读才能提取关键创新点。\n- 由于缺乏统一的解读视角，不同成员对同一篇论文（如对抗学习在对话生成中的应用）的理解存在偏差，导致复现方向跑偏。\n- 组会讨论时，大家花费大量时间互相同步基础概念，而非深入探讨算法改进策略，严重拖慢研发进度。\n\n### 使用 papers 后\n- 团队直接利用 papers 中按年份和主题整理的清单，秒级定位到 2016-2018 年间关于组合式框架与视觉对话的必读文献。\n- 借助仓库中提供的精炼综述（Review），成员可在半小时内掌握《World Models》的核心架构与实验结论，大幅缩短预习时间。\n- 所有成员基于 papers 中标准化的解读笔记对齐认知，确保了对“随机深度网络”等复杂机制的理解一致，避免了复现歧义。\n- 节省下来的文献调研时间被重新投入到代码调试与模型优化中，使得原型系统的迭代周期从两周缩短至三天。\n\npapers 通过将晦涩的学术论文转化为结构化的知识摘要，让研发团队从繁重的阅读负担中解放出来，专注于真正的算法创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fabhshkdz_papers_8a90c7a1.png","abhshkdz","Abhishek Das","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fabhshkdz_4bd6a426.jpg","Co-CEO, Yutori","Yutori","San Francisco","das.abhshk@gmail.com","http:\u002F\u002Fabhishekdas.com\u002F","https:\u002F\u002Fgithub.com\u002Fabhshkdz",null,572,120,"2026-02-21T20:14:11",1,"","未说明",{"notes":92,"python":90,"dependencies":93},"该仓库并非可运行的 AI 工具或代码库，而是一个深度学习论文摘要和评论的列表（Markdown 文档集合）。它不包含任何源代码、模型权重或安装脚本，因此无需配置操作系统、GPU、内存、Python 环境或依赖库。用户只需通过浏览器查看或使用 Git 克隆仓库即可阅读内容。",[],[14,13],[96,97,98,99,100],"deep-learning","deep-neural-networks","computer-vision","machine-learning","artificial-intelligence","2026-03-27T02:49:30.150509","2026-04-06T14:04:02.247325",[],[]]