[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-RedditSota--state-of-the-art-result-for-machine-learning-problems":3,"tool-RedditSota--state-of-the-art-result-for-machine-learning-problems":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,2,"2026-04-13T11:34:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":76,"languages":74,"stars":77,"forks":78,"last_commit_at":79,"license":80,"difficulty_score":81,"env_os":82,"env_gpu":83,"env_ram":83,"env_deps":84,"category_tags":87,"github_topics":74,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":90,"updated_at":91,"faqs":92,"releases":118},7119,"RedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems","state-of-the-art-result-for-machine-learning-problems","This repository provides state of the art (SoTA) results for all machine learning problems. We do our best to keep this repository up to date.  If you do find a problem's SoTA result is out of date or missing, please raise this as an issue or submit Google form (with this information: research paper name, dataset, metric, source code and year). We will fix it immediately.","state-of-the-art-result-for-machine-learning-problems 是一个致力于汇总机器学习领域最新前沿（SoTA）成果的开源知识库。它旨在解决研究人员和开发者在追踪快速迭代的算法性能时面临的痛点，将分散在各篇论文中的最佳实验结果集中整理，提供“一站式”查询服务。\n\n该资源库涵盖了监督学习、半监督学习、无监督学习、迁移学习及强化学习等多个核心方向，并细分为自然语言处理（NLP）、计算机视觉和语音识别等具体场景。对于每一个任务，它不仅列出了表现最优的研究论文名称，还详细记录了所使用的数据集、关键评估指标（如困惑度）、开源代码链接以及发表年份。例如，在语言建模任务中，用户可以直观对比不同模型在 PTB 或 WikiText-2 数据集上的表现差异。\n\n这一工具特别适合人工智能领域的研究人员、算法工程师以及高校学生使用。对于需要复现经典实验、寻找基线模型（Baseline）或了解领域最新进展的专业人士而言，它能极大节省文献调研时间。其独特的亮点在于采用了社区协作模式，鼓励全球用户通过提交 Issue 或在线表单来更新缺失或过时的数据，确保内容的时效性与","state-of-the-art-result-for-machine-learning-problems 是一个致力于汇总机器学习领域最新前沿（SoTA）成果的开源知识库。它旨在解决研究人员和开发者在追踪快速迭代的算法性能时面临的痛点，将分散在各篇论文中的最佳实验结果集中整理，提供“一站式”查询服务。\n\n该资源库涵盖了监督学习、半监督学习、无监督学习、迁移学习及强化学习等多个核心方向，并细分为自然语言处理（NLP）、计算机视觉和语音识别等具体场景。对于每一个任务，它不仅列出了表现最优的研究论文名称，还详细记录了所使用的数据集、关键评估指标（如困惑度）、开源代码链接以及发表年份。例如，在语言建模任务中，用户可以直观对比不同模型在 PTB 或 WikiText-2 数据集上的表现差异。\n\n这一工具特别适合人工智能领域的研究人员、算法工程师以及高校学生使用。对于需要复现经典实验、寻找基线模型（Baseline）或了解领域最新进展的专业人士而言，它能极大节省文献调研时间。其独特的亮点在于采用了社区协作模式，鼓励全球用户通过提交 Issue 或在线表单来更新缺失或过时的数据，确保内容的时效性与准确性。尽管部分数据更新依赖于社区贡献，但它依然是探索机器学习技术边界、把握行业发展脉搏的实用参考指南。","# State-of-the-art result for all Machine Learning Problems\n\n### LAST UPDATE: 20th Februray 2019\n\n### NEWS: I am looking for a Collaborator esp who does research in NLP, Computer Vision and Reinforcement learning. If you are not a researcher, but you are willing, contact me. Email me: yxt.stoaml@gmail.com\n\nThis repository provides state-of-the-art (SoTA) results for all machine learning problems. We do our best to keep this repository up to date.  If you do find a problem's SoTA result is out of date or missing, please raise this as an issue (with this information: research paper name, dataset, metric, source code and year). We will fix it immediately.\n\nYou can also submit this [Google Form](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSe_fFZVCeCVRGGgOQIpoQSXY7mZWynsx7g6WxZEVpO5vJioUA\u002Fviewform?embedded=true) if you are new to Github.\n\nThis is an attempt to make  one stop for all types of machine learning problems state of the art result. I can not do this alone. I need help from everyone. Please submit the Google form\u002Fraise an issue if you find SOTA result for a dataset.  Please share this on Twitter, Facebook, and other social media.\n\n\nThis summary is categorized into:\n\n- [Supervised Learning](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#supervised-learning)\n    - [Speech](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#speech)\n    - [Computer Vision](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#computer-vision)\n    - [NLP](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#nlp)\n- [Semi-supervised Learning](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#semi-supervised-learning)\n    - Computer Vision\n- [Unsupervised Learning](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#unsupervised-learning)\n    - Speech\n    - Computer Vision\n    - [NLP](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems\u002Fblob\u002Fmaster\u002FREADME.md#nlp-1)\n- [Transfer Learning](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#transfer-learning)\n- [Reinforcement Learning](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#reinforcement-learning)\n\n## Supervised Learning\n\n\n### NLP\n#### 1. Language Modelling\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>  \n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Fd4mucfpksywv.cloudfront.net\u002Fbetter-language-models\u002Flanguage-models.pdf'> Language Models are Unsupervised Multitask Learners \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> PTB \u003C\u002Fli>\u003Cli> WikiText-2 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> Perplexity: 35.76 \u003C\u002Fli>\u003Cli> Perplexity: 18.34 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href='https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-2'>Tensorflow \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2019\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.03953.pdf'>BREAKING THE SOFTMAX BOTTLENECK: A HIGH-RANK RNN LANGUAGE MODEL \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> PTB \u003C\u002Fli>\u003Cli> WikiText-2 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> Perplexity: 47.69 \u003C\u002Fli>\u003Cli> Perplexity: 40.68 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href='https:\u002F\u002Fgithub.com\u002Fzihangdai\u002Fmos'>Pytorch \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1709.07432.pdf'>DYNAMIC EVALUATION OF NEURAL SEQUENCE MODELS \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> PTB \u003C\u002Fli>\u003Cli> WikiText-2 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> Perplexity: 51.1 \u003C\u002Fli>\u003Cli> Perplexity: 44.3 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href='https:\u002F\u002Fgithub.com\u002Fbenkrause\u002Fdynamic-evaluation'>Pytorch \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.02182.pdf'>Averaged Stochastic Gradient  Descent \u003Cbr\u002F> with Weight Dropped LSTM or QRNN \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> PTB \u003C\u002Fli>\u003Cli> WikiText-2 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> Perplexity: 52.8 \u003C\u002Fli>\u003Cli> Perplexity: 52.0 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href='https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Fawd-lstm-lm'>Pytorch \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.00066.pdf'>FRATERNAL DROPOUT \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> PTB \u003C\u002Fli>\u003Cli> WikiText-2 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> Perplexity: 56.8 \u003C\u002Fli>\u003Cli> Perplexity: 64.1 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fkondiz\u002Ffraternal-dropout'> Pytorch \u003C\u002Fa>  \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n        \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.10722.pdf'>Factorization tricks for LSTM networks \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">One Billion Word Benchmark\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> Perplexity:  23.36\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href='https:\u002F\u002Fgithub.com\u002Fokuchaiev\u002Ff-lm'>Tensorflow \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n\n\n#### 2. Machine Translation\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1808.09381v2.pdf'> Understanding Back-Translation at Scale \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>WMT 2014 English-to-French \u003C\u002Fli>\u003Cli>WMT 2014 English-to-German \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  BLEU: 45.6 \u003C\u002Fli>\u003Cli>   BLEU: 35.0 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fpytorch\u002Ffairseq'>PyTorch\u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2018\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.02132.pdf'>WEIGHTED TRANSFORMER NETWORK FOR\nMACHINE TRANSLATION\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>WMT 2014 English-to-French \u003C\u002Fli>\u003Cli>WMT 2014 English-to-German \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  BLEU: 41.4 \u003C\u002Fli>\u003Cli>   BLEU: 28.9 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href=''>NOT FOUND\u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.03762'>Attention Is All You Need\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>WMT 2014 English-to-French \u003C\u002Fli>\u003Cli>WMT 2014 English-to-German \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  BLEU: 41.0 \u003C\u002Fli>\u003Cli>   BLEU: 28.4 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fjadore801120\u002Fattention-is-all-you-need-pytorch'>PyTorch\u003C\u002Fa> \u003C\u002Fli>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensor2tensor'>Tensorflow\u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n     \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Feinstein.ai\u002Fstatic\u002Fimages\u002Fpages\u002Fresearch\u002Fnon-autoregressive-neural-mt.pdf'>NON-AUTOREGRESSIVE\nNEURAL MACHINE TRANSLATION\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> WMT16 Ro→En \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> BLEU: 31.44 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Fnonauto-nmt'>PyTorch\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n      \u003C\u002Ftr>\n          \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.04887'> Improving Neural Machine Translation with Conditional Sequence Generative Adversarial Nets\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>NIST02    \u003C\u002Fli>\u003Cli>NIST03 \u003C\u002Fli>\u003Cli>NIST04 \u003C\u002Fli>\u003Cli>NIST05 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cli>38.74  \u003C\u002Fli>\u003Cli>36.01  \u003C\u002Fli>\u003Cli> 37.54 \u003C\u002Fli>\u003Cli>33.76 \u003C\u002Fli>\u003C\u002Ful \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fngohoanhkhoa\u002FGAN-NMT'>NMTPY\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>  \n\n#### 3. Text Classification\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.09207'> Learning Structured Text Representations \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Yelp\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Accuracy: 68.6\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fnlpyang\u002Fstructured'>Tensorflow\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.00519.pdf'>Attentive Convolution\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Yelp\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Accuracy: 67.36\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fyinwenpeng\u002FAttentive_Convolution'>Theano\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n#### 4. Natural Language Inference \nLeader board: \n\n[Stanford Natural Language Inference (SNLI)](https:\u002F\u002Fnlp.stanford.edu\u002Fprojects\u002Fsnli\u002F)\n\n[MultiNLI](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fmultinli-matched-open-evaluation\u002Fleaderboard)\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1709.04348.pdf'> NATURAL LANGUAGE INFERENCE OVER INTERACTION SPACE \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Stanford Natural Language Inference (SNLI)\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Accuracy: 88.9\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href='https:\u002F\u002Fgithub.com\u002FYichenGong\u002FDensely-Interactive-Inference-Network'>Tensorflow\u003C\u002Fa> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>\n  \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href=https:\u002F\u002Farxiv.org\u002Fpdf\u002F1810.04805.pdf> BERT-LARGE (ensemble) \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Multi-Genre Natural Language Inference (MNLI)\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>Matched accuracy: 86.7\u003C\u002Fli>\u003Cli>Mismatched accuracy: 85.9\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert'>Tensorflow\u003C\u002Fa>\u003C\u002Fli>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-pretrained-BERT'>PyTorch\u003C\u002Fa>\u003C\u002Fli> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2018\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n#### 5. Question Answering\nLeader Board\n\n[SQuAD](https:\u002F\u002Frajpurkar.github.io\u002FSQuAD-explorer\u002F)\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1810.04805.pdf'> BERT-LARGE (ensemble) \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">The Stanford Question Answering Dataset\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> Exact Match: 87.4 \u003C\u002Fli>\u003Cli> F1: 93.2 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert'>Tensorflow\u003C\u002Fa>\u003C\u002Fli>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-pretrained-BERT'>PyTorch\u003C\u002Fa> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2018\u003C\u002Ftd>    \n  \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n#### 6. Named entity recognition\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.11027.pdf'>Named Entity Recognition in Twitter using Images and Text \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Ritter\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> F-measure: 0.59 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href=''>NOT FOUND\u003C\u002Fa> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n  \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n#### 7. Abstractive Summarization\n\nResearch Paper | Datasets  | Metric | Source Code | Year  \n------------ | ------------- | ------------ | ------------- | -------------  \n[Cutting-off redundant repeating generations \u003C\u002Fbr> for neural abstractive summarization](https:\u002F\u002Faclanthology.info\u002Fpdf\u002FE\u002FE17\u002FE17-2047.pdf) | \u003Cul>\u003Cli>DUC-2004\u003C\u002Fli>\u003Cli>Gigaword\u003C\u002Fli>\u003C\u002Ful> | \u003Cul>\u003Cli>DUC-2004\u003C\u002Fli>\u003Cul>\u003Cli> ROUGE-1: **32.28** \u003C\u002Fli>\u003Cli> ROUGE-2: 10.54 \u003C\u002Fli>\u003Cli>ROUGE-L: **27.80** \u003C\u002Fli>\u003C\u002Ful>\u003Cli>Gigaword\u003C\u002Fli>\u003Cul>\u003Cli> ROUGE-1: **36.30** \u003C\u002Fli>\u003Cli> ROUGE-2: 17.31 \u003C\u002Fli>\u003Cli>ROUGE-L: **33.88** \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ful> | NOT YET AVAILABLE | 2017\n[Convolutional Sequence to Sequence](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1705.03122.pdf) | \u003Cul>\u003Cli>DUC-2004\u003C\u002Fli>\u003Cli>Gigaword\u003C\u002Fli>\u003C\u002Ful> | \u003Cul>\u003Cli>DUC-2004\u003C\u002Fli>\u003Cul>\u003Cli> ROUGE-1: 33.44 \u003C\u002Fli>\u003Cli> ROUGE-2: **10.84** \u003C\u002Fli>\u003Cli>ROUGE-L: 26.90 \u003C\u002Fli>\u003C\u002Ful>\u003Cli>Gigaword\u003C\u002Fli>\u003Cul>\u003Cli> ROUGE-1: 35.88 \u003C\u002Fli>\u003Cli> ROUGE-2: 27.48 \u003C\u002Fli>\u003Cli>ROUGE-L: 33.29 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ful> | [PyTorch](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Ffairseq-py) | 2017\n\n\n#### 8. Dependency Parsing\n\nResearch Paper | Datasets  | Metric | Source Code | Year  \n------------ | ------------- | ------------ | ------------- | -------------  \n[Globally Normalized Transition-Based Neural Networks](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.06042.pdf) | \u003Cul>\u003Cli>Final CoNLL ’09 dependency parsing \u003C\u002Fli>\u003C\u002Ful> | \u003Cul>\u003Cli> 94.08% UAS accurancy\u003C\u002Fli> \u003Cli>92.15% LAS accurancy\u003C\u002Fli>\u003C\u002Ful> | \u003Cul>\u003Cli>[SyntaxNet](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fsyntaxnet) \u003C\u002Fli>\u003C\u002Ful>| \u003Cul>\u003Cli>2017\u003C\u002Fli>\u003C\u002Ful>\n\n\n### Computer Vision\n\n#### 1. Classification\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.09829.pdf'> Dynamic Routing Between Capsules \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> MNIST \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Test Error: 0.25±0.005 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002FSarasra\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcapsules'>Official Implementation\u003C\u002Fa> \u003C\u002Fli>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fgram-ai\u002Fcapsule-networks'>PyTorch\u003C\u002Fa> \u003C\u002Fli>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fnaturomics\u002FCapsNet-Tensorflow'>Tensorflow\u003C\u002Fa> \u003C\u002Fli>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002FXifengGuo\u002FCapsNet-Keras'>Keras\u003C\u002Fa> \u003C\u002Fli>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fsoskek\u002Fdynamic_routing_between_capsules'>Chainer\u003C\u002Fa> \u003C\u002Fli> \u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Floretoparisi\u002FCapsNet'>List of all implementations\u003C\u002Fa> \u003C\u002Fli>\n          \u003C\u002Ful>  \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1102.0183.pdf'> High-Performance Neural Networks for Visual Object Classification \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> NORB \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Test Error: 2.53 ± 0.40 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href=''>NOT FOUND\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2011\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.06965.pdf'>Giant AmoebaNet with GPipe\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> CIFAR-10 \u003C\u002Fli> \u003Cli> CIFAR-100\u003C\u002Fli>\u003Cli> ImageNet-1k\u003C\u002Fli>\u003Cli> ...\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Test Error: 1.0% \u003C\u002Fli> \u003Cli> Test Error: 8.7% \u003C\u002Fli>\u003Cli> Top-1 Error 15.7\u003C\u002Fli>\u003Cli> ...\u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> \u003Ca href=''>NOT FOUND\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2018\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Fopenreview.net\u002Fpdf?id=S1NHaMW0b'>ShakeDrop regularization \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> CIFAR-10 \u003C\u002Fli> \u003Cli> CIFAR-100\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Test Error: 2.31% \u003C\u002Fli> \u003Cli> Test Error: 12.19% \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> \u003Ca href=''>NOT FOUND\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.05431.pdf'>Aggregated Residual Transformations for Deep Neural Networks \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  CIFAR-10  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Test Error: 3.58% \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FResNeXt'>PyTorch\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.04896'> Random Erasing Data Augmentation \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> CIFAR-10 \u003C\u002Fli> \u003Cli> CIFAR-100 \u003C\u002Fli> \u003Cli> Fashion-MNIST \u003C\u002Fli> \u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Test Error: 3.08% \u003C\u002Fli>\n          \u003Cli> Test Error: 17.73% \u003C\u002Fli>\n          \u003Cli> Test Error: 3.65% \u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing'> Pytorch \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.07634'> EraseReLU: A Simple Way to Ease the Training of Deep Convolution Neural Networks \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> CIFAR-10 \u003C\u002Fli> \u003Cli> CIFAR-100 \u003C\u002Fli> \u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Test Error: 3.56% \u003C\u002Fli>\n          \u003Cli> Test Error: 16.53% \u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002FD-X-Y\u002FEraseReLU'> Pytorch \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.09829.pdf'> Dynamic Routing Between Capsules \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> MultiMNIST \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Test Error: 5% \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fgram-ai\u002Fcapsule-networks'>PyTorch\u003C\u002Fa> \u003C\u002Fli>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fnaturomics\u002FCapsNet-Tensorflow'>Tensorflow\u003C\u002Fa> \u003C\u002Fli>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002FXifengGuo\u002FCapsNet-Keras'>Keras\u003C\u002Fa> \u003C\u002Fli>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fsoskek\u002Fdynamic_routing_between_capsules'>Chainer\u003C\u002Fa> \u003C\u002Fli>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Floretoparisi\u002FCapsNet'>List of all implementations\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1707.07012.pdf'>Learning Transferable Architectures for Scalable Image Recognition\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>   ImageNet-1k  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Top-1 Error:17.3 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fslim\u002Fnets\u002Fnasnet'>Tensorflow\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n     \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1709.01507.pdf'>Squeeze-and-Excitation Networks \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>   ImageNet-1k  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Top-1 Error: 18.68 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fhujie-frank\u002FSENet'>CAFFE\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.05431.pdf'>Aggregated Residual Transformations for Deep Neural Networks \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>   ImageNet-1k  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Top-1 Error: 20.4% \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FResNeXt'>Torch\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2016\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n#### 2. Instance Segmentation\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.06870.pdf'>Mask R-CNN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> COCO  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Average Precision: 37.1% \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FDetectron'>Detectron (Official Version)\u003C\u002Fa> \u003C\u002Fli>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002FTuSimple\u002Fmx-maskrcnn'>MXNet\u003C\u002Fa> \u003C\u002Fli>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fmatterport\u002FMask_RCNN'>Keras\u003C\u002Fa> \u003C\u002Fli>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002FCharlesShang\u002FFastMaskRCNN'>TensorFlow \u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n#### 3. Visual Question Answering\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.02711'>Tips and Tricks for Visual Question Answering: Learnings from the 2017 Challenge\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> VQA  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Overall score: 69 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>   \u003Ca href=''>NOT FOUND\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n#### 4. Person Re-identification\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.04896'> Random Erasing Data Augmentation \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> \u003Ca href='http:\u002F\u002Fwww.liangzheng.org\u002FProject\u002Fproject_reid.html'> Market-1501 \u003C\u002Fa> \u003C\u002Fli> \u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002Fperson-re-ranking'> CUHK03-new-protocol \u003C\u002Fa> \u003C\u002Fli> \u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Flayumi\u002FDukeMTMC-reID_evaluation'> DukeMTMC-reID \u003C\u002Fa> \u003C\u002Fli> \u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Rank-1: 89.13 mAP: 83.93 \u003C\u002Fli>\n          \u003Cli> Rank-1: 84.02 mAP: 78.28 \u003C\u002Fli>\n          \u003Cli> labeled (Rank-1: 63.93 mAP: 65.05) detected (Rank-1: 64.43 mAP: 64.75) \u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing'> Pytorch \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n### Speech\n[Speech SOTA](https:\u002F\u002Fgithub.com\u002Fsyhw\u002Fwer_are_we)\n#### 1. ASR\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.06073.pdf'>The Microsoft 2017 Conversational Speech Recognition System\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Switchboard Hub5'00  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> WER: 5.1  \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href=''>NOT FOUND\u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1801.00059.pdf'>The CAPIO 2017 Conversational Speech Recognition System\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Switchboard Hub5'00  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> WER: 5.0  \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href=''>NOT FOUND\u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n## Semi-supervised Learning\n#### Computer Vision\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1507.00677.pdf'> DISTRIBUTIONAL SMOOTHINGWITH VIRTUAL ADVERSARIAL TRAINING \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> SVHN \u003C\u002Fli>\u003Cli> NORB \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Test error: 24.63 \u003C\u002Fli>\u003Cli> Test error: 9.88 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002Ftakerum\u002Fvat'>Theano\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2016\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n     \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1704.03976.pdf'> Virtual Adversarial Training:\na Regularization Method for Supervised and\nSemi-supervised Learning \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> MNIST \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Test error: 1.27 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href=''>NOT FOUND\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.08249.pdf'> Few Shot Object Detection \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> VOC2007 \u003C\u002Fli>\u003Cli> VOC2012 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> mAP : 41.7 \u003C\u002Fli>\u003Cli> mAP : 35.4 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href=''>NOT FOUND\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.07717.pdf'> Unlabeled Samples Generated by GAN\nImprove the Person Re-identification Baseline in vitro \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> \u003Ca href='http:\u002F\u002Fwww.liangzheng.org\u002FProject\u002Fproject_reid.html'> Market-1501 \u003C\u002Fa> \u003C\u002Fli> \u003Cli> CUHK-03 \u003C\u002Fli> \u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Flayumi\u002FDukeMTMC-reID_evaluation'> DukeMTMC-reID \u003C\u002Fa> \u003C\u002Fli> \u003Cli> \u003Ca href='http:\u002F\u002Fwww.vision.caltech.edu\u002Fvisipedia\u002FCUB-200-2011.html'> CUB-200-2011 \u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Rank-1: 83.97 mAP: 66.07 \u003C\u002Fli>\n          \u003Cli> Rank-1: 84.6 mAP: 87.4 \u003C\u002Fli>\n          \u003Cli> Rank-1: 67.68 mAP: 47.13 \u003C\u002Fli>\n          \u003Cli> Test Accuracy: 84.4 \u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002Flayumi\u002FPerson-reID_GAN'> Matconvnet \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n      \n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n## Unsupervised Learning\n\n#### Computer Vision\n##### 1. Generative Model\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='http:\u002F\u002Fresearch.nvidia.com\u002Fsites\u002Fdefault\u002Ffiles\u002Fpublications\u002Fkarras2017gan-paper-v2.pdf'> PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION \u003C\u002Fa>\u003C\u002Ftd>\n       \u003Ctd align=\"left\">Unsupervised CIFAR 10\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Inception score: 8.80 \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002Ftkarras\u002Fprogressive_growing_of_gans'>Theano\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n### NLP\n\n#### Machine Translation\n\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n       \u003Ctr> \n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.00043.pdf'>UNSUPERVISED MACHINE TRANSLATION\nUSING MONOLINGUAL CORPORA ONLY\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Multi30k-Task1(en-fr fr-en de-en en-de)  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> BLEU:(32.76 32.07 26.26 22.74) \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href=''>NOT FOUND\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n        \u003Ctr> \n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1804.09057.pdf'>Unsupervised Neural Machine Translation with Weight Sharing\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> WMT14(en-fr fr-en)  \u003C\u002Fli>\u003Cli> WMT16 (de-en en-de) \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> BLEU:(16.97 15.58) \u003C\u002Fli> \u003Cli> BLEU:(14.62 10.86) \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href=''>NOT FOUND\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2018\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n     \n\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>  \n\n## Transfer Learning\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n       \u003Ctr> \n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.05137.pdf'>One Model To Learn Them All\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> WMT EN → DE \u003C\u002Fli>\u003Cli> WMT EN → FR (BLEU) \u003C\u002Fli>\u003Cli> ImageNet (top-5 accuracy) \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> BLEU: 21.2 \u003C\u002Fli> \u003Cli> BLEU:30.5  \u003C\u002Fli>\u003Cli> 86% \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensor2tensor'>Tensorflow\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n      \n\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>  \n\n\n\n## Reinforcement Learning\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">Research Paper\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Datasets\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Metric\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">Source Code\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">Year\u003C\u002Fth>\n       \u003Ctr> \n      \u003Ctd>\u003Ca href='http:\u002F\u002Fwww.gwern.net\u002Fdocs\u002Frl\u002F2017-silver.pdf'>Mastering the game of Go without human knowledge\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> the game of Go \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> ElO Rating: 5185\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href=https:\u002F\u002Fgithub.com\u002Fgcp\u002Fleela-zero>C++\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n      \n\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>  \n\nEmail: yxt.stoaml@gmail.com\n","# 所有机器学习问题的最先进结果\n\n### 最后更新：2019年2月20日\n\n### 新闻：我正在寻找合作者，尤其是从事自然语言处理、计算机视觉和强化学习研究的人士。如果您不是研究人员，但愿意参与，请与我联系。邮箱：yxt.stoaml@gmail.com\n\n本仓库提供了所有机器学习问题的最先进（SoTA）结果。我们尽最大努力保持此仓库的最新状态。如果您发现某个问题的最先进结果已过时或缺失，请通过提交问题的方式告知我们（包含以下信息：研究论文名称、数据集、评估指标、源代码及发表年份）。我们将立即进行修复。\n\n如果您是 GitHub 新手，也可以通过此 [Google 表单](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSe_fFZVCeCVRGGgOQIpoQSXY7mZWynsx7g6WxZEVpO5vJioUA\u002Fviewform?embedded=true) 提交相关信息。\n\n这是为了打造一个汇集各类机器学习问题最先进成果的一站式平台而做出的尝试。仅靠我个人无法完成这项工作，需要大家的帮助。如果您发现了某个数据集的最先进结果，请提交 Google 表单或直接提出问题。同时，也请在 Twitter、Facebook 等社交媒体上分享本项目。\n\n本汇总按类别划分如下：\n\n- [监督学习](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#supervised-learning)\n    - [语音](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#speech)\n    - [计算机视觉](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#computer-vision)\n    - [自然语言处理](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#nlp)\n- [半监督学习](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#semi-supervised-learning)\n    - 计算机视觉\n- [无监督学习](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#unsupervised-learning)\n    - 语音\n    - 计算机视觉\n    - [自然语言处理](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems\u002Fblob\u002Fmaster\u002FREADME.md#nlp-1)\n- [迁移学习](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#transfer-learning)\n- [强化学习](https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems#reinforcement-learning)\n\n## 监督学习\n\n\n### 自然语言处理\n#### 1. 语言建模\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">评估指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">发表年份\u003C\u002Fth>\n    \u003C\u002Ftr>  \n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Fd4mucfpksywv.cloudfront.net\u002Fbetter-language-models\u002Flanguage-models.pdf'> 语言模型是无监督的多任务学习者 \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> PTB \u003C\u002Fli>\u003Cli> WikiText-2 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> 悖论值：35.76 \u003C\u002Fli>\u003Cli> 悖论值：18.34 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href='https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-2'>TensorFlow \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2019\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.03953.pdf'>打破 Softmax 瓶颈：高秩 RNN 语言模型 \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> PTB \u003C\u002Fli>\u003Cli> WikiText-2 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> 悖论值：47.69 \u003C\u002Fli>\u003Cli> 悖论值：40.68 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href='https:\u002F\u002Fgithub.com\u002Fzihangdai\u002Fmos'>PyTorch \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1709.07432.pdf'>神经序列模型的动态评估 \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> PTB \u003C\u002Fli>\u003Cli> WikiText-2 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> 悖论值：51.1 \u003C\u002Fli>\u003Cli> 悖论值：44.3 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href='https:\u002F\u002Fgithub.com\u002Fbenkrause\u002Fdynamic-evaluation'>PyTorch \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.02182.pdf'>带有权重丢弃的 LSTM 或 QRNN 的平均随机梯度下降 \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> PTB \u003C\u002Fli>\u003Cli> WikiText-2 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> 悖论值：52.8 \u003C\u002Fli>\u003Cli> 悖论值：52.0 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href='https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Fawd-lstm-lm'>PyTorch \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.00066.pdf'>兄弟式 Dropout \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> PTB \u003C\u002Fli>\u003Cli> WikiText-2 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli> 悖论值：56.8 \u003C\u002Fli>\u003Cli> 悖论值：64.1 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fkondiz\u002Ffraternal-dropout'> PyTorch \u003C\u002Fa>  \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n        \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.10722.pdf'>LSTM 网络中的分解技巧 \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">十亿词基准测试集\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> 悖论值：23.36\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href='https:\u002F\u002Fgithub.com\u002Fokuchaiev\u002Ff-lm'>TensorFlow \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n\n\n#### 2. 机器翻译\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1808.09381v2.pdf'>大规模反向翻译的理解\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>WMT 2014 英语-法语\u003C\u002Fli>\u003Cli>WMT 2014 英语-德语\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> BLEU: 45.6 \u003C\u002Fli>\u003Cli>   BLEU: 35.0 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fpytorch\u002Ffairseq'>PyTorch\u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2018\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.02132.pdf'>用于机器翻译的加权Transformer网络\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>WMT 2014 英语-法语\u003C\u002Fli>\u003Cli>WMT 2014 英语-德语\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> BLEU: 41.4 \u003C\u002Fli>\u003Cli>   BLEU: 28.9 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href=''>未找到\u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.03762'>注意力就是一切\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>WMT 2014 英语-法语\u003C\u002Fli>\u003Cli>WMT 2014 英语-德语\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> BLEU: 41.0 \u003C\u002Fli>\u003Cli>   BLEU: 28.4 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fjadore801120\u002Fattention-is-all-you-need-pytorch'>PyTorch\u003C\u002Fa>\u003C\u002Fli>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensor2tensor'>TensorFlow\u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n     \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Feinstein.ai\u002Fstatic\u002Fimages\u002Fpages\u002Fresearch\u002Fnon-autoregressive-neural-mt.pdf'>非自回归神经机器翻译\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> WMT16 罗马尼亚语→英语 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> BLEU: 31.44 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Fnonauto-nmt'>PyTorch\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n      \u003C\u002Ftr>\n          \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.04887'>利用条件序列生成对抗网络改进神经机器翻译\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>NIST02    \u003C\u002Fli>\u003Cli>NIST03 \u003C\u002Fli>\u003Cli>NIST04 \u003C\u002Fli>\u003Cli>NIST05 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cli>38.74  \u003C\u002Fli>\u003Cli>36.01  \u003C\u002Fli>\u003Cli> 37.54 \u003C\u002Fli>\u003Cli>33.76 \u003C\u002Fli>\u003C\u002Ful \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fngohoanhkhoa\u002FGAN-NMT'>NMTPY\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>  \n\n#### 3. 文本分类\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.09207'>学习结构化文本表示\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Yelp\u003C\u002Ftd>\n      \u003Ctd align=\"left\">准确率：68.6\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fnlpyang\u002Fstructured'>TensorFlow\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.00519.pdf'>注意力卷积\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Yelp\u003C\u002Ftd>\n      \u003Ctd align=\"left\">准确率：67.36\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fyinwenpeng\u002FAttentive_Convolution'>Theano\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>   \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n#### 4. 自然语言推理 \n排行榜： \n\n[斯坦福自然语言推理（SNLI）](https:\u002F\u002Fnlp.stanford.edu\u002Fprojects\u002Fsnli\u002F)\n\n[MultiNLI](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fmultinli-matched-open-evaluation\u002Fleaderboard)\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1709.04348.pdf'>基于交互空间的自然语言推理\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">斯坦福自然语言推理（SNLI）\u003C\u002Ftd>\n      \u003Ctd align=\"left\">准确率：88.9\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href='https:\u002F\u002Fgithub.com\u002FYichenGong\u002FDensely-Interactive-Inference-Network'>TensorFlow\u003C\u002Fa> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>\n  \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href=https:\u002F\u002Farxiv.org\u002Fpdf\u002F1810.04805.pdf> BERT-LARGE（集成）\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">多类型自然语言推理（MNLI）\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>匹配准确率：86.7\u003C\u002Fli>\u003Cli>不匹配准确率：85.9\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert'>TensorFlow\u003C\u002Fa>\u003C\u002Fli>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-pretrained-BERT'>PyTorch\u003C\u002Fa>\u003C\u002Fli> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2018\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n#### 5. 问答\n排行榜\n\n[SQuAD](https:\u002F\u002Frajpurkar.github.io\u002FSQuAD-explorer\u002F)\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1810.04805.pdf'>BERT-LARGE（集成）\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">斯坦福问答数据集\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>精确匹配：87.4\u003C\u002Fli>\u003Cli>F1分数：93.2\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert'>TensorFlow\u003C\u002Fa>\u003C\u002Fli>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-pretrained-BERT'>PyTorch\u003C\u002Fa> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2018\u003C\u002Ftd>    \n  \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n#### 6. 命名实体识别\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.11027.pdf'>利用图像和文本在Twitter上进行命名实体识别\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Ritter\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>F-measure：0.59\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Ca href=''>未找到\u003C\u002Fa> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n  \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n#### 7. 摘要生成\n\n研究论文 | 数据集 | 评估指标 | 源代码 | 年份  \n------------ | ------------- | ------------ | ------------- | -------------  \n[为神经摘要生成截断冗余重复的生成过程](https:\u002F\u002Faclanthology.info\u002Fpdf\u002FE\u002FE17\u002FE17-2047.pdf) | \u003Cul>\u003Cli>DUC-2004\u003C\u002Fli>\u003Cli>Gigaword\u003C\u002Fli>\u003C\u002Ful> | \u003Cul>\u003Cli>DUC-2004\u003C\u002Fli>\u003Cul>\u003Cli> ROUGE-1: **32.28** \u003C\u002Fli>\u003Cli> ROUGE-2: 10.54 \u003C\u002Fli>\u003Cli>ROUGE-L: **27.80** \u003C\u002Fli>\u003C\u002Ful>\u003Cli>Gigaword\u003C\u002Fli>\u003Cul>\u003Cli> ROUGE-1: **36.30** \u003C\u002Fli>\u003Cli> ROUGE-2: 17.31 \u003C\u002Fli>\u003Cli>ROUGE-L: **33.88** \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ful> | 尚未提供 | 2017\n[卷积序列到序列模型](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1705.03122.pdf) | \u003Cul>\u003Cli>DUC-2004\u003C\u002Fli>\u003Cli>Gigaword\u003C\u002Fli>\u003C\u002Ful> | \u003Cul>\u003Cli>DUC-2004\u003C\u002Fli>\u003Cul>\u003Cli> ROUGE-1: 33.44 \u003C\u002Fli>\u003Cli> ROUGE-2: **10.84** \u003C\u002Fli>\u003Cli>ROUGE-L: 26.90 \u003C\u002Fli>\u003C\u002Ful>\u003Cli>Gigaword\u003C\u002Fli>\u003Cul>\u003Cli> ROUGE-1: 35.88 \u003C\u002Fli>\u003Cli> ROUGE-2: 27.48 \u003C\u002Fli>\u003Cli>ROUGE-L: 33.29 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ful> | [PyTorch](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Ffairseq-py) | 2017\n\n\n#### 8. 依存句法分析\n\n研究论文 | 数据集 | 评估指标 | 源代码 | 年份  \n------------ | ------------- | ------------ | ------------- | -------------  \n[全局归一化的基于转移的神经网络](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.06042.pdf) | \u003Cul>\u003Cli>CoNLL ’09 依存句法分析最终数据集 \u003C\u002Fli>\u003C\u002Ful> | \u003Cul>\u003Cli> UAS 准确率：94.08% \u003C\u002Fli>\u003Cli> LAS 准确率：92.15% \u003C\u002Fli>\u003C\u002Ful> | \u003Cul>\u003Cli>[SyntaxNet](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fsyntaxnet) \u003C\u002Fli>\u003C\u002Ful>| \u003Cul>\u003Cli>2017\u003C\u002Fli>\u003C\u002Ful>\n\n\n\n\n### 计算机视觉\n\n#### 1. 分类\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.09829.pdf'>胶囊网络之间的动态路由\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> MNIST \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> 测试误差：0.25±0.005 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002FSarasra\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fcapsules'>官方实现\u003C\u002Fa> \u003C\u002Fli>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fgram-ai\u002Fcapsule-networks'>PyTorch\u003C\u002Fa> \u003C\u002Fli>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fnaturomics\u002FCapsNet-Tensorflow'>TensorFlow\u003C\u002Fa> \u003C\u002Fli>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002FXifengGuo\u002FCapsNet-Keras'>Keras\u003C\u002Fa> \u003C\u002Fli>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fsoskek\u002Fdynamic_routing_between_capsules'>Chainer\u003C\u002Fa> \u003C\u002Fli> \u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Floretoparisi\u002FCapsNet'>所有实现列表\u003C\u002Fa> \u003C\u002Fli>\n          \u003C\u002Ful>  \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1102.0183.pdf'>用于视觉目标分类的高性能神经网络\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> NORB \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> 测试误差：2.53 ± 0.40 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href=''>未找到\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2011\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.06965.pdf'>带有GPipe的巨型AmoebaNet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> CIFAR-10 \u003C\u002Fli> \u003Cli> CIFAR-100\u003C\u002Fli>\u003Cli> ImageNet-1k\u003C\u002Fli>\u003Cli> ...\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> 测试误差：1.0% \u003C\u002Fli> \u003Cli> 测试误差：8.7% \u003C\u002Fli>\u003Cli> Top-1误差15.7\u003C\u002Fli>\u003Cli> ...\u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> \u003Ca href=''>未找到\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2018\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Fopenreview.net\u002Fpdf?id=S1NHaMW0b'>ShakeDrop正则化\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> CIFAR-10 \u003C\u002Fli> \u003Cli> CIFAR-100\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> 测试误差：2.31% \u003C\u002Fli> \u003Cli> 测试误差：12.19% \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> \u003Ca href=''>未找到\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.05431.pdf'>深度神经网络的聚合残差变换\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  CIFAR-10  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> 测试误差：3.58% \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FResNeXt'>PyTorch\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.04896'>随机擦除数据增强\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> CIFAR-10 \u003C\u002Fli> \u003Cli> CIFAR-100 \u003C\u002Fli> \u003Cli> Fashion-MNIST \u003C\u002Fli> \u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> 测试误差：3.08% \u003C\u002Fli>\n          \u003Cli> 测试误差：17.73% \u003C\u002Fli>\n          \u003Cli> 测试误差：3.65% \u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing'> Pytorch \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.07634'>EraseReLU：一种简化深度卷积神经网络训练的方法\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> CIFAR-10 \u003C\u002Fli> \u003Cli> CIFAR-100 \u003C\u002Fli> \u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> 测试误差：3.56% \u003C\u002Fli>\n          \u003Cli> 测试误差：16.53% \u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002FD-X-Y\u002FEraseReLU'> Pytorch \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.09829.pdf'>胶囊网络之间的动态路由\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> MultiMNIST \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> 测试误差：5% \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fgram-ai\u002Fcapsule-networks'>PyTorch\u003C\u002Fa> \u003C\u002Fli>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fnaturomics\u002FCapsNet-Tensorflow'>TensorFlow\u003C\u002Fa> \u003C\u002Fli>\u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002FXifengGuo\u002FCapsNet-Keras'>Keras\u003C\u002Fa> \u003C\u002Fli>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fsoskek\u002Fdynamic_routing_between_capsules'>Chainer\u003C\u002Fa> \u003C\u002Fli>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Floretoparisi\u002FCapsNet'>所有实现列表\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1707.07012.pdf'>学习可迁移架构以实现可扩展的图像识别\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>   ImageNet-1k  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Top-1误差：17.3 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fslim\u002Fnets\u002Fnasnet'>TensorFlow\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    tr\n     \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1709.01507.pdf'>挤压与激励网络\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>   ImageNet-1k  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Top-1误差：18.68 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fhujie-frank\u002FSENet'>CAFFE\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.05431.pdf'>深度神经网络的聚合残差变换\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>   ImageNet-1k  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Top-1误差：20.4% \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FResNeXt'>Torch\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2016\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n#### 2. 实例分割\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.06870.pdf'>Mask R-CNN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> COCO  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> 平均精度：37.1% \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FDetectron'>Detectron（官方版本）\u003C\u002Fa> \u003C\u002Fli>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002FTuSimple\u002Fmx-maskrcnn'>MXNet\u003C\u002Fa> \u003C\u002Fli>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fmatterport\u002FMask_RCNN'>Keras\u003C\u002Fa> \u003C\u002Fli>\u003Cli>  \u003Ca href='https:\u002F\u002Fgithub.com\u002FCharlesShang\u002FFastMaskRCNN'>TensorFlow \u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n#### 3. 视觉问答\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">评价指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.02711'>视觉问答的技巧与窍门：2017年挑战赛的经验总结\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> VQA  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> 总体得分：69 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>   \u003Ca href=''>未找到\u003C\u002Fa> \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n#### 4. 人员重识别\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">评价指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.04896'>随机擦除数据增强\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> \u003Ca href='http:\u002F\u002Fwww.liangzheng.org\u002FProject\u002Fproject_reid.html'> Market-1501 \u003C\u002Fa> \u003C\u002Fli> \u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002Fperson-re-ranking'> CUHK03-新协议 \u003C\u002Fa> \u003C\u002Fli> \u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Flayumi\u002FDukeMTMC-reID_evaluation'> DukeMTMC-reID \u003C\u002Fa> \u003C\u002Fli> \u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Rank-1：89.13 mAP：83.93 \u003C\u002Fli>\n          \u003Cli> Rank-1：84.02 mAP：78.28 \u003C\u002Fli>\n          \u003Cli> 标注数据（Rank-1：63.93 mAP：65.05）检测数据（Rank-1：64.43 mAP：64.75） \u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002Fzhunzhong07\u002FRandom-Erasing'> Pytorch \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n\n### 语音\n[语音SOTA](https:\u002F\u002Fgithub.com\u002Fsyhw\u002Fwer_are_we)\n#### 1. ASR\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">评价指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.06073.pdf'>微软2017年会话语音识别系统\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Switchboard Hub5'00  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> WER：5.1  \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href=''>未找到\u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1801.00059.pdf'>CAPIO 2017年会话语音识别系统\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Switchboard Hub5'00  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> WER：5.0  \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>  \u003Ca href=''>未找到\u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n## 半监督学习\n#### 计算机视觉\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">评价指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1507.00677.pdf'>基于虚拟对抗训练的分布平滑\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> SVHN \u003C\u002Fli>\u003Cli> NORB \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> 测试误差：24.63 \u003C\u002Fli>\u003Cli> 测试误差：9.88 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002Ftakerum\u002Fvat'>Theano\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2016\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n     \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1704.03976.pdf'>虚拟对抗训练：\n一种用于有监督和半监督学习的正则化方法\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> MNIST \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> 测试误差：1.27 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href=''>未找到\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.08249.pdf'>少样本目标检测\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> VOC2007 \u003C\u002Fli>\u003Cli> VOC2012 \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> mAP：41.7 \u003C\u002Fli>\u003Cli> mAP：35.4 \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli>\u003Ca href=''>未找到\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.07717.pdf'>由GAN生成的未标注样本\n可提升人员重识别基线性能\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> \u003Ca href='http:\u002F\u002Fwww.liangzheng.org\u002FProject\u002Fproject_reid.html'> Market-1501 \u003C\u002Fa> \u003C\u002Fli> \u003Cli> CUHK-03 \u003C\u002Fli> \u003Cli> \u003Ca href='https:\u002F\u002Fgithub.com\u002Flayumi\u002FDukeMTMC-reID_evaluation'> DukeMTMC-reID \u003C\u002Fa> \u003C\u002Fli> \u003Cli> \u003Ca href='http:\u002F\u002Fwww.vision.caltech.edu\u002Fvisipedia\u002FCUB-200-2011.html'> CUB-200-2011 \u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Rank-1：83.97 mAP：66.07 \u003C\u002Fli>\n          \u003Cli> Rank-1：84.6 mAP：87.4 \u003C\u002Fli>\n          \u003Cli> Rank-1：67.68 mAP：47.13 \u003C\u002Fli>\n          \u003Cli> 测试准确率：84.4 \u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002Flayumi\u002FPerson-reID_GAN'> Matconvnet \u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n      \n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n## 无监督学习\n\n#### 计算机视觉\n##### 1. 生成模型\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">评价指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Ca href='http:\u002F\u002Fresearch.nvidia.com\u002Fsites\u002Fdefault\u002Ffiles\u002Fpublications\u002Fkarras2017gan-paper-v2.pdf'>为提升质量、稳定性和多样性而进行的GAN渐进式增长\u003C\u002Fa>\u003C\u002Ftd>\n       \u003Ctd align=\"left\">无监督的CIFAR 10\u003C\u002Ftd>\n      \u003Ctd align=\"left\">Inception分数：8.80 \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Ca href='https:\u002F\u002Fgithub.com\u002Ftkarras\u002Fprogressive_growing_of_gans'>Theano\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n### 自然语言处理\n\n#### 机器翻译\n\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">评价指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n       \u003Ctr> \n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.00043.pdf'>仅使用单语语料库的无监督机器翻译\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> Multi30k-Task1(英-法 法-英 德-英 英-德)  \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> BLEU:(32.76 32.07 26.26 22.74) \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href=''>未找到\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n        \u003Ctr> \n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1804.09057.pdf'>基于权重共享的无监督神经机器翻译\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> WMT14(英-法 法-英)  \u003C\u002Fli>\u003Cli> WMT16 (德-英 英-德) \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> BLEU:(16.97 15.58) \u003C\u002Fli> \u003Cli> BLEU:(14.62 10.86) \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href=''>未找到\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2018\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n     \n\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>  \n\n## 迁移学习\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">评价指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n       \u003Ctr> \n      \u003Ctd>\u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.05137.pdf'>一个模型即可学会所有任务\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> WMT 英→德 \u003C\u002Fli>\u003Cli> WMT 英→法 (BLEU) \u003C\u002Fli>\u003Cli> ImageNet (top-5准确率) \u003C\u002Fli>\u003C\u002Ful>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> \u003Cul>\u003Cli> BLEU: 21.2 \u003C\u002Fli> \u003Cli> BLEU:30.5  \u003C\u002Fli>\u003Cli> 86% \u003C\u002Fli>\u003C\u002Ful> \u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href='https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensor2tensor'>TensorFlow\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n      \n\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>  \n\n\n\n## 强化学习\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Cth width=\"30%\">研究论文\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">数据集\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">评价指标\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"20%\">源代码\u003C\u002Fth>\n      \u003Cth align=\"center\" width=\"10%\">年份\u003C\u002Fth>\n       \u003Ctr> \n      \u003Ctd>\u003Ca href='http:\u002F\u002Fwww.gwern.net\u002Fdocs\u002Frl\u002F2017-silver.pdf'>无需人类知识即可掌握围棋\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"left\"> 围棋 \u003C\u002Ftd>\n      \u003Ctd align=\"left\"> ElO等级分：5185\u003C\u002Ftd>\n      \u003Ctd align=\"left\">\u003Cul>\u003Cli>\u003Ca href=https:\u002F\u002Fgithub.com\u002Fgcp\u002Fleela-zero>C++\u003C\u002Fa>\u003C\u002Ful>\u003C\u002Fli>\u003C\u002Ftd>\n      \u003Ctd align=\"left\">2017\u003C\u002Ftd>    \n    \u003C\u002Ftr>\n      \n\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>  \n\n邮箱：yxt.stoaml@gmail.com","# State-of-the-Art 机器学习结果汇总快速上手指南\n\n**项目简介**：\n本项目并非一个可安装的软件库或框架，而是一个**开源知识库**。它汇总了各类机器学习问题（如 NLP、计算机视觉、语音识别等）在特定数据集上的最先进（State-of-the-Art, SoTA）研究成果，包括论文链接、数据集、性能指标及对应的源代码仓库地址。\n\n开发者使用本项目的核心方式是：**查阅表格找到最优模型 -> 访问对应的源代码仓库 -> 克隆并运行该具体模型的代码**。\n\n---\n\n## 1. 环境准备\n\n由于本项目指向不同的研究论文和代码实现，没有统一的系统要求。你需要根据你在本仓库中查到的具体模型（例如 BERT, GPT-2, Transformer 等）来准备环境。\n\n**通用前置依赖建议**：\n大多数现代深度学习模型需要以下基础环境：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+), macOS, 或 Windows (WSL2)\n*   **Python**: 3.6 或更高版本\n*   **深度学习框架**: 根据目标模型选择 `PyTorch` 或 `TensorFlow`\n*   **包管理工具**: `pip` 或 `conda`\n\n**推荐国内加速源**：\n在安装 Python 依赖时，建议使用清华或阿里镜像源以提升下载速度。\n\n```bash\n# 配置 pip 使用清华大学镜像源\npip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n---\n\n## 2. 获取与使用流程\n\n本项目无需“安装”，只需克隆仓库用于查阅，或直接跳转至子项目。\n\n### 步骤一：克隆知识库仓库（可选）\n如果你希望本地浏览完整的 SoTA 列表：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems.git\ncd state-of-the-art-result-for-machine-learning-problems\n```\n*提示：主要价值在于查看 `README.md` 中的表格内容。*\n\n### 步骤二：查找目标模型\n打开 `README.md` 文件，根据你的任务类型（如 `Supervised Learning` -> `NLP` -> `Machine Translation`）查找所需模型。\n\n**示例场景**：假设你需要解决 **机器翻译 (Machine Translation)** 问题，并希望在 **WMT 2014 English-to-German** 数据集上获得最佳效果。\n1.  在表格中找到 **\"Attention Is All You Need\"** (Transformer) 或 **\"Understanding Back-Translation at Scale\"**。\n2.  记录其 **Source Code** 列提供的 GitHub 链接（例如：`https:\u002F\u002Fgithub.com\u002Fpytorch\u002Ffairseq`）。\n\n### 步骤三：部署具体模型代码\n点击上述找到的源代码链接，进入该模型的独立仓库进行安装。以下是以 **Fairseq** (包含多个 SoTA 翻译模型) 为例的实际操作命令：\n\n#### 3.1 创建虚拟环境\n```bash\nconda create -n sota_model python=3.7\nconda activate sota_model\n```\n\n#### 3.2 安装具体模型依赖\n*注意：以下命令针对的是从本知识库中查到的具体子项目（如 fairseq），而非本汇总仓库。*\n\n```bash\n# 克隆具体模型代码 (以 fairseq 为例)\ngit clone https:\u002F\u002Fgithub.com\u002Fpytorch\u002Ffairseq.git\ncd fairseq\n\n# 使用国内源安装依赖\npip install -r requirements.txt\n\n# 安装公平序列工具箱本身\npip install --editable .\u002F\n```\n\n---\n\n## 3. 基本使用示例\n\n一旦你根据本指南找到了目标模型并进入了其代码目录，即可按照该模型的官方文档运行。\n\n**示例：运行一个预训练的机器翻译模型 (基于 Fairseq)**\n\n假设你已经通过本仓库找到了 WMT14 En-De 的 SoTA 模型位于 `fairseq` 项目中：\n\n1.  **下载预训练模型数据** (具体 URL 需参考该子项目的 README)：\n    ```bash\n    # 示例命令，具体路径请参考 fairseq 官方文档\n    wget https:\u002F\u002Fdl.fbaipublicfiles.com\u002Ffairseq\u002Fmodels\u002Fwmt14.v2.en-de.fconv-py.tar.bz2\n    tar -xjf wmt14.v2.en-de.fconv-py.tar.bz2\n    ```\n\n2.  **执行推理 (Inference)**：\n    ```bash\n    fairseq-interact \\\n      --path wmt14.v2.en-de.fconv-py\u002Fmodel.pt \\\n      --source-lang en --target-lang de \\\n      --buffer-size 1024 --batch-size 32\n    ```\n\n3.  **输入测试**：\n    在交互界面输入英文句子，系统将输出德语翻译结果。\n\n---\n\n**总结**：\n本仓库是**导航图**而非**引擎**。请使用它定位特定任务下的最佳论文和代码库，然后前往对应的 GitHub 仓库执行具体的安装和训练命令。如果发现某个任务的 SoTA 结果过时，欢迎按原仓库说明提交 Issue 或填写 Google Form 贡献最新数据。","某 AI 初创公司的算法团队正致力于开发一款新一代智能客服系统，急需在自然语言处理（NLP）领域找到当前最优的语言模型架构以提升对话流畅度。\n\n### 没有 state-of-the-art-result-for-machine-learning-problems 时\n- **文献检索耗时巨大**：工程师需花费数天时间在 arXiv、Google Scholar 等多个平台手动筛选海量论文，难以快速锁定针对特定数据集（如 WikiText-2）的最新成果。\n- **基准对比模糊不清**：缺乏统一的性能指标对照表，团队难以判断自研模型的困惑度（Perplexity）是否真正达到了行业顶尖水平，容易陷入“闭门造车”。\n- **复现资源分散难寻**：即使找到了相关论文，往往需要额外搜索对应的开源代码链接和具体年份信息，常因代码缺失或版本过旧导致复现失败。\n- **技术选型决策滞后**：由于无法即时获取涵盖监督学习、迁移学习等全领域的最新进展，技术栈选型可能基于过时信息，导致产品上线即落后。\n\n### 使用 state-of-the-art-result-for-machine-learning-problems 后\n- **一站式获取前沿数据**：团队直接查阅该仓库中按 NLP、计算机视觉等分类整理的表格，秒级定位到 2019 年 GPT-2 等在 PTB 和 WikiText-2 数据集上的最优困惑度数值。\n- **明确性能优化目标**：通过将自研模型指标与仓库中记录的 SOTA 结果（如 Perplexity 18.34）进行直观对比，迅速明确了性能差距和改进方向。\n- **高效落地复现验证**：直接利用表格中提供的论文链接和官方源代码地址（如 TensorFlow\u002FPyTorch 实现），大幅缩短了从理论验证到工程落地的周期。\n- **动态跟踪技术演进**：依托社区协作机制，团队能持续获取包括强化学习、半监督学习在内的最新突破，确保技术路线始终紧跟业界最前沿。\n\nstate-of-the-art-result-for-machine-learning-problems 通过构建全局可视化的性能基准地图，将研究人员从繁琐的信息搜集工作中解放出来，使其能专注于核心算法的创新与突破。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRedditSota_state-of-the-art-result-for-machine-learning-problems_802c453b.png","RedditSota",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FRedditSota_259ab30f.png","https:\u002F\u002Fgithub.com\u002FRedditSota",8916,1303,"2026-04-10T07:38:06","Apache-2.0",1,"","未说明",{"notes":85,"python":83,"dependencies":86},"该仓库并非一个可执行的软件工具，而是一个汇总机器学习各领域最先进结果（SOTA）的列表。它列出了不同任务（如 NLP、计算机视觉等）的研究论文、数据集、指标以及对应的外部源代码链接（主要涉及 TensorFlow、PyTorch、Theano 等框架）。用户需根据列表中具体引用的论文和代码链接，前往相应的独立仓库查看具体的运行环境需求。",[],[35,15,88,89],"音频","其他","2026-03-27T02:49:30.150509","2026-04-13T22:47:49.869219",[93,98,103,108,113],{"id":94,"question_zh":95,"answer_zh":96,"source_url":97},31984,"项目原作者失联或邮箱无效，如何联系维护者或参与贡献？","原作者可能已不再活跃。如果您有兴趣构建更好的 SOTA 追踪仓库或参与贡献，可以直接联系当前维护者 taoyudong，邮箱为 ydt115870 at gmail dot com（请将 'at' 替换为 '@'，'dot' 替换为 '.'）。维护者表示欢迎提交 Pull Request，并会尽快处理。","https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems\u002Fissues\u002F39",{"id":99,"question_zh":100,"answer_zh":101,"source_url":102},31985,"项目中的 Google Form 链接失效无法填写，该怎么办？","由于发起人停止维护，旧的 Google Form 已失效。当前维护者已创建新的表单并更新了链接，现在可以正常使用。维护者会定期检查回复并据此更新仓库内容。如果遇到链接问题，请查看仓库最新公告或再次提 Issue 提醒。","https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems\u002Fissues\u002F54",{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},31986,"是否有其他类似的 SOTA 追踪资源或网站推荐？","社区中有许多优秀的工作在收集论文中的 SOTA 结果。推荐的替代资源包括：1. Papers With Code (https:\u002F\u002Fpaperswithcode.com\u002Fsota)，提供全面的代码和结果追踪；2. Are We There Yet? (http:\u002F\u002Frodrigob.github.io\u002Fare_we_there_yet\u002F)，专注于物体分类结果；3. Wikipedia 上的机器学习研究数据集列表。本项目旨在避免重复劳动，同时补充特定领域的深度信息。","https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems\u002Fissues\u002F31",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},31987,"如何查询特定任务（如自然语言推理 NLI）的历史 SOTA 演变路径？","项目计划追踪技术的发展路径并提供历史 SOTA 记录。虽然这需要时间整理，但维护者承诺会在有空时逐步完善。用户可以关注相关 Leaderboard（如 SNLI 和 MultiNLI）以及具体的论文（如 Densely Interactive Inference Network），并通过提交 Issue 协助维护者补充特定领域的历史数据。","https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems\u002Fissues\u002F6",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},31988,"发现仓库中某篇论文的源代码链接缺失或拼写错误，如何反馈？","请直接创建一个新 Issue，标题注明缺失内容的具体位置（如“文本分类部分缺少源码”），正文中提供正确的源代码 URL 或指出拼写错误（例如将 'Gaint' 更正为 'Giant'）。维护者核实后会在最近的 commit 中更新这些信息，并感谢您的贡献。","https:\u002F\u002Fgithub.com\u002FRedditSota\u002Fstate-of-the-art-result-for-machine-learning-problems\u002Fissues\u002F58",[]]