state-of-the-art-result-for-machine-learning-problems

GitHub
8.9k 1.3k 非常简单 1 次阅读 3天前Apache-2.0语言模型图像音频其他
AI 解读 由 AI 自动生成,仅供参考

state-of-the-art-result-for-machine-learning-problems 是一个致力于汇总机器学习领域最新前沿(SoTA)成果的开源知识库。它旨在解决研究人员和开发者在追踪快速迭代的算法性能时面临的痛点,将分散在各篇论文中的最佳实验结果集中整理,提供“一站式”查询服务。

该资源库涵盖了监督学习、半监督学习、无监督学习、迁移学习及强化学习等多个核心方向,并细分为自然语言处理(NLP)、计算机视觉和语音识别等具体场景。对于每一个任务,它不仅列出了表现最优的研究论文名称,还详细记录了所使用的数据集、关键评估指标(如困惑度)、开源代码链接以及发表年份。例如,在语言建模任务中,用户可以直观对比不同模型在 PTB 或 WikiText-2 数据集上的表现差异。

这一工具特别适合人工智能领域的研究人员、算法工程师以及高校学生使用。对于需要复现经典实验、寻找基线模型(Baseline)或了解领域最新进展的专业人士而言,它能极大节省文献调研时间。其独特的亮点在于采用了社区协作模式,鼓励全球用户通过提交 Issue 或在线表单来更新缺失或过时的数据,确保内容的时效性与准确性。尽管部分数据更新依赖于社区贡献,但它依然是探索机器学习技术边界、把握行业发展脉搏的实用参考指南。

使用场景

某 AI 初创公司的算法团队正致力于开发一款新一代智能客服系统,急需在自然语言处理(NLP)领域找到当前最优的语言模型架构以提升对话流畅度。

没有 state-of-the-art-result-for-machine-learning-problems 时

  • 文献检索耗时巨大:工程师需花费数天时间在 arXiv、Google Scholar 等多个平台手动筛选海量论文,难以快速锁定针对特定数据集(如 WikiText-2)的最新成果。
  • 基准对比模糊不清:缺乏统一的性能指标对照表,团队难以判断自研模型的困惑度(Perplexity)是否真正达到了行业顶尖水平,容易陷入“闭门造车”。
  • 复现资源分散难寻:即使找到了相关论文,往往需要额外搜索对应的开源代码链接和具体年份信息,常因代码缺失或版本过旧导致复现失败。
  • 技术选型决策滞后:由于无法即时获取涵盖监督学习、迁移学习等全领域的最新进展,技术栈选型可能基于过时信息,导致产品上线即落后。

使用 state-of-the-art-result-for-machine-learning-problems 后

  • 一站式获取前沿数据:团队直接查阅该仓库中按 NLP、计算机视觉等分类整理的表格,秒级定位到 2019 年 GPT-2 等在 PTB 和 WikiText-2 数据集上的最优困惑度数值。
  • 明确性能优化目标:通过将自研模型指标与仓库中记录的 SOTA 结果(如 Perplexity 18.34)进行直观对比,迅速明确了性能差距和改进方向。
  • 高效落地复现验证:直接利用表格中提供的论文链接和官方源代码地址(如 TensorFlow/PyTorch 实现),大幅缩短了从理论验证到工程落地的周期。
  • 动态跟踪技术演进:依托社区协作机制,团队能持续获取包括强化学习、半监督学习在内的最新突破,确保技术路线始终紧跟业界最前沿。

state-of-the-art-result-for-machine-learning-problems 通过构建全局可视化的性能基准地图,将研究人员从繁琐的信息搜集工作中解放出来,使其能专注于核心算法的创新与突破。

运行环境要求

GPU

未说明

内存

未说明

依赖
notes该仓库并非一个可执行的软件工具,而是一个汇总机器学习各领域最先进结果(SOTA)的列表。它列出了不同任务(如 NLP、计算机视觉等)的研究论文、数据集、指标以及对应的外部源代码链接(主要涉及 TensorFlow、PyTorch、Theano 等框架)。用户需根据列表中具体引用的论文和代码链接,前往相应的独立仓库查看具体的运行环境需求。
python未说明
state-of-the-art-result-for-machine-learning-problems hero image

快速开始

所有机器学习问题的最先进结果

最后更新:2019年2月20日

新闻:我正在寻找合作者,尤其是从事自然语言处理、计算机视觉和强化学习研究的人士。如果您不是研究人员,但愿意参与,请与我联系。邮箱:yxt.stoaml@gmail.com

本仓库提供了所有机器学习问题的最先进(SoTA)结果。我们尽最大努力保持此仓库的最新状态。如果您发现某个问题的最先进结果已过时或缺失,请通过提交问题的方式告知我们(包含以下信息:研究论文名称、数据集、评估指标、源代码及发表年份)。我们将立即进行修复。

如果您是 GitHub 新手,也可以通过此 Google 表单 提交相关信息。

这是为了打造一个汇集各类机器学习问题最先进成果的一站式平台而做出的尝试。仅靠我个人无法完成这项工作,需要大家的帮助。如果您发现了某个数据集的最先进结果,请提交 Google 表单或直接提出问题。同时,也请在 Twitter、Facebook 等社交媒体上分享本项目。

本汇总按类别划分如下:

监督学习

自然语言处理

1. 语言建模

研究论文 数据集 评估指标 源代码 发表年份
语言模型是无监督的多任务学习者
  • PTB
  • WikiText-2
  • 悖论值:35.76
  • 悖论值:18.34
TensorFlow 2019
打破 Softmax 瓶颈:高秩 RNN 语言模型
  • PTB
  • WikiText-2
  • 悖论值:47.69
  • 悖论值:40.68
PyTorch 2017
神经序列模型的动态评估
  • PTB
  • WikiText-2
  • 悖论值:51.1
  • 悖论值:44.3
PyTorch 2017
带有权重丢弃的 LSTM 或 QRNN 的平均随机梯度下降
  • PTB
  • WikiText-2
  • 悖论值:52.8
  • 悖论值:52.0
PyTorch 2017
兄弟式 Dropout
  • PTB
  • WikiText-2
  • 悖论值:56.8
  • 悖论值:64.1
PyTorch 2017
LSTM 网络中的分解技巧 十亿词基准测试集 悖论值:23.36 TensorFlow 2017

2. 机器翻译

研究论文 数据集 指标 源代码 年份
大规模反向翻译的理解
  • WMT 2014 英语-法语
  • WMT 2014 英语-德语
  • BLEU: 45.6
  • BLEU: 35.0
2018
用于机器翻译的加权Transformer网络
  • WMT 2014 英语-法语
  • WMT 2014 英语-德语
  • BLEU: 41.4
  • BLEU: 28.9
2017
注意力就是一切
  • WMT 2014 英语-法语
  • WMT 2014 英语-德语
  • BLEU: 41.0
  • BLEU: 28.4
2017
非自回归神经机器翻译
  • WMT16 罗马尼亚语→英语
  • BLEU: 31.44
2017
利用条件序列生成对抗网络改进神经机器翻译
  • NIST02
  • NIST03
  • NIST04
  • NIST05
  • 38.74
  • 36.01
  • 37.54
  • 33.76
  • 2017

    3. 文本分类

    研究论文 数据集 指标 源代码 年份
    学习结构化文本表示 Yelp 准确率:68.6 2017
    注意力卷积 Yelp 准确率:67.36 2017

    4. 自然语言推理

    排行榜:

    斯坦福自然语言推理(SNLI)

    MultiNLI

    研究论文 数据集 指标 源代码 年份
    基于交互空间的自然语言推理 斯坦福自然语言推理(SNLI) 准确率:88.9 TensorFlow 2017
    BERT-LARGE(集成) 多类型自然语言推理(MNLI)
    • 匹配准确率:86.7
    • 不匹配准确率:85.9
    2018

    5. 问答

    排行榜

    SQuAD

    研究论文 数据集 指标 源代码 年份
    BERT-LARGE(集成) 斯坦福问答数据集
    • 精确匹配:87.4
    • F1分数:93.2
    2018

    6. 命名实体识别

    研究论文 数据集 指标 源代码 年份
    利用图像和文本在Twitter上进行命名实体识别 Ritter
    • F-measure:0.59
    未找到 2017

    7. 摘要生成

    研究论文 数据集 评估指标 源代码 年份
    为神经摘要生成截断冗余重复的生成过程
    • DUC-2004
    • Gigaword
    • DUC-2004
      • ROUGE-1: 32.28
      • ROUGE-2: 10.54
      • ROUGE-L: 27.80
    • Gigaword
      • ROUGE-1: 36.30
      • ROUGE-2: 17.31
      • ROUGE-L: 33.88
    尚未提供 2017
    卷积序列到序列模型
    • DUC-2004
    • Gigaword
    • DUC-2004
      • ROUGE-1: 33.44
      • ROUGE-2: 10.84
      • ROUGE-L: 26.90
    • Gigaword
      • ROUGE-1: 35.88
      • ROUGE-2: 27.48
      • ROUGE-L: 33.29
    PyTorch 2017

    8. 依存句法分析

    研究论文 数据集 评估指标 源代码 年份
    全局归一化的基于转移的神经网络
    • CoNLL ’09 依存句法分析最终数据集
    • UAS 准确率:94.08%
    • LAS 准确率:92.15%
    • 2017

    计算机视觉

    1. 分类

                tr
    研究论文 数据集 指标 源代码 年份
    胶囊网络之间的动态路由
    • MNIST
    • 测试误差:0.25±0.005
    2017
    用于视觉目标分类的高性能神经网络
    • NORB
    • 测试误差:2.53 ± 0.40
    2011
    带有GPipe的巨型AmoebaNet
    • CIFAR-10
    • CIFAR-100
    • ImageNet-1k
    • ...
    • 测试误差:1.0%
    • 测试误差:8.7%
    • Top-1误差15.7
    • ...
    2018
    ShakeDrop正则化
    • CIFAR-10
    • CIFAR-100
    • 测试误差:2.31%
    • 测试误差:12.19%
    2017
    深度神经网络的聚合残差变换
    • CIFAR-10
    • 测试误差:3.58%
    2017
    随机擦除数据增强
    • CIFAR-10
    • CIFAR-100
    • Fashion-MNIST
    • 测试误差:3.08%
    • 测试误差:17.73%
    • 测试误差:3.65%
    Pytorch 2017
    EraseReLU:一种简化深度卷积神经网络训练的方法
    • CIFAR-10
    • CIFAR-100
    • 测试误差:3.56%
    • 测试误差:16.53%
    Pytorch 2017
    胶囊网络之间的动态路由
    • MultiMNIST
    • 测试误差:5%
    2017
    学习可迁移架构以实现可扩展的图像识别
    • ImageNet-1k
    • Top-1误差:17.3
    2017
    挤压与激励网络
    • ImageNet-1k
    • Top-1误差:18.68
    2017
    深度神经网络的聚合残差变换
    • ImageNet-1k
    • Top-1误差:20.4%
    2016

    2. 实例分割

    研究论文 数据集 指标 源代码 年份
    Mask R-CNN
    • COCO
    • 平均精度:37.1%
    2017

    3. 视觉问答

    研究论文 数据集 评价指标 源代码 年份
    视觉问答的技巧与窍门:2017年挑战赛的经验总结
    • VQA
    • 总体得分:69
    2017

    4. 人员重识别

         
    研究论文 数据集 评价指标 源代码 年份
    随机擦除数据增强
    • Rank-1:89.13 mAP:83.93
    • Rank-1:84.02 mAP:78.28
    • 标注数据(Rank-1:63.93 mAP:65.05)检测数据(Rank-1:64.43 mAP:64.75)
    Pytorch 2017

    语音

    语音SOTA

    1. ASR

    研究论文 数据集 评价指标 源代码 年份
    微软2017年会话语音识别系统
    • Switchboard Hub5'00
    • WER:5.1
    2017
    CAPIO 2017年会话语音识别系统
    • Switchboard Hub5'00
    • WER:5.0
    2017

    半监督学习

    计算机视觉

         
    研究论文 数据集 评价指标 源代码 年份
    基于虚拟对抗训练的分布平滑
    • SVHN
    • NORB
    • 测试误差:24.63
    • 测试误差:9.88
    Theano 2016
    虚拟对抗训练: 一种用于有监督和半监督学习的正则化方法
    • MNIST
    • 测试误差:1.27
    2017
    少样本目标检测
    • VOC2007
    • VOC2012
    • mAP:41.7
    • mAP:35.4
    2017
    由GAN生成的未标注样本 可提升人员重识别基线性能
    • Rank-1:83.97 mAP:66.07
    • Rank-1:84.6 mAP:87.4
    • Rank-1:67.68 mAP:47.13
    •          
    • 测试准确率:84.4
    Matconvnet 2017

    无监督学习

    计算机视觉

    1. 生成模型
    研究论文 数据集 评价指标 源代码 年份
    为提升质量、稳定性和多样性而进行的GAN渐进式增长 无监督的CIFAR 10 Inception分数:8.80 Theano 2017

    自然语言处理

    机器翻译

    研究论文 数据集 评价指标 源代码 年份
    仅使用单语语料库的无监督机器翻译
    • Multi30k-Task1(英-法 法-英 德-英 英-德)
    • BLEU:(32.76 32.07 26.26 22.74)
    2017
    基于权重共享的无监督神经机器翻译
    • WMT14(英-法 法-英)
    • WMT16 (德-英 英-德)
    • BLEU:(16.97 15.58)
    • BLEU:(14.62 10.86)
    2018

    迁移学习

    研究论文 数据集 评价指标 源代码 年份
    一个模型即可学会所有任务
    • WMT 英→德
    • WMT 英→法 (BLEU)
    • ImageNet (top-5准确率)
    • BLEU: 21.2
    • BLEU:30.5
    • 86%
    2017

    强化学习

    研究论文 数据集 评价指标 源代码 年份
    无需人类知识即可掌握围棋 围棋 ElO等级分:5185 2017

    邮箱:yxt.stoaml@gmail.com

    常见问题

    相似工具推荐

    openclaw

    OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

    349.3k|★★★☆☆|1周前
    Agent开发框架图像

    stable-diffusion-webui

    stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

    162.1k|★★★☆☆|1周前
    开发框架图像Agent

    everything-claude-code

    everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

    153.6k|★★☆☆☆|今天
    开发框架Agent语言模型

    ComfyUI

    ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

    108.3k|★★☆☆☆|3天前
    开发框架图像Agent

    gemini-cli

    gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

    100.8k|★★☆☆☆|3天前
    插件Agent图像

    LLMs-from-scratch

    LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

    90.1k|★★★☆☆|1周前
    语言模型图像Agent