我们为你精心整理了2018年最重要的10项AI研究

AI前线导读:想跟上AI研究的论文会让人觉得这是徒劳无益的,因为这个领域发展得太迅速了,新论文层出不穷。光算arXiv,AI领域每周会更新100余篇论文,这样算下来一年就有5000+新论文,要将这些论文全部看完无疑是天方夜谭。我们从2018年的海量AI论文中精心整理出了最重要的10篇,如果你没有足够的时间去看成堆的论文,那么你可以从这篇文章开始看起,一睹今年AI研究的精华。本文是AI前线第60篇论文导读,也是对今年AI论文的专题小结,希望可以对各位的工作有所帮助。

我们总结了2018年发表的10篇最重要的AI论文,大致概括了今年机器学习领域的进展。除了这10篇,今年还有很多具有突破性进展的论文,但是可以从这10篇开始看起。

论文列表:

  1. Universal Language Model Fine-tuning for Text Classification
  2. Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples
  3. Deep Contextualized Word Representations
  4. An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling
  5. Delayed Impact of Fair Machine Learning
  6. World Models
  7. Taskonomy: Disentangling Task Transfer Learning
  8. Know What You Don’t Know: Unanswerable Questions for SQuAD
  9. Large Scale GAN Training for High Fidelity Natural Image Synthesis
  10. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

1. UNIVERSAL LANGUAGE MODEL FINE-TUNING FOR TEXT CLASSIFICATION(文本分类的通用语言模型微调)

论文摘要

归纳式迁移学习对计算机视觉有很大的影响,但是现有的神经语言处理(NLP)方法仍然需要从零开始训练,并且针对NLP任务进行修改。我们提出了通用语言模型微调(ULMFiT)方法,一种可以应用于NLP中所有任务的迁移学习方法,并介绍了微调语言模型的关键技术。我们的方法在六个文本分类任务上显著优于现有技术,在大多数数据集上减少了18%-24%的误差。此外,在仅有100个标记示例的情况下,它的表现与训练数据超过100倍的情况不相上下。我们开源了预训练模型和代码。

个人总结

作者在这篇论文中提出用预训练模型来解决NLP问题。用作者的方法,不需要从头开始训练整个模型,而是只需要微调原始模型。他们的通用语言模型微调(ULMFiT)方法超过了现有的结果,将误差降低了18%-24%。并且,只需要100个标注样本,ULMFiT就能达到在10K个标注样本上训练的模型的效果。

核心思想
  • 为了解决标注数据的缺乏,并使NLP分类更加简单和高效,作者提出将迁移学习应用于NLP问题。不必从头开始训练模型,而是可以使用类似问题的预训练模型作为基础,然后微调原始模型以解决特定问题。

  • 然而,这种微调应该考虑几个重要因素:

    • 由于不同的层捕获不同的信息,因此应该对它们进行不同程度的微调;
    • 让学习率先线性增加,然后线性衰减,能够让模型参数更有效的适应特定任务;
    • 同时微调所有层可能导致灾难性遗忘。因此,从最后一层开始逐步解冻模型会更好。
主要成果
  • 性能显著超越现有方法:将误差降低了18%-24%。
  • 仅需要少量标注数据:仅需要100个标注样本和50000个未标注样本,ULMFiT就可以达到其他方法在100倍数据量上进行训练的效果。
AI社区评价
  • 预训练的ImageNet模型改变了计算机视觉领域。而ULMFiT方法对于NLP问题具有相同的重要意义。
  • 这种方法可以应用于任何语言中的任何NLP任务。来自世界各地的研究者们报告了该方法在多种语言任务中(包括德语、波兰语、印地语、印尼语、汉语和马来语)相对于现有技术有显著提升。
未来研究内容
  • 改进语言模型的预训练和微调。
  • 将这种新方法应用于新的任务和模型(例如,序列标签、自然语言生成、蕴含或问题回答)。
潜在商业应用
  • ULMFiT能够更有效地解决各种NLP问题
    • 识别垃圾邮件、机器人、攻击性评论;
    • 按特定特征对文章分组;
    • 对正面和负面评论进行分类;
    • 查找相关文件等。
  • 这种方法可能可以应用于序列标记和自然语言生成。

2. OBFUSCATED GRADIENTS GIVE A FALSE SENSE OF SECURITY: CIRCUMVENTING DEFENSES TO ADVERSARIAL EXAMPLES(混淆梯度给人一种虚假的安全感:规避对抗样本的防御。)

论文摘要

我们定义了混淆梯度,一种梯度掩模,是一种在防御对抗样本时导致虚假的安全感的现象。虽然导致混淆梯度的防御方法看起来可以防御基于迭代优化的攻击,但我们发现依赖于这种效果的防御是可以规避的。我们描述了表现出这种效果的防御的特征行为,并且对于我们发现的三种类型的混淆梯度,我们研究了对应的攻击技术来克服它。在一个案例研究中,在检查ICLR 2018未认证的白盒安全防御时,我们发现混淆梯度是常见的情况,9种防御中有7种依赖于混淆梯度。我们的新攻击在每篇论文的原始威胁模型中,成功地完全避开了6种防御,部分避开1种防御。

个人总结

研究人员发现,对抗样本的防御方法通常使用混淆梯度,这会产生虚假的安全性,因为这种防御方法可以很容易被规避。这项研究描述了三种对抗混淆梯度的方法,并展示了哪些技术可以规避防御。这些发现可以帮助那些使用基于混淆梯度的防御方法的组织加强他们当前的防御体系。

我们为你精心整理了2018年最重要的10项AI研究

核心思想
  • 对抗混淆梯度有三种常用方法:
    • 破碎梯度是指由防御者有意地(通过不可微操作)或无意地(通过数值不稳定性)引起的不存在或不正确的梯度;
    • 随机梯度是由随机防御引起的;
    • 消失/爆炸梯度是在极深的神经网络测试中出现的。
  • 梯度出现问题可能有以下几个表现:
    • 一步攻击优于迭代攻击;
    • 黑盒攻击比白盒攻击更有效;
    • *攻击未达100%成功;
    • 随机采样查找对抗实例;
    • 增加失真约束不会导致成功率的增加。
主要成果
  • 论文展示了如今使用的大多数防御技术实际上都很脆弱:
    • ICLR2018接收的9篇论文中有7篇都会引起混淆梯度。
    • 作者研究出的新的攻击技术能够成功完全规避6种防御方法,部分规避1种防御方法。
AI社区评价
未来研究内容
  • 用全面的评价方法来建立防御机制,让它们不仅可以防御现有的攻击方法,更可以防御未来可能出现的攻击方法。
潜在商业应用
  • 通过论文提出的方法,组织机构可以鉴别他们的防御机制是否也是基于混淆梯度的,并更换成更鲁棒的防御方法。

3. DEEP CONTEXTUALIZED WORD REPRESENTATIONS(深度语境化词表示)

论文摘要

我们介绍了一种新型的深度语境化的词向量表示,可以对(1)词语用法的复杂特征(例如语法和语义),以及(2)这些用法如何在语言环境中变化(多义性)进行建模。我们的词向量是从深度双向语言模型(biLM)内部状态中学习得到的函数,模型是在大型文本语料库上预训练的。我们发现这些词表示可以很容易地加入现有模型,并且在六个具有挑战性的NLP问题(问题回答、文本蕴涵和情感分析)上显著超越现有方法。我们的分析表明揭示预训练网络的内部是至关重要的,能够让下游模型混合不同类型的半监督信号。

个人总结

艾伦人工智能研究所的研究小组介绍了一种新型的深度语境化词向量表示——从语言模型中得到的特征向量(ELMo)。在ELMo增强模型中,每个单词都是基于其整体语境进行向量化。在现有的NLP系统中添加ELMo能够1)相对误差减少6%-20%,2)训练模型所需的时间显著减少,3)达到基线性能所需的训练数据显著减少。

核心思想
  • 用在较大语料库上预训练的深度双向语言模型(biLM)的内部状态的加权和生成词向量。
  • 使用了来自biLM的所有层的表示,因为不同的层可以表示不同类型的信息。
  • 基于字符构建ELMo的词向量表示,以便网络能够利用形态学线索“理解”训练中未出现的词条。
主要成果
  • 向模型中添加ELMo可以得到最优表现,在诸如问题回答、文本蕴涵、语义角色标记、共指解析、命名实体提取和情感分析等NLP任务中,相对误差可以减少6%-20%。
  • 用ELMo增强模型可以显著减少达到最优性能所需的更新次数。因此,带有ELMo的语义角色标注(SRL)模型只需要10个epoch就可以超过基线模型经过486个epoch训练后达到的最优表现。
  • 向模型引入ELMo还显著减少了实现相同性能水平所需的训练数据量。例如,对于SRL任务,ELMo增强模型只需要训练集的1%就可以获得与基准模型在10%的数据上进行训练得到的相同性能。
AI社区评价
  • 该论文获得了NAACL会议(NLP领域*会议)“杰出论文奖”。
  • 该论文中介绍的ELMo方法被认为是2018年最大的科学突破之一,以及未来几年NLP领域的主要议题
未来研究内容
  • 通过将ELMo与独立文本的词向量表示进行连接,将该方法与特定任务相结合。
  • 进行ELMo与输出结合的实验
潜在商业应用
  • ELMo显著推进了现有NLP系统的表现:
    • 使聊天机器人更好地理解人类和回答问题;
    • 对正面和负面评论进行分类;
    • 查找相关信息和文献等等。

4. AN EMPIRICAL EVALUATION OF GENERIC CONVOLUTIONAL AND RECURRENT NETWORKS FOR SEQUENCE MODELING(序列建模的通用卷积和递归网络的经验评估)

论文摘要

对于大多数深度学习实践者来说,序列建模是递归网络的代名词。然而,最近的结果表明,卷积结构在诸如音频合成和机器翻译等任务上的表现超过了递归网络。给定一个新的序列建模任务或数据集,应该使用哪种体系结构?我们对用于序列建模的通用卷积和递归网络结构进行了系统评价。我们在标准任务上对模型进行评估,这些标准任务通常用于对递归网络进行基准测试。我们的结果表明,一个简单的卷积结构在多种任务和数据集上的性能优于标准递归网络,如LSTM,同时具有更长的记忆力。我们认为应该重新考虑序列建模和递归网络之间的共同关联,卷积网络应该被选作序列建模任务的自然起点。我们已经开源了代码:http://github.com/locuslab/TCN

个人总结

这篇论文的作者对一个常见假设提出了质疑,即循环网络结构通常是序列建模任务的默认起点。他们的结果表明,通用时间卷积网络(TCN)在序列建模任务中的表现超越了常规的循环网络结构,如长短时记忆网络(LSTM)和门控循环单元网络(GRU)。

核心思想
  • 时态卷积网络(TCN)使用了最新提出的最佳实践(如膨胀卷积和残差连接)设计,在序列建模任务中的表现显著优于通用递归网络。
  • TCN具有比递归结构更长的记忆力,因此更适合需要长历史的任务。
主要成果
  • 对序列建模任务中的卷积结构和递归结构进行了广泛的系统比较。
  • 设计了一个卷积结构,可以作为序列建模任务的便捷且仍然强大的起点。
AI社区评价
  • “永远在使用RNN之前尝试一下CNN,你会惊讶于你所获得的结果。”——Andrej Karpathy,Tesla AI总监。
未来研究内容
  • 需要进一步的改进结构和算法细节来提高TCN在不同序列建模任务中的性能。
潜在商业应用
  • TCN提升了依靠递归结构完成序列建模任务的AI系统的表现。因此潜在应用包括:
    • 机器翻译;
    • 语音识别;
    • 音乐和声音合成。

5. DELAYED IMPACT OF FAIR MACHINE LEARNING合理机器学习的延迟影响)

论文摘要

机器学习中的公平性主要在静态分类设置中进行研究,而不关心决策会如何随时间改变潜在的人群。传统智慧认为,公平标准应该促进他们意图保护的群体的长期福祉。

我们研究静态公平标准如何与幸福感的时间指标相互作用,如利益变量长期的改善、停滞、以及衰退。我们证明,即使在一步反馈模型中,普通的公平性标准一般来说并不会随时间而带来改善,而实际上可能造成损害,而不受约束的目标则不会。我们完整地总结了三个标准规则的延迟影响,对比了这些规则在质量上表现出的不同行为。此外,我们发现,测量误差的自然形式拓宽了公平性准则能够良好执行的范围。

我们的结果强调了测度和时间建模在公平标准评估中的重要性,提出了一系列新的挑战和取舍。

个人总结

这篇文章的目标是在使用基于分数的机器学习算法来决定谁获得机会(例如贷款、奖学金、工作)以及谁不能获得机会时,确保不同人口统计群体的公平对待。来自伯克利人工智能研究实验室的研究人员表明,使用共同的公平标准实际上可能会由于某些延迟的结果而伤害到未被充分代表或处于不利地位的群体。因此,在设计一个“公平”的机器学习系统时,他们鼓励人们着眼于长期的结果。

核心思想
  • 考虑实施公平标准的延迟结果显示,这些标准可能对其意图保护的那些群体的长期福祉产生不利影响(例如,当借款人无法偿还在无约束设置下本不予发放的贷款时,使借款人的信用评分恶化。)
  • 由于公平标准可能会主动伤害弱势群体,解决办法可以是使用决策规则,包括结果的显式最大化,或者使用结果模型。
主要成果
  • 提出诸如人口均等和机会均等之类的公平标准会导致弱势群体的任何可能结果,包括改善、停滞和衰退。而遵循机构的最佳无约束选择政策(例如利润最大化),则永远不会为弱势群体带来衰退的效果(主动危害)。
  • 通过FICO信用评分数据实验支持理论预测。
  • 提出了硬公平约束的替代方案。
AI社区评价
未来研究内容
  • 考虑除人口均值变化之外的其他影响(方差、个体级别的结果)。
  • 研究结果优化对建模和衡量误差的鲁棒性。
潜在商业应用
  • 通过由公平规则带来的约束转换为对结果建模,公司可以开发用于借贷或招聘的机器学习系统,在带来更多利润的同时保持公平性。

6. WORLD MODELS 世界模型

论文摘要

我们探索在流行的强化学习环境建立的生成神经网络模型。我们提出的世界模型可以用无监督的方式快速训练,以学习环境的压缩空间和时间表示。通过使用从世界模型中提取的特征作为代理的输入,我们可以训练一个非常紧凑和简单的策略来解决既定任务。我们甚至可以完全在代理的世界模型生成的空间中训练代理,并将这一策略迁移到实际环境中。这篇论文的交互式版本可以在https://worldmodels.github.io查看。

个人总结

作者开发了一个世界模型,该模型可以用无监督的方式快速训练,来学习环境的空间和时间表示。在赛车任务中,这个代理成功地在赛道上导航,并在VizDom实验中避免了怪物射出的火球。这些任务对于以前的方法来说太具有挑战性。

核心思想
  • 该解决方案由三个不同的部分组成:
    • 一种用于捕获视觉信息的变分自动编码器(VAE)。它将RGB输入图像压缩为遵循高斯分布的32维隐向量。因此,代理可以使用更小的向量表示,也因此可以达到更高效的学习。
    • 负责正向思维的递归神经网络(RNN)。这是一个记忆组件,它根据前面的图片和之前的动作预测由可视化组件捕获的下一幅图片。
    • 一个负责选择动作(action)的控制器。这是一个简单的神经网络,将VAE的输出和RNN的隐藏状态连接起来并选择好的动作。
主要成果
  • 这是首个能够解决强化学习环境中“赛车”任务的代理。
  • 研究证明了在模拟的隐空间内训练代理执行任务的可能性。
AI社区评价
  • 这篇论文在学术界引起了热烈的讨论,在强化学习中利用神经网络,并且在代理自己构建的“盗梦空间”中进行训练,是一个很棒的工作。
未来研究内容
  • 通过将小的RNN替换为更高容量的模型或合并外部存储器模块,使代理能够探索更复杂的世界。
  • 用更通用的方法进行实验,该方法允许层级规划,而不是这里提出的“时间序列”方法。
潜在商业应用
  • 当运行计算密集型游戏引擎时,现在可以在其模拟环境中根据需要多次训练代理,而不是在实际环境中浪费大量计算资源来训练代理。

7. TASKONOMY: DISENTANGLING TASK TRANSFER LEARNING任务学:理解任务迁移学习)

论文摘要

视觉任务之间有关系吗?或者它们是无关的?例如,表面法线可以被用来简化估计图像的深度吗?直觉给出了积极答案,这也意味着视觉任务之间存在着一种结构。掌握这种结构是意义重大的:它是迁移学习的基础概念,并且为识别任务之间的冗余性提供了一种原则性的方法,例如,它允许我们在相关任务之间的无缝重复使用监督信息,或者在一个系统中解决多个任务而不增加复杂性。

我们提出了一个计算性的方法来模拟视觉任务的空间结构。通过从26个2D、2.5D、3D和隐空间的语义任务字典中提取迁移学习的相关性关系来完成的。我们得到的是任务迁移学习的计算分类图。我们研究了这种结构的作用,例如非平凡的出现关系,并利用它们来减少对标注数据的需求。例如,解决一组10项任务所需的标注数据点的总数可以减少大约2/3(与独立训练相比),同时保持性能几乎相同。我们提供了一组用于计算和探测这个分类结构的工具,包括解决方案,用户可以用来为他们的用例设计高效的监督策略。

个人总结

自从现代计算机科学的早期时代,许多研究人员就认为视觉任务之间存在一种结构关系。现在Amir Zamir和他的团队试图找到这个结构。他们使用完全计算的方法对其进行建模,发现不同视觉任务之间存在许多有用的关系,包括复杂任务。利用这些相互依存性,可以在标注数据量减少2/3的情况下实现相同的模型性能。

我们为你精心整理了2018年最重要的10项AI研究

核心思想
  • 如果模型掌握了不同视觉任务之间的关系,那么它只需要较少的监督,使用较少的计算,并且其表现更易预测。
  • 最好采用完全计算的方法来发现视觉任务之间的关系,因为它避免了强加的先验,以及可能错误的假设:先验知识来源于人类的直觉或知识,而神经网络的表现可能基于不同的原则。
主要成果
AI社区评价
  • 这篇论文获得了CVPR2018(计算机视觉*会议)最佳论文奖
  • 这篇论文的结果十分重要,因为对于大多数真实场景的任务来说,没有可用的大规模标注数据集
未来研究内容
  • 摆脱完全由人类定义的视觉任务模型,并尝试将人类定义的视觉任务视为由计算发现的潜在子任务组成的观察样本。
  • 探索将研究结果迁移到不完全视觉任务的可能性,例如机器人操作。
潜在商业应用
  • 本文中发现的关系可用于构建更有效的视觉系统,需要标注数据更少,计算成本更低。

8. KNOW WHAT YOU DON’T KNOW: UNANSWERABLE QUESTIONS FOR SQUAD(知道你不知道的事:无法回答问题数据库SQuAD)

论文摘要

摘要式阅读理解系统通常可以在文档中找到问题的正确答案,但是对于文中没有直接给出正确答案的问题,它们往往会做出不可靠的猜测。现有的数据集要么只关注能够回答的问题,要么使用自动生成的易于识别但难以回答的问题。为了解决这些缺点,我们提出了SQuAD 2.0,斯坦福问答数据集(SQuAD)的最新版本。SQuAD 2.0将现有的SQuAD数据与5万多个无法回答的问题结合在一起,这些问题由工作人员用相反的方式撰写,看起来与可答问题类似。为了在SQuAD 2.0上取得良好表现,系统不仅必须尽可能回答问题,而且还必须确定上下文没有给出答案的情况,并且避免回答。SQuAD 2.0对于现有模型来说是一个具有挑战性的自然语言理解任务:在SQuAD 1.1数据集上F1评分达到86%的强神经系统,在SQuAD 2.0上F1评分仅达到66%。

个人总结

斯坦福大学的一个研究小组扩展了著名的斯坦福问题回答数据集(SQuAD),增加了50000多个无法回答的问题。这些问题的答案在支持段落中没有直接给出,但是这些问题看起来与可回答的问题很像。甚至有些支持段落包含合理的(但不正确的)答案。这使得新的SQuAD 2.0对现有最先进的模型极具挑战性:在引入无法回答的问题之后,在之前版本的SQuAD数据集上达到86%准确率的强神经系统只能在新的数据集上得到66%的准确率。

核心思想
  • 当前的自然语言理解(NLU)系统离真正的语言理解还很远,其根源之一是现有的问答数据集中的问题一定能在上下文中找到正确答案。
  • 要真正具有挑战性,应该建立不可回答的问题数据集:
    • 它们与相关段落有关;
    • 该段落包含貌似合理的答案,其中包含与问题类型相同的信息,但是是不正确的。
主要成果
  • 在原有SQuAD数据集上增加了53777个新的、无法回答的问题,构建了一个具有挑战性的大规模数据集,使自然语言理解(NLU)系统了解哪些问题无法回答。
  • 为NLU系统带来新的挑战:现有模型(准确率为66%)与基线精度(48.9%)更接近,而与人类精度(89.5%)更远。
  • 貌似合理的答案确实是NLU系统的有效干扰源。
AI社区评价
  • 该论文被计算语言学协会(ACL)评选为2018年最佳短篇论文。
  • 新的数据集增加了NLU领域复杂性,并且对该领域的研究产生了巨大的推动力。
未来研究内容
  • 开发新的模型,“知道他们不知道什么”,更好地理解自然语言。
潜在商业应用
  • 在真实场景中,一些问题的答案一般都不能直接从原文中得到。在这个数据集上训练阅读理解模型能够提升模型在真实场景下的表现。

9. LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS用于高精度自然图像合成的大规模GAN训练)

论文摘要

尽管最近生成图像模型取得了一定进展,但是从诸如ImageNet之类的复杂数据集中成功生成高分辨率且具有多样性的样本仍然是一个难以实现的目标。为此,我们训练了迄今为止规模最大的生成对抗网络,并研究了在这种规模下特有的不稳定性。我们发现,对生成器应用正交正则化使其能够服从简单的“截断技巧”,可以通过隐空间的截断来精细控制样本保真度和多样性之间的权衡。我们的模型在类别条件图像合成任务中达到了最先进水平。当在ImageNet上以128×128分辨率进行训练时,我们的模型(BigGAN)的起始分数(IS)为166.3,Frechet起始距离(FID)为9.6,比之前的最优IS 52.52和FID18.65有了显著提升。

个人总结

DeepMind团队发现,当前的技术足以从现有数据集,例如ImageNet和JFT-300M中合成高分辨率且多样化的图像。他们特别指出,如果在大规模数据集上进行训练,生成对抗网络(GANs)可以生成看起来非常逼真的图像,即使这意味着用到比以前实验多2到4倍的参数和8倍的批尺寸。这些大规模的GAN,或BigGAN,达到了类别条件图像合成的最先进水平。

我们为你精心整理了2018年最重要的10项AI研究

核心思想
  • 当增加批尺寸和参数数量时,GAN的表现也会大幅提高。
  • 对生成器应用正交正则化约束可以让模型响应特定的技术(截断技巧),该技术可用于控制样本保真度和多样性之间的权衡。
主要成果
  • 证明GAN可以从规模扩展中获益。
  • 构建允许显式、细粒度地控制样本多样性和保真度之间权衡的模型。
  • 发现了大规模GAN的不稳定性并且将其特征化。
  • BigGAN用ImageNet 128×128分辨率图像进行训练:初始得分(IS)为166.3,之前的最佳IS为52.52;Frechet Inception Distance (FID)为9.6,之前最好的FID为18.65。
AI社区评价
  • 该论文投稿至ICLR 2019
  • 自从TF Hub上线BigGAN生成器后,全世界的AI领域研究人员用BigGAN生成了狗、手表、比基尼、蒙娜丽莎、海岸和很多其他主题图像。
未来研究内容
  • 用更大的数据集来减轻GAN的稳定性问题。
  • 探索减少GAN产生奇怪样本数量的可能性。
潜在商业应用
  • 取代广告和电子商务中昂贵的手工媒体创作。

10. BERT: PRE-TRAINING OF DEEP BIDIRECTIONAL TRANSFORMERS FOR LANGUAGE UNDERSTANDINGBERT:用于语言理解的深度双向转换器预训练)

论文摘要

我们介绍了一种新的语言表示模型,称为BERT,表示转换器的双向编码器表示(Bidirectional Encoder Representations from Transformers)。与最近的语言表示模型不同,BERT在所有层中联合前后上下文来预训练深度双向表示。只需要一个额外的输出层,就可以对预训练的BERT表示进行微调,从而为各类任务创建最先进的模型,例如问题回答和语言推理,而无需对特定任务的体系结构进行大量修改。

BERT概念简单,但经验强大。它在11个自然语言处理任务中获得了最佳结果,包括将GLUE基准提升到80.4%(7.6%的绝对增长)、MultiNLI精度提升至到86.7(5.6%的绝对增长),以及SQuAD v1.1问题回答测试的F1分数提高到93.2(1.5%的绝对增长),超过了人类水平2.0%。

个人总结

谷歌AI团队提出了一个新的前沿自然语言处理模型BERT。它的设计允许模型从左右两边考虑每个单词的上下文。在概念简单的同时,BERT在11个NLP任务上获得了最先进的结果,这些任务包括回答问题、命名实体识别以及其他与语言理解相关的任务。

核心思想
  • 通过随机屏蔽一定比例的输入词条来训练深层双向模型,可以避免单词可以间接“看到自己”的循环
  • 预训练语句关系模型,通过构建一个简单的二元分类任务,预测句子B是否紧跟着句子A,从而让BERT更好地理解语句之间的关系。
  • 训练一个非常大的模型(24个Transformer块,1024隐层,340M参数)和大量数据(33亿词语料库)。
主要成果
  • 在11项NLP任务上达到了最先进水平:
    • GLUE分数达到80.4%,比之前的最佳结果提升7.6%;在SQuAD 1.1上的准确率达到93.2%,超过人类水平2%。
  • 提出一个预训练的模型,它不需要任何实质性的架构修改就可以应用于特定的NLP任务。
AI社区评价
未来研究内容
  • 在更多任务上测试模型。
  • 研究BERT能或不能捕捉到的语言学现象。
    #####潜在商业应用
  • BERT可以帮助企业解决大量NLP问题:
    • 提升聊天机器人的用户体验;
    • 分析顾客点评;
    • 查找相关信息。

查看英文原文:No time to read AI research? We summarized top 2018 papers for you.

我们为你精心整理了2018年最重要的10项AI研究