AMiner 会议论文推荐第十一期

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价、专家发现、智能指派、学术地图等科技情报专业化服务。系统2006年上线,吸引了全球220个国家/地区1000多万独立IP访问,数据下载量230万次,年度访问量超过1100万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。


IJCAI 2020 论文推荐

Learning to Complement Humans

在开放世界中,对AI的新视野集中在开发可以补充人类感知、诊断和推理任务的系统上。迄今为止,旨在补充人的技能的系统都采用了孤立地训练成尽可能准确的模型。
作者展示了如何通过考虑人和机器的独特能力来利用端到端的学习策略去优化人机团队的综合绩效。目的是将机器学习的重点放在人类难以解决的问题实例上,同时识别出机器难以解决的实例并寻求人类对它们的投入。
作者在两个实际领域(科学发现和医学诊断)中证明,通过这些方法建立的人机团队的性能优于机器和人的个体表现。然后还分析了这种互补性最强的条件,以及哪种训练方法会放大该互补性。综上所述,作者的工作首次系统地研究了如何训练机器学习系统来补充人类推理的不足。

论文链接:https://www.aminer.cn/pub/5eb78919da5629cf2443038f?conf=ijcai2020

AMiner 会议论文推荐第十一期

Strategyproof Mechanism for Two Heterogeneous Facilities with Constant Approximation Ratio

在本文中,作者研究了在一条具有可选偏好的线路上的双设施定位博弈,其中每个代理的可接受设施设置可能不同,代理成本是他到其可接受范围内最接近设施的距离。目的是在确保策略安全性的同时将所有代理的总成本降至最低。作者针对近似比率为2.75的问题设计了确定性strategyproof机制,并改进了早期的最佳比率n / 2 + 1。

论文链接:https://www.aminer.cn/pub/5d36dcc13a55ac954df90e5a?conf=ijcai2020

AMiner 会议论文推荐第十一期


NeurIPS 2020 论文推荐

Language Models are Few-Shot Learners

最近的工作表明,通过在大量的文本上进行预训练,然后在特定的任务上进行微调,在许多NLP任务和基准上取得了实质性的收益。虽然在架构上通常与任务无关,但这种方法仍然需要数千或数万个例子的特定任务微调数据集。相比之下,人类通常可以只从几个例子或从简单的指令中执行一个新的语言任务——目前的NLP系统在很大程度上仍然难以做到这一点。
在这里,作者表明,扩大语言模型的规模可以极大地提高任务无关性、少数例子的性能,有时甚至达到与之前最先进的微调方法的竞争力。具体来说,作者训练了GPT-3,一个拥有1750亿个参数的自回归语言模型,比之前任何一个非稀疏语言模型多10倍,并测试了它在少样本环境下的性能。对于所有任务,GPT-3的应用不需要任何梯度更新或微调,任务和少样本演示纯粹通过与模型的文本交互来指定。GPT-3在许多NLP数据集上实现了强大的性能,包括翻译、问题回答和隐语任务,以及一些需要即时推理或领域适应的任务,如解扰词、在句子中使用一个新词或执行3位数运算。
同时,作者也发现了一些数据集,其中GPT-3的少样本学习仍然很困难,以及一些GPT-3面临与大型Web语料库训练有关的方法论问题的数据集。最后,发现GPT-3可以生成新闻文章的样本,人类评估人员很难将其与人类撰写的文章区分开。作者讨论了这一发现和GPT-3更广泛的社会影响。

论文链接:https://www.aminer.cn/pub/5ed0e04291e011915d9e43ee?conf=neurips2020

AMiner 会议论文推荐第十一期


COOT: Cooperative Hierarchical Transformer for Video-Text Representation Learning

许多现实世界中的视频文本任务涉及不同级别的粒度信息,例如帧和单词,片段和句子或视频和段落,每个都有不同级别的语义,然而现有的表征学习并不能充分的学习到这些细粒度语语义信息,从而没有充分利用大量的数据信息去学习更好的联合表示,没能将视频文本在长范围时间的特征进行关联。
本文着重研究这种长范围时间依赖性问题,提出一种协作式分层次Transformer(COOL),可以利用视频和文本中的长范围时间上下文信息学习跨模态联合表示特征。COOL模型包括三个重要组成部分:注意意识特征聚合层、上下文注意力模块和跨模态循环一致性损失函数。
最后,本文方法在视频文本检索和描述任务上都取得了最佳性能的效果,进一步说明了方法的有效性。

论文链接:https://www.aminer.cn/pub/5f7fdd328de39f0828397d68?conf=neurips2020

AMiner 会议论文推荐第十一期

EMNLP 2020 论文推荐

Fact or Fiction: Verifying Scientific Claims

作者引入科学主张验证,这是一个新的任务,从研究文献中选择包含支持或反驳给定科学主张的证据的摘要,并确定证明每个决定合理的理由。
为了研究这个任务,作者构建了SciFact,这是一个由1.4K专家撰写的科学主张以及带有标签和依据的带有证据的摘要组成的数据集。作者为SciFact开发了基线模型,并证明与通过Wikipedia或政治新闻训练的模型相比,简单的域适应技术可显着提高性能。作者表明,他们的系统能够通过识别CORD-19语料库中的证据来验证与COVID-19相关的说法。
实验表明,SciFact将为开发旨在对包含专门领域知识的语料库进行检索和推理的新系统提供一个具有挑战性的测试平台。

论文链接:https://www.aminer.cn/pub/5f7fe6d80205f07f689731eb?conf=emnlp2020

AMiner 会议论文推荐第十一期

Structured Attention for Unsupervised Dialogue Structure Induction

从一个或一组对话中得出有意义的结构表示是计算语言学中至关重要但具有挑战性的任务。在这一领域取得的进展对于对话系统设计和话语分析至关重要。它也可以扩展来解决语法推断。
在这项工作中,作者提出将结构化注意力层合并到具有离散潜在状态的变异递归神经网络(VRNN)模型中,以无人监督的方式学习对话结构。与普通VRNN相比,结构化注意力使模型可以集中于源句子嵌入的不同部分,同时强制执行结构性归纳偏差。
实验表明,在两方对话数据集上,具有结构化注意力的VRNN学习类似于用于生成该对话语料库的模板的语义结构。在多方对话数据集上时,该模型学习了一个交互式结构,展示了其区分说话人或地址的能力,在没有明确的人工标注的情况下自动拆分对话。

论文链接:https://www.aminer.cn/pub/5f68707691e011c23f13b4d7?conf=emnlp2020

AMiner 会议论文推荐第十一期

想要查看更多精彩会议论文合集,请移步AMiner顶会