数说清华丨AMiner带你走进NeurIPS2020国内高产机构榜首
AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价、专家发现、智能指派、学术地图等科技情报专业化服务。系统2006年上线,吸引了全球220个国家/地区1000多万独立IP访问,数据下载量230万次,年度访问量超过1100万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。
AMiner平台:https://www.aminer.cn/
NeurIPS神经信息处理系统大会,是人工智能领域最负盛名的学术盛会,每年论文接收的消息一出,都会引来大家的关注。为此,AMiner平台早早推出NeurIPS2020顶会专题:https://www.aminer.cn/conf/neurips2020,专题包括了1899篇收录论文、各个机构数据分析、学者信息以及各个主题论文和学者论文等,欢迎大家关注!
NeurIPS清华论文接收量再创新高
NeurIPS2020在9454篇论文中,仅接收1899篇,接收率创下史低,仅为20.09%。清华大学作为国内的顶尖高校,在NeurIPS2020排名突飞猛进,进入全球机构排名第7,有64篇论文被接收。
清华大学近年来在NeurIPS中表现出色,从2017年到2020年,论文接收量从14篇增长到64篇,机构排名从39名上升到第7名。
近年清华在NeurIPS论文接收量的变化情况,充分展现了清华大学在人工智能领域具备的强大实力。
清华大学是我国人工智能研究领域实力最强学校之一,也充分认识到与其他学科的开放合作、与产业的紧密结合将是人工智能未来发展的大势所趋。因此,清华大学成立了计算神经科学与人工智能交叉研究的脑与智能实验室,与工程院相结合的清华-中国工程院知识智能联合实验室,也有在交叉未来领域开展工作、孵化新兴产业的未来实验室等诸多实验室。
清华大学NeurIPS2020论文查询
清华大学64篇论文信息及国内其他机构论文信息,均可在AMiner平台NeurIPS2020专题主页查询:https://www.aminer.cn/conf/neurips2020
NeurIPS2020专题页面不仅有清华NeurIPS2020论文的具体信息,同时也有一键下载、论文精读等功能。对于想了解的学者,轻触即可展现学者基本信息,点击可直达学者个人页面,对于研究方向、论文、项目等有更详尽的内容。
清华NeurIPS2020论文的查询路径与方法大家掌握了吗?快跟小编一起走近实验室大佬的论文一探究竟吧!
清华大学NeurIPS2020论文浅析
AMiner平台对清华部分实验室NeurIPS2020论文接收数据进行了统计,下面精选三个实验室老师的论文给大家进行展示。
朱军(清华大学脑与智能实验室)
在这次NeurIPS2020中,朱军教授一共有8篇文章被接收,论文接收量并列前十。具体如下:
下面我们一起走进朱军教授NeurIPS2020的一篇文章吧!
**论文标题:**Efficient Learning of Generative Models via Finite-Difference Score Matching
**论文作者:**Tianyu Pang, Kun Xu, Chongxuan Li, Yang Song, Stefano Ermon, Jun Zhu
论文链接:https://www.aminer.cn/pub/5f05994591e011c57e3e8d41/?conf=neurips2020
**摘要:**一些机器学习应用程序涉及在训练过程中优化高阶导数(例如梯度的梯度),即使具有自动微分功能,在内存和计算方面也会很昂贵。作为生成建模中的典型示例,分数匹配(SM)涉及对Hessian轨迹的优化。为了提高计算效率,我们根据方向导数重写了SM目标及其变量,并提出了一种通用策略来有效地逼近有限差分(FD)的任意阶方向导数。我们的近似值仅涉及可以并行执行的函数评估,而无需进行梯度计算。因此,它减少了总计算成本,同时还改善了数值稳定性。通过将SM目标的变量重新构造为FD形式,我们提供了两个实例。从经验上讲,我们证明了我们的方法所产生的结果可与基于梯度的对应方法相当,而计算效率却更高。
唐杰(清华-中国工程院知识智能联合实验室)
在这次NeurIPS2020中,唐杰教授一共有三篇文章被接收,具体如下:
那我们就挑选其中一篇,和大家分享。
**论文标题:Concentration Bounds for Co-occurrence Matrices of Markov Chains
论文作者:**Jiezhong Qiu, Chi Wang, Ben Liao, Richard Peng, Jie Tang
论文链接:https://www.aminer.cn/pub/5f2e718291e011ecdac9c1c0?conf=neurips2020
**摘要:**序列数据的共现统计是机器学习中常见且重要的数据信号,它提供了有关底层对象空间的丰富相关性和聚类信息。我们给出了从单个随机轨迹估计规则(非周期性和不可约)有限马尔可夫链的共现矩阵的收敛率的第一界。我们的工作是由[Qiu et al。WSDM '18] 对一个著名的图学习算法DeepWalk的分析激发的,该算法研究了随机游动的共现矩阵在无向图上的极限收敛(概率),但收敛率仍然是一个悬而未决的问题。我们证明了通过遍历马尔可夫链采样的矩阵值随机变量之和的Chernoff型界,推广了[Garg et al. STOC '18]研究的规则无向图的情况。使用Chernoff型界,我们证明给定具有
n
n
n states and mixing time
τ
\tau
τ的规则马尔可夫链, 我们需要一个长度为
O
(
τ
(
log
(
n
)
+
log
(
τ
)
)
/
ϵ
2
)
O(\tau (\log{(n)}+\log{(\tau)})/\epsilon^2)
O(τ(log(n)+log(τ))/ϵ2)的共现矩阵的估计量。我们进行了几次实验,实验结果与理论分析得出的指数快速收敛速度一致。我们的结果给出了图形表示学习中的第一个样本复杂度分析。
崔鹏(Lab of Media and Network)
在这次NeurIPS2020中,崔鹏教授一共有两篇文章被接收,具体如下:
**论文标题:Calibrated Reliable Regression using Maximum Mean Discrepancy
论文作者:**Peng Cui, Wenbo Hu, Jun Zhu
论文链接:https://www.aminer.cn/pub/5eede0b791e0116a23aafcf7/?conf=neurips2020
**摘要:**不确定性的准确量化对于机器学习的实际应用至关重要。然而,现代深度神经网络仍会产生不可靠的预测不确定性,经常会产生过分自信的预测。在本文中,我们关心的是回归任务中获得经过良好校准的预测。我们提出了使用最大平均差进行分布水平校准的校正回归方法。理论上,当样本容量足够大时,该方法的标定误差渐近收敛于零。在非平凡的真实数据集上进行的实验表明,我们的方法可以产生精确和清晰的预测区间,其性能优于相关的最新方法。
更详细了解清华NeurIPS2020论文具体内容,可以关注公众号或链接直达NeurIPS2020专题,最前沿的研究方向和最全面的论文数据等你来~
扫码了解更多NeurIPS2020会议信息
添加“小脉”微信,留言“NeurIPS”,即可加入【NeurIPS会议交流群】,与更多论文作者学习交流!