【论文速读】Attentional Bottleneck Towards an Interpretable Deep Driving Network

【论文速读】Attentional Bottleneck Towards an Interpretable Deep Driving Network

Waymo 研究院新作!

论文链接:https://arxiv.org/abs/2005.04298


摘要

深度神经网络是自动驾驶汽车的行为预测和运动生成的关键组成部分。它们的主要缺点之一是 缺乏 "透明性":它们应该为触发某些行为的原因提供易于解释的理由。我们提出了一个名为 "注意力瓶颈 (Attentional Bottleneck)"的架构,旨在提高透明性。我们的关键思想是将视觉注意力与信息瓶颈结合起来,视觉注意力可以识别模型正在使用的输入的哪些方面,信息瓶颈则可以使模型只使用输入中重要的方面。这不仅提供了稀疏和可解释的注意力图 (例如只关注场景中的特定车辆),而且在不影响模型精度的情况下增加了这种透明性。事实上,我们发现将注意力瓶颈 (Attentional Bottleneck) 应用于 ChauffeurNet 模型时,精度略有提高,而传统的视觉注意力模型则会降低精度。

图表速览

【论文速读】Attentional Bottleneck Towards an Interpretable Deep Driving Network

【论文速读】Attentional Bottleneck Towards an Interpretable Deep Driving Network

【论文速读】Attentional Bottleneck Towards an Interpretable Deep Driving Network

【论文速读】Attentional Bottleneck Towards an Interpretable Deep Driving Network

【论文速读】Attentional Bottleneck Towards an Interpretable Deep Driving Network

【论文速读】Attentional Bottleneck Towards an Interpretable Deep Driving Network

【论文速读】Attentional Bottleneck Towards an Interpretable Deep Driving Network

【论文速读】Attentional Bottleneck Towards an Interpretable Deep Driving Network

【论文速读】Attentional Bottleneck Towards an Interpretable Deep Driving Network

【论文速读】Attentional Bottleneck Towards an Interpretable Deep Driving Network