深度学习模型在训练时候使用dropout为何在测试时候不使用dropout?

深度学习模型在训练时候使用dropout为何在测试时候不使用dropout?
深度学习模型训练时候使用dropout实际上只是让部分神经元在当前训练批次以一定的概率不参与更新,这样使得每一轮迭代获得的模型都是不一样的。这个过程一定程度上保持了不同模型之间最优参数设置,使得训练出的每一个模型不至于太差。在预测时候,不使用dropout,但会在权重上都乘上保留概率。最终的输出可以被认为是Bagging的一种近似。

参考:http://jmlr.org/papers/volume15/srivastava14a/srivastava14a.pdf

深度学习模型在训练时候使用dropout为何在测试时候不使用dropout?