在神经网络训练过程中,为什么会出现梯度消失的问题?如何防止?
梯度消失的原因一般主要是:对于深度网络的激活函数的选择和全权初始化的问题
预防梯度消失的方法?
1、使用不同的激活函数,RELU,LRELU,ELU,maxout等激活函数
2、使用dropout,
3、使用批量处理规范化(BatchNormlization)对各层输入归一
4、使用残差网络(resnet)把高层特征和低层特征进行融合
5、重新调整网络的结构
6、适当调整学习率(learn Rate)
7、适当的调整权重衰减率
还没有评论,来说两句吧...