在神经网络训练过程中,为什么会出现梯度消失的问题?如何防止?

àì夳堔傛蜴生んèń 2024-02-19 21:38 77阅读 0赞

梯度消失的原因一般主要是:对于深度网络的激活函数的选择和全权初始化的问题

预防梯度消失的方法?

1、使用不同的激活函数,RELU,LRELU,ELU,maxout等激活函数

2、使用dropout,

3、使用批量处理规范化(BatchNormlization)对各层输入归一

4、使用残差网络(resnet)把高层特征和低层特征进行融合

5、重新调整网络的结构

6、适当调整学习率(learn Rate)

7、适当的调整权重衰减率

发表评论

表情:
评论列表 (有 0 条评论,77人围观)

还没有评论,来说两句吧...

相关阅读