卷积神经网络 为什么要使用relu激活函数?
浏览量:2446
时间:2021-03-11 10:09:57
作者:admin
为什么要使用relu激活函数?
增加了网络的非线性能力,以适应更多的非线性过程。在一定程度上,relu可以防止梯度的消失,但这并不是使用它的主要原因。主要原因是很容易找到导数。在一定程度上,这意味着右端不会接近饱和。当我们计算导数时,导数不会为零,所以梯度不会消失。但是左端问题仍然存在,如果我们掉进去梯度就会消失。所以有很多改进的relu。
深度学习难吗?
有毅力不难思考,有毅力不难思考,有毅力不难坚持
在训练LSTM的时候使用除了Tanh/Sigmoid以外的激活函数效果都很差,是为什么?
LSTM中使用的所有Sigmoid都是门,其输出必须在0.1之间,所以relu不能确定
elliotsig也很难饱和。LSTM应该需要饱和门来记住或忘记信息。不饱和门会使过去和现在的记忆一直重叠,从而导致记忆障碍
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。