2016 - 2024

感恩一路有你

卷积神经网络 为什么要使用relu激活函数?

浏览量:2446 时间:2021-03-11 10:09:57 作者:admin

为什么要使用relu激活函数?

增加了网络的非线性能力,以适应更多的非线性过程。在一定程度上,relu可以防止梯度的消失,但这并不是使用它的主要原因。主要原因是很容易找到导数。在一定程度上,这意味着右端不会接近饱和。当我们计算导数时,导数不会为零,所以梯度不会消失。但是左端问题仍然存在,如果我们掉进去梯度就会消失。所以有很多改进的relu。

深度学习难吗?

有毅力不难思考,有毅力不难思考,有毅力不难坚持

在训练LSTM的时候使用除了Tanh/Sigmoid以外的激活函数效果都很差,是为什么?

LSTM中使用的所有Sigmoid都是门,其输出必须在0.1之间,所以relu不能确定

elliotsig也很难饱和。LSTM应该需要饱和门来记住或忘记信息。不饱和门会使过去和现在的记忆一直重叠,从而导致记忆障碍

卷积神经网络 relu激活函数的作用 为什么要用激活函数

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。