2016 - 2024

感恩一路有你

双向lstm和单向lstm 从RNN到LSTM,性能良好的神经网络到底是如何工作的?

浏览量:1959 时间:2021-03-15 06:16:06 作者:admin

从RNN到LSTM,性能良好的神经网络到底是如何工作的?

RNN(递归神经网络),顾名思义,以先前的输出(隐藏状态)作为输入,形成一个循环。

(RNN扩展,图像源:colah.github.io文件)

上面的展开图清楚地显示了RNN的结构。不难发现RNN的结构与序列化数据是一致的。实际上,RNN实际上主要用于处理序列化数据。

基本上,不使用原始RNN,而是使用RNN的变体。

渐变裁剪可以缓解渐变爆炸,而RNN变体(如主流LSTM和Gru)可以缓解渐变消失。

(一般是sigmoid层)建模输入、输出和遗忘。

(图片来源:中新网/@左上角的蓝色是输入门,右上角的绿色是输出门,底部的红色是遗忘门。

是否存在通用的神经网络模型,可以处理图像,语音以及NLP?

对于目前的深度学习模型,虽然深度学习的目标之一是设计能够处理各种任务的算法,但是深度学习的应用还需要一定的专业化,目前还没有通用的神经网络处理模型。然而,每一种模式也在相互学习、相互融合、共同提高。例如,一些创新可以同时改进卷积神经网络和递归神经网络,如批量标准化和关注度。一般模型需要在将来提出。

图像和视频处理,计算机视觉,最流行的是CNN,卷积神经网络,它的变形和发展,CNN适合处理空间数据,广泛应用于计算机视觉领域。例如,alexnet、vggnet、googlenet、RESNET等都有自己的特点。将上述模型应用于图像分类识别中。在图像分割、目标检测等方面,提出了更有针对性的模型,并得到了广泛的应用。

语音处理,2012年之前,最先进的语音识别系统是隐马尔可夫模型(HMM)和高斯混合模型(GMM)的结合。目前最流行的是深度学习RNN递归神经网络,其长、短期记忆网络LSTM、Gru、双向RNN、层次RNN等。

除了传统的自然语言处理方法外,目前的自然语言处理深度学习模型也经历了几个发展阶段,如基于CNN的模型、基于RNN的模型、基于注意的模型、基于变压器的模型等。不同的任务场景有不同的模型和策略来解决一些问题。

LSTM可以用于图像分割吗?

也可以,因为LSTM是RNN。归根结底,RNN是一种自回归计算。如果您认为有必要使用自回归进行图像分割,为什么不尝试LSTM呢?例如,这并不是说没有人用RNN做过图像识别

这不仅仅是因为人工智能现在如此火爆,历史上也曾一度火爆。

人们总是高估短时间内能取得的成就,却低估了长时间内能取得的成就。这是人类社会的本性,而且一直如此。1956年达特茅斯会议提出了人工智能的概念。当时,科学家们信心满满,希望让人工智能在十年内解决人类智能能够解决的问题。当时的一位大牛认为,让机器看到和理解事物是一项非常简单的任务,让他的博士生在一个月内解决机器视觉的问题。当然,我们知道,这个问题到现在还没有解决。

人工智能是一个极其重要的领域。正因为如此,人们对它的看法总是徘徊在几个极端之间。上世纪60年代,人们对解决自然语言问题充满了热情,希望用几年时间创造出一个通用的翻译器,让人们相互理解,让巴别塔不再是废墟。但在投入了大量人力物力后,研究人员却一败涂地。于是,人工智能的热潮迅速退去。在接下来的十年里,整个领域变得悲观起来,持续了十多年的“人工智能之冬”开始了。

然而,许多研究人员仍在研究它——毕竟,人工智能太有吸引力了。20世纪90年代以来,一些新的思想被应用,人工智能领域逐渐活跃起来。但最大的变化应该是2006年提出的“深度学习”方法。该方法以神经网络为基础,模拟人脑的学习方法,构造多层机器学习模型。

最重要的是,这种方法具有很强的通用性,使机器能够“学习”如何理解现实世界中的对象。因此,人们在图像识别、机器翻译、作文、写作等领域进行了深入的学习尝试,其中自然语言处理有着良好的发展势头。

如果在人工智能的发展中有任何突破性的技术,深度学习应该是其中之一。然而,这一领域的普及不仅仅是由深度学习推动的,计算机工具的普及、计算能力的提高和互联网的发展都是促成当今人工智能发展的重要因素。

双向lstm和单向lstm 双向lstm神经网络原理 RNN有几种

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。