卷积神经网络算法 cnn卷积神经网络中的卷积核怎么确定?
cnn卷积神经网络中的卷积核怎么确定?
从模型中学习卷积参数,手动确定卷积核的大小和数目。二维卷积核的大小通常是奇数,例如1*1、3*3、5*5、7*7。卷积核数是网络中的信道数。常用的是128 256 512,需要根据具体任务来确定。
另外,近年来,神经网络的自动搜索结构非常流行。最著名的是Google的nasnet,它使用一些启发式遍历来寻找特定数据集的最佳网络结构。卷积神经网络结构
2。卷积神经网络的发展历史
3。反向误差传播
用训练集对卷积神经网络(CNN)进行训练时,最终使卷积神经网络的前向性更好,计算损失函数,然后根据链导数规则更新CNN的权值参数。这是调整各层网络和卷积核的特征抽取器的参数(各层的特征和功能不同)。
训练是为了使整个卷积神经网络的特征提取效果更好(越来越适合于训练集),所以训练后的卷积神经网络可以提取训练集的特征。
运行测试集的目的是测试特征提取器的能力。此时,通过训练集对CNN各层的参数进行训练,可以提取出相似训练集的参数(图像、声音、文本)。此时,我们需要再次运行测试集来测试CNN的特征提取能力。
数据集:机器学习任务中使用的一组数据,每个数据集称为一个样本。反映样品在某一方面的性能或性质的项目或属性称为特征。
训练集:训练过程中使用的数据集,其中每个训练样本称为训练样本。从数据中学习模型的过程称为学习(训练)。
测试集:学习模型后,将其用于预测的过程称为测试,使用的数据集称为测试集,每个样本称为测试样本。
卷积神经网络作为特征提取器,用训练集训练好的神经网络可以提取训练集的特征吗?还是只能提取测试集的?
我们通常看到的卷积滤波器原理图是这样的:
这实际上是卷积滤波器的“展平”或“展平”。例如,上图中的粉红色卷积滤波器是3x3x3,即长3,宽3,深3。然而,在图中,它是在两个维度中绘制的-深度被省略。
.由于卷积滤波器的深度与输入图像的深度相同,所以原理图中没有绘制深度。如果同时绘制深度,效果如下:
(图片来源:mlnotebook)
如上所述,卷积滤波器的深度与输入图像的深度相同,即3。
顺便说一下,输入图像深度是3,因为输入图像是彩色图像,深度是3,分别是R、G和b值。
(图片来源:mlnotebook)
总之,卷积滤波器的深度应该与输入数据的深度一致。
如何理解卷积神经网络里卷积过滤器的深度问题?
卷积神经网络通过用户设计的损失融合(分类往往是交叉的)计算实际标签和预测标签之间的差异,使用梯度反向传播最小化损失,并更新卷积核参数以生成新的预测值。重复此过程,直到培训结束。
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。