神经网络拟合非线性函数 如何评价「神经网络本质不过是初中生都会的复合函数」?
如何评价「神经网络本质不过是初中生都会的复合函数」?
如果说本质是很简单的事情,至少听起来很简单。
计算机的本质只是门电路的开关,程序的本质只是01组合,火箭发射的本质只是轨道拟合,生命体的本质只是一堆蛋白质,思维的本质只是电信号,等等。如果追根溯源,人的本质就像一堆原子。
许多东西无法分解为可见,因为它们的价值就在组合的这一部分。神经网络的本质确实是一个复合函数,因为加权是乘法,偏移是加法,激活是函数运算。这些都很简单。即使外部激活函数稍微复杂一些,它仍然可以被写出来。但是,需要提出神经网络的反向传播,否则神经网络无法优化;全连通网络的参数个数过大,无法增加深度,因此需要提出CNN、RESNET、dropout、pool,并在此基础上实现它们的反向传播算法,这些理论是经过严格的数据逻辑验证后提出的。
当然,任何人都可以做复合功能,但他们做不到。最后两个月的课足够学习了,但是学习这些东西能提出神经网络的结构吗?你学完高等数学后能写一篇约洛吗?不要老是谈论精华。只有真正理解的人才有资格谈论本质。人们甚至不知道神经网络的本质。听起来像是土木科学说地球是平的。
为什么matlab的BP神经网络曲线拟合的时候没问题,预测的时候误差这么大?
这是由于神经网络的特性造成的,与MATLAB无关。
一方面,如果您的网络层选择的神经元数和层数不合适,会导致此结果;
另一方面,如果您的训练样本选择不正确,或者数据表达过快,也会导致此问题。
在前一方面,根据经验,后者可以制成参数可调的神经元。
深度神经网络是否夸张地过拟合了?
这不可能是一样的。
1. 过度装配可分为许多情况。一是现在的情况太多了。这种神经网络能对许多情况给出正确的答案。即使它是过度安装,你也无法证明它。此外,即使它能工作和排气,也没有坏处。
2. 是否过拟合与我们的神经网络模型和训练集有关。当二者的组合过拟合时,它在训练集上运行良好,在验证集上也会出现问题。现在有一些方法可以对训练集的数据进行预处理、多次输入和多次训练。
3. 目前,过度拟合的问题是不可避免的。培训本身就是一种适应过程。如果未来在数学原理或应用这方面有质的突破,可能有解决的机会。
既然使用神经网络也可以解决分类问题,那SVM、决策树这些算法还有什么意义呢?
这取决于数据量和样本数。不同的样本数和特征数据适合不同的算法。像神经网络这样的深度学习算法需要训练大量的数据集来建立更好的预测模型。许多大型互联网公司更喜欢深度学习算法,因为他们获得的用户数据是数以亿计的海量数据,这更适合于卷积神经网络等深度学习算法。
如果样本数量较少,则更适合使用SVM、决策树和其他机器学习算法。如果你有一个大的数据集,你可以考虑使用卷积神经网络和其他深度学习算法。
以下是一个图表,用于说明根据样本数量和数据集大小选择的任何机器学习算法。
如果你认为它对你有帮助,你可以多表扬,也可以关注它。谢谢您!
神经网络拟合非线性函数 三层神经网络拟合任意函数 神经网络拟合二次曲线
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。