2016 - 2024

感恩一路有你

神经网络过拟合的表现 深度神经网络是否夸张地过拟合了?

浏览量:1740 时间:2021-03-12 08:06:19 作者:admin

深度神经网络是否夸张地过拟合了?

这不可能是一样的。

1. 过度装配可分为许多情况。一是现在的情况太多了。这种神经网络能对许多情况给出正确的答案。即使它是过度安装,你也无法证明它。此外,即使它能工作和排气,也没有坏处。

2. 是否过拟合与我们的神经网络模型和训练集有关。当二者的组合过拟合时,它在训练集上运行良好,在验证集上也会出现问题。现在有一些方法可以对训练集的数据进行预处理、多次输入和多次训练。

3. 目前,过度拟合的问题是不可避免的。培训本身就是一种适应过程。如果未来在数学原理或应用这方面有质的突破,可能有解决的机会。

既然使用神经网络也可以解决分类问题,那SVM、决策树这些算法还有什么意义呢?

这取决于数据量和样本数。不同的样本数和特征数据适合不同的算法。像神经网络这样的深度学习算法需要训练大量的数据集来建立更好的预测模型。许多大型互联网公司更喜欢深度学习算法,因为他们获得的用户数据是数以亿计的海量数据,这更适合于卷积神经网络等深度学习算法。

如果样本数量较少,则更适合使用SVM、决策树和其他机器学习算法。如果你有一个大的数据集,你可以考虑使用卷积神经网络和其他深度学习算法。

以下是一个图表,用于说明根据样本数量和数据集大小选择的任何机器学习算法。

如果你认为它对你有帮助,你可以多表扬,也可以关注它。谢谢您

可以通过直接减少hidden layer、hidden unit而不是加正则化来解决神经网络过拟合吗?

简单的答案是肯定的。复杂的答案是不确定的(见下文)。

这个概念。

(图片作者:chabacano,许可证:CC by sa 4.0)

从图像中可以明显看出,过度拟合的曲线过于曲折(复杂),对现有数据拟合得非常好,但它不能很好地描述数据的规律,因此面对新数据,我们不得不停下来。

从上面我们得到一个直觉,过度拟合的模型往往比正确的模型更复杂。

。您所说的“直接减少隐藏层和隐藏单元的数量”使网络更薄、更窄正是简化模型的方法。这个想法没有问题。

但是,我们可能必须尝试找出它是否有效。因为,一般来说,更复杂的网络可能更有表现力。

一般来说,神经网络仍然是一个黑匣子。有时,正则化的效果更好,有时则不然。一些问题可能是复杂的网络工作得很好,另一些问题可能是深度和狭窄的网络工作得很好,另一些问题可能是薄而宽的网络工作得很好,或者一些问题可能是简单的网络工作得很好。

具体来说,为了解决过拟合问题,除了简化模型(即您称之为“直接减少隐藏层、隐藏层、隐藏层”)外,还存在漏项(在某种意义上,我们可以看到模型的某些部分由于简化模型的绕道而无法工作),以及人为增加稀疏性限制(稀疏性和简化之间存在模糊关系)或尽快停止训练。

请教大牛神经网络的过拟合问题?

如果你是一个面试者,怎么判断一个面试官的机器学习水平?

神经网络过拟合的表现 如何判断拟合效果 如何判断线性拟合程度

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。