2016 - 2024

感恩一路有你

logistic回归梯度下降法 深度学习最终会淘汰掉其他所有机器学习算法吗?

浏览量:2958 时间:2021-03-12 05:03:55 作者:admin

深度学习最终会淘汰掉其他所有机器学习算法吗?

谢谢。我可以确切地说,不!也许首先,为什么深度学习被称为“深度”?从当前技术的角度来看,深度学习结合底层特征,形成更抽象的属性类别或特征的高层表示,从而发现数据的分布式特征表示。

深度学习属于前者,它有很多参数需要调整,是一个非常大的参数模型。一般的机器学习模型属于后者,它需要强大的特征来分离数据,最终得到不同的类别。

一般来说,目前深度学习确实有很多优势。例如,对我来说,这是非常简单和暴力的。它不需要很长时间来调整参数,清理数据,并把它扔进去看看结果。如果不好,调整参数继续尝试。一般的机器学习模型不是这样的。它需要大量的特征工程。但是,深度学习有一个问题,到目前为止还没有解决的工程。它是一个可解释性差的“黑匣子”,导致系统出现错误,无法快速找出原因或追溯以前的错误。所以在工程中,我们实际上更喜欢特征少的工程和解释性强的模型来获得更好的结果。我们期待着深学在未来科学技术的进一步发展。

我将在这里发表所有关于算法、机器学习和深度学习的有趣文章。

(码字不容易,如果本文能帮到你,请喜欢)

1行业中的大型模型基本上都是逻辑和线性表达式,所以了解SGD和lbfgs非常重要,并行推导非常重要,了解LR是如何并行的

2其次,有常用的机器学习算法,如SVM、gbdt、KNN等,可以了解原理,并能在压力下快速响应。算法的优缺点和适应场景应基本清晰

3基本算法数据结构应熟练,链表二叉树,快速行合并,动态返回等

主要有线性代数和概率论。

现在最流行的机器学习模型,神经网络基本上有很多向量、矩阵、张量。从激活函数到损失函数,从反向传播到梯度下降,都是对这些向量、矩阵和张量的运算和操作。

其他“传统”机器学习算法也使用大量线性代数。例如,线性回归与线性代数密切相关。

从线性代数的观点来看,主成分分析是对协方差矩阵进行对角化。

尤其是当你读论文或想更深入的时候,概率论的知识是非常有用的。

它包括边缘概率、链式规则、期望、贝叶斯推理、最大似然、最大后验概率、自信息、香农熵、KL散度等。

神经网络非常讲究“可微性”,因为可微模型可以用梯度下降法优化。梯度下降和导数是分不开的。所以多元微积分也需要。另外,由于机器学习是以统计方法为基础的,因此统计知识是必不可少的。但是,大多数理工科专业学生都应该学过这两部分内容,所以这可能不属于需要补充的内容。

机器学习算法工程师面试需要做那些准备?

logistic回归梯度下降法 泛化误差 逻辑回归梯度下降推导

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。