2016 - 2024

感恩一路有你

算法的三个基本特征 请各位机器学习大佬帮忙!请问有没有一种分类算法,可以根据特征值得重要性来进行训练数据?

浏览量:1743 时间:2021-03-11 16:40:16 作者:admin

请各位机器学习大佬帮忙!请问有没有一种分类算法,可以根据特征值得重要性来进行训练数据?

在许多传统的机器学习实践中,除了算法选择和目标函数外,特征工程应该是训练模型中最需要人工干预的部分。我们可以粗略地理解特征工程,即人们为训练计划找到若干组特征(或合成若干基本特征生成更复杂的特征),并通过数据处理过程处理特征值以反馈给训练者。对于每个特征的权重和关系,训练方案在训练过程中不断优化,以逼近设定目标函数的最优解。如果训练过程成功完成,则最终确定每个特征的权重和关系,这些权重和关系构成训练模型中的各种参数。因此,如果所有特征(包括关系)的权重都是固定的,则根本不需要进行任何训练,这意味着您已经有了一个经过训练的模型。当然,如果只有一部分特征权值是固定的,或者只是初始化一个有利于训练收敛的权值,或者权值是固定的,则可以在训练中调整一些关系。那是另一回事。

事实上,特征的选择和特征的二次处理是一个非常繁重的过程,由于人为因素可能会干扰训练效果。这种干扰,有时会造成训练本身的大小偏差。所以,当模型愚蠢的时候,也许人类的干预会产生很多积极的效果。然而,随着模型变得越来越强大,之前引入的人为干预过程往往是模型偏颇、无法更完美演化的原因。因此,一些新的算法倾向于让机器做更多的事情,包括简化输入特征和处理原始特征,甚至避免人工干预训练过程。例如,以AI go为例。在阿尔法狗系列之前,很多围棋人工智能需要很多人工功能。这些人工特征肯定会让围棋人工智能更聪明,但同时,也会产生各种偏执。alpha dog系列将输入特性简化到了极致,只留下了最基本的go规则,不能删除。即使是为了避免人为偏差,即使是训练数据也不是根据每个人的棋局得分,而是完全通过机器的自我博弈来理解和学习围棋,最终“进化”成一个无敌的围棋神。特征选择和特征提取是特征工程中的两个重要问题。有一种说法:数据和特征决定了机器学习的上限,而模型和算法只接近上限。因此,特征工程,特别是特征选择,在机器学习中起着重要的作用。

在机器学习中,特征选择也称为变量选择、属性选择或变量子集选择。它是指为建立模型而选择相关特征子集(即属性和指标)的过程。使用特征选择技术有三个原因:

使用特征选择技术的关键假设是训练数据包含许多冗余或不相关的特征,因此删除这些特征不会导致信息丢失。特征选择是指去除无关特征并保留相关特征的过程。它也可以看作是从所有特征中选择最佳特征子集的过程。本质上,这是一个降维过程。

特征提取是指将机器学习算法无法识别的原始数据转化为算法能够识别的特征的过程。例如,图像由一系列像素(原始数据)组成,机器学习算法不能直接使用这些像素。然而,如果将这些像素转换成矩阵(数字特征),则可以使用机器学习算法。

特征选择与特征提取不同。其实,特征提取就是将原始数据转化为机器学习算法能够识别的数值特征,并从原始特征中产生新的特征。没有降维的概念,也不需要关心这些特性是否有用。特征选择是从提取的特征中选择最优的特征子集,常用于许多特征,但样本(即数据点)相似的区域较少。特征选择应用程序的典型用例包括:解析书面文本和微阵列数据。在这些场景中,有数千个特性,但只有几十到几百个示例。机器学习是一个很大的研究方向。特征选择和数据挖掘是机器学习的两个小分支。特征选择通常用于分类,以找到最佳特征进行分类。数据挖掘的目的是利用聚类、频繁项集、分类等算法从数据中提取重要信息

算法的三个基本特征 算法的5个特性 matlab特征选择算法

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。