pytorch多数字识别 机器学习中,特征提取和特征选择有什么区别?
特征选择和特征提取是特征工程中的两个重要问题。有一种说法:数据和特征决定了机器学习的上限,而模型和算法只接近上限。因此,特征工程,特别是特征选择,在机器学习中起着重要的作用。
在机器学习中,特征选择也称为变量选择、属性选择或变量子集选择。它是指为建立模型而选择相关特征子集(即属性和指标)的过程。使用特征选择技术有三个原因:
使用特征选择技术的关键假设是训练数据包含许多冗余或不相关的特征,因此删除这些特征不会导致信息丢失。特征选择是指去除无关特征并保留相关特征的过程。它也可以看作是从所有特征中选择最佳特征子集的过程。本质上,这是一个降维过程。
特征提取是指将机器学习算法无法识别的原始数据转化为算法能够识别的特征的过程。例如,图像由一系列像素(原始数据)组成,机器学习算法不能直接使用这些像素。然而,如果将这些像素转换成矩阵(数字特征),则可以使用机器学习算法。
特征选择与特征提取不同。其实,特征提取就是将原始数据转化为机器学习算法能够识别的数值特征,并从原始特征中产生新的特征。没有降维的概念,也不需要关心这些特性是否有用。特征选择是从提取的特征中选择最优的特征子集,常用于许多特征,但样本(即数据点)相似的区域较少。特征选择应用程序的典型用例包括:解析书面文本和微阵列数据。在这些场景中,有数千个特性,但只有几十到几百个示例。
机器学习中,特征提取和特征选择有什么区别?
特征提取方法:
1。在时域中得到一维信号,简单的统计和运算可以得到特征:均值、方差、均方根、峰值因子、峰度系数、波形因子、裕度因子、脉冲因子。
2. 估计——分布参数通常遵循某种分布;
3。频域,特征频率,均方频率,重心频率,频率方差;
4。小波方法提取的系数、小波滤波后的特征频率等;
pytorch多数字识别 pytorch人脸识别 pytorch自定义损失函数
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。