机器学习中常用的特征选择工程方法有:1、过滤方法 (Filter Methods);2、包裹方法 (Wrapper Methods);3、嵌入方法 (Embedded Methods);3、嵌入方法 (Embedded Methods);5、正则化方法 (Regularization Methods)。6、基于集成学习的方法。过滤方法 (Filter Methods)根据各种统计检验的结果对特征进行评分,并选择得分高的特征。
1、过滤方法 (Filter Methods)
这类方法根据各种统计检验的结果对特征进行评分,并选择得分高的特征。常见的有:卡方检验、信息增益和相关系数计算。
2、包裹方法 (Wrapper Methods)
这类方法通过某种搜索算法来选择一组特征,最典型的如递归特征消除 (RFE)。这类方法的计算量通常较大。
3、嵌入方法 (Embedded Methods)
这类方法在模型训练过程中选择特征,如决策树、Lasso回归等都有内置的特征选择机制。
4、基于模型的特征选择 (Model-based Selection)
通过训练一个模型(如:随机森林、梯度提升树等)来得到特征的重要性,然后基于重要性选择特征。
5、正则化方法 (Regularization Methods)
如L1和L2正则化,可以在模型训练的过程中约束某些特征的权重,从而实现特征选择。
6、基于集成学习的方法
通过集成不同的特征选择方法,综合考虑多种方法的选择结果,取交集或并集来决定最终的特征集合。
延伸阅读:
什么是机器学习?
机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。
它是人工智能核心,是使计算机具有智能的根本途径。
文章标题:机器学习中有哪些特征选择的工程方法,发布者:Flawy,转载请注明出处:https://worktile.com/kb/p/61531