ml
  • Introduction
  • 机器学习基础
    • 机器学习基础_距离
    • 机器学习基础_概率论基础
    • 机器学习基础_线性代数基础
    • 机器学习基础_微积分基础
    • 机器学习基础_最优化理论
    • 机器学习基础_损失函数
  • 特征工程
    • 特征工程_归一化
    • 特征工程_编码
    • 特征工程_特征组合
    • 特征工程_特征选择
    • 特征工程_文本表示模型
    • 特征工程_图像增强
  • 模型评估
    • 模型评估_评估指标
    • 模型评估_AB测试
    • 模型评估_过拟合和欠拟合
    • 模型评估_超参数选择
    • 模型评估_模型评估方法
  • 降维
    • 降维_PCA主成分分析
    • 降维_LDA线性判别分析
  • 监督学习
    • 监督学习_朴素贝叶斯分类
    • 监督学习_决策树
    • 监督学习_K近邻法
    • 监督学习_支持向量机
    • 监督学习_CRF
  • 非监督学习
    • 非监督学习_K均值
    • 非监督学习_Mean_Shift均值漂移聚类
    • 非监督学习_DBSCAN基于密度的聚类方法
    • 非监督学习_Hierarchical_Clustering层次聚类
    • 非监督学习_Spectral_Clustering谱聚类
  • 半监督学习
  • 集成学习
  • 强化学习
Powered by GitBook
On this page
  • 归一化
  • 线性函数归一化
  • 零均值归一化
  • 其他归一化方式

Was this helpful?

  1. 特征工程

特征工程_归一化

Previous特征工程Next特征工程_编码

Last updated 3 years ago

Was this helpful?

[TOC]

归一化

为什么需要对数值型特征做归一化呢?

线性函数归一化

零均值归一化

零均值归一化(Z-Score Normalization): 将原始数据映射到均值为0、标准差为1的分布上。

其他归一化方式

我们不妨借助随机梯度下降的实例来说明归一化的重要性。假设有两种数值型特征,x1x_1x1​的取值范围为[0,10][0,10][0,10],x2x_2x2​的取值范围为[0,3][0,3][0,3],于是可以构造一个目标函数符合图1.1(a)中的等值图。

​ 在学习速率相同的情况下,x1x_1x1​的更新速度会大于x2x_2x2​,需要较多的迭代才能找到最优解。

如果将x1x_1x1​和x2x_2x2​归一化到相同的数值区间后,优化目标的等值图会变成图1.1(b)中的圆形,x1x_1x1​和x2x_2x2​的更新速度变得更为一致,容易更快地通过梯度下降找到最优解。 当然,数据归一化并不是万能的。在实际应用中,通过梯度下降法求解的模型通常是需要归一化的,包括线性回归、逻辑回归、支持向 量机、神经网络等模型。

但对于决策树模型则并不适用,以C4.5为例, 决策树在进行节点分裂时主要依据数据集DDD关于特征xxx的信息增益比,而信息增益比跟特征是否经过归一化是无关的, 因为归一化并不会改变样本在特征xxx上的信息增益。

线性函数归一化(Min-Max Scaling): 它对原始数据进行线性变换,使结果映射到[0,1[0,1[0,1]的范围,实现对原始数据的等比缩放。

Xnorm=X−XminXmax−XminX_{norm}=\frac{X-X_{min}}{X_{max}-X_{min}}Xnorm​=Xmax​−Xmin​X−Xmin​​

其中XXX为原始数据,XmaxX_{max}Xmax​、XminX_{min}Xmin​分别为数据最大值和最小值。

具体来说,假设原始特征的均值为μ\muμ、标准差为σ\sigmaσ,那么归一化公式定义为

z=x−μσz=\frac{x-\mu}{\sigma}z=σx−μ​
异世界.png
1570006953459