ml
  • Introduction
  • 机器学习基础
    • 机器学习基础_距离
    • 机器学习基础_概率论基础
    • 机器学习基础_线性代数基础
    • 机器学习基础_微积分基础
    • 机器学习基础_最优化理论
    • 机器学习基础_损失函数
  • 特征工程
    • 特征工程_归一化
    • 特征工程_编码
    • 特征工程_特征组合
    • 特征工程_特征选择
    • 特征工程_文本表示模型
    • 特征工程_图像增强
  • 模型评估
    • 模型评估_评估指标
    • 模型评估_AB测试
    • 模型评估_过拟合和欠拟合
    • 模型评估_超参数选择
    • 模型评估_模型评估方法
  • 降维
    • 降维_PCA主成分分析
    • 降维_LDA线性判别分析
  • 监督学习
    • 监督学习_朴素贝叶斯分类
    • 监督学习_决策树
    • 监督学习_K近邻法
    • 监督学习_支持向量机
    • 监督学习_CRF
  • 非监督学习
    • 非监督学习_K均值
    • 非监督学习_Mean_Shift均值漂移聚类
    • 非监督学习_DBSCAN基于密度的聚类方法
    • 非监督学习_Hierarchical_Clustering层次聚类
    • 非监督学习_Spectral_Clustering谱聚类
  • 半监督学习
  • 集成学习
  • 强化学习
Powered by GitBook
On this page
  • 编码
  • 序号编码(标签编码)
  • 独热编码
  • 二进制编码
  • 其他编码

Was this helpful?

  1. 特征工程

特征工程_编码

Previous特征工程_归一化Next特征工程_特征组合

Last updated 3 years ago

Was this helpful?

[TOC]

编码

序号编码(标签编码)

序号编码通常用于处理类别间具有大小关系的数据。

例如成绩,可以分为低、中、高三档,并且存在“高>中>低”的排序关系。

序号编码会按照大小关系对类别型特征赋予一个数值ID,例如高表示为3、 中表示为2、低表示为1,转换后依然保留了大小关系。

独热编码

独热编码通常用于处理类别间不具有大小关系的特征。

例如血型, 一共有4个取值(A型血、B型血、AB型血、O型血),独热编码会把血型变成一个4维稀疏向量

A型血表示为(1,0,0,0)
B型血表示为(0,1,0,0)

AB型表示为(0,0,1,0)

O型血表示为(0,0, 0,1)

对于类别取值较多的情况下使用独热编码需要注意以下问题。

  1. 使用稀疏向量来节省空间。在独热编码下,特征向量只有某 一维取值为1,其他位置取值均为0。因此可以利用向量的稀疏表示有 效地节省空间,并且目前大部分的算法均接受稀疏向量形式的输入。

  2. 配合特征选择来降低维度。高维度特征会带来几方面的问题。

  3. 在K近邻算法中,高维空间下两点之间的距离很难得到有效的衡量;

  4. 在逻辑回归模型中,参数的数量会随着维度的增高而增加,容易引起过拟合问题;

  5. 通常只有部分维度是对分类、预测有帮助,因此可以考虑配合特征选择来降低维度

二进制编码

二进制编码主要分为两步

  1. 先用序号编码给每个类别赋予一个类别 ID;

  2. 然后将类别ID对应的二进制编码作为结果

以A、B、AB、O 血型为例,表是二进制编码的过程。

血型
类别ID
二进制表示
独热编码

A

1

0 0 1

1 0 0 0

B

2

0 1 0

0 1 0 0

AB

3

0 1 1

0 0 1 0

O

4

1 0 0

0 0 0 1

A型血的ID为1,二进制表示为001;B型血的ID为2,二进制表示为010;以此类推可以得到 AB型血和0型血的二进制表示。

可以看出,二进制编码本质上是利用二进制对ID进行哈希映射,最终得到0/1特征向量,且维数少于独热编码,节省了存储空间。

其他编码

other: Helmert Contrast、Sum Constrast、Polynomial Constrast、Backward Difference Constrast

异世界.png