# 特征工程\_编码

![异世界.png](https://3321220703-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F-Lz6-7SJjwZD9V_N-3MS%2Fuploads%2Fgit-blob-50ea64a1dc0515db1eb624a09017f6badeb3e5fd%2F%E5%BC%82%E4%B8%96%E7%95%8C%E8%95%BE%E5%A7%86_1.png?alt=media)

\[TOC]

## 编码

## 序号编码(标签编码)

> `序号编码`通常用于处理类别间具有大小关系的数据。
>
> 例如成绩，可以分为低、中、高三档，并且存在“高>中>低”的排序关系。
>
> 序号编码会按照大小关系对类别型特征赋予一个数值ID，例如高表示为3、 中表示为2、低表示为1，转换后依然保留了大小关系。

## 独热编码

> `独热编码`通常用于处理类别间不具有大小关系的特征。
>
> 例如血型， 一共有4个取值（A型血、B型血、AB型血、O型血），独热编码会把血型变成一个4维稀疏向量

| A型血表示为(1，0，0，0)     | B型血表示为(0，1，0，0)      |
| ------------------- | -------------------- |
| **AB型表示为(0，0，1，0)** | **O型血表示为(0，0， 0，1)** |

> 对于类别取值较多的情况下使用独热编码需要注意以下问题。
>
> 1. 使用稀疏向量来节省空间。在独热编码下，特征向量只有某 一维取值为1，其他位置取值均为0。因此可以利用向量的稀疏表示有 效地节省空间，并且目前大部分的算法均接受稀疏向量形式的输入。
> 2. 配合特征选择来降低维度。高维度特征会带来几方面的问题。
> 3. 在K近邻算法中，高维空间下两点之间的距离很难得到有效的衡量；
> 4. 在逻辑回归模型中，参数的数量会随着维度的增高而增加，容易引起过拟合问题；
> 5. 通常只有部分维度是对分类、预测有帮助，因此可以考虑配合特征选择来降低维度

## 二进制编码

> `二进制编码`主要分为两步
>
> 1. 先用序号编码给每个类别赋予一个类别 ID;
> 2. 然后将类别ID对应的二进制编码作为结果
>
> 以A、B、AB、O 血型为例，表是二进制编码的过程。

| 血型 | 类别ID | 二进制表示 | 独热编码    |
| -- | ---- | ----- | ------- |
| A  | 1    | 0 0 1 | 1 0 0 0 |
| B  | 2    | 0 1 0 | 0 1 0 0 |
| AB | 3    | 0 1 1 | 0 0 1 0 |
| O  | 4    | 1 0 0 | 0 0 0 1 |

> A型血的ID为1，二进制表示为001；B型血的ID为2，二进制表示为010；以此类推可以得到 AB型血和0型血的二进制表示。
>
> 可以看出，二进制编码本质上是利用二进制对ID进行哈希映射，最终得到0/1特征向量，且维数少于独热编码，节省了存储空间。

## 其他编码

> other: Helmert Contrast、Sum Constrast、Polynomial Constrast、Backward Difference Constrast
