关于ml:归一化处理连续特征和离散特征并存情况

42次阅读

共计 236 个字符,预计需要花费 1 分钟才能阅读完成。

他人答的曾经很漂亮了,我就简略复述一下。
1、从新布局间断特色边界:就是将间断值缩放到 [-1,1], 留神既能够缩也能够放大。
2、标准化间断特色:这个就套公式就行,计算平均值和方差,然而如果方差小还是不大行。
3、是针对离散变量而言,更像是 skearn 外面的哑变量解决,所有离散变量不管多大全副改为 01。

另外:
我本人补充,如果是机器特色学习上述就行。深度学习能够不改哑变量,当初万物皆可 embedding,用嵌入层将离散变量压缩变得浓密,将连续变量 rescale bound 就行。

正文完
 0