关于ml:归一化处理连续特征和离散特征并存情况

他人答的曾经很漂亮了,我就简略复述一下。
1、从新布局间断特色边界:就是将间断值缩放到[-1,1],留神既能够缩也能够放大。
2、标准化间断特色:这个就套公式就行,计算平均值和方差,然而如果方差小还是不大行。
3、是针对离散变量而言,更像是skearn外面的哑变量解决,所有离散变量不管多大全副改为01。

另外:
我本人补充,如果是机器特色学习上述就行。深度学习能够不改哑变量,当初万物皆可embedding,用嵌入层将离散变量压缩变得浓密,将连续变量rescale bound 就行。

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

这个站点使用 Akismet 来减少垃圾评论。了解你的评论数据如何被处理