乐趣区

关于python:类似EMD的信号分解方法用于预测前的预处理是否存在原理上问题

相似 EMD 的信号合成办法用于预测前的预处理是否存在原理上问题

很多学者利用种种信号合成办法来合成信号后,再进行工夫序列预测,罕用办法有 EMD(Empirical Mode Decomposition)与 ITD (Intrinsic Time-Scale Decomposition) 等。
问题: 然而最近对于信号合成利用于工夫序列预测的办法是否存在信息泄露问题有不同的见解, 也有一些敌人遇到了相似的问题:

  • LSTM+EMD 信息泄露问题

因而在下文中开展陈说

为何 ITD 与 EMD 等信号合成办法不适宜工夫序列的预测,并且以 ITD 为例进行公式探索。

// 本文仅陈说本人的观点,自己能力无限,如有不当请斧正。//

工夫序列预测的实质:

是利用历史数据对将来数据的一个猜想与预计,然而 EMD 与 ITD 等办法在合成信号时,利用到了将来的数据对历史数据进行合成,因而存在一个信息泄露问题。

[Example]

以 ITD 原文链接为例,在对 $Χ_t$ 信号合成的时候,提取出 baseline 信号 $L_t$ 与 residual 信号 $H_t$,其中 :

$$
X_t =L_t +H_t
$$

$$L_{t}=L_{k}+\left(\frac{L_{k+1}-L_{k}}{X_{k+1}-X_{k}}\right)\left(S_{t}-X_{k}\right), \quad t \in\left(\tau_{k}, \tau_{k+1}\right]$$

$$L_{k+1}=\alpha\left[X_{k}+\left(\frac{\tau_{k+1}-\tau_{k}}{\tau_{k+2}-\tau_{k}}\right)\left(X_{k+2}-X_{k}\right)\right]+(1-\alpha) X_{k+1}$$

其中,$τ_k$ 代表第 $k$ 个极值对应的横坐标。那么能够看出,如果要合成工夫在第 $(τ_k,τ_{k+1})$ 之间的信号,必须要应用到 $τ_{k+2}$ 的信息,也就是将来的信息。

如果从图形中解释,如上图所示,当取得了 $τ_{j+1}$ 这个点的数值 (实线) 后,能力合成失去 $τ_j$ 以及其之前的数据 (虚线)。

本人对 ITD 存在信息泄露的了解

如果从图形中解释,如上图所示,当取得了 $τ_{j+1}$ 这个点的数值 (实线) 后,能力合成失去 $τ_j$ 以及其之前的数据 (虚线)。

这与工夫序列预测的实质有所违反,不适宜先 ITD 合成,后训练 + 预测。

  • EMD 与 ITD 相似,均须要提取将来的部分最值
  • ITD 对于该问题仅仅呈现在窗口边缘,而 EMD 的问题能够清晰的体现整个窗口。

参考文献

[1] Frei Mark G and Osorio Ivan 2007Intrinsic time-scale decomposition: time–frequency–energy analysis and real-time filtering of non-stationary signalsProc. R. Soc. A.463321–342 http://doi.org/10.1098/rspa.2…

退出移动版