关于机器学习:将梯度提升模型与-Prophet-相结合可以提升时间序列预测的效果

49次阅读

共计 2953 个字符,预计需要花费 8 分钟才能阅读完成。

将 Prophet 的预测后果作为特色输出到 LightGBM 模型中进行时序的预测

咱们以前的对于应用机器学习进行工夫序列预测的文章中,都是专一于解释如何应用基于机器学习的办法进行工夫序列预测并获得良好后果。

然而在这篇文章将应用更高级的技术来预测工夫序列,本文将应用 Prophet 来提取新的有意义的特色,例如季节性、置信区间、趋势等。

工夫序列预测

个别状况下 LightGBM 模型都会应用一些 lag 的特色来预测将来的后果,这样做个别状况下可能获得很好的成果。本文介绍一种新的思路:应用 Prophet 从工夫序列中提取新特色,而后应用 LightGBM 进行训练,能够失去更好的成果。Prophet 模型的理论预测、置信区间的下限和上限、每日和每周的季节性和趋势等都能够作为咱们的新特色。对于其余类型的问题,Prophet 还能够帮忙咱们提取形容假日成果。

原始数据

咱们的数据如下所示:

应用 Prophet 提取特色

咱们特色工程的第一步非常简单。咱们只须要应用 Prophet 模型进行预测:

def prophet_features(df, horizon=24*7):
    temp_df = df.reset_index()
    temp_df = temp_df[['datetime', 'count']]
    temp_df.rename(columns={'datetime': 'ds', 'count': 'y'}, inplace=True)
    
    #take last week of the dataset for validation
    train, test = temp_df.iloc[:-horizon,:], temp_df.iloc[-horizon:,:]
    
    #define prophet model
    m = Prophet(
                growth='linear',
                seasonality_mode='additive',
                interval_width=0.95,
                daily_seasonality=True,
                weekly_seasonality=True,
                yearly_seasonality=False
            )
    #train prophet model
    m.fit(train)
    
    #extract features from data using prophet to predict train set
    predictions_train = m.predict(train.drop('y', axis=1))
    #extract features from data using prophet to predict test set
    predictions_test = m.predict(test.drop('y', axis=1))
    #merge train and test predictions
    predictions = pd.concat([predictions_train, predictions_test], axis=0)

    return predictions

下面的函数将返回一个给咱们的 LightGBM 模型筹备的新特色的 DF:

应用 Prophet 特色训练 Autorregressive LightGBM

咱们应用 Prophet 提取了新特色,下一步就是进行特色的合并和应用 LightGBM 进行预测:

def train_time_series_with_folds_autoreg_prophet_features(df, horizon=24*7, lags=[1, 2, 3, 4, 5]):
    #create a dataframe with all the new features created with Prophet
    new_prophet_features = prophet_features(df, horizon=horizon)
    df.reset_index(inplace=True)
    
    #merge the Prophet features dataframe with the our first dataframe
    df = pd.merge(df, new_prophet_features, left_on=['datetime'], right_on=['ds'], how='inner')
    df.drop('ds', axis=1, inplace=True)
    df.set_index('datetime', inplace=True)
    
    #create some lag variables using Prophet predictions (yhat column)
    for lag in lags:
        df[f'yhat_lag_{lag}'] = df['yhat'].shift(lag)
    df.dropna(axis=0, how='any')
    
    X = df.drop('count', axis=1)
    y = df['count']
    
    #take last week of the dataset for validation
    X_train, X_test = X.iloc[:-horizon,:], X.iloc[-horizon:,:]
    y_train, y_test = y.iloc[:-horizon], y.iloc[-horizon:]
    
    #define LightGBM model, train it and make predictions
    model = LGBMRegressor(random_state=42)
    model.fit(X_train, y_train)
    predictions = model.predict(X_test)
    
    #calculate MAE
    mae = np.round(mean_absolute_error(y_test, predictions), 3)    
    
    #plot reality vs prediction for the last week of the dataset
    fig = plt.figure(figsize=(16,6))
    plt.title(f'Real vs Prediction - MAE {mae}', fontsize=20)
    plt.plot(y_test, color='red')
    plt.plot(pd.Series(predictions, index=y_test.index), color='green')
    plt.xlabel('Hour', fontsize=16)
    plt.ylabel('Number of Shared Bikes', fontsize=16)
    plt.legend(labels=['Real', 'Prediction'], fontsize=16)
    plt.grid()
    plt.show()

执行上述代码后,咱们将合并特色 df,创立滞后的 lag 值,训练 LightGBM 模型,而后用咱们训练的模型进行预测,将咱们的预测与理论后果进行比拟。输入将如下所示:

如果咱们仔细观察后果咱们的 MAE 为 28.665。这要比个别特色工程后果有很大的进步。

总结

将监督机器学习办法与 Prophet 等统计办法相结合,能够帮忙咱们获得令人印象粗浅的后果。依据我在事实世界我的项目中的教训,很难在需求预测问题中取得比这些更好的后果。

https://www.overfit.cn/post/4f12535a96ac41fb98e8b7820a0cda5f

作者:Unai López Ansoleaga

正文完
 0