共计 12348 个字符,预计需要花费 31 分钟才能阅读完成。
作者 |David Woroniuk
编译 |VK
起源 |Towards Data Science
什么是异样
异样,通常称为异样值,是指数据中不合乎数据系列总体行为的数据点、数据序列或模式。因而,异样检测就是检测不合乎更宽泛数据中的模式的数据点或序列的工作。
对异样数据的无效检测和删除对于许多业务性能十分有用,如检测嵌入在网站中的破损链接、互联网流量峰值或股价的激烈变动。将这些景象标记为异样值,或制订预先计划的应答措施,能够节俭企业的工夫和资金。
异样类型
通常状况下,异样数据能够分为三类:加性异样值、工夫变动异样值或程度变动异样值。
加性异样值 的特点是价值忽然大幅减少或缩小,这可能是由外生或内生因素驱动的。加性异样值的例子可能是因为电视节目的呈现而导致网站流量的大幅增长(外因),或者因为强劲的季度业绩而导致股票交易量的短期增长(内因)。
工夫变动异样值 的特点是一个短序列,它不合乎数据中更宽泛的趋势。例如,如果一个网站服务器解体,在一系列数据点上,网站流量将降为零,直到服务器重新启动,此时流量将恢复正常。
程度变动异样值 是商品市场的常见景象,因为商品市场对电力的高需要与顽劣的天气条件有着外在的分割。因而咱们能够察看到冬季和夏季电价之间的“程度变动”,这是由天气驱动的需要变动和可再生能源发电变动造成的。
什么是自编码器
主动编码器是设计用来学习给定输出的低维示意的神经网络。主动编码器通常由两个局部组成:一个编码器学习将输出数据映射到低维示意,另一个解码器学习将示意映射回输出数据。
因为这种构造,编码器网络迭代学习一个无效的数据压缩函数,该函数将数据映射到低维示意。经过训练,译码器可能胜利地重建原始输出数据,重建误差(译码器产生的输出和重构输入之间的差别)是整个训练过程的指标函数。
实现
既然咱们理解了主动编码器模型的底层架构,咱们就能够开始实现该模型了。
第一步是装置咱们将应用的库、包和模块:
# 数据处理:
import numpy as np
import pandas as pd
from datetime import date, datetime
# RNN 自编码器:
from tensorflow import keras
from tensorflow.keras import layers
# 绘图:
!pip install chart-studio
import plotly.graph_objects as go
其次,咱们须要取得一些数据进行剖析。本文应用历史加密软件包获取 2013 年 6 月 6 日至今的比特币历史数据。上面的代码还生成每日比特币回报率和日内价格稳定率,而后删除任何失落的数据行并返回数据帧的前 5 行。
# 导入 Historic Crypto 包:
!pip install Historic-Crypto
from Historic_Crypto import HistoricalData
# 获取比特币数据,计算收益和日内稳定:
dataset = HistoricalData(start_date = '2013-06-06',ticker = 'BTC').retrieve_data()
dataset['Returns'] = dataset['Close'].pct_change()
dataset['Volatility'] = np.abs(dataset['Close']- dataset['Open'])
dataset.dropna(axis = 0, how = 'any', inplace = True)
dataset.head()
既然咱们曾经取得了一些数据,咱们应该直观地扫描每个序列中潜在的异样值。上面的 plot_dates_values 函数能够迭代绘制数据帧中蕴含的每个序列。
def plot_dates_values(data_timestamps, data_plot):
'''
这个函数提供输出序列的平面图
Arguments:
data_timestamps: 与每个数据实例关联的工夫戳。data_plot: 要绘制的数据序列。Returns:
fig: 用滑块和按钮显示序列的图形。'''
fig = go.Figure()
fig.add_trace(go.Scatter(x = data_timestamps, y = data_plot,
mode = 'lines',
name = data_plot.name,
connectgaps=True))
fig.update_xaxes(
rangeslider_visible=True,
rangeselector=dict(
buttons=list([dict(count=1, label="YTD", step="year", stepmode="todate"),
dict(count=1, label="1 Years", step="year", stepmode="backward"),
dict(count=2, label="2 Years", step="year", stepmode="backward"),
dict(count=3, label="3 Years", step="year", stepmode="backward"),
dict(label="All", step="all")
])))
fig.update_layout(
title=data_plot.name,
xaxis_title="Date",
yaxis_title="",
font=dict(
family="Arial",
size=11,
color="#7f7f7f"
))
return fig.show()
咱们当初能够重复调用上述函数,生成比特币的成交量、收盘价、开盘价、稳定率和收益率曲线图。
plot_dates_values(dataset.index, dataset['Volume'])
值得注意的是,2020 年呈现了一些交易量的峰值,考察这些峰值是否异样或预示着更宽泛的序列可能是有用的。
plot_dates_values(dataset.index, dataset['Close'])
.png)
2018 年收盘价呈现了一个显著的上涨,随后上涨至技术撑持程度。然而,一个向上的趋势在整个数据中普遍存在。
plot_dates_values(dataset.index, dataset['Open'])
.png)
每日开盘价与上述收盘价走势类似。
plot_dates_values(dataset.index, dataset['Volatility'])
.png)
2018 年的价格和波动性都很显著。因而,咱们能够钻研这些稳定率峰值是否被自编码器模型视为异样。
plot_dates_values(dataset.index, dataset['Returns'])
.png)
因为收益序列的随机性,咱们抉择测试比特币日交易量中的异样值,以交易量为特色。
因而,咱们能够开始主动编码器模型的数据预处理。数据预处理的第一步是确定训练数据和测试数据之间的适当宰割。上面概述的 generate_train_test_split 性能能够按日期宰割训练和测试数据。在调用上面的函数时,将生成两个数据帧,即训练数据和测试数据作为全局变量。
def generate_train_test_split(data, train_end, test_start):
'''此函数通过应用字符串将数据集合成为训练数据和测试数据。作为'train_end'和'test_start' 参数提供的字符串必须是间断的天。Arguments:
data: 数据宰割为训练数据和测试数据。train_end: 训练数据完结的日期(str)。test_start: 测试数据开始的日期(str)。Returns:
training_data: 模型训练中应用的数据(Pandas DataFrame)。testing_data: 模型测试中应用的数据(panda DataFrame)。'''
if isinstance(train_end, str) is False:
raise TypeError("train_end argument should be a string.")
if isinstance(test_start, str) is False:
raise TypeError("test_start argument should be a string.")
train_end_datetime = datetime.strptime(train_end, '%Y-%m-%d')
test_start_datetime = datetime.strptime(test_start, '%Y-%m-%d')
while train_end_datetime >= test_start_datetime:
raise ValueError("train_end argument cannot occur prior to the test_start argument.")
while abs((train_end_datetime - test_start_datetime).days) > 1:
raise ValueError("the train_end argument and test_start argument should be seperated by 1 day.")
training_data = data[:train_end]
testing_data = data[test_start:]
print('Train Dataset Shape:',training_data.shape)
print('Test Dataset Shape:',testing_data.shape)
return training_data, testing_data
# 咱们当初调用下面的函数,生成训练和测试数据
training_data, testing_data = generate_train_test_split(dataset, '2018-12-31','2019-01-01')
为了进步模型的准确性,咱们能够对数据进行“标准化”或缩放。此函数可缩放下面生成的训练数据帧,保留训练平均值和训练规范,以便当前对测试数据进行标准化。
注:对训练和测试数据进行同等级别的缩放是很重要的,否则规模的差别将产生可解释性问题和模型不统一。
def normalise_training_values(data):
'''
这个函数用平均值和标准差对输出值进行规格化。Arguments:
data: 要标准化的 DataFrame 列。Returns:
values: 用于模型训练的归一化数据(numpy 数组)。mean: 训练集 mean,用于标准化测试集(float)。std: 训练集的标准差,用于标准化测试集(float)。'''
if isinstance(data, pd.Series) is False:
raise TypeError("data argument should be a Pandas Series.")
values = data.to_list()
mean = np.mean(values)
values -= mean
std = np.std(values)
values /= std
print("*"*80)
print("The length of the training data is: {}".format(len(values)))
print("The mean of the training data is: {}".format(mean.round(2)))
print("The standard deviation of the training data is {}".format(std.round(2)))
print("*"*80)
return values, mean, std
# 当初调用下面的函数:
training_values, training_mean, training_std = normalise_training_values(training_data['Volume'])
正如咱们在下面所说的 normalise_training_values 函数,咱们当初有一个 numpy 数组,其中蕴含称为 training_values 的标准化训练数据,咱们曾经将 training_mean 和 training_std 存储为全局变量,用于标准化测试集。
咱们当初能够开始生成一系列序列,这些序列能够用来训练主动编码器模型。咱们定义窗口大小 30,提供一个形态的 3D 训练数据(2004,30,1):
# 定义每个序列的工夫步数:
TIME_STEPS = 30
def generate_sequences(values, time_steps = TIME_STEPS):
'''这个函数生成要传递给模型的长度序列'TIME_STEPS'。Arguments:
values: 生成序列 (numpy 数组) 的标准化值。time_steps: 序列的长度(int)。Returns:
train_data: 用于模型训练的 3D 数据(numpy array)。'''
if isinstance(values, np.ndarray) is False:
raise TypeError("values argument must be a numpy array.")
if isinstance(time_steps, int) is False:
raise TypeError("time_steps must be an integer object.")
output = []
for i in range(len(values) - time_steps):
output.append(values[i : (i + time_steps)])
train_data = np.expand_dims(output, axis =2)
print("Training input data shape: {}".format(train_data.shape))
return train_data
# 当初调用下面的函数生成 x_train:
x_train = generate_sequences(training_values)
当初咱们曾经实现了训练数据的解决,咱们能够定义主动编码器模型,而后将模型拟合到训练数据上。define_model 函数应用训练数据形态定义适当的模型,返回自编码器模型和自编码器模型的摘要。
def define_model(x_train):
'''
这个函数应用 x_train 的维度来生成 RNN 模型。Arguments:
x_train: 用于模型训练的 3D 数据(numpy array)。Returns:
model: 模型架构(Tensorflow 对象)。model_summary: 模型架构的摘要。'''
if isinstance(x_train, np.ndarray) is False:
raise TypeError("The x_train argument should be a 3 dimensional numpy array.")
num_steps = x_train.shape[1]
num_features = x_train.shape[2]
keras.backend.clear_session()
model = keras.Sequential(
[layers.Input(shape=(num_steps, num_features)),
layers.Conv1D(filters=32, kernel_size = 15, padding = 'same', data_format= 'channels_last',
dilation_rate = 1, activation = 'linear'),
layers.LSTM(units = 25, activation = 'tanh', name = 'LSTM_layer_1',return_sequences= False),
layers.RepeatVector(num_steps),
layers.LSTM(units = 25, activation = 'tanh', name = 'LSTM_layer_2', return_sequences= True),
layers.Conv1D(filters = 32, kernel_size = 15, padding = 'same', data_format = 'channels_last',
dilation_rate = 1, activation = 'linear'),
layers.TimeDistributed(layers.Dense(1, activation = 'linear'))
]
)
model.compile(optimizer=keras.optimizers.Adam(learning_rate = 0.001), loss = "mse")
return model, model.summary()
随后,model_fit 函数在外部调用 define_model 函数,而后向模型提供 epochs、batch_size 和 validation_loss 参数。而后调用此函数,开始模型训练过程。
def model_fit():
'''这个函数调用下面的'define_model()' 函数,而后依据 x_train 数据对模型进行训练。Arguments:
N/A.
Returns:
model: 训练好的模型。history: 模型如何训练的摘要(训练谬误,验证谬误)。'''
# 在 x_train 上调用下面的 define_model 函数:
model, summary = define_model(x_train)
history = model.fit(
x_train,
x_train,
epochs=400,
batch_size=128,
validation_split=0.1,
callbacks=[keras.callbacks.EarlyStopping(monitor="val_loss",
patience=25,
mode="min",
restore_best_weights=True)])
return model, history
# 调用下面的函数,生成模型和模型的历史:
model, history = model_fit()
一旦对模型进行了训练,就必须绘制训练和验证损失曲线,以理解模型是否存在偏差(欠拟合)或方差(过拟合)。这能够通过调用上面的 plot_training_validation_loss 函数来察看。
def plot_training_validation_loss():
'''
这个函数绘制了训练模型的训练和验证损失曲线,能够对欠拟合或过拟合进行可视化诊断。Arguments:
N/A.
Returns:
fig: 模型的训练损失和验证的可视化示意
'''training_validation_loss = pd.DataFrame.from_dict(history.history, orient='columns')
fig = go.Figure()
fig.add_trace(go.Scatter(x = training_validation_loss.index, y = training_validation_loss["loss"].round(6),
mode = 'lines',
name = 'Training Loss',
connectgaps=True))
fig.add_trace(go.Scatter(x = training_validation_loss.index, y = training_validation_loss["val_loss"].round(6),
mode = 'lines',
name = 'Validation Loss',
connectgaps=True))
fig.update_layout(
title='Training and Validation Loss',
xaxis_title="Epoch",
yaxis_title="Loss",
font=dict(
family="Arial",
size=11,
color="#7f7f7f"
))
return fig.show()
# 调用下面的函数:
plot_training_validation_loss()
.png)
值得注意的是,训练和验证损失曲线在整个图表中都在收敛,验证损失依然略大于训练损失。在给定形态误差和相对误差的状况下,咱们能够确定主动编码器模型不存在欠拟合或过拟合。
当初,咱们能够定义重建误差,这是主动编码器模型的外围原理之一。重建误差示意为训练损失,重建误差阈值为训练损失的最大值。因而,在计算试验误差时,任何大于训练损失最大值的值都能够视为异样值。
def reconstruction_error(x_train):
'''
这个函数计算重建误差,并显示训练均匀绝对误差的直方图
Arguments:
x_train: 用于模型训练的 3D 数据(numpy array)。Returns:
fig: 训练 MAE 散布的可视化图。'''
if isinstance(x_train, np.ndarray) is False:
raise TypeError("x_train argument should be a numpy array.")
x_train_pred = model.predict(x_train)
global train_mae_loss
train_mae_loss = np.mean(np.abs(x_train_pred - x_train), axis = 1)
histogram = train_mae_loss.flatten()
fig =go.Figure(data = [go.Histogram(x = histogram,
histnorm = 'probability',
name = 'MAE Loss')])
fig.update_layout(
title='Mean Absolute Error Loss',
xaxis_title="Training MAE Loss (%)",
yaxis_title="Number of Samples",
font=dict(
family="Arial",
size=11,
color="#7f7f7f"
))
print("*"*80)
print("Reconstruction error threshold: {}".format(np.max(train_mae_loss).round(4)))
print("*"*80)
return fig.show()
# 调用下面的函数:
reconstruction_error(x_train)
在下面,咱们将 training_mean 和 training_std 保留为全局变量,以便将它们用于缩放测试数据。咱们当初定义 normalise_testing_values 函数来缩放测试数据。
def normalise_testing_values(data, training_mean, training_std):
'''
该函数应用训练平均值和标准差对测试数据进行归一化,生成一个测试值的 numpy 数组。Arguments:
data: 应用的数据(panda DataFrame 列)
mean: 训练集平均值(浮点数)。std: 训练集标准差(float)。Returns:
values: 数组 (numpy array).
'''
if isinstance(data, pd.Series) is False:
raise TypeError("data argument should be a Pandas Series.")
values = data.to_list()
values -= training_mean
values /= training_std
print("*"*80)
print("The length of the testing data is: {}".format(data.shape[0]))
print("The mean of the testing data is: {}".format(data.mean()))
print("The standard deviation of the testing data is {}".format(data.std()))
print("*"*80)
return values
随后,在 testing_data 的 Volume 列上调用此函数。因而,test_value 被具体化为 numpy 数组。
# 调用下面的函数:
test_value = normalise_testing_values(testing_data['Volume'], training_mean, training_std)
在此基础上,定义了生成测试损失函数,计算了重构数据与测试数据之间的差别。如果任何值大于训练最大损失值,则将其存储在全局异样列表中。
def generate_testing_loss(test_value):
'''
这个函数应用模型来预测测试集中的异常情况。此外,该函数生成“异样”全局变量,蕴含由 RNN 辨认的异样值。Arguments:
test_value: 测试的数组(numpy 数组)。Returns:
fig: 训练 MAE 散布的可视化图。'''
x_test = generate_sequences(test_value)
print("*"*80)
print("Test input shape: {}".format(x_test.shape))
x_test_pred = model.predict(x_test)
test_mae_loss = np.mean(np.abs(x_test_pred - x_test), axis = 1)
test_mae_loss = test_mae_loss.reshape((-1))
global anomalies
anomalies = (test_mae_loss >= np.max(train_mae_loss)).tolist()
print("Number of anomaly samples:", np.sum(anomalies))
print("Indices of anomaly samples:", np.where(anomalies))
print("*"*80)
histogram = test_mae_loss.flatten()
fig =go.Figure(data = [go.Histogram(x = histogram,
histnorm = 'probability',
name = 'MAE Loss')])
fig.update_layout(
title='Mean Absolute Error Loss',
xaxis_title="Testing MAE Loss (%)",
yaxis_title="Number of Samples",
font=dict(
family="Arial",
size=11,
color="#7f7f7f"
))
return fig.show()
# 调用下面的函数:
generate_testing_loss(test_value)
此外,还介绍了 MAE 的散布,并与 MAE 的间接损失进行了比拟。
.png)
最初,异样值在上面直观地示意进去。
def plot_outliers(data):
'''
这个函数决定了工夫序列中离群点的地位,这些离群点被顺次绘制进去。Arguments:
data: 初始数据集(Pandas DataFrame)。Returns:
fig: 由 RNN 确定的序列中呈现的异样值的可视化示意。'''
outliers = []
for data_idx in range(TIME_STEPS -1, len(test_value) - TIME_STEPS + 1):
time_series = range(data_idx - TIME_STEPS + 1, data_idx)
if all([anomalies[j] for j in time_series]):
outliers.append(data_idx + len(training_data))
outlying_data = data.iloc[outliers, :]
cond = data.index.isin(outlying_data.index)
no_outliers = data.drop(data[cond].index)
fig = go.Figure()
fig.add_trace(go.Scatter(x = no_outliers.index, y = no_outliers["Volume"],
mode = 'markers',
name = no_outliers["Volume"].name,
connectgaps=False))
fig.add_trace(go.Scatter(x = outlying_data.index, y = outlying_data["Volume"],
mode = 'markers',
name = outlying_data["Volume"].name + 'Outliers',
connectgaps=False))
fig.update_xaxes(rangeslider_visible=True)
fig.update_layout(
title='Detected Outliers',
xaxis_title=data.index.name,
yaxis_title=no_outliers["Volume"].name,
font=dict(
family="Arial",
size=11,
color="#7f7f7f"
))
return fig.show()
# 调用下面的函数:
plot_outliers(dataset)
以主动编码器模型为特色的边远数据用橙色示意,而一致性数据用蓝色示意。
.png)
咱们能够看到,2020 年比特币交易量数据的很大一部分被认为是异样的——可能是因为 Covid-19 推动的批发交易流动减少?
尝试主动编码器参数和新的数据集,看看你是否能在比特币收盘价中发现任何异样,或者应用历史加密库下载不同的加密货币!
原文链接:https://towardsdatascience.co…
欢送关注磐创 AI 博客站:
http://panchuang.net/
sklearn 机器学习中文官网文档:
http://sklearn123.com/
欢送关注磐创博客资源汇总站:
http://docs.panchuang.net/