共计 4634 个字符,预计需要花费 12 分钟才能阅读完成。
原文链接
这个问题是国际航空乘客预测问题,数据是 1949 年 1 月到 1960 年 12 月国际航空公司每个月的乘客数量(单位:千人),共有 12 年 144 个月的数据。
链接:https://pan.baidu.com/s/1JJTe…
提取码:6666
数据趋势:
训练程序:
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import torch
from torch import nn
from torch.autograd import Variable
#LSTM(Long Short-Term Memory)是长短期记忆网络
data_csv = pd.read_csv('C:/Users/DZF/Desktop/LSTM/data.csv',usecols=[1])
#pandas.read_csv 能够读取 CSV(逗号宰割)文件、文本类型的文件 text、log 类型到 DataFrame
#原有两列,工夫和乘客数量,usecols=1:只取了乘客数量一列
plt.plot(data_csv)
plt.show()
#数据预处理
data_csv = data_csv.dropna() #去掉 na 数据
dataset = data_csv.values #字典(Dictionary) values():返回字典中的所有值。dataset = dataset.astype('float32') #astype(type): 实现变量类型转换
max_value = np.max(dataset)
min_value = np.min(dataset)
scalar = max_value-min_value
dataset = list(map(lambda x: x/scalar, dataset)) #将数据标准化到 0~1 之间
#lambda: 定义一个匿名函数,区别于 def
#map(f(x),Itera):map()接管函数 f 和一个 list, 把函数 f 顺次作用在 list 的每个元素上, 失去一个新的 object 并返回
'''
接着咱们进行数据集的创立,咱们想通过后面几个月的流量来预测当月的流量,比方咱们心愿通过前两个月的流量来预测当月的流量,咱们能够将前两个月的流量
当做输出,当月的流量当做输入。同时咱们须要将咱们的数据集分为训练集和测试
集,通过测试集的成果来测试模型的性能,这里咱们简略的将后面几年的数据作为
训练集,前面两年的数据作为测试集。'''
def create_dataset(dataset,look_back=2):#look_back 以前的工夫步数用作输出变量来预测下一个时间段
dataX, dataY=[], []
for i in range(len(dataset) - look_back):
a = dataset[i:(i+look_back)] #i 和 i + 1 赋值
dataX.append(a)
dataY.append(dataset[i+look_back]) #i+ 2 赋值
return np.array(dataX), np.array(dataY) #np.array 构建数组
data_X, data_Y = create_dataset(dataset)
#data_X: 2*142 data_Y: 1*142
#划分训练集和测试集,70% 作为训练集
train_size = int(len(data_X) * 0.7)
test_size = len(data_X)-train_size
train_X = data_X[:train_size]
train_Y = data_Y[:train_size]
test_X = data_X[train_size:]
test_Y = data_Y[train_size:]
train_X = train_X.reshape(-1,1,2) #reshape 中,- 1 使元素变为一行,而后输入为 1 列,每列 2 个子元素
train_Y = train_Y.reshape(-1,1,1) #输入为 1 列,每列 1 个子元素
test_X = test_X.reshape(-1,1,2)
train_x = torch.from_numpy(train_X) #torch.from_numpy(): numpy 中的 ndarray 转化成 pytorch 中的 tensor(张量)
train_y = torch.from_numpy(train_Y)
test_x = torch.from_numpy(test_X)
#定义模型 输出维度 input_size 是 2,因为应用 2 个月的流量作为输出,暗藏层维度 hidden_size 可任意指定,这里为 4
class lstm_reg(nn.Module):
def __init__(self,input_size,hidden_size, output_size=1,num_layers=2):
super(lstm_reg,self).__init__()
#super() 函数是用于调用父类 (超类) 的一个办法,间接用类名调用父类
self.rnn = nn.LSTM(input_size,hidden_size,num_layers) #LSTM 网络
self.reg = nn.Linear(hidden_size,output_size) #Linear 函数继承于 nn.Module
def forward(self,x): #定义 model 类的 forward 函数
x, _ = self.rnn(x)
s,b,h = x.shape #矩阵从外到里的维数
#view()函数的性能和 reshape 相似,用来转换 size 大小
x = x.view(s*b, h) #输入变为(s*b)* h 的二维
x = self.reg(x)
x = x.view(s,b,-1) #卷积的输入从外到里的维数为 s,b, 一列
return x
net = lstm_reg(2,4) #input_size=2,hidden_size=4
criterion = nn.MSELoss() #损失函数均方差
optimizer = torch.optim.Adam(net.parameters(),lr=1e-2)
#结构一个优化器对象 Optimizer, 用来保留以后的状态,并可能依据计算失去的梯度来更新参数
#Adam 算法:params (iterable):可用于迭代优化的参数或者定义参数组的 dicts lr: 学习率
for e in range(10000):
var_x = Variable(train_x) #转为 Variable(变量)var_y = Variable(train_y)
out = net(var_x)
loss = criterion(out, var_y)
optimizer.zero_grad() #把梯度置零,也就是把 loss 对于 weight 的导数变成 0.
loss.backward() #计算失去 loss 后就要回传损失,这是在训练的时候才会有的操作,测试时候只有 forward 过程
optimizer.step() #回传损失过程中会计算梯度,而后 optimizer.step()依据这些梯度更新参数
if (e+1)%100 == 0:
print('Epoch: {}, Loss:{:.5f}'.format(e+1, loss.data[0]))
torch.save(net.state_dict(), 'net_params.pkl') #保留训练文件 net_params.pkl
#state_dict 是一个简略的 python 的字典对象, 将每一层与它的对应参数建设映射关系
测试程序:
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import torch
from torch import nn
from torch.autograd import Variable
data_csv = pd.read_csv('C:/Users/DZF/Desktop/LSTM/data.csv',usecols=[1])
# plt.plot(data_csv)
# plt.show()
#数据预处理
data_csv = data_csv.dropna() #去掉 na 数据
dataset = data_csv.values #字典(Dictionary) values():返回字典中的所有值。dataset = dataset.astype('float32') # astype(type): 实现变量类型转换
max_value = np.max(dataset)
min_value = np.min(dataset)
scalar = max_value-min_value
dataset = list(map(lambda x: x/scalar, dataset)) #将数据标准化到 0~1 之间
def create_dataset(dataset,look_back=2):
dataX, dataY=[], []
for i in range(len(dataset)-look_back):
a=dataset[i:(i+look_back)]
dataX.append(a)
dataY.append(dataset[i+look_back])
return np.array(dataX), np.array(dataY)
data_X, data_Y = create_dataset(dataset)
class lstm_reg(nn.Module):
def __init__(self,input_size,hidden_size, output_size=1,num_layers=2):
super(lstm_reg,self).__init__()
self.rnn = nn.LSTM(input_size,hidden_size,num_layers)
self.reg = nn.Linear(hidden_size,output_size)
def forward(self,x):
x, _ = self.rnn(x)
s,b,h = x.shape
x = x.view(s*b, h)
x = self.reg(x)
x = x.view(s,b,-1)
return x
net = lstm_reg(2,4)
net.load_state_dict(torch.load('net_params.pkl'))
data_X = data_X.reshape(-1, 1, 2) #reshape 中,- 1 使元素变为一行,而后输入为 1 列,每列 2 个子元素
data_X = torch.from_numpy(data_X) #torch.from_numpy(): numpy 中的 ndarray 转化成 pytorch 中的 tensor(张量)var_data = Variable(data_X) #转为 Variable(变量)pred_test = net(var_data) #产生预测后果
pred_test = pred_test.view(-1).data.numpy() #view(-1)输入为一行
plt.plot(pred_test, 'r', label='prediction')
plt.plot(dataset, 'b', label='real')
plt.legend(loc='best') #loc 显示图像 'best' 示意自适应形式
plt.show()
预测后果:
学习更多编程常识,请关注我的公众号:
代码的路
本文由 mdnice 多平台公布
正文完