共计 2537 个字符,预计需要花费 7 分钟才能阅读完成。
Pytorch 简介
PyTorch 是 FaceBook 开源的第三方库,其作用是疾速搭建深度学习模型,验证思路。
一般模型
导入第三方库
首先导入各种第三方库
import torch
from torch import nn,optim
from matplotlib import pyplot as plt
from torch.utils.data import DataLoader
from torch.autograd import Variable
import numpy as np
from torchvision import datasets, transforms
数据筹备
train_dataset = datasets.MNIST(root='./',
train=True,
transform=transforms.ToTensor(),
download=True)
test_dataset = datasets.MNIST(root='./',
train=False,
transform=transforms.ToTensor(),
download=True)
运行这段代码时,对于 PyTorch 的低版本会呈现谬误,笔者降级到 1.7.1 则运行胜利
# 批次大小
batch_size = 64
# 装载训练集
train_loader = DataLoader(dataset=train_dataset,
batch_size=batch_size,
shuffle=True)
# 装载测试集
test_loader = DataLoader(dataset=test_dataset,
batch_size=batch_size,
shuffle=True)
因为给定的数据的形态是 $$[batch\_size, 1, 28, 28]$$
之后训练和预测时咱们须要将数据转换成二维格局
定义网络结构
# 定义网络结构
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.fc1 = nn.Linear(784, 10)
self.softmax = nn.Softmax(dim=1)
def forward(self, x):
inputs = x.reshape((x.shape[0], -1))
x = self.fc1(inputs)
out = self.softmax(x)
return out
训练和测试模型
训练
def train():
for i, data in enumerate(train_loader):
# 取得一个批次的数据和标签
inputs, labels = data
inputs = inputs.cuda()
labels = labels.cuda()
# 取得模型预测后果
out = model(inputs)
# to one-hot
# scatter_(input, dim, index, src) → Tensor
# 将 src 中的所有值依照 index 确定的索引写入本 tensor 中。其中索引是依据给定的 dimension,dim 依照 gather()形容的规定来确定。labels = labels.reshape((-1, 1)).cuda()
one_hot = torch.zeros(inputs.shape[0], 10).cuda().scatter(1, labels, 1)
# 计算 loss
# mse_loss 要求形态统一
loss = MSE_loss(out, one_hot)
# 梯度清零
optimizer.zero_grad()
# 反向流传
loss.backward()
# 更新参数
optimizer.step()
测试
def test():
correct = 0
for i, data in enumerate(test_loader):
# 取得一个批次的数据和标签
inputs, labels = data
inputs = inputs.cuda()
labels = labels.cuda()
# 取得模型预测后果
out = model(inputs)
_, predicted = torch.max(out, 1)
correct += (predicted == labels).sum()
print("Test acc:{0}".format(correct.item()/len(test_dataset)))
更改模型
增加 Dropout
Dropout 能够使神经元随机失活,其中参数 p 示意失活概率
# 定义网络结构
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.layer1 = nn.Sequential(nn.Linear(784, 500), nn.Dropout(p=0.5), nn.Tanh())
self.layer2 = nn.Sequential(nn.Linear(500, 200), nn.Dropout(p=0.5), nn.Tanh())
self.layer3 = nn.Sequential(nn.Linear(200, 10),nn.Softmax(dim=1))
def forward(self, x):
inputs = x.reshape((x.shape[0], -1))
x = self.layer1(inputs)
x = self.layer2(x)
out = self.layer3(x)
return out
更改 Loss function
# 定义代价函数
MSE_loss = nn.CrossEntropyLoss()
除了穿插熵损失函数,PyTorch 中还定义了很多损失函数,暂不一一列举
穿插熵损失函数要求第一个参数形态为[batch_size, C](C 为类别数), 第二个参数形态为[batch_size](一维向量)
更改优化器
optimizer = optim.SGD(model.parameters(), lr=0.1)
# 或者改成 Adam
optimizer = optim.Adam(model.parameters(), lr=0.1)
增加正则化
optimizer = optim.SGD(model.parameters(), lr=0.1, weight_decay=0.001)
这里是增加 L2 正则化,weight_decay 是惩办系数
正文完