以下是应用 PyTorch 编写 3 元一次线性回归神经网络的示例代码:
import torch
import torch.nn as nn
# 训练数据
x_train = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]], dtype=torch.float32)
y_train = torch.tensor([[4], [7], [10], [13]], dtype=torch.float32)
# 定义模型
class LinearRegression(nn.Module):
def __init__(self):
super(LinearRegression, self).__init__()
self.linear = nn.Linear(3, 1) # 输出特色数为 3,输入特色数为 1 的线性层
def forward(self, x):
out = self.linear(x)
return out
model = LinearRegression()
# 定义损失函数与优化器
criterion = nn.MSELoss() # 均方误差损失函数
optimizer = torch.optim.SGD(model.parameters(), lr=0.01) # 随机梯度降落优化器
# 训练模型
num_epochs = 1000
for epoch in range(num_epochs):
# 前向流传计算预测值
y_pred = model(x_train)
# 计算损失
loss = criterion(y_pred, y_train)
# 反向流传更新参数
optimizer.zero_grad()
loss.backward()
optimizer.step()
if (epoch+1) % 100 == 0:
print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, loss.item()))
# 测试模型
x_test = torch.tensor([[2, 3, 4], [5, 6, 7]], dtype=torch.float32)
y_test = torch.tensor([[5], [8]], dtype=torch.float32)
with torch.no_grad():
y_pred = model(x_test)
print('Test Loss: {:.4f}'.format(criterion(y_pred, y_test).item()))
在上述代码中,咱们首先定义了训练数据 x_train 和 y_train。而后,咱们创立一个名为 LinearRegression 的类来定义线性回归模型,并在其中定义了一个蕴含一个线性层的前向流传函数。
接下来,咱们实例化了 LinearRegression 类失去了模型对象 model,并定义了损失函数和优化器。在训练过程中,咱们进行了 1000 次迭代,每一次迭代都执行一次前向流传、计算损失、反向流传和参数更新。最初,咱们应用测试数据 x_test 和 y_test 来评估模型的性能。
本文由 mdnice 多平台公布