以下是应用PyTorch编写3元一次线性回归神经网络的示例代码:
import torchimport torch.nn as nn# 训练数据x_train = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]], dtype=torch.float32)y_train = torch.tensor([[4], [7], [10], [13]], dtype=torch.float32)# 定义模型class LinearRegression(nn.Module): def __init__(self): super(LinearRegression, self).__init__() self.linear = nn.Linear(3, 1) # 输出特色数为3,输入特色数为1的线性层 def forward(self, x): out = self.linear(x) return outmodel = LinearRegression()# 定义损失函数与优化器criterion = nn.MSELoss() # 均方误差损失函数optimizer = torch.optim.SGD(model.parameters(), lr=0.01) # 随机梯度降落优化器# 训练模型num_epochs = 1000for epoch in range(num_epochs): # 前向流传计算预测值 y_pred = model(x_train) # 计算损失 loss = criterion(y_pred, y_train) # 反向流传更新参数 optimizer.zero_grad() loss.backward() optimizer.step() if (epoch+1) % 100 == 0: print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, loss.item()))# 测试模型x_test = torch.tensor([[2, 3, 4], [5, 6, 7]], dtype=torch.float32)y_test = torch.tensor([[5], [8]], dtype=torch.float32)with torch.no_grad(): y_pred = model(x_test) print('Test Loss: {:.4f}'.format(criterion(y_pred, y_test).item()))
在上述代码中,咱们首先定义了训练数据 x_train 和 y_train。而后,咱们创立一个名为 LinearRegression 的类来定义线性回归模型,并在其中定义了一个蕴含一个线性层的前向流传函数。
接下来,咱们实例化了 LinearRegression 类失去了模型对象 model,并定义了损失函数和优化器。在训练过程中,咱们进行了1000次迭代,每一次迭代都执行一次前向流传、计算损失、反向流传和参数更新。最初,咱们应用测试数据 x_test 和 y_test 来评估模型的性能。
本文由mdnice多平台公布