关于人工智能:三元一次线性回归神经网络的示例

32次阅读

共计 1251 个字符,预计需要花费 4 分钟才能阅读完成。

以下是应用 PyTorch 编写 3 元一次线性回归神经网络的示例代码:

import torch
import torch.nn as nn

# 训练数据
x_train = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]], dtype=torch.float32)
y_train = torch.tensor([[4], [7], [10], [13]], dtype=torch.float32)

# 定义模型
class LinearRegression(nn.Module):
    def __init__(self):
        super(LinearRegression, self).__init__()
        self.linear = nn.Linear(3, 1)  # 输出特色数为 3,输入特色数为 1 的线性层

    def forward(self, x):
        out = self.linear(x)
        return out

model = LinearRegression()

# 定义损失函数与优化器
criterion = nn.MSELoss() # 均方误差损失函数
optimizer = torch.optim.SGD(model.parameters(), lr=0.01) # 随机梯度降落优化器

# 训练模型
num_epochs = 1000
for epoch in range(num_epochs):
    # 前向流传计算预测值
    y_pred = model(x_train)

    # 计算损失
    loss = criterion(y_pred, y_train)

    # 反向流传更新参数
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

    if (epoch+1) % 100 == 0:
        print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, loss.item()))

# 测试模型
x_test = torch.tensor([[2, 3, 4], [5, 6, 7]], dtype=torch.float32)
y_test = torch.tensor([[5], [8]], dtype=torch.float32)
with torch.no_grad():
    y_pred = model(x_test)
    print('Test Loss: {:.4f}'.format(criterion(y_pred, y_test).item()))

在上述代码中,咱们首先定义了训练数据 x_train 和 y_train。而后,咱们创立一个名为 LinearRegression 的类来定义线性回归模型,并在其中定义了一个蕴含一个线性层的前向流传函数。

接下来,咱们实例化了 LinearRegression 类失去了模型对象 model,并定义了损失函数和优化器。在训练过程中,咱们进行了 1000 次迭代,每一次迭代都执行一次前向流传、计算损失、反向流传和参数更新。最初,咱们应用测试数据 x_test 和 y_test 来评估模型的性能。

本文由 mdnice 多平台公布

正文完
 0