文章和代码曾经归档至【Github仓库:https://github.com/timerring/dive-into-AI 】或者公众号【AIShareLab】回复 pytorch教程 也可获取。

模型创立与nn.Module

创立网络模型通常有2个因素:

  • 构建子模块
  • 拼接子模块

-

class LeNet(nn.Module):    # 子模块创立    def __init__(self, classes):        super(LeNet, self).__init__()        self.conv1 = nn.Conv2d(3, 6, 5)        self.conv2 = nn.Conv2d(6, 16, 5)        self.fc1 = nn.Linear(16*5*5, 120)        self.fc2 = nn.Linear(120, 84)        self.fc3 = nn.Linear(84, classes)    # 子模块拼接    def forward(self, x):        out = F.relu(self.conv1(x))        out = F.max_pool2d(out, 2)        out = F.relu(self.conv2(out))        out = F.max_pool2d(out, 2)        out = out.view(out.size(0), -1)        out = F.relu(self.fc1(out))        out = F.relu(self.fc2(out))        out = self.fc3(out)        return out

调用net = LeNet(classes=2)创立模型时,会调用__init__()办法创立模型的子模块。

训练调用outputs = net(inputs)时,会进入module.pycall()函数中:

    def __call__(self, *input, **kwargs):        for hook in self._forward_pre_hooks.values():            result = hook(self, input)            if result is not None:                if not isinstance(result, tuple):                    result = (result,)                input = result        if torch._C._get_tracing_state():            result = self._slow_forward(*input, **kwargs)        else:            result = self.forward(*input, **kwargs)        ...        ...        ...

最终会调用result = self.forward(*input, **kwargs)函数,该函数会进入模型的forward()函数中,进行前向流传。

torch.nn中蕴含 4 个模块,如下图所示。

本次重点就在于nn.Model的解析:

nn.Module

nn.Module 有 8 个属性,都是OrderDict(有序字典)的构造。在 LeNet 的__init__()办法中会调用父类nn.Module__init__()办法,创立这 8 个属性。

    def __init__(self):        """        Initializes internal Module state, shared by both nn.Module and ScriptModule.        """        torch._C._log_api_usage_once("python.nn_module")        self.training = True        self._parameters = OrderedDict()        self._buffers = OrderedDict()        self._backward_hooks = OrderedDict()        self._forward_hooks = OrderedDict()        self._forward_pre_hooks = OrderedDict()        self._state_dict_hooks = OrderedDict()        self._load_state_dict_pre_hooks = OrderedDict()        self._modules = OrderedDict()
  • _parameters 属性:存储管理 nn.Parameter 类型的参数
  • _modules 属性:存储管理 nn.Module 类型的参数
  • _buffers 属性:存储管理缓冲属性,如 BN 层中的 running_mean
  • 5 个 *_hooks 属性:存储管理钩子函数

LeNet 的__init__()中创立了 5 个子模块,nn.Conv2d()nn.Linear()都继承于nn.module,即一个 module 都是蕴含多个子 module 的。

class LeNet(nn.Module):    # 子模块创立    def __init__(self, classes):        super(LeNet, self).__init__()        self.conv1 = nn.Conv2d(3, 6, 5)        self.conv2 = nn.Conv2d(6, 16, 5)        self.fc1 = nn.Linear(16*5*5, 120)        self.fc2 = nn.Linear(120, 84)        self.fc3 = nn.Linear(84, classes)        ...        ...        ...

当调用net = LeNet(classes=2)创立模型后,net对象的 modules 属性就蕴含了这 5 个子网络模块。

上面看下每个子模块是如何增加到 LeNet 的_modules 属性中的。以self.conv1 = nn.Conv2d(3, 6, 5)为例,当咱们运行到这一行时,首先 Step Into 进入 Conv2d的结构,而后 Step Out。右键Evaluate Expression查看nn.Conv2d(3, 6, 5)的属性。

下面说了Conv2d也是一个 module,外面的_modules属性为空,_parameters属性里蕴含了该卷积层的可学习参数,这些参数的类型是 Parameter,继承自 Tensor。

此时只是实现了nn.Conv2d(3, 6, 5) module 的创立。还没有赋值给self.conv1nn.Module里有一个机制,会拦挡所有的类属性赋值操作(self.conv1是类属性) ,进入到__setattr__()函数中。咱们再次 Step Into 就能够进入__setattr__()

   def __setattr__(self, name, value):        def remove_from(*dicts):            for d in dicts:                if name in d:                    del d[name]        params = self.__dict__.get('_parameters')        if isinstance(value, Parameter):            if params is None:                raise AttributeError(                    "cannot assign parameters before Module.__init__() call")            remove_from(self.__dict__, self._buffers, self._modules)            self.register_parameter(name, value)        elif params is not None and name in params:            if value is not None:                raise TypeError("cannot assign '{}' as parameter '{}' "                                "(torch.nn.Parameter or None expected)"                                .format(torch.typename(value), name))            self.register_parameter(name, value)        else:            modules = self.__dict__.get('_modules')            if isinstance(value, Module):                if modules is None:                    raise AttributeError(                        "cannot assign module before Module.__init__() call")                remove_from(self.__dict__, self._parameters, self._buffers)                modules[name] = value            elif modules is not None and name in modules:                if value is not None:                    raise TypeError("cannot assign '{}' as child module '{}' "                                    "(torch.nn.Module or None expected)"                                    .format(torch.typename(value), name))                modules[name] = value            ...            ...            ...

在这里判断 value 的类型是Parameter还是Module,存储到对应的有序字典中。

这里nn.Conv2d(3, 6, 5)的类型是Module,因而会执行modules[name] = value,key 是类属性的名字conv1,value 就是nn.Conv2d(3, 6, 5)

总结

  • 一个 module 里可蕴含多个子 module。比方 LeNet 是一个 Module,外面包含多个卷积层、池化层、全连贯层等子 module
  • 一个 module 相当于一个运算,必须实现 forward() 函数
  • 每个 module 都有 8 个字典治理本人的属性