Course

PyTorch模型推理及多任务通用范式 课程3:

  1. pytorch模型推理的三板斧:数据预处理、数据进网络、数据后处理。其中

    • 数据预处理要向训练时的预处理形式对齐;
    • 模型网络次要是加载预训练权重;
    • 数据后处理要向模型head构造和loss设计对齐。
  2. 以MobileNet-v2为例,从头写了把模型推理。

Assignment

必做题

  1. 把模型改为resnet18,加载相应的模型权重(Lesson2的物料包中有),跑一下0.jpg和1.jpg,看一下输入后果。官网torchvision训练mobilenet和训练resnet的形式是一样的,所以数据预处理和数据后处理局部完全相同。
  2. 本人找2张其余图,用resnet18做下推理。

思考题

  1. 以ResNet18为例,用time模块和for循环,对”./images/0.jpg”间断推理100次,统计工夫开销,比方:

     import time model_classify=ModelPipline()  image=cv2.imread("./images/0.jpg") t_all=0 for i in range(100):         t_start=time.time()         result=model_classify.predict(image)         t_end=time.time()         t_all+=t_end - t_start print(t_all) 

    有CUDA的同学,改下代码:

     self.device=torch.device('cuda')。

    用上述雷同办法测试工夫开销。

  2. 在数据预处理和数据后处理的代码实现中,到处在用numpy, opencv, torch 对数组做相应变换,大家至多要把课程中呈现的函数们给了解。

Solutions

Code

import torchimport torchvision.models as modelsimport numpy as npimport cv2import timeclass ModelPipline(object):    def __init__(self, device=torch.device('cpu')):        # 进入模型的图片大小:为数据预处理和后处理做筹备        self.inputs_size = (224, 224)        # Add input parameter device        self.device = device        # 载入模型构造和模型权重        self.model = self.get_model()        # 载入标签,为数据后处理做筹备        label_names = open('./labels/imagenet_label.txt', 'r').readlines()        self.label_names = [line.strip('\n') for line in label_names]    def predict(self, image):        # 数据预处理        inputs = self.preprocess(image)        # 数据进网络        outputs = self.model(inputs)        # 数据后处理        results = self.postprocess(outputs)        return results    def get_model(self):        # modified to load pytorch official weight        model = models.resnet18(pretrained=True)        model.to(self.device)        model.eval()        return model    def preprocess(self, image):        # opencv默认读入是BGR,须要转为RGB,和训练时保持一致        image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)        # resize成模型输出的大小,和训练时保持一致        image = cv2.resize(image, dsize=self.inputs_size)        # 归一化和标准化,和训练时保持一致        inputs = image / 255        inputs = (inputs - np.array([0.485, 0.456, 0.406])) / np.array([0.229, 0.224, 0.225])        ##以下是图像工作的通用解决        # (H,W,C) ——> (C,H,W)        inputs = inputs.transpose(2, 0, 1)        # (C,H,W) ——> (1,C,H,W)        inputs = inputs[np.newaxis, :, :, :]        # NumpyArray ——> Tensor        inputs = torch.from_numpy(inputs)        # dtype float32        inputs = inputs.type(torch.float32)        # 与self.model放在雷同硬件上        inputs = inputs.to(self.device)        return inputs    def postprocess(self, outputs):        # 取softmax失去每个类别的置信度        outputs = torch.softmax(outputs, dim=1)        # 取最高置信度的类别和分数        score, label_id = torch.max(outputs, dim=1)        # Tensor ——> float        score, label_id = score.item(), label_id.item()        # 查找标签名称        label_name = self.label_names[label_id]        return label_name, scoreif __name__ == '__main__':    # config device    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')    model_classify = ModelPipline(device)    image = cv2.imread('./images/0.jpg')    result = model_classify.predict(image)    print(result)    image = cv2.imread('./images/1.jpg')    result = model_classify.predict(image)    print(result)    image = cv2.imread('./images/2.jpg')    result = model_classify.predict(image)    print(result)    image = cv2.imread('./images/3.jpg')    result = model_classify.predict(image)    print(result)    # CPU: predict image 0.jpg 100 times    image=cv2.imread("./images/0.jpg")    device = torch.device('cpu')    model_classify = ModelPipline(device)    t_all=0    for i in range(100):        t_start=time.time()        result=model_classify.predict(image)        t_end=time.time()        t_all+=t_end - t_start    print('CPU 100 time lapse: {:.4f} seconds.'.format(t_all))    # GPU: predict image 0.jpg 100 times    device = torch.device('cuda')    model_classify = ModelPipline(device)    t_all=0    for i in range(100):        t_start=time.time()        result=model_classify.predict(image)        t_end=time.time()        t_all+=t_end - t_start    print('GPU 100 time lapse: {:.4f} seconds.'.format(t_all))

必做题

  1. 提交下推理的输入后果(标签和置信度)。

    ('umbrella', 0.9995710253715515)

    ('peacock', 0.9999837875366211)
  2. 提交下找的2张图片,以及推理的输入后果。

    ('geyser', 0.9999121427536011)

    ('snorkel', 0.96727454662323)

    思考题

  3. CPU推理和CUDA推理,各自的工夫开销。
    CPU 100 time lapse: 7.7344 seconds.
    GPU 100 time lapse: 1.9687 seconds.

学习心得

对矩阵和张量的操作须要进一步相熟,尤其对维度的操作,如dim=0dim=1,到底是什么意思。