1 报错形容1.1 零碎环境Hardware Environment(Ascend/GPU/CPU): GPUSoftware Environment:MindSpore version (source or binary): 1.7.0Python version (e.g., Python 3.7.5): 3.7.5OS platform and distribution (e.g., Linux Ubuntu 16.04): Ubuntu 18.04.4 LTSGCC/Compiler version (if compiled from source): 7.5.01.2 根本信息1.2.1源码import numpy as np
import mindspore.nn as nn
import mindspore.ops as ops
from mindspore import Tensor
from mindspore import ParameterTuple, Parameter
from mindspore import dtype as mstype

x = Tensor([[0.8, 0.6, 0.2], [1.8, 1.3, 1.1]], dtype=mstype.float32)
y = Tensor([[0.11, 3.3, 1.1], [1.1, 0.2, 1.4], [1.1, 2.2, 0.3]], dtype=mstype.float32)

class Net(nn.Cell):

def __init__(self):    super(Net, self).__init__()    self.matmul = ops.MatMul()    self.z = Parameter(Tensor(np.array([1.0], np.float32)), name='z')def construct(self, x, y):    x = x * self.z    out = self.matmul(x, y)    return out

class GradNetWrtN(nn.Cell):

def __init__(self, net):    super(GradNetWrtN, self).__init__()    self.net = net    self.grad_op = ops.GradOperation(sens_param=True)    self.grad_wrt_output = Tensor([[0.1, 0.6, 0.2]], dtype=mstype.float32)def construct(self, x, y):    gradient_function = self.grad_op(self.net)    return gradient_function(x, y, self.grad_wrt_output)

output = GradNetWrtN(Net())(x, y)
print(output)
1.2.2报错报错信息:ValueError: For ‘MatMul’, the input dimensions must be equal, but got ‘x1_col’: 2 and ‘x2_row’: 1. And ‘x’ shape 2, 3, ‘y’ shape 1, 3.

2 起因剖析依据报错信息,是MatMul算子在infer shape时查看输出的shape不正确,具体是x1的列数不等于x2的行数。关上报错提供的debug文件/root/gitee/mindspore/rank_0/om/analyze_fail.dat,截取局部如下:

参考analyze_fail.dat文件剖析领导,可知是第一个红框的MatMul在infer shape时报错。而后再看第二个红框,该算子的第一个输出的shape为(2, 3),第二个输出的shape为(1, 3),跟报错信息吻合(留神这里MatMul的transpose_a属性为True)。最初咱们看第三个红框,该MatMul是在grad_math_ops.py文件中的253行被调用的,是MatMul算子的反向流传规定生成的算子,MatMul算子的反向流传规定如下所示:

咱们看到这个MatMul算子的两个输出,别离是x和dout,x的shape确认是对的,那就是dout的shape是谬误的。从反向主动微分的机制咱们晓得,反向局部的第一个算子是从正向局部的最初一个算子的反向流传规定生成的。而正向网络只有一个MatMul算子,且是最初的一个算子,所以infer shape报错的这个反向MatMul算子,是从这一个正向的MatMul算子的反向流传规定生成的(此用例比较简单,正向网络中只有一个MatMul算子,更简单的用例能够参考analyze_fail.dat文件剖析领导,联合算子输入输出推断出某个反向算子是从哪个正向算子的反向流传规定生成的),而且是反向局部的第一个算子。因而这个反向MatMul的第二个输出dout只能从内部传进来,也就是用例中传的self.grad_wrt_output。也就是self.grad_wrt_output的shape是谬误的。3 解决办法GradOperation传入的sens值,是脚本从内部传入的对于正向网络输入的梯度,能起到梯度值缩放的作用。既然是对于正向网络输入的梯度,那么sens值的shape是须要跟正向网络的输入shape(能够通过调用一下正向网络,打印它的输入shape失去)统一的。咱们把下面用例的self.grad_wrt_output的值改一下,如下:self.grad_wrt_output = Tensor([[0.1, 0.6, 0.2], [0.8, 1.3, 1.1]], dtype=mstype.float32)
最初就能够解决该问题了。在MindSpore官网教程的主动微分章节里也能看到相干领导:

4 总结执行MindSpore用例报错时,要长于利用报错信息去剖析问题,也能够多看看官网教程。5 参考文档https://www.mindspore.cn/tuto...梯度值缩放https://www.mindspore.cn/tuto...如何依据analyze-faildat文件剖析图推导失败的起因