关于算法:Tensorflow随笔三

46次阅读

共计 419 个字符,预计需要花费 2 分钟才能阅读完成。

上图咱们能够发现,对于 simple_cnn 来说,数据加强有很显著的作用,能够显著进步 val_acc,也就是模型的泛化性。

对于 pre-trained model(此处用作 feature extraction) 来说,此处用的是 mobilenetV2,因为模型是在 imagenet 大型数据集上做的预训练,曾经见过很多图片数据了,同时模型能更新参数的局部只有 top-classifier,所以此处的数据加强成果并不是特地显著,数据加强的作用次要是让模型能见到更多的数据多样性,以此加重过拟合,加强泛化。

咱们接着对模型进行了 finetune 训练,相比于 freeze feature extraction 局部来说,咱们 unfreeze 了顶部几层卷积,使模型更加适宜目前的工作,相比来说进步了几个百分点。

上图咱们能够看到,模型在训练几个 epoch 之后,val_acc 曾经达到饱和,此时咱们接着训练,会发现 val_loss 在回升,此处是因为模型置信度降落引起的。

正文完
 0