共计 477 个字符,预计需要花费 2 分钟才能阅读完成。
首先把数据集的状况放上来,如下图所示:
而后再看一下要用到的一些组件,如下图所示:
最初一起看下模型的训练流程:
最初一起看下训练的后果日志,如下图所示,能够看到 testAcc = 93.86%,此处用的是双卡 2080Ti,比单卡来说,训练的 batch_size 更大,所以准确率稍微晋升:
还有一些中央能够总结下:
模型在训练过程当中的指标有 loss 和 accuracy,从长期来看 loss 呈降落趋势,accuracy 呈上升趋势
为了放慢训练速度,能够在训练过程中不计算 train_acc,取 val_acc 最大处,保留的 checkpoint
earlyStop 特地实用于 train_acc 和 val_acc 的 gap 随训练不断扩大,如果 val_acc 在 5 个 epoch 未产生降落,则进行训练
LR Scheduler,如果 train_loss 在 3 个 epoch 未产生降落,则学习率产生衰减
训练速度和过拟合是两大瓶颈
LR Scheduler 和 train_loss、train_acc 挂钩,test、val 和泛化性相干
代码地址: https://github.com/MaoXianXin…
正文完