作者 |PRUDHVI VARMA
编译 |VK
起源 |Analytics Indiamag
计算机视觉因其宽泛的利用而成为人工智能畛域中最具发展趋势的子畛域之一。在某些畛域,甚至它们在疾速精确地辨认图像方面超过了人类的智能。
在本文中,咱们将演示最风行的计算机视觉利用之一 - 多类图像分类问题,应用 fastAI 库和 TPU 作为硬件加速器。TPU,即张量处理单元,能够减速深度学习模型的训练过程。
本文波及的主题 :
- 多类图像分类
- 罕用的图像分类模型
- 应用 TPU 并在 PyTorch 中实现
多类图像分类
咱们应用图像分类来辨认图像中的对象,并且能够用于检测品牌 logo、对对象进行分类等。然而这些解决方案有一个局限性,即只能辨认对象,但无奈找到对象的地位。然而与指标定位相比,图像分类模型更容易实现。
图像分类的罕用模型
咱们能够应用 VGG-16/19,Resnet,Inception v1,v2,v3,Wideresnt,Resnext,DenseNet 等,它们是卷积神经网络的高级变体。这些是风行的图像分类网络,并被用作许多最先进的指标检测和宰割算法的骨干。
基于 FasAI 库和 TPU 硬件的图像分类
咱们将在以下方面发展这项工作步骤:
1. 抉择硬件加速器
这里咱们应用 Google Colab 来实现。要在 Google Colab 中应用 TPU,咱们须要关上 edit 选项,而后关上 notebook 设置,并将硬件加速器更改为 TPU。
通过运行上面的代码片段,你能够查看你的 Notebook 是否正在应用 TPU。
import os
assert os.environ['COLAB_TPU_ADDR']
Path = 'grpc://'+os.environ['COLAB_TPU_ADDR']
print('TPU Address:', Path)
2. 加载 FastAI 库
在上面的代码片段中,咱们将导入 fastAI 库。
from fastai.vision import *
from fastai.metrics import error_rate, accuracy
3. 定制数据集
在上面的代码片段中,你还能够尝试应用自定义数据集。
PATH = '/content/images/dataset'
np.random.seed(24)
tfms = get_transforms(do_flip=True)
data = ImageDataBunch.from_folder(PATH, valid_pct=0.2, ds_tfms=tfms, size=299, bs=16).normalize(imagenet_stats)
data.show_batch(rows=4, figsize=(8, 8))
4. 加载预训练的深度学习模型
在上面的代码片段中,咱们将导入 VGG-19 batch_normalisation 模型。咱们将把它作为 fastAI 的计算机视觉学习模块的一个实例。
learn = cnn_learner(data, models.vgg19_bn, metrics=accuracy)
5. 训练模型
在上面的代码片段中,咱们尝试应用一个 epoch。
learn.fit_one_cycle(1)
在输入中,咱们能够看到咱们失去了 0.99 的准确度,它花了 1 分 2 秒。
在上面的代码片段中,咱们应用混同矩阵显示后果。
con_matrix = ClassificationInterpretation.from_learner(learn)
con_matrix.plot_confusion_matrix()
6. 利用模型进行预测
在上面的代码片段中,咱们能够通过在 test_your_image 中给出图像的门路来测试咱们本人的图像。
test_your_image='/content/images (3).jpg'
test = open_image(test_your_image)
test.show()
在上面的代码片段中,咱们能够失去输入张量及其所属的类。
learn.predict(test)
正如咱们在下面的输入中看到的,模型曾经预测了输出图像的类标签,它属于“flower”类别。
论断
在下面的演示中,咱们应用带 TPU 的 fastAI 库和预训练 VGG-19 模型实现了一个多类的图像分类。在这项工作中,咱们在对验证数据集进行分类时取得了 0.99 的准确率。
原文链接:https://analyticsindiamag.com…
欢送关注磐创 AI 博客站:
http://panchuang.net/
sklearn 机器学习中文官网文档:
http://sklearn123.com/
欢送关注磐创博客资源汇总站:
http://docs.panchuang.net/