关于人工智能:Keras可视化神经网络架构的4种方法

3次阅读

共计 4648 个字符,预计需要花费 12 分钟才能阅读完成。

咱们在应用卷积神经网络或递归神经网络或其余变体时,通常都心愿对模型的架构能够进行可视化的查看,因为这样咱们能够 在定义和训练多个模型时,比拟不同的层以及它们搁置的程序对后果的影响。还有能够更好地了解模型构造、激活函数、模型参数形态(神经元数量)等

keras 中有一些现成的包能够创立咱们的神经网络模型的可视化示意。前三个包能够在模型训练之前应用(只须要定义和编译模型);然而 Tensor Boards 要求用户在架构可视化之前依据精确的数据训练模型。

在开始进行可视化之前,咱们先须要装置相应的包:

 pip install visualkeras
 pip install ann_visualizer
 pip install graphviz

而后咱们创立一个模型,并用这 4 个包来进行可视化:

在理论应用时咱们心愿的是通过可视化来比照模型架构,所以这里定义三个具备不同超参数 CNN 模型。咱们创立了用户定义的函数来别离构建具备不同数量的 CNN 层、池化层和最初的密集层的三个不同模型。

架构 1:浅层 CNN+ 分类头

 def construct_model():
     model = Sequential()
     model.add(Conv2D(filters=64, kernel_size=(3, 3), input_shape=(128, 128, 1), activation=’relu’))
     model.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
     model.add(MaxPool2D((2, 2)))
     model.add(Flatten())
     model.add(Dense(256, activation=’relu’))model.add(Dense(12, activation=’softmax’))
     model.compile(loss=’categorical_crossentropy’, optimizer=’adam’, metrics=[‘accuracy’])
     return model

架构 2:深层 CNN+mlp 分类头

 def sconstruct_model():
     smodel = Sequential()
     smodel.add(Conv2D(filters=64, kernel_size=(3, 3), input_shape=(128, 128, 3), activation=’relu’))
     smodel.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
     smodel.add(MaxPool2D((2, 2)))
     smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
     smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
     smodel.add(MaxPool2D((2, 2)))
     smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
     smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
     smodel.add(MaxPool2D((2, 2)))
     smodel.add(Flatten())
     smodel.add(Dense(256, activation=’relu’))
     smodel.add(Dense(12, activation=’softmax’))
     #optimizer = Adam(lr=0.001)
     smodel.compile(loss=’categorical_crossentropy’, optimizer=’adam’, metrics=[‘accuracy’])
     #model.summary()
     return smodel

架构 3:深层 CNN+ 分类头

 def cconstruct_model(learningRate):
     smodel = Sequential()
     smodel.add(Conv2D(filters=32, kernel_size=(3, 3), input_shape=(128, 128, 1), activation=’relu’))
     smodel.add(Conv2D(filters=32, kernel_size=(3, 3), activation=’relu’))
     smodel.add(MaxPool2D((2, 2)))
     smodel.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
     smodel.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
     smodel.add(MaxPool2D((2, 2)))
     smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
     smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
     smodel.add(MaxPool2D((2, 2)))
     smodel.add(Flatten())
     smodel.add(Dense(256, activation=’relu’))
     smodel.add(Dense(256, activation=’relu’))
     smodel.add(Dense(12, activation=’softmax’))
     optimizer = Adam(lr=learningRate)
     smodel.compile(loss=’categorical_crossentropy’, optimizer=optimizer, metrics=[‘accuracy’])
     smodel.summary()
     return smodel

有了这 3 个模型,咱们将应用 4 种办法来可视化 cnn 的构造

ANN Visualizer

ANN Visualizer 的 Python 模块能够通过几行代码来可视化神经网络。它应用 Keras 和 Python 的 Graphviz 模块来生成一个整洁的神经网络图。它是最早的几个可视化包之一,然而最近曾经不更新了,咱们先介绍他是因为它算是最早呈现的,也是最有名的。

ANN Visualizer 可视化须要首先编译模型

 model=construct_model()

主要参数如下:

ann_viz(model, view=True, filename=”network.gv”, title=”MyNeural Network”)

model—Keras 的模型

view—在调用 ann_viz() 之后显示可视化图形

filename—文件名

title—自定义题目

 from ann_visualizer.visualize import ann_viz
 ann_viz(model, view=True, filename=”cconstruct_model”, title=”CNN — Model 1 — Simple Architecture”)

下面就是应用 ANN Visualizer 创立的 construct_model() 的可视化图。能够看到,如果模型太大显示成果不会太好,这可能也是 ANN Visualizer 被淘汰的一个起因。

Visual Keras

Visualkeras 能够更容易地查看 Keras 的神经网络设计 (能够独自查看,也能够作为 TensorFlow 的一部分)。

 model1=construct_model()
 model2=sconstruct_model()
 model3=cconstruct_model(0.009)
 
 import visualkeras
 from PIL import ImageFont
 visualkeras.layered_view(model1, legend=True)
 visualkeras.layered_view(model2, legend=True)
 visualkeras.layered_view(model3, legend=True)

能够通过可视化来比照出不同层的大小,这个还是很有用的

Keras Model Plot

keras.utils.plot_model 是 keras 的内建绘制 Keras 模型函数,它应用了 Graphviz 和 pydot 包。从图上可,它不如下面应用的包直观,但它概述了程序模型的根本体系结构。

 tf.keras.utils.plot_model(model1,to_file="model.png",show_shapes=True,show_dtype=False,show_layer_names=True,rankdir="TB",expand_nested=True,dpi=96,layer_range=None,show_layer_activations=True,)

一下是几个参数的介绍:

  • model: Keras 编译后的模型或模型对象的实例
  • to_file: 保留的文件名
  • Show_shapes: 显示神经网络中每一层的尺寸和形态
  • show_layer_activation: 显示神经元外部应用的激活函数

TensorBoard

TensorBoard 容许用户可视化不同模型运行的日志。日志的范畴能够从跟踪任何模型验证度量(不同轮次的准确率、召回率、RMSE、MAPE 和 MSE)到创立模型的架构图。它是一个弱小的工具,能够可视化预期模型是否与预期设计匹配,同时深刻理解如何应用操作级图更改模型。

咱们须要先加载 TensorBoard,而后创立一个日志目录。

 %load_ext tensorboard
 from datetime import datetime
 from tensorflow import keras
 
 logdir="logs/fit/" + datetime.now().strftime("%Y%m%d-%H%M%S")
 tensorboard_callback = keras.callbacks.TensorBoard(log_dir=logdir)

应用 Keras TensorBoard 回调函数,在训练前指定日志目录。而后通过向 model.fit() 提供这个回调来保证数据被记录在 TensorBoard 中。

 model.fit(X2_train, Y2_train,batch_size=64,epochs=5,callbacks=[tensorboard_callback])

X2_train 和 Y2_train 是下面代码中没有反映的训练数据集。你能够用你本人的任何训练数据来替换它。

能够看到 TensorBoard 始终会显示操作级别的图表,尽管对于每一层的架构并不显著,然而对于每一个操作缺失十分具体的。

还须要留神的是,与代码相比该图是上下颠倒的,因为数据从底部流向顶部。然而该图大抵相似于 Keras 模型的形容,有额定的边通向其余计算节点。

https://avoid.overfit.cn/post/95ee9b5017e840fa85ac63921a9d0def

作者:Angel Das

正文完
 0