可视化有助于解释和了解深度学习模型的内部结构。通过模型计算图的可视化能够弄清楚神经网络是如何计算的,对于模型的可视化次要包含以下几个方面:
- 模型有多少层
- 每层的输出和输入形态
- 不同的层是如何连贯的?
- 每层应用的参数
- 应用了不同的激活函数
本文将应用 Keras 和 PyTorch 构建一个简略的深度学习模型,而后应用不同的工具和技术可视化其架构。
应用Keras构建模型
import keras# Train the model on Fashion MNIST dataset(train_images, train_labels), _ = keras.datasets.fashion_mnist.load_data()train_images = train_images / 255.0# Define the model.model = keras.models.Sequential([ keras.layers.Flatten(input_shape=(28, 28)), keras.layers.Dense(32, activation='relu'), keras.layers.Dropout(0.2), keras.layers.Dense(10, activation='softmax')])#Compile the modelmodel.compile( optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])
Keras 内置可视化模型
在 Keras 中显示模型架构的最简略就是应用 summary()办法
model.summary()
这个办法是keras内置的实现,他的原理很简略。就是遍历所有模型层并打印相干细节,如层的输出维度和输入维度、参数数量、激活类型等,咱们也能够用for训练遍历实现,代码如下:
for layer in model.layers: print("Layer Name: " + layer.name) print("Type of layer: " + layer.__class__.__name__) print("Input dimesion: {}".format(layer.input_shape[1:])) print("Output dimesion: {}".format(layer.output_shape[1:])) print("Parameter Count: {}".format( layer.count_params())) try: print("Activation : " + layer.activation.__name__) print(" ") except: print(" ")
这种办法只能提供一些简略的信息,上面咱们介绍一些更好用的办法
Keras vis_utils
keras.utils.vis_utils 提供了应用 Graphviz 绘制 Keras 模型的实用函数。然而在应用之前须要装置一些其余的依赖:
pip install pydotpip install pydotpluspip install graphviz
应用Graphviz,还须要在零碎 PATH 中增加 Graphviz bin 文件夹的门路,设置实现后就能够应用了
model_img_file = 'model.png'tf.keras.utils.plot_model(model, to_file=model_img_file, show_shapes=True, show_layer_activations=True, show_dtype=True, show_layer_names=True )
Visualkears
Visualkears 库只反对 CNN(卷积神经网络)的分层款式架构生成和大多数模型的图形款式架构,包含一般的前馈网络。
pip install visualkeras
layered view() 用于查看 CNN 模型架构
visualkeras.layered_view(model,legend=True, draw_volume=True)
TensorBoard
TensorBoard 的 Graphs 可查看模型结构图。对于 Tensorboard,应用如下的办法。
import tensorflow as tffrom datetime import datetimeimport tensorboard
如果须要在notebook中应用,能够用上面的语句加载 Tensorboard 扩大
%load_ext tensorboard
在 fit() 中应用的 Keras Tensorboard Callback
# Define the Keras TensorBoard callback.logdir="logs/fit/" + datetime.now().strftime("%Y%m%d-%H%M%S")tensorboard_callback = keras.callbacks.TensorBoard(log_dir=logdir)# Train the model.model.fit( train_images, train_labels, batch_size=64, epochs=5, callbacks=[tensorboard_callback]) model.save("model.h5")
模型训练实现后,启动 TensorBoard 并期待 UI 加载。
%tensorboard --logdir logs
通过单击的“Graphs”就能够看到模型的可视化后果了。
Pytorch 1.8当前中提供了from torch.utils.tensorboard import SummaryWriter
也能够生成tensorboard的数据间接与tensorboard 对接。
Netron
Netron 是专门为神经网络、深度学习和机器学习模型设计的查看器。它反对 Keras、TensorFlow lite、ONNX、Caffe,并对 PyTorch、TensorFlow 有实验性反对。
pip install netron
浏览器并输出netron.app ,请单击“关上模型”并抉择 h5 文件的门路上传。
就能够看到每一层的可视化后果了。
在 PyTorch 中构建一个简略的深度学习模型
import torchfrom torch import nn# Get cpu or gpu device for training.device = "cuda" if torch.cuda.is_available() else "cpu"print(f"Using {device} device")class NeuralNetwork(nn.Module): def __init__(self): super(NeuralNetwork, self).__init__() self.flatten = nn.Flatten() self.linear_relu_stack = nn.Sequential( nn.Linear(28*28, 512), nn.ReLU(), nn.Linear(512, 512), nn.ReLU(), nn.Linear(512, 10), )def forward(self, x): x = self.flatten(x) logits = self.linear_relu_stack(x) return logitspytorch_model = NeuralNetwork().to(device)x = torch.randn( 512, 28,28,1).requires_grad_(True)y = pytorch_model(x)
查看模型架构最间接的办法是打印它。
print(pytorch_model)
尽管能够看到残缺的模型架构,然而成果还没有Keras的内置函数成果好,上面介绍一个很好用的库解决这个问题。
PyTorchViz
PyTorchViz 依赖于graphviz,所以也须要装置:
pip install graphvizpip install torchviz
应用PyTorchViz 可视化模型非常简单,只须要一个办法即可:
from torchviz import make_dotmake_dot(y, params=dict(list(pytorch_model.named_parameters()))).render("torchviz", format="png")
下面的代码生成了一个torchviz.png文件,如下图。
总结
可视化模型架构能够更好的解释深度学习模型。模型构造可视化显示层数、每层数据的输出和输入形态、应用的激活函数以及每层中的参数数量,为优化模型提供更好的了解。
https://www.overfit.cn/post/dff81951b62d48f79ff4995c1eedbbb3
作者:Renu Khandelwal