学过线性代数和深度学习先关的肯定晓得特征向量和拉普拉斯矩阵,这两者是很多模型的根底,有着很重要的位置,那用 python 要怎么实现呢?
numpy 和 scipy 两个库中模块中都提供了线性代数的库 linalg,scipy 更全面些。
特征值和特征向量
import scipy as sc
返回特征值,依照升序排列,num 定义返回的个数
def eignvalues(matrix, num):
return sc.linalg.eigh(matrix, eigvalues(0, num-1))[0]
返回特征向量
def eighvectors(matrix):
return sc.linalg.eigh(matrix, eigvalues(0, num-1))[1]
调用实例
创立一个对角矩阵,很容易得悉它的特征值是 1,2,3
matrix = sc.diag([1,2,3])
调用特征值函数, 获取最小的特征值
minValue = eighvalues(matrix, 1)
调用特征向量函数,获取所有的特征向量
vectors = eighvectors(matrix, 3)
拉普拉斯矩阵
很多图模型中都波及到拉普拉斯矩阵,它有三种模式,这次给出的代码是 D -A(度矩阵 - 邻接矩阵)和第二种标准化的模式:
laplacian 矩阵
import numpy as np
def unnormalized_laplacian(adj_matrix):
# 先求度矩阵
R = np.sum(adj_matrix, axis=1)
degreeMatrix = np.diag(R)
return degreeMatrix - adj_matrix
def normalized_laplacian(adj_matrix):
R = np.sum(adj_matrix, axis=1)
R_sqrt = 1/np.sqrt(R)
D_sqrt = np.diag(R_sqrt)
I = np.eye(adj_matrix.shape[0])
return I - D_sqrt * adj_matrix * D_sqrt
本次分享就到这啦,如有帮忙的话,点个关注再走吧,感激浏览!