关于python:用python求解特征向量和拉普拉斯矩阵

49次阅读

共计 861 个字符,预计需要花费 3 分钟才能阅读完成。

学过线性代数和深度学习先关的肯定晓得特征向量和拉普拉斯矩阵,这两者是很多模型的根底,有着很重要的位置,那用 python 要怎么实现呢?
numpy 和 scipy 两个库中模块中都提供了线性代数的库 linalg,scipy 更全面些。

特征值和特征向量
import scipy as sc

返回特征值,依照升序排列,num 定义返回的个数

def eignvalues(matrix, num):

return sc.linalg.eigh(matrix, eigvalues(0, num-1))[0]

返回特征向量

def eighvectors(matrix):

return sc.linalg.eigh(matrix, eigvalues(0, num-1))[1]

调用实例

创立一个对角矩阵,很容易得悉它的特征值是 1,2,3

matrix = sc.diag([1,2,3])

调用特征值函数, 获取最小的特征值

minValue = eighvalues(matrix, 1)

调用特征向量函数,获取所有的特征向量

vectors = eighvectors(matrix, 3)

拉普拉斯矩阵
很多图模型中都波及到拉普拉斯矩阵,它有三种模式,这次给出的代码是 D -A(度矩阵 - 邻接矩阵)和第二种标准化的模式:

laplacian 矩阵

import numpy as np
def unnormalized_laplacian(adj_matrix):

# 先求度矩阵
R = np.sum(adj_matrix, axis=1)
degreeMatrix = np.diag(R)
return degreeMatrix - adj_matrix

def normalized_laplacian(adj_matrix):

R = np.sum(adj_matrix, axis=1)
R_sqrt = 1/np.sqrt(R)
D_sqrt = np.diag(R_sqrt)
I = np.eye(adj_matrix.shape[0])
return I - D_sqrt * adj_matrix * D_sqrt

本次分享就到这啦,如有帮忙的话,点个关注再走吧,感激浏览!

正文完
 0