谱图理论-Spectral Graph Theory

关于

导言

拉普拉斯矩阵

minxxTLxs.t.||x||2=11Tx=0

Isoperimetry

S={(u,v)E|uS,vS}

定理的证明,关键是理解 xTLx 的几何意义。取一个特殊的向量x,x是子集S的示性函数,即xi代表第i个定点是否在S中,如果在则xi=1,否则xi=0。
那么 (Lx)i,iS 的意义则为第i个顶点与S外的其他定点的边的数目,把S中的所有i求和即得到边界S 的大小了。
所以 θ(S)=xTLxxTx
显然上式是不小于λ2 的,但是还有更准确的下界。
将x按照两个子空间分解(0特征值的空间,即全1向量空间;正交补空间,即 xT1=0
x=y+syT1=0,s则为每一维都是s的向量,且si=|S|/|V|
所以继续推导有(注意s是L的特征向量,Ls=0)
θ(S)=xTLxxTx=yTLyxTxλ2yTyxTx=λ2yTyyTy+sTs=λ2(1s)

推导过程中为什么不能直接从xTLxxTx得到下界λ2

举例

((v,w),(v,w)),(v,v)E((v,w),(v,w)),(w,w)F

邻接矩阵和图染色

特征值的界

图的近似

完全二叉树

电导率与归一化拉普拉斯矩阵

电导率

归一化拉普拉斯矩阵

Cheeger不等式

Spring and Resistor Networks

Random Walks on Graphs

转移概率

扩散运动

举例

FAQ

为什么特征值0的代数重数代表图可以划分为互不联通的子图的数目

两个互不联通的图看做一个图的时候,由于两个图节点间没有任何连接,因此对应的总拉普拉斯矩阵应该是
L=[L1OOL2]

因此,显然可以构造两个不同的向量[v1,O],[O,v2] 使得Lv=0,其中v1和v2分别是子矩阵的0空间中的任意向量。

显然,如果可以划分成k个子图,那么0特征值的代数重数就是k。

对拉普拉斯矩阵做线性变换有什么特殊含义吗

拉普拉斯矩阵的特征值和特征向量有什么意义

为什么联通图就是d-max regular?

如何理解Perron-Frobenius

既然稳态分布是顶点的度,那为什么PageRank算法还有做特征向量分解?直接统计度不就行了?

Error: Comments Not Initialized