谱图理论-Spectral Graph Theory

关于

导言

拉普拉斯矩阵

$$
\min_x x^T Lx \\
s.t. ||x||^2 = 1 \\
1^T x = 0
$$

Isoperimetry

$$
\partial S = \{(u,v) \in E| u \in S, v\notin S \}
$$

定理的证明,关键是理解 $(x^T L x)$ 的几何意义。取一个特殊的向量x,x是子集S的示性函数,即xi代表第i个定点是否在S中,如果在则xi=1,否则xi=0。
那么 $( (Lx)_i , i \in S)$ 的意义则为第i个顶点与S外的其他定点的边的数目,把S中的所有i求和即得到边界$(\partial S)$ 的大小了。
所以 $(\theta(S) = \frac{x^T L x}{x^T x})$
显然上式是不小于$(\lambda_2)$ 的,但是还有更准确的下界。
将x按照两个子空间分解(0特征值的空间,即全1向量空间;正交补空间,即 $(x^T 1 = 0)$)
$(x = y + s)$,$(y^T 1 = 0)$,s则为每一维都是s的向量,且$(s_i=|S|/|V| )$
所以继续推导有(注意s是L的特征向量,Ls=0)
$$
\theta(S) = \frac{x^T L x}{x^T x} \\
= \frac{y^T L y}{x^T x} \ge \lambda_2 \frac{y^T y}{x^T x} \\
= \lambda_2 \frac{y^T y}{y^T y + s^T s} = \lambda_2 (1-s)
$$

推导过程中为什么不能直接从$(\frac{x^T L x}{x^T x})$得到下界$(\lambda_2)$

举例

$$
((v,w), (v', w)), (v,v') \in E \\
((v,w), (v, w')), (w,w') \in F
$$

邻接矩阵和图染色

特征值的界

图的近似

完全二叉树

电导率与归一化拉普拉斯矩阵

电导率

归一化拉普拉斯矩阵

Cheeger不等式

Spring and Resistor Networks

Random Walks on Graphs

转移概率

扩散运动

举例

FAQ

为什么特征值0的代数重数代表图可以划分为互不联通的子图的数目

两个互不联通的图看做一个图的时候,由于两个图节点间没有任何连接,因此对应的总拉普拉斯矩阵应该是
$$
L = \begin{bmatrix}
L_1 & O \\
O & L_2
\end{bmatrix}
$$

因此,显然可以构造两个不同的向量$([v_1, O], [O, v_2])$ 使得Lv=0,其中v1和v2分别是子矩阵的0空间中的任意向量。

显然,如果可以划分成k个子图,那么0特征值的代数重数就是k。

对拉普拉斯矩阵做线性变换有什么特殊含义吗

拉普拉斯矩阵的特征值和特征向量有什么意义

为什么联通图就是d-max regular?

如何理解Perron-Frobenius

既然稳态分布是顶点的度,那为什么PageRank算法还有做特征向量分解?直接统计度不就行了?