Auf dem mathematischen Gebiet der Graphentheorie die Laplace-Matrix manchmal als Admittanzmatrix Kirchhoff-Matrix oder diskretes Laplacian bezeichnet. ist eine Matrixdarstellung eines Graphen. Die Laplace-Matrix kann verwendet werden, um viele nützliche Eigenschaften eines Graphen zu finden. Zusammen mit dem Satz von Kirchhoff kann er verwendet werden, um die Anzahl der Spannbäume für einen bestimmten Graphen zu berechnen. Der sparsamste Schnitt eines Graphen kann durch den zweitkleinsten Eigenwert seines Laplace-Werts durch Cheegers Ungleichung angenähert werden. Es kann auch zum Erstellen von Einbettungen mit geringen Abmessungen verwendet werden, was für eine Vielzahl von maschinellen Lernanwendungen nützlich sein kann.
Definition [ edit ]
Laplace-Matrix für einfache Graphen [ edit ]
. G mit n Ecken, ihre Laplace-Matrix ist
definiert als: [1]
Wobei D die Matrix mit dem -Menü und A die Adjazenzmatrix des Graphen ist. Seit ist ein einfacher Graph, sind gegeben durch
wo deg ( v i ) ist der Grad des Scheitelpunkts i .
Symmetrisch normalisierter Laplace-Operator [ edit ]
Die symmetrisch normalisierte Laplace-Matrix ist definiert als: [1]
Die Elemente von sind gegeben von
19659123] und
deg ( v i ] 0 1 ( v i ) deg 19 ( v j ) wenn 19659146] 19659009][1945 j und v i grenzt an v j 0 oder 19659598 ] { displaystyle L_ {i, j} ^ { text {sym}}: = { begin {cases} 1 & { mbox {if}} i = j { mbox {und}} deg (v_ {i }) neq 0 \ - { frac {1} { sqrt { deg (v_ {i}) deg (v_ {j})}}} & { mbox {if}} i neq j { mbox {und}} v_ {i} { mbox {grenzt an}} v_ {j} \ 0 & { mbox {ansonsten}}. end {cases}}}
Zufallsweg normalisierter Laplacian [ edit ] 19659077] Die normalisierte Laplace-Matrix für zufällige Spaziergänge ist definiert als:
Die Elemente von sind gegeben durch
-
Generalized Laplacian [ bearbeiten ]
Der generalisierte Laplacian, Q ist definiert als [2]:
- <img src = "https://wikimedia.org/api/rest_v1/media/ math / render / svg / 1077164acb43f2ab20849d4386b0540524f44093 "class =" mwe-math-fall back-image-inline "aria-hidden =" true "style =" vertical-align: -3.838ex; Breite: 51.317ex; height: 8.843ex; "alt =" { displaystyle { begin {cases} Q_ {i, j} <0&{mbox{if }}ineq j{mbox{ and }}v_{i}{mbox{ is adjacent to }}v_{j}\Q_{i,j}=0&{mbox{if }}ineq j{mbox{ and }}v_{i}{mbox{ is not adjacent to }}v_{j}\{mbox{any number}}&{mbox{otherwise}}.end{cases}}}"/>
Beachten Sie, dass der gewöhnliche Laplacianer ein verallgemeinerter Laplacianer ist.
Beispiel [ edit ]
Hier ist ein einfaches Beispiel eines beschrifteten, ungerichteten Graphen und seiner Laplace-Matrix.
Beschriftetes Diagramm
Gradmatrix
Adjazenzmatrix
Laplace-Matrix
![6n-graf.svg "src =" http://upload.wikimedia.org/wikipedia/commons/thumb/5/5b/6n-graf.svg/175px-6n-graf.svg.png "decoding = "async" width = "175" height = "116" srcset = "// upload.wikimedia.org/wikipedia/commons/thumb/5/5b/6n-graf.svg/263px-6n-graf.svg.png 1.5 x, //upload.wikimedia.org/wikipedia/commons/thumb/5/5b/6n-graf.svg/350px-6n-graf.svg.png 2x "data-file-width =" 333 "data-file- height = "220]()
Eigenschaften [ edit ]
Für einen (ungerichteten) Graphen G G und sein Lapplus Matrix L mit Eigenwerten :
- L ist symmetrisch.
- L ist positiv-semidefinit (d. H. für alle ). Dies wird im Abschnitt der Inzidenzmatrix (unten) bestätigt. Dies ist auch aus der Tatsache ersichtlich, dass der Laplace-Operator symmetrisch und diagonal dominant ist.
- L ist eine M-Matrix (ihre nicht-diagonalen Einträge sind nicht positiv, die realen Teile ihrer Eigenwerte sind jedoch nicht negativ). 19659450] Jede Reihen- und Spaltensumme von L ist Null. In der Summe wird der Grad des Scheitelpunkts mit einem "-1" für jeden Nachbarn summiert.
- weil der Vektor Dies impliziert auch, dass die Laplace-Matrix singulär ist.
- Die Anzahl von Verbundene Komponenten im Diagramm sind die Dimension des Nullraums des Laplace-Operators und die algebraische Multiplizität des Eigenwerts 0. [19659450] Der kleinste Nicht-Null-Eigenwert von L wird als spektrale Lücke bezeichnet.
- Der zweitkleinste Eigenwert von L (könnte Null sein) ist die algebraische Konnektivität (oder der Fiedler-Wert) ) von G und approximiert den dünnsten Schnitt eines Graphen.
- Der Laplace-Operator ist ein Operator für den n-dimensionalen Vektorraum von Funktionen wobei ist die Scheitelpunktmenge von G und .
- Wenn G k-regulär ist, lautet der normalisierte Laplacian: wobei A die Adjazenzmatrix und I eine Identitätsmatrix ist.
- Für ein Diagramm mit mehreren verbundenen Komponenten ist L eine Blockdiagonalmatrix, wobei jeder Block die jeweilige Laplace-Matrix für jede Komponente ist, möglicherweise nach dem Umordnen der Scheitelpunkte (d. h L ist permutationsähnlich einer Blockdiagonalmatrix.)
- Die Spur der Laplace-Matrix L ist gleich wobei die Anzahl der Kanten ist der betrachtete Graph.
Inzidenzmatrix [ edit ]
Definieren Sie ein "/>
Einfallmatrix M mit Element M ev für edge und (Verbindungsscheitel i und j mit > j ) und Scheitelpunkt v gegeben von
-
Dann erfüllt die Laplace-Matrix L
-
wobei ist die -Matrix-Transponierung von M .
Betrachten wir nun eine Zusammensetzung von mit Eigenvektoren der Einheitennorm und entsprechende Eigenwerte :
Denn kann als inner geschrieben werden Produkt des Vektors mit sich selbst zeigt dies, dass und damit die Eigenwerte von sind alle nicht negativ.
Deformiertes Laplacian [ edit ]
Das deformierte Laplacian wird allgemein als definiert
I - [19456542] 19659016] s A + s 2 (19659016) D - I I I (s) = I-sA + s ^ {2} (DI)}
I
wobei I ist die Einheitsmatrix, A ist die Adjazenzmatrix und D ist die Gradmatrix, und s ist (komplexwertig) ) Nummer. Es ist zu beachten, dass der Standard Laplacian nur . [3]
Symmetrisch normalisiertes Laplacian [ edit ]
Das (symmetrisch) normalisierte Laplacian wird als definiert
wobei L der (unnormalisierte) Laplacian ist, A ] ist die Adjazenzmatrix und D ist die Gradmatrix. Da die Gradientenmatrix D diagonal und positiv ist, ist ihre reziproke Quadratwurzel ist nur die diagonale Matrix, deren diagonale Einträge die Kehrwerte des Positiven sind Quadratwurzeln der Diagonaleinträge von D . Das symmetrisch normalisierte Laplace-Modell ist eine symmetrische Matrix.
Einer hat: wobei S die Matrix ist, deren Zeilen durch die Scheitelpunkte indiziert sind und deren Spalten durch den Index indiziert sind Kanten von G, so dass jede Spalte, die einer Kante e = {u, v} entspricht, einen Eintrag hat in der Zeile entsprechend u, ein Eintrag in der Zeile, die v entspricht, und hat an anderer Stelle 0 Einträge. (Anmerkung: bezeichnet die Transponierte von S).
Alle Eigenwerte des normalisierten Laplace-Operators sind reell und nicht negativ. Wir können das wie folgt sehen. Da symmetrisch ist, sind ihre Eigenwerte echt. Sie sind auch nicht negativ: Betrachten Sie einen Eigenvektor von mit Eigenwert λ und angenommen . (Wir können g und f als reale Funktionen auf den Vertices v betrachten.) Dann:
u v f f u ) - f ( v ) 2 19 v f ( v ) 2 d v ] 0 { displaystyle lambda = { frac { langle g, L ^ { text {sym}} g rangle} { langle g, g rangle}} = { frac { left langle g, D ^ {- { frac {1} {2}}} LD ^ {- { frac {1} {2}}} g right rangle} { langle g, g rangle}} = { frac { langle f, Lf rangle} { left langle D ^ { frac {1} {2}} f, D ^ { frac {1} {2}} f right rangle}} = { frac { sum _ {u sim v} (f (u) -f (v)) ^ {2} } { sum _ {v} f (v) ^ {2} d_ {v}}} geq 0,}
wobei wir benutzen t Das innere Produkt eine Summe über alle Scheitelpunkte v und [19659891] 19 g
Sei 1 die Funktion, die an jedem Scheitelpunkt den Wert 1 annimmt. Dann ist eine Eigenfunktion von mit Eigenwert 0. [4]
Tatsächlich genügen die Eigenwerte des normalisierten symmetrischen Laplace-Operators 0 = μ 0 ≤… ≤ μ n − 1 ≤ 2. Diese Eigenwerte (bekannt als das Spektrum des normalisierten Laplacian) stehen in guter Relation zu anderen Graphinvarianten für allgemeine Graphen. [5]
Random Walk normalized Laplacian edit ]
Der zufällig normalisierte Laplacian wird als definiert
wobei D die Gradmatrix ist. Da die Gradmatrix D diagonal ist, ist ihre Inverse wird einfach als eine Diagonalmatrix definiert, die diagonale Einträge aufweist, die die Kehrwerte der entsprechenden positiven diagonalen Einträge von D sind.
Für die isolierten Ecken (die mit dem Grad 0) ist es üblich, das entsprechende Element zu setzen auf 0.
Diese Konvention führt zu einer schönen Eigenschaft, dass die Multiplizität des Eigenwerts 0 gleich der Anzahl der verbundenen Komponenten im Graphen ist.
Die Matrixelemente von sind gegeben durch
Der Name von Der zufällig gewandelte normalisierte Laplacian kommt von der Tatsache, dass diese Matrix wobei ist einfach das Übergangsmatrix
eines zufälligen Walkers in der Grafik. Zum Beispiel sei die Standardbasis von i-th Vektor. Dann ist ein Wahrscheinlichkeitsvektor, der die Verteilung zufälliger Wandererpositionen darstellt, nachdem ein einzelner Schritt vom Scheitelpunkt aus unternommen wurde ; dh . More generally, if the vector is a probability distribution of the location of a random walker on the vertices of the graph, then is the probability distribution of the walker after steps.
One can check that
- ,
i.e., is similar to the normalized Laplacian . For this reason, even if is in general not hermitian, it has real eigenvalues. Indeed, its eigenvalues agree with those of (which is hermitian).
Graphs[edit]
As an aside about random walks on graphs, consider a simple undirected graph. Consider the probability that the walker is at the vertex i at time tgiven the probability distribution that he was at vertex j at time t − 1 (assuming a uniform chance of taking a step along any of the edges attached to a given vertex):
or in matrix-vector notation:
(Equilibrium, which sets in as is defined by .)
We can rewrite this relation as
is a symmetric matrix called the reduced adjacency matrix. So, taking steps on this random walk requires taking powers of which is a simple operation because is symmetric.
Interpretation as the discrete Laplace operator[edit]
The Laplacian matrix can be interpreted as a matrix representation of a particular case of the discrete Laplace operator. Such an interpretation allows one, e.g., to generalise the Laplacian matrix to the case of graphs with an infinite number of vertices and edges, leading to a Laplacian matrix of an infinite size.
Suppose describes a heat distribution across a graph, where is the heat at vertex . According to Newton's law of cooling, the heat transferred between nodes and is proportional to if nodes and are connected (if they are not connected, no heat is transferred). Then, for heat capacity ,
In matrix-vector notation,
which gives
Notice that this equation takes the same form as the heat equation, where the matrix −L is replacing the Laplacian operator ; hence, the "graph Laplacian".
To find a solution to this differential equation, apply standard techniques for solving a first-order matrix differential equation. That is, write as a linear combination of eigenvectors of L (so that ), with time-dependent
Plugging into the original expression (note that we will use the fact that because L is a symmetric matrix, its unit-norm eigenvectors are orthogonal):
whose solution is
As shown before, the eigenvalues of L are non-negative, showing that the solution to the diffusion equation approaches an equilibrium, because it only exponentially decays or remains constant. This also shows that given and the initial condition the solution at any time t can be found.[6]
To find for each in terms of the overall initial condition simply project onto the unit-norm eigenvectors ;
- .
In the case of undirected graphs, this works because is symmetric, and by the spectral theorem, its eigenvectors are all orthogonal. So the projection onto the eigenvectors of is simply an orthogonal coordinate transformation of the initial condition to a set of coordinates which decay exponentially and independently of each other.
Equilibrium behavior[edit]
To understand note that the only terms that remain are those where since
In other words, the equilibrium state of the system is determined completely by the kernel of .
Since by definition, the vector of all ones is in the kernel. Note also that if there are disjoint connected components in the graph, then this vector of all ones can be split into the sum of independent eigenvectors of ones and zeros, where each connected component corresponds to an eigenvector with ones at the elements in the connected component and zeros elsewhere.
The consequence of this is that for a given initial condition for a graph with vertices
where
For each element of i.e. for each vertex in the graph, it can be rewritten as
- .
In other words, at steady state, the value of converges to the same value at each of the vertices of the graph, which is the average of the initial values at all of the vertices. Since this is the solution to the heat diffusion equation, this makes perfect sense intuitively. We expect that neighboring elements in the graph will exchange energy until that energy is spread out evenly throughout all of the elements that are connected to each other.
Example of the operator on a grid[edit]
This section shows an example of a function diffusing over time through a graph. The graph in this example is constructed on a 2D discrete grid, with points on the grid connected to their eight neighbors. Three initial points are specified to have a positive value, while the rest of the values in the grid are zero. Over time, the exponential decay acts to distribute the values at these points evenly throughout the entire grid.
The complete Matlab source code that was used to generate this animation is provided below. It shows the process of specifying initial conditions, projecting these initial conditions onto the eigenvalues of the Laplacian Matrix, and simulating the exponential decay of these projected initial conditions.
N = 20;%The number of pixels along a dimension of the image
A = zeros(N, N);%The image
Adj = zeros(N*N, N*N);%The adjacency matrix
%Use 8 neighbors, and fill in the adjacency matrix
dx = [-1, 0, 1, -1, 1, -1, 0, 1];
dy = [-1, -1, -1, 0, 0, 1, 1, 1];
for x = 1:N
for y = 1:N
index = (x-1)*N + y;
for ne = 1:length(dx)
newx = x + dx(ne);
newy = y + dy(ne);
if newx > 0 && newx <= N && newy > 0 && newy <= N
index2 = (newx-1)*N + newy;
Adj(index, index2) = 1;
end
end
end
end
%%%BELOW IS THE KEY CODE THAT COMPUTES THE SOLUTION TO THE DIFFERENTIAL
%%%EQUATION
Deg = diag(sum(Adj, 2));%Compute the degree matrix
L = Deg - Adj;%Compute the laplacian matrix in terms of the degree and adjacency matrices
[V, D] = eig(L);%Compute the eigenvalues/vectors of the laplacian matrix
D = diag(D);
%Initial condition (place a few large positive values around and
%make everything else zero)
C0 = zeros(N, N);
C0(2:5, 2:5) = 5;
C0(10:15, 10:15) = 10;
C0(2:5, 8:13) = 7;
C0 = C0(:);
C0V = V'*C0;%Transform the initial condition into the coordinate system
%of the eigenvectors
for t = 0:0.05:5
%Loop through times and decay each initial component
Phi = C0V.*exp(-D*t);%Exponential decay for each component
Phi = V*Phi;%Transform from eigenvector coordinate system to original coordinate system
Phi = reshape(Phi, N, N);
%Display the results and write to GIF file
imagesc(Phi);
caxis([0, 10]);
title(sprintf('Diffusion t = %3f', t));
frame = getframe(1);
im = frame2im(frame);
[imind, cm] = rgb2ind(im, 256);
if t == 0
imwrite(imind, cm, 'out.gif', 'gif', 'Loopcount', inf, 'DelayTime', 0.1);
else
imwrite(imind, cm, 'out.gif', 'gif', 'WriteMode', 'append', 'DelayTime', 0.1);
end
end
Approximation to the negative continuous Laplacian[edit]
The graph Laplacian matrix can be further viewed as a matrix form of an approximation to the (positive semi-definite) Laplacian operator obtained by the finite difference method.[7] In this interpretation, every graph vertex is treated as a grid point; the local connectivity of the vertex determines the finite difference approximation stencil at this grid point, the grid size is always one for every edge, and there are no constraints on any grid points, which corresponds to the case of the homogeneous Neumann boundary condition, i.e., free boundary.
Directed multigraphs[edit]
An analogue of the Laplacian matrix can be defined for directed multigraphs.[8] In this case the Laplacian matrix L is defined as
where D is a diagonal matrix with Di,i equal to the outdegree of vertex i and A is a matrix with Ai,j equal to the number of edges from i to j (including loops).
See also[edit]
References[edit]
- ^ a b Weisstein, Eric W. "Laplacian Matrix". MathWorld.
- ^ Godsil, C.; Royle, G. (2001). Algebraic Graph Theory, Graduate Texts in Mathematics. Springer-Verlag.
- ^ Morbidi, F. (2013). "The Deformed Consensus Protocol". Automatica. 49 (10): 3049–3055. doi:10.1016/j.automatica.2013.07.006.
- ^ Chung, Fan R. K. (1997). Spectral graph theory (Repr. with corr., 2. [pr.] ed.). Providence, RI: American Math. Soc. ISBN 0-8218-0315-8.
- ^ Chung, Fan (1997) [1992]. Spectral Graph Theory. Amerikanische Mathematische Gesellschaft. ISBN 0821803158.
- ^ Newman, Mark (2010). Networks: An Introduction. Oxford University Press. ISBN 0199206651.
- ^ Smola, Alexander J.; Kondor, Risi (2003), "Kernels and regularization on graphs", Learning Theory and Kernel Machines: 16th Annual Conference on Learning Theory and 7th Kernel Workshop, COLT/Kernel 2003, Washington, DC, USA, August 24–27, 2003, ProceedingsLecture Notes in Computer Science, 2777Springer, pp. 144–158, doi:10.1007/978-3-540-45167-9_12.
- ^ Chaiken, S.; Kleitman, D. (1978). "Matrix Tree Theorems". Journal of Combinatorial Theory, Series A. 24 (3): 377–381. doi:10.1016/0097-3165(78)90067-5. ISSN 0097-3165.
- T. Sunada, "Discrete geometric analysis", Proceedings of Symposia in Pure Mathematics, (ed. by P. Exner, J. P. Keating, P. Kuchment, T. Sunada, A. Teplyaev), 77 (2008), 51–86.
- B. Bollobás, Modern Graph TheorySpringer-Verlag (1998, corrected ed. 2013), ISBN 0-387-98488-7, Chapters II.3 (Vector Spaces and Matrices Associated with Graphs), VIII.2 (The Adjacency Matrix and the Laplacian), IX.2 (Electrical Networks and Random Walks).
Không có nhận xét nào:
Đăng nhận xét