Was ist der Unterschied zwischen Affinitätsmatrix-Eigenvektoren und Graph-Laplace-Eigenvektoren im Kontext der spektralen Clusterbildung?
On Januar 31, 2021 by adminBeim spektralen Clustering ist es üblich, das Eigenvektorproblem zu lösen.
$$ L v = \ lambda v $$
wobei $ L $ der Laplace-Graph ist, $ v $ der Eigenvektor ist, der mit dem Eigenwert $ \ lambda $ zusammenhängt.
Meine Frage: Warum sollte ich den Graphen Laplace nehmen? Könnte ich nicht Lösen Sie einfach das Eigenvektorproblem für den Graphen (Affinitätsmatrix) selbst, wie der Typ in diesem Video ?
PS: Ich habe dieselbe Frage in CrossValidated, aber ich denke, dies ist ein geeigneterer Kanal. Verzeihen Sie mir, wenn ich falsch liege.
Kommentare
- Die Videoverbindung ist unterbrochen 🙁
Antwort
Das Konzept ist das gleiche, aber Sie werden durch die Art der Daten verwirrt. Spektrale Clusterbildung als Ng et al. EXPLAIN befasst sich mit dem Clustering von Standarddaten, während die Laplace-Matrix eine von Graphen abgeleitete Matrix ist, die in der algebraischen Graphentheorie verwendet wird.
Der Punkt ist also, wann immer Sie die Ähnlichkeit Ihrer Objekte in a codieren Matrix, diese Matrix kann für die spektrale Clusterbildung verwendet werden.
Wenn Sie Standarddaten haben, dh eine Matrix mit Stichprobenmerkmalen, können Sie die Nähe oder Affinität oder wie auch immer Sie sie als Matrix bezeichnen möchten, finden und spektral anwenden Clustering.
Wenn Sie ein Diagramm haben, ist diese Affinität etwa Adjazenzmatrix, Distanzmatrix oder Laplace-Matrix. Wenn Sie die Eigenfunktion für eine solche Matrix lösen, erhalten Sie das entsprechende Ergebnis.
Der Punkt über die Verwendung von Laplace anstelle von a djacency besteht darin, die sogenannte Affinitätsmatrix positiv semidefinit zu halten (und eine normalisierte Laplace-Matrix ist eine bessere Wahl, da sie normalisierte Eigenwerte zwischen 0 und 2 liefert und die Struktur des Graphen viel besser aufzeigt).
Kurz gesagt, solange Sie eine Matrix haben, die die Affinität Ihrer Daten enthält, können Sie im Allgemeinen Spektralcluster verwenden. Der Unterschied liegt in Details (z. B. der Eigenschaft von normalisiertem Laplace, die ich gerade erwähnt habe).
Kommentare
- Ja, ich glaube ich ' ma wenig verwirrt. ' ist mir immer noch nicht klar. Wenn ich Standarddaten habe (nicht affinitätsbezogen), kann ich daraus eine Affinitätsmatrix A machen, indem ich den paarweisen Abstand zwischen den Datenproben nehme. Wenn ich nun A als Diagramm sehe, kann ich den Laplace-Wert nehmen und nach den Eigenvektoren auflösen und eine Lösung finden. Wenn ich ' A nicht als Diagramm sehe, könnte ich einfach nach den Matrixeigenvektoren (PCA) suchen und eine Lösung finden. Was ' ist der Unterschied?
- Ich habe Ihre Frage erneut gelesen. Die Antwort sind die Eigenschaften (z. B. die, die ich in meiner Antwort erwähnt habe). Die Laplace-Matrix sorgt für eine bessere Zersetzung. Sie können jedoch absolut die Eigenfunktion für alle Ähnlichkeitsmatrizen allein und einige Ergebnisse erhalten, die sich nur im Detail unterscheiden. Zum Beispiel zu der von Ihnen erwähnten PCA: PCA verwendet die Kovarianzmatrix, um zu erfassen, wo die Varianz hoch ist, aber im Allgemeinen folgt das Konzept der gleichen Richtung wie die anderen spektralen Zerlegungstechniken. Ich ' werde meine Antwort Korrektur lesen, sobald ich einige " Saturday Night " Sätze sehe. )
Schreibe einen Kommentar