Mi a különbség az affinitásmátrix-sajátvektorok és a grafikon-Laplaci-sajátvektorok között a spektrális klaszterezés összefüggésében?
On január 31, 2021 by adminA spektrális klaszterezésben szokásos gyakorlat a sajátvektor-probléma megoldása
$$ L v = \ lambda v $$
ahol $ L $ a Laplacian gráf, $ v $ a $ \ lambda $ sajátértékhez tartozó sajátvektor.
Kérdésem: miért kéne bajlódnom a Laplacian grafikon felvételével? Nem sikerült “t I csak oldja meg a sajátvektor-problémát magának a gráfnak (affinitásmátrix), , mint a srác tette ebben a videóban ?
PS: készítettem ugyanez a kérdés a CrossValidated programban, de szerintem ez egy megfelelőbb csatorna. Bocsásson meg, ha tévedek.
Megjegyzések
- A videó link megszakadt 🙁
Válasz
A koncepció ugyanaz, de összezavarodik az adattípus. Spektrális fürtözés Ng néven et al. magyarázata a standard adatok klaszterezéséről szól, míg a Laplacian-mátrix az algebrai gráfelméletben használt gráfból származtatott mátrix.
Tehát a lényeg az, hogy amikor objektumainak hasonlóságát mátrix, ezt a mátrixot lehetne használni spektrális klaszterezéshez.
Ha szabványos adatai vannak, azaz egy minta-tulajdonság mátrix, akkor megtalálhatja a közelséget vagy az affinitást, vagy bármit, amit mátrixnak szeretne nevezni, és alkalmazhatja a spektrumot fürtözés.
Ha van grafikonod, akkor ez az affinitás bármi olyan lehet, mint a szomszédsági mátrix, a távolságmátrix vagy a Laplacialn-mátrix, és az ilyen mátrix sajátfüggvényének megoldása megadja a megfelelő eredményt.
A lényeg a Laplacian helyett a A djacencia az úgynevezett affinitásmátrix pozitív, félig határozott megtartása (és a normalizált laplaci mátrix jobb választás, mivel ez normalizált sajátértékeket ad 0 és 2 között, és sokkal jobban feltárja a grafikon szerkezetét).
Tehát a rövid történet az, hogy amíg rendelkezel adataid affinitását tartalmazó mátrixszal, addig általában használhatod a spektrális klaszterezést. A különbség a részletekben rejlik (ig az imént említett normalizált laplakiai tulajdonság)
Megjegyzések
- Igen, azt hiszem, ' ma kissé zavart. ' még mindig nem világos számomra. Ha vannak standard adataim (nincs affinitással kapcsolatos), akkor az A-affinitás-mátrixgá tehetem az adatminták páros távolságának megadásával. Most, ha az A-t grafikonnak tekintem, meg tudom venni a Laplaciust, megoldani a sajátvektorokat és megoldást találni; ha nem ' nem látom A-t grafikonként, egyszerűen megoldhatnám a mátrix-sajátvektorokat (PCA), és megoldást kaphatnék. Mi a ' különbség?
- Ismét elolvastam a kérdését. A válasz a tulajdonságok (pl. Az, amit a válaszomban említettem) a Laplac-féle mátrix jobb bomlást biztosít. Azonban abszolút módon egyedüli funkcióval rendelkezhet bármilyen hasonlósággal kapcsolatos mátrix esetén, és néhány részletben eltérő eredményt érhet el. Például az Ön által említett PCA-ról: A PCA felveszi a kovariancia mátrixot, így megragadja, ahol a variancia nagy, de általában a koncepció ugyanazon irányt követi, mint a többi spektrális bontási technika. <
lektorálom a válaszomat, amint meglátok néhány " szombat esti " mondatot; )
Vélemény, hozzászólás?