Wat is het verschil tussen affiniteitsmatrix eigenvectoren en Graph Laplace-eigenvectoren in de context van spectrale clustering?
Geplaatst op januari 31, 2021 door adminBij spectrale clustering is het standaardpraktijk om het eigenvectorprobleem op te lossen.
$$ L v = \ lambda v $$
waar $ L $ de Laplace-grafiek is, $ v $ de eigenvector gerelateerd aan de eigenwaarde $ \ lambda $.
Mijn vraag: waarom zou ik de Laplace-grafiek nemen? los gewoon het eigenvectorprobleem op voor de graaf (affiniteitsmatrix) zelf, zoals de man deed in deze video ?
PS: ik heb dezelfde vraag in CrossValidated, maar ik denk dat dit een geschikter kanaal is. Vergeef me als ik het mis heb.
Reacties
- Videolink is verbroken 🙁
Answer
Het concept is hetzelfde, maar je raakt in de war door het type gegevens. Spectrale clustering als Ng et al. uitleggen gaat over het clusteren van standaardgegevens, terwijl de Laplace-matrix een van een grafiek afgeleide matrix is die wordt gebruikt in de algebraïsche grafentheorie.
Dus het punt is dat wanneer je de gelijkenis van je objecten in een matrix, zou deze matrix kunnen worden gebruikt voor spectrale clustering.
Als je standaardgegevens hebt, dwz een matrix met voorbeeldkenmerken, kun je de nabijheid of affiniteit vinden of hoe je het ook als een matrix wilt noemen en spectrale clustering.
Als je een grafiek hebt, zou deze affiniteit zoiets zijn als een aangrenzende matrix, afstandsmatrix of Laplacialn-matrix en het oplossen van de eigenfunctie voor zon matrix geeft je het overeenkomstige resultaat.
Het punt over het gebruik van Laplace in plaats van een djacency is om de zogenaamde affiniteitsmatrix positief semi-definitief te houden (en genormaliseerde Laplace-matrix is een betere keuze omdat het je genormaliseerde eigenwaarden geeft tussen 0 en 2 en de structuur van de grafiek veel beter onthult).
Het lange verhaal is dus kort: zolang je een matrix hebt met de affiniteit van je gegevens, kun je spectrale clustering in het algemeen gebruiken. Het verschil zit in de details (ig de eigenschap van genormaliseerde Laplace die ik zojuist noemde)
Opmerkingen
- Ja, ik denk dat ik ' ben een beetje in de war. Het ' is mij nog steeds niet duidelijk. Als ik standaardgegevens heb (geen affiniteitsgerelateerd), kan ik er een affiniteitsmatrix A van maken door de paarsgewijze afstand tussen de gegevensmonsters te nemen. Als ik A nu als een grafiek zie, kan ik de Laplaciaan nemen en de eigenvectoren oplossen en een oplossing krijgen; als ik A niet als een grafiek zie ', zou ik eenvoudig de matrix eigenvectoren (PCA) kunnen oplossen en een oplossing vinden. Wat is ' het verschil?
- Ik heb uw vraag nogmaals gelezen. Het antwoord is de eigenschappen (bijvoorbeeld degene die ik in mijn antwoord noemde) Laplace-matrix zorgt voor een betere ontleding. U kunt echter absoluut de eigenfunctie gebruiken voor gelijkenisgerelateerde matrices en enkele resultaten krijgen die alleen in details anders zijn. Bijvoorbeeld over de PCA die je noemde: PCA neemt de covariantiematrix zodat deze vastlegt waar de variantie hoog is, maar in het algemeen volgt het concept dezelfde richting als de andere spectrale decompositietechnieken. Ik ' zal mijn antwoord nakijken zodra ik een paar " Saturday Night " zinnen zie; )
Geef een reactie