Qual é a diferença entre os autovetores da matriz de afinidade e os autovetores Laplacianos do gráfico no contexto do agrupamento espectral?
On Janeiro 31, 2021 by adminNo agrupamento espectral, é prática padrão resolver o problema do vetor próprio
$$ L v = \ lambda v $$
onde $ L $ é o gráfico Laplaciano, $ v $ é o autovetor relacionado ao autovalor $ \ lambda $.
Minha pergunta: por que se preocupar em tirar o gráfico Laplaciano? Não poderia basta resolver o problema do vetor próprio para o gráfico (matriz de afinidade), como o cara fez neste vídeo ?
PS: Eu fiz esta mesma pergunta no CrossValidated, mas acho que é um canal mais apropriado. Perdoe-me se estou errado.
Comentários
- O link do vídeo está quebrado 🙁
Resposta
O conceito é o mesmo, mas você está ficando confuso com o tipo de dados. Agrupamento espectral como Ng et al. a explicação é sobre agrupar dados padrão, enquanto a matriz Laplaciana é uma matriz derivada de gráfico usada na teoria algébrica de grafos.
Portanto, o ponto é que sempre que você codificar a similaridade de seus objetos em um matriz, esta matriz pode ser usada para agrupamento espectral.
Se você tiver dados padrão, ou seja, uma matriz de amostra-característica, você pode encontrar a proximidade ou afinidade ou como quiser chamá-la como uma matriz e aplicar espectral clustering.
Se você tiver um gráfico, essa afinidade seria qualquer coisa como matriz de adjacência, matriz de distância ou matriz Laplacialn e resolver a autofunção para tal matriz fornece o resultado correspondente.
A questão sobre o uso de Laplaciano em vez de um Djacência é manter a chamada matriz de afinidade semidefinida positiva (e a matriz Laplaciana normalizada é uma escolha melhor, pois fornece autovalores normalizados entre 0 e 2 e revela a estrutura do gráfico muito melhor).
Portanto, para encurtar a história, contanto que você tenha uma matriz contendo a afinidade de seus dados, você pode usar o agrupamento espectral em geral. A diferença está nos detalhes (ig a propriedade do Laplaciano normalizado que acabei de mencionar)
Comentários
- Sim, acho que ' estou um pouco confuso. Isso ' ainda não está claro para mim. Se eu tiver dados padrão (sem afinidade relacionada), posso torná-los uma matriz de afinidade A medindo a distância entre pares entre as amostras de dados. Agora, se vejo A como um gráfico, posso pegar o Laplaciano e resolver para os autovetores e obter uma solução; se eu não ' ver A como um gráfico, poderia simplesmente resolver para a matriz eigenvetores (PCA) e obter uma solução. Qual é a ' diferença?
- Li sua pergunta novamente. A resposta são as propriedades (por exemplo, aquela que mencionei na minha resposta) a matriz Laplaciana fornece uma melhor decomposição. No entanto, você pode absolutamente autofuncionar qualquer matriz relacionada à similaridade e obter alguns resultados que são diferentes apenas nos detalhes. Por exemplo, sobre o PCA que você mencionou: o PCA usa a matriz de covariância para capturar onde a variância é alta, mas em geral o conceito segue a mesma direção que as outras técnicas de decomposição espectral. Eu ' revisarei minha resposta assim que ver algumas " Sábado à noite " sentenças; )
Deixe uma resposta