スペクトルクラスタリングのコンテキストでのアフィニティ行列固有ベクトルとグラフラプラシアン固有ベクトルの違いは何ですか?
On 1月 31, 2021 by adminスペクトルクラスタリングでは、固有ベクトル問題を解くのが標準的な方法です
$$ L v = \ lambda v $$
ここで、$ L $はグラフのラプラシアン、$ v $は固有値$ \ lambda $に関連する固有ベクトルです。
私の質問:なぜグラフのラプラシアンを取るのが面倒なのですか?グラフ(親和性行列)自体の固有ベクトル問題を解決するだけです。このビデオでやったように?
PS:私は<を作成しましたCrossValidatedのdivid = "d4d3122583">
これと同じ質問ですが、これがより適切なチャネルだと思います。私が間違っている場合は許してください。
コメント
- ビデオリンクが壊れています:(
回答
概念は同じですが、データの種類に混乱します。 Ngとしてのスペクトルクラスタリングet al。は、標準データのクラスタリングについて説明していますが、ラプラシアン行列は代数グラフ理論で使用されるグラフ派生行列です。
つまり、オブジェクトの類似性をにエンコードするときはいつでも、マトリックスの場合、このマトリックスはスペクトルクラスタリングに使用できます。
標準データ、つまりサンプル特徴マトリックスがある場合は、近接性や親和性など、マトリックスと呼びたいものを見つけてスペクトルを適用できます。クラスタリング。
グラフがある場合、この親和性は隣接行列、距離行列、ラプラシアン行列のようなものになり、そのような行列の固有関数を解くと、対応する結果が得られます。
ではなくラプラシアンを使用することについてのポイント隣接性は、いわゆるアフィニティ行列を正の半確定に保つことです(正規化されたラプラシアン行列は、0〜2の正規化された固有値を提供し、グラフの構造をよりよく明らかにするため、より適切な選択です)。つまり、簡単に言うと、データの親和性を含む行列がある限り、一般にスペクトルクラスタリングを使用できます。違いは詳細にあります(たとえば、先ほど述べた正規化されたラプラシアンのプロパティ)
コメント
- はい、私は'少し混乱しています。 'はまだはっきりしていません。標準データ(親和性に関連しない)がある場合、データサンプル間のペアワイズ距離を取ることで、それを親和性行列Aにすることができます。ここで、Aをグラフとして見ると、ラプラシアンを取り、固有ベクトルを解いて解を得ることができます。 ' Aがグラフとして表示されない場合は、単純に行列固有ベクトル(PCA)を解いて、解を得ることができます。 'の違いは何ですか?
- もう一度質問を読みました。答えはプロパティです(たとえば、私の答えで述べたもの)ラプラシアン行列はより良い分解を提供します。ただし、類似性に関連する行列の固有関数を絶対に使用して、細部だけが異なる結果を得ることができます。たとえば、あなたが言及したPCAについて:PCAは共分散行列を取得するため、分散が大きい場所をキャプチャしますが、一般に、概念は他のスペクトル分解手法と同じ方向に従います。 ' "土曜日の夜"の文章が表示されたら、すぐに回答を校正します。 )
コメントを残す