Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
statistik:geometrische_sicht [2012/08/20 14:03] – [Principal Component Analysis] phreazer | statistik:geometrische_sicht [2014/02/11 20:49] (current) – external edit 127.0.0.1 | ||
---|---|---|---|
Line 166: | Line 166: | ||
Eigenvektoren der Kovarianzmatrix sind orthogonal und greifen disjunkte Teile der Varianz von X' ab. Man erhält eine neue orthogonale Basis. Achsen können absteigend nach der Größe ihrer Eigenwerte sortiert werden, wobei $\lambda_1 = max\{\lambda_i\}$ mit Eigenvektor $e_1$ die erste neue Achse ist. | Eigenvektoren der Kovarianzmatrix sind orthogonal und greifen disjunkte Teile der Varianz von X' ab. Man erhält eine neue orthogonale Basis. Achsen können absteigend nach der Größe ihrer Eigenwerte sortiert werden, wobei $\lambda_1 = max\{\lambda_i\}$ mit Eigenvektor $e_1$ die erste neue Achse ist. | ||
- | Z als Repräsentation von X in neuem Raum: $Z=XE$. | + | Z als Repräsentation von X in neuem Raum: $Z=XE$ und $X=ZE^\intercal$ (da für orthogonale Matrizen gilt $A A^\intercal= I$). |
+ | |||
+ | ====== Singular Value Decomposition (SVD) ====== | ||
+ | Reduktion der Variablendimensionalität durch kompakte Basis für den Zeilenraum von X' mit den Eigenvektoren von $X X^\intercal$ | ||
+ | Reduktion der Objektdimensionalität durch Schätzung des Spaltenraums von X' mit den Eigenvektoren | ||
+ | |||
+ | SVD: $X = U \sigma V$ wobei | ||
+ | |||
+ | U Eigenvektoren von $X X^\intercal$, |