Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revisionLast revisionBoth sides next revision | ||
statistik:geometrische_sicht [2012/08/20 15:56] – [Principal Component Analysis] phreazer | statistik:geometrische_sicht [2012/08/20 16:14] – [Singular Value Decomposition (SVD)] phreazer | ||
---|---|---|---|
Line 161: | Line 161: | ||
$$ | $$ | ||
- | Eigenwertproblem, | + | Eigenwertproblem, |
- | wobei $e$ Eigenvektor von $X X^\intercal$ mit Eigenwert $\lambda$ | + | wobei $e$ Eigenvektor von $X X^\intercal$ mit Eigenwert $\lambda$. |
+ | |||
+ | Eigenvektoren der Kovarianzmatrix sind orthogonal und greifen disjunkte Teile der Varianz von X' ab. Man erhält eine neue orthogonale Basis. Achsen können absteigend nach der Größe ihrer Eigenwerte sortiert werden, wobei $\lambda_1 = max\{\lambda_i\}$ mit Eigenvektor $e_1$ die erste neue Achse ist. | ||
+ | |||
+ | Z als Repräsentation von X in neuem Raum: $Z=XE$ und $X=ZE^\intercal$ (da für orthogonale Matrizen gilt $A A^\intercal= I$). | ||
+ | |||
+ | ====== Singular Value Decomposition (SVD) ====== | ||
+ | Reduktion der Variablendimensionalität durch kompakte Basis für den Zeilenraum von X' mit den Eigenvektoren von $X X^\intercal$ | ||
+ | Reduktion der Objektdimensionalität durch Schätzung des Spaltenraums von X' mit den Eigenvektoren | ||
+ | |||
+ | SVD: $X = U \sigma V$ wobei | ||
+ | |||
+ | U Eigenvektoren von $X X^\intercal$, |