Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
statistik:geometrische_sicht [2012/08/20 13:56] – [Principal Component Analysis] phreazer | statistik:geometrische_sicht [2014/02/11 20:49] (current) – external edit 127.0.0.1 | ||
---|---|---|---|
Line 161: | Line 161: | ||
$$ | $$ | ||
- | Eigenwertproblem, | + | Eigenwertproblem, |
- | wobei $e$ Eigenvektor von $X X^\intercal$ mit Eigenwert $\lambda$ | + | wobei $e$ Eigenvektor von $X X^\intercal$ mit Eigenwert $\lambda$. |
+ | |||
+ | Eigenvektoren der Kovarianzmatrix sind orthogonal und greifen disjunkte Teile der Varianz von X' ab. Man erhält eine neue orthogonale Basis. Achsen können absteigend nach der Größe ihrer Eigenwerte sortiert werden, wobei $\lambda_1 = max\{\lambda_i\}$ mit Eigenvektor $e_1$ die erste neue Achse ist. | ||
+ | |||
+ | Z als Repräsentation von X in neuem Raum: $Z=XE$ und $X=ZE^\intercal$ (da für orthogonale Matrizen gilt $A A^\intercal= I$). | ||
+ | |||
+ | ====== Singular Value Decomposition (SVD) ====== | ||
+ | Reduktion der Variablendimensionalität durch kompakte Basis für den Zeilenraum von X' mit den Eigenvektoren von $X X^\intercal$ | ||
+ | Reduktion der Objektdimensionalität durch Schätzung des Spaltenraums von X' mit den Eigenvektoren | ||
+ | |||
+ | SVD: $X = U \sigma V$ wobei | ||
+ | |||
+ | U Eigenvektoren von $X X^\intercal$, |