data_mining:pca

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
Last revisionBoth sides next revision
data_mining:pca [2014/08/24 01:49] – [Problemformulierung] phreazerdata_mining:pca [2014/08/24 02:10] – [Parameterwahl (k)] phreazer
Line 16: Line 16:
  
 Berechnung der Kovarianzmatrix: Berechnung der Kovarianzmatrix:
-$\Sigma= \frac{1}{m} \sum^n_{i=1} x^{(i)} x^{(i)}^T$+$\Sigma = \frac{1}{m} \sum_{i=1}^n x^{(i)} (x^{(i)})^T = 1/m X^T X$
  
-Berechnung der Eigenvektoren der Matrix $\sigma$+Berechnung der Eigenvektoren der Matrix $\sigma$: 
 + 
 +svd-Funktion: [U, S, V] = svd(Sigma); 
 + 
 +$U_{\text{reduce}}$ : k-Spalten der U-Matrix ($n \times n$) 
 + 
 +$z = U_{\text{reduce}}^T x$ 
 + 
 +===== Parameterwahl (k) ===== 
 + 
 +99% der Varianz bleibt erhalten. 
 + 
 +$$ 
 +\frac{\frac{1}{m} \sum_{i=1}^m || x^{(i)} - x_{\text{approx}}^{(i)} ||^2}{\frac{1}{m} \sum_{i=1}^m || x^{(i)}||^2} \leq 0.01 
 +$$ 
 + 
 +[U,S,V] mit S als diagonale Matrix. 
 + 
 +Für ein k, kann $1-\frac{\sum_{i=1}^k S_{ii}}{\sum_{i=1}^n S_{ii}} \leq 0.01$. 
 + 
 +===== Decompression ===== 
 +$x_\text{approx} = U_\text{reduce} z$
  • data_mining/pca.txt
  • Last modified: 2014/08/30 17:07
  • by phreazer