data_mining:pca

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
data_mining:pca [2014/08/24 02:03] – [Parameterwahl (k)] phreazerdata_mining:pca [2014/08/30 17:07] (current) – [Problemformulierung] phreazer
Line 3: Line 3:
 ===== Problemformulierung ===== ===== Problemformulierung =====
  
-$x \in R^2$+$x \in \mathbb{R}^2$
  
 Finden einer Projektion mit minimalem Projektionsfehler. Finden einer Projektion mit minimalem Projektionsfehler.
Line 9: Line 9:
 Feature Scaleing erforderlich. Feature Scaleing erforderlich.
  
-Für 2 Dimensionen: Finde einen Vektor $u^{(1)} \in R^n$ auf den Daten projiziert werden, dass der Projektionsfehler minimal wird.+Für 2 Dimensionen: Finde einen Vektor $u^{(1)} \in \mathbb{R}^n$ auf den Daten projiziert werden, dass der Projektionsfehler minimal wird.
  
 Für k Dimensionen: Finde k Vektoren $u^{(1)}, \dots, u^{(k)}$ auf die Daten projiziert werden, dass der Projektionsfehler minimal wird. Für k Dimensionen: Finde k Vektoren $u^{(1)}, \dots, u^{(k)}$ auf die Daten projiziert werden, dass der Projektionsfehler minimal wird.
Line 33: Line 33:
 \frac{\frac{1}{m} \sum_{i=1}^m || x^{(i)} - x_{\text{approx}}^{(i)} ||^2}{\frac{1}{m} \sum_{i=1}^m || x^{(i)}||^2} \leq 0.01 \frac{\frac{1}{m} \sum_{i=1}^m || x^{(i)} - x_{\text{approx}}^{(i)} ||^2}{\frac{1}{m} \sum_{i=1}^m || x^{(i)}||^2} \leq 0.01
 $$ $$
 +
 +[U,S,V] mit S als diagonale Matrix.
 +
 +Für ein k, kann $1-\frac{\sum_{i=1}^k S_{ii}}{\sum_{i=1}^n S_{ii}} \leq 0.01$.
 +
 +===== Decompression =====
 +$x_\text{approx} = U_\text{reduce} z$
  • data_mining/pca.1408838583.txt.gz
  • Last modified: 2014/08/24 02:03
  • by phreazer