data_mining:large_datasets

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
data_mining:large_datasets [2014/09/06 14:24] – [Algorithmen] phreazerdata_mining:large_datasets [2014/09/06 14:45] (current) – [Online Learning] phreazer
Line 36: Line 36:
  
 === Konvergenz === === Konvergenz ===
-=== Alpha ===+Plotten der Kostenfunktion als Funktion der Zahl von Iterationen.
  
 +$\text{cost}(\theta,(x^{(i)},y^{(i)})) = 1/2 (h_\theta(x^{(i)})-y^{(i)})^2$
 +Berechnen dieser Kosten vor updaten von \theta.
 +Jede 1000 Iterationen plotte Kostenfkt. im Mittel über letzte 1000 Beispiele.
 +
 +1000 Kurve mit Noise. 5000, glatter aber nur alle 5000 ein Punkt.
 +
 +Wenn Kurve ansteigt => Divergenz => kleineres Alpha wählen.
 +=== Alpha ===
 +Langsam \alpha senken, um zu konvergieren.
 ==== Mini-Batch Gradient Descent ==== ==== Mini-Batch Gradient Descent ====
  
 Verwende b = mini-batch size (typisch: 2-100)  Beispiele in jeder Iteration. Verwende b = mini-batch size (typisch: 2-100)  Beispiele in jeder Iteration.
 +
 +===== Online Learning =====
 +Wenn kontinuierlicher Datenzufluss.
 +
 +Lernen von $p(y=1|x;\theta)$ um Preis zu optimieren.
 +
 +  Repeat forever {
 +    Get (x,y) corresponding to user.
 +    Update \theta using (x,y)
 +      \theta_j = \theta_j - \alpha (h_\theta(x)-y) x_j
 +  }
  
  
  • data_mining/large_datasets.1410006278.txt.gz
  • Last modified: 2014/09/06 14:24
  • by phreazer