data_mining:gradient_boosting

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
Last revisionBoth sides next revision
data_mining:gradient_boosting [2016/02/01 22:59] phreazerdata_mining:gradient_boosting [2017/07/19 20:32] – [Basic idea] phreazer
Line 37: Line 37:
   * Optimiert Accuracy (bzgl. Risikofunktion).   * Optimiert Accuracy (bzgl. Risikofunktion).
  
 +Schätzproblem
 +
 +Schätzung von $f^* := \argmin_{f(.)} E[p(Y,f(X))]$ mit $p$ als differenzierbare Loss-Funktion bzgl. einer Vorhersagefunktion $f(X)$.
 +
 +Beispielhafte Loss-Funktion: Quadrierter Fehler in Gauß'scher Regression $p=(Y-f(X))^2$
 +
 +Gegeben $X=(X_1, ..., X_n), Y=(Y_1,...,Y_n)$, minimiere das empirische Risiko
 +
 +$$R = \frac{1}{n} \sum_{i=1}^n p(Y_i, f(X_i))$$
 +
 +Beispiel (quadratischer Fehler): 
 +$$R = \frac{1}{n} \sum_{i=1}^n p(Y_i - f(X_i))^2$$
 +
 +===== Basic idea =====
 +
 +  - Generate simple regression model. 
 +  - Compute error residual.
 +  - Learn to predict residual
  • data_mining/gradient_boosting.txt
  • Last modified: 2017/07/19 20:34
  • by phreazer