data_mining:gradient_boosting

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
data_mining:gradient_boosting [2016/02/01 22:56] phreazerdata_mining:gradient_boosting [2017/07/19 20:34] (current) – [Basic idea] phreazer
Line 29: Line 29:
 Wenn Boosting bis zur Konvergenz durchgeführt wird, kann es als Alternative zu konventionellen Fittingmethoden (wie Fisher scoring, backfitting) für GAM Modelle gesehen werden. Wenn Boosting bis zur Konvergenz durchgeführt wird, kann es als Alternative zu konventionellen Fittingmethoden (wie Fisher scoring, backfitting) für GAM Modelle gesehen werden.
  
-Warum boosting?+===== Warum boosting? =====
  
   * Verschiedene Risikofunktionen (absoluter loss, quantile regression)   * Verschiedene Risikofunktionen (absoluter loss, quantile regression)
Line 37: Line 37:
   * Optimiert Accuracy (bzgl. Risikofunktion).   * Optimiert Accuracy (bzgl. Risikofunktion).
  
 +Schätzproblem
 +
 +Schätzung von $f^* := \argmin_{f(.)} E[p(Y,f(X))]$ mit $p$ als differenzierbare Loss-Funktion bzgl. einer Vorhersagefunktion $f(X)$.
 +
 +Beispielhafte Loss-Funktion: Quadrierter Fehler in Gauß'scher Regression $p=(Y-f(X))^2$
 +
 +Gegeben $X=(X_1, ..., X_n), Y=(Y_1,...,Y_n)$, minimiere das empirische Risiko
 +
 +$$R = \frac{1}{n} \sum_{i=1}^n p(Y_i, f(X_i))$$
 +
 +Beispiel (quadratischer Fehler): 
 +$$R = \frac{1}{n} \sum_{i=1}^n p(Y_i - f(X_i))^2$$
 +
 +===== Basic idea =====
 +
 +  - Generate simple regression model. 
 +  - Compute error residual.
 +  - Learn to predict residual
 +  - Add to initial model
  • data_mining/gradient_boosting.1454363798.txt.gz
  • Last modified: 2016/02/01 22:56
  • by phreazer