Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
data_mining:gradient_boosting [2016/02/01 21:56] – phreazer | data_mining:gradient_boosting [2017/07/19 18:34] (current) – [Basic idea] phreazer | ||
---|---|---|---|
Line 29: | Line 29: | ||
Wenn Boosting bis zur Konvergenz durchgeführt wird, kann es als Alternative zu konventionellen Fittingmethoden (wie Fisher scoring, backfitting) für GAM Modelle gesehen werden. | Wenn Boosting bis zur Konvergenz durchgeführt wird, kann es als Alternative zu konventionellen Fittingmethoden (wie Fisher scoring, backfitting) für GAM Modelle gesehen werden. | ||
- | Warum boosting? | + | ===== Warum boosting? |
* Verschiedene Risikofunktionen (absoluter loss, quantile regression) | * Verschiedene Risikofunktionen (absoluter loss, quantile regression) | ||
Line 37: | Line 37: | ||
* Optimiert Accuracy (bzgl. Risikofunktion). | * Optimiert Accuracy (bzgl. Risikofunktion). | ||
+ | Schätzproblem | ||
+ | |||
+ | Schätzung von $f^* := \argmin_{f(.)} E[p(Y, | ||
+ | |||
+ | Beispielhafte Loss-Funktion: | ||
+ | |||
+ | Gegeben $X=(X_1, ..., X_n), Y=(Y_1, | ||
+ | |||
+ | $$R = \frac{1}{n} \sum_{i=1}^n p(Y_i, f(X_i))$$ | ||
+ | |||
+ | Beispiel (quadratischer Fehler): | ||
+ | $$R = \frac{1}{n} \sum_{i=1}^n p(Y_i - f(X_i))^2$$ | ||
+ | |||
+ | ===== Basic idea ===== | ||
+ | |||
+ | - Generate simple regression model. | ||
+ | - Compute error residual. | ||
+ | - Learn to predict residual | ||
+ | - Add to initial model |