Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revisionNext revisionBoth sides next revision | ||
data_mining:gradient_boosting [2016/02/01 22:56] – phreazer | data_mining:gradient_boosting [2016/02/01 23:04] – phreazer | ||
---|---|---|---|
Line 29: | Line 29: | ||
Wenn Boosting bis zur Konvergenz durchgeführt wird, kann es als Alternative zu konventionellen Fittingmethoden (wie Fisher scoring, backfitting) für GAM Modelle gesehen werden. | Wenn Boosting bis zur Konvergenz durchgeführt wird, kann es als Alternative zu konventionellen Fittingmethoden (wie Fisher scoring, backfitting) für GAM Modelle gesehen werden. | ||
- | Warum boosting? | + | ===== Warum boosting? |
* Verschiedene Risikofunktionen (absoluter loss, quantile regression) | * Verschiedene Risikofunktionen (absoluter loss, quantile regression) | ||
Line 37: | Line 37: | ||
* Optimiert Accuracy (bzgl. Risikofunktion). | * Optimiert Accuracy (bzgl. Risikofunktion). | ||
+ | Schätzproblem | ||
+ | |||
+ | Schätzung von $f^* := \argmin_{f(.)} E[p(Y, | ||
+ | |||
+ | Beispielhafte Loss-Funktion: |