Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
data_mining:correlation [2015/08/20 00:20] – [Mutual information] phreazer | data_mining:correlation [2017/08/06 21:49] (current) – phreazer | ||
---|---|---|---|
Line 1: | Line 1: | ||
====== Correlation ====== | ====== Correlation ====== | ||
+ | Covarianz (nicht-standardisierter Pearson Korrelationskoeffizient) | ||
+ | Lineare Abhängigkeiten. | ||
+ | < | ||
+ | \begin{align*} | ||
+ | \operatorname{Cov}(X, | ||
+ | &= \sum_{x, | ||
+ | \end{align*} | ||
+ | </ | ||
+ | (Gewichtete Summe des Produkts aus x und y) | ||
- | ====== Total correlation ====== | + | ===== Schätzung |
- | * Geht auf Watanabe 1960 zurück. | + | Stichprobenkovarianz als erwartungstreue Schätzung |
- | * Generalisierung | + | |
- | * Quantifiziert die Redundanz oder Abhängigkeit | + | |
- | Für eine Menge von ZVs $\{X_1,...,X_n\}$ ist die Total Correlation definiert als die Kullback-Leibler-Divergenz | + | $$s_{xy} := \frac{1}{n} \sum^n_{i=1}(x_i-\bar{x})(y_i-\bar{y})$$ |
- | $$C(X_1,...,X_n) = \sum_{i=1}^n H(X_i) - H(X_1, X_2, ..., X_n)$$ | + | Korrigierte Stichprobenkovarianz |
- | wobei $H(X_i)$ die Entropie von $X_i$ und $H(X_1, | ||
- | Die totale Correlation gibt die Menge der Informationen an, die unter den Variablen einer Menge geteilt wird. $ \sum_{i=1}^n H(X_i)$ entspricht der Anzahl der bits, wenn die Variablen unabhängig voneinander wären. $H(X_1,...,X_n)$ ist die tatsächliche Anzahl der Informationen der Variablen, oder die durchschnittliche Codelänge, um die Werte aller Variablen zu übertragen, | + | $$s_{xy} := \frac{1}{n-1} \sum^n_{i=1}(x_i-\bar{x})(y_i-\bar{y})$$ |
- | + | ||
- | Die maximale totale Correlation tritt auf, wenn eine Variable alle anderen Variabeln bestimmen kann. | + | |
====== Mutual information ====== | ====== Mutual information ====== | ||
Line 28: | Line 32: | ||
\end{align*} | \end{align*} | ||
</ | </ | ||
+ | |||
+ | (Gewichtete Summe der multivariaten Verteilung von x und y.) | ||
+ | |||
Wenn X und Y unabhängig sind, dann kann aus X keine Informationen über Y abgeleitet werden. Wenn X und Y unabhängig, | Wenn X und Y unabhängig sind, dann kann aus X keine Informationen über Y abgeleitet werden. Wenn X und Y unabhängig, | ||
Line 33: | Line 40: | ||
Total Correlation als **multivariate** Generalisierung von MI. | Total Correlation als **multivariate** Generalisierung von MI. | ||
+ | |||
+ | ===== Schätzung ===== | ||
+ | |||
+ | Schätzung der Joint Distribution $p(x,y)$ aus empirischen Daten. Histogramme der Verteilung der Attribute. Bins des Histogramms wird so gewählt, dass Randverteilung fast gleichverteilt sind. Anzahl der Bins wurde so gewählt, dass die bias-korrigierte Information von jeder Zelle maximiert wird (Treves and Panzeri 1995, Nelken et al. 2005). | ||
+ | |||
+ | Solange die Samplezahl sehr viel größer ist als die Anzahl der Bins erhält man mit der Verwendung der empirischen Verteilung $\hat{p}$ eine gute Schätzung: | ||
+ | |||
+ | \begin{align*} | ||
+ | I(\hat{p}(X; | ||
+ | \end{align*} | ||
+ | |||
+ | Wobei $\hat{p}(x) = \sum_x \hat{p}(x, | ||
+ | |||
+ | Der Schätzer besitzt einen positiven Bias, der aber verbessert werden kann (http:// | ||
+ | |||
+ | ====== Total correlation ====== | ||
+ | * Geht auf Watanabe 1960 zurück. | ||
+ | * Generalisierung der Mutual Information. | ||
+ | * Quantifiziert die Redundanz oder Abhängigkeit einer Menge von $n$ Zufallsvariablen. | ||
+ | |||
+ | Für eine Menge von ZVs $\{X_1, | ||
+ | |||
+ | $$C(X_1, | ||
+ | |||
+ | wobei $H(X_i)$ die Entropie von $X_i$ und $H(X_1, | ||
+ | |||
+ | Die totale Correlation gibt die Menge der Informationen an, die unter den Variablen einer Menge geteilt wird. $ \sum_{i=1}^n H(X_i)$ entspricht der Anzahl der bits, wenn die Variablen unabhängig voneinander wären. $H(X_1, | ||
+ | |||
+ | Die maximale totale Correlation tritt auf, wenn eine Variable alle anderen Variabeln bestimmen kann. | ||
+ | |||
+ | ====== Correlation for categorial values ====== | ||
+ | |||
+ | See https:// | ||
+ |