Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
data_mining:correlation [2015/08/20 13:01] – [Correlation] phreazer | data_mining:correlation [2017/08/06 21:49] (current) – phreazer | ||
---|---|---|---|
Line 2: | Line 2: | ||
Covarianz (nicht-standardisierter Pearson Korrelationskoeffizient) | Covarianz (nicht-standardisierter Pearson Korrelationskoeffizient) | ||
+ | |||
+ | Lineare Abhängigkeiten. | ||
< | < | ||
\begin{align*} | \begin{align*} | ||
- | \operatorname{Cov}(X, | + | \operatorname{Cov}(X, |
&= \sum_{x, | &= \sum_{x, | ||
\end{align*} | \end{align*} | ||
</ | </ | ||
- | ====== Total correlation ====== | ||
- | * Geht auf Watanabe 1960 zurück. | ||
- | * Generalisierung der Mutual Information. | ||
- | * Quantifiziert die Redundanz oder Abhängigkeit einer Menge von $n$ Zufallsvariablen. | ||
- | Für eine Menge von ZVs $\{X_1, | + | (Gewichtete Summe des Produkts aus x und y) |
- | $$C(X_1, | + | ===== Schätzung ===== |
+ | Stichprobenkovarianz als erwartungstreue Schätzung der Kovarianz einer Grundgesamtheit. | ||
- | wobei $H(X_i)$ die Entropie von $X_i$ und $H(X_1,...,X_n)$ die gemeinsame Entropie | + | $$s_{xy} := \frac{1}{n} \sum^n_{i=1}(x_i-\bar{x})(y_i-\bar{y})$$ |
- | Die totale Correlation gibt die Menge der Informationen an, die unter den Variablen einer Menge geteilt wird. $ \sum_{i=1}^n H(X_i)$ entspricht der Anzahl der bits, wenn die Variablen unabhängig voneinander wären. $H(X_1, | + | Korrigierte Stichprobenkovarianz |
- | Die maximale totale Correlation tritt auf, wenn eine Variable alle anderen Variabeln bestimmen kann. | + | |
+ | $$s_{xy} := \frac{1}{n-1} \sum^n_{i=1}(x_i-\bar{x})(y_i-\bar{y})$$ | ||
====== Mutual information ====== | ====== Mutual information ====== | ||
Line 32: | Line 32: | ||
\end{align*} | \end{align*} | ||
</ | </ | ||
+ | |||
+ | (Gewichtete Summe der multivariaten Verteilung von x und y.) | ||
+ | |||
Wenn X und Y unabhängig sind, dann kann aus X keine Informationen über Y abgeleitet werden. Wenn X und Y unabhängig, | Wenn X und Y unabhängig sind, dann kann aus X keine Informationen über Y abgeleitet werden. Wenn X und Y unabhängig, | ||
Line 37: | Line 40: | ||
Total Correlation als **multivariate** Generalisierung von MI. | Total Correlation als **multivariate** Generalisierung von MI. | ||
+ | |||
+ | ===== Schätzung ===== | ||
+ | |||
+ | Schätzung der Joint Distribution $p(x,y)$ aus empirischen Daten. Histogramme der Verteilung der Attribute. Bins des Histogramms wird so gewählt, dass Randverteilung fast gleichverteilt sind. Anzahl der Bins wurde so gewählt, dass die bias-korrigierte Information von jeder Zelle maximiert wird (Treves and Panzeri 1995, Nelken et al. 2005). | ||
+ | |||
+ | Solange die Samplezahl sehr viel größer ist als die Anzahl der Bins erhält man mit der Verwendung der empirischen Verteilung $\hat{p}$ eine gute Schätzung: | ||
+ | |||
+ | \begin{align*} | ||
+ | I(\hat{p}(X; | ||
+ | \end{align*} | ||
+ | |||
+ | Wobei $\hat{p}(x) = \sum_x \hat{p}(x, | ||
+ | |||
+ | Der Schätzer besitzt einen positiven Bias, der aber verbessert werden kann (http:// | ||
+ | |||
+ | ====== Total correlation ====== | ||
+ | * Geht auf Watanabe 1960 zurück. | ||
+ | * Generalisierung der Mutual Information. | ||
+ | * Quantifiziert die Redundanz oder Abhängigkeit einer Menge von $n$ Zufallsvariablen. | ||
+ | |||
+ | Für eine Menge von ZVs $\{X_1, | ||
+ | |||
+ | $$C(X_1, | ||
+ | |||
+ | wobei $H(X_i)$ die Entropie von $X_i$ und $H(X_1, | ||
+ | |||
+ | Die totale Correlation gibt die Menge der Informationen an, die unter den Variablen einer Menge geteilt wird. $ \sum_{i=1}^n H(X_i)$ entspricht der Anzahl der bits, wenn die Variablen unabhängig voneinander wären. $H(X_1, | ||
+ | |||
+ | Die maximale totale Correlation tritt auf, wenn eine Variable alle anderen Variabeln bestimmen kann. | ||
+ | |||
+ | ====== Correlation for categorial values ====== | ||
+ | |||
+ | See https:// | ||
+ |