data_mining:entropie

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
data_mining:entropie [2013/09/15 16:46] – [Mutual information] phreazerdata_mining:entropie [2017/09/09 12:53] (current) phreazer
Line 1: Line 1:
-====== Entropie ======+====== Entropy ======
  
-Claude Shannon (1948): Information hängt mit der Überraschung zusammen+Claude Shannon (1948): Entropy as a measure of surprise / uncertainty.
  
-Nachricht über ein Ereignis mit Wahscheinlichkeit umfasst $- \mathit{log}_2 p$ Bits an Informationen+Message about an event with a probability of occurrence includes $- \mathit{log}_2 p$ bits of information
  
-Beispiel für eine faire Münze : $- \mathit{log}_2 0.5 = 1$+Example of a fair coin: $- \mathit{log}_2 0.5 = $1
  
 ====== Mutual information ====== ====== Mutual information ======
Line 27: Line 27:
  
 H(F) + H(B) - H(F,B) H(F) + H(B) - H(F,B)
 +
 +Features selection => Die, die höchste MI haben, allerdings zu rechenintensiv
 +
 +Proxies: IDF; iterativ AdaBoost
 +
 +Mehr features ->
 +NBC verbessert sich, fällt dann.
 +
 +Redundante Features, Annahme von Bayes
 +
 +====== Beispiel ======
 +p(+) = 10.000/15.000 = 2/3\\
 +p(-) = 5.000/15.000 = 1/3\\
 +p(hate) = 3.000/15.000 = 0,2\\
 +p(~hate) = 0,8\\
 +p(hate,+) =1/15.000 \text{(kommt in keinem positiven Kommentar vor, 1 anstelle von Null => Smoothing)}\\
 +p(~hate,+) = 10.000/15.000 = 2/3\\
 +p(hate,-) = 3.000/15.000 = 1/5\\
 +p(~hate,-) = 2.000/15.000 = 2/15
 +
 +$$
 +  I(H,S) = p(hate,+) * log \frac{p(hate,+)}{p(hate)p(+)} + ... =
 +$$
 +
 +
 +====== Kapazität eines Kanals ======
 +
 +Maximale mutual information, die zwischen Sender und Empfängeer pro Sekunde
 +
 +Äquivalent im ML: Wie viele Trainingsdaten notwendig -> Abhängig vom Konzept
 +
 +
 +
 +
 +
  
  • data_mining/entropie.1379256365.txt.gz
  • Last modified: 2014/02/11 21:47
  • (external edit)