data_mining:entropie

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
data_mining:entropie [2013/09/15 18:04] – [Mutual information] phreazerdata_mining:entropie [2017/09/09 12:53] (current) phreazer
Line 1: Line 1:
-====== Entropie ======+====== Entropy ======
  
-Claude Shannon (1948): Information hängt mit der Überraschung zusammen+Claude Shannon (1948): Entropy as a measure of surprise / uncertainty.
  
-Nachricht über ein Ereignis mit Wahscheinlichkeit umfasst $- \mathit{log}_2 p$ Bits an Informationen+Message about an event with a probability of occurrence includes $- \mathit{log}_2 p$ bits of information
  
-Beispiel für eine faire Münze : $- \mathit{log}_2 0.5 = 1$+Example of a fair coin: $- \mathit{log}_2 0.5 = $1
  
 ====== Mutual information ====== ====== Mutual information ======
Line 27: Line 27:
  
 H(F) + H(B) - H(F,B) H(F) + H(B) - H(F,B)
- 
-Smoothing 
-$$ 
-p(+)=0,75\\ 
-p(-)=0,25\\ 
-p(hate)=800/8000\\ 
-p(~hate)=7200/8000\\ 
-p(hate,+)=1/8000 \text{(kommt in keinem positiven Kommentar vor, 1 anstelle von Null => Smoothing)}\\ 
-p(~hate,+)=6000/8000\\ 
-p(hate,-)=1200/8000\\ 
-p(~hate,-)=0,1 
-$$ 
  
 Features selection => Die, die höchste MI haben, allerdings zu rechenintensiv Features selection => Die, die höchste MI haben, allerdings zu rechenintensiv
  • data_mining/entropie.1379261096.txt.gz
  • Last modified: 2014/02/11 21:47
  • (external edit)