data_mining:hmm

Hidden Markov Model

$Z_1, \dots, Z_n \in \{1,\dots,m\}$ diskrete Zufallsvariablen (Hidden/Latent Variables)

$X_1, \dots, X_n \in X$ diskret, real, real^d Beobachtete Zufallsvariablen (observed variables)

$D=(x_1,\dots,x_n)$

Trelis-Diagramm

Z_1 ⇒ Z_2 ⇒ … ⇒ Z_n

X_1

Joint distribution (multidimensionale Wahrscheinlichkeitsverteilung):

$p(x_1,\dots,x_n,Z1,\dots,Z_n) = p(z_1)p(x_1|z_1) \prod_{k=2}^n p(z_k|z_{k-1})p(x_k|z_k)$

Beispiel Handschrifterkennung:

  • Hiddenzustände: Alphabetzeichen
  • Beobachtete: Geschriebenes

Transition probabilities (Übergangswahrscheinlichkeiten):

$T(i,j) = P(Z_{k+1}=j|z_k=i)$ ($i,j \in \{i,\dots,m\}$)

T ist die Transition Matrix (Übergangswkt.)

Emission probabilities:

$\varepsilon_i(x) = p(x|Z_k=i)$ für $i\in \{i,\dots,m\} x \in X$

$\varepsilon_i$ ist eine Wahrscheinlichkeitsverteilung eine Dichte (pdf) auf $X$

Wenn $X$ diskrete ZV: $\varepsilon_i(x) = P(X_k=x|Z_k=i)$

pmf

Initial distribution:

$\pi(i) = P(Z_i=i), \in \{i,\dots,m\}$

Joint Distribution:

$p(x_1,\dots,x_n,z_1,\dots,z_n) = \pi(z_1) \varepsilon_{z_1}(x_1) \prod_{k=2}^n T(z_{k-1},z_k) \varepsilon_{z_k}(x_k)$

Zustand ist Durschnittstemperatur: H oder C Beobachtbarer Zustand ist Dicke der Ringe: S, M, L

Nun wird Abfolge S,M,S,L beobachtet. Daraus soll die wahrscheinlichste Zustandssequenz des Markovprozess ermittelt werden.

  • data_mining/hmm.txt
  • Last modified: 2014/12/17 01:47
  • by phreazer