Hidden Markov Model
$Z_1, \dots, Z_n \in \{1,\dots,m\}$ diskrete Zufallsvariablen (Hidden/Latent Variables)
$X_1, \dots, X_n \in X$ diskret, real, real^d Beobachtete Zufallsvariablen (observed variables)
$D=(x_1,\dots,x_n)$
Trelis-Diagramm
Z_1 ⇒ Z_2 ⇒ … ⇒ Z_n
X_1
Joint distribution (multidimensionale Wahrscheinlichkeitsverteilung):
$p(x_1,\dots,x_n,Z1,\dots,Z_n) = p(z_1)p(x_1|z_1) \prod_{k=2}^n p(z_k|z_{k-1})p(x_k|z_k)$
Beispiel Handschrifterkennung:
- Hiddenzustände: Alphabetzeichen
- Beobachtete: Geschriebenes
Parameter
Transition probabilities (Übergangswahrscheinlichkeiten):
$T(i,j) = P(Z_{k+1}=j|z_k=i)$ ($i,j \in \{i,\dots,m\}$)
T ist die Transition Matrix (Übergangswkt.)
Emission probabilities:
$\varepsilon_i(x) = p(x|Z_k=i)$ für $i\in \{i,\dots,m\} x \in X$
$\varepsilon_i$ ist eine Wahrscheinlichkeitsverteilung eine Dichte (pdf) auf $X$
Wenn $X$ diskrete ZV: $\varepsilon_i(x) = P(X_k=x|Z_k=i)$
pmf
Initial distribution:
$\pi(i) = P(Z_i=i), \in \{i,\dots,m\}$
Joint Distribution:
$p(x_1,\dots,x_n,z_1,\dots,z_n) = \pi(z_1) \varepsilon_{z_1}(x_1) \prod_{k=2}^n T(z_{k-1},z_k) \varepsilon_{z_k}(x_k)$
Forward-Backward Algorithmus
Beispiel
Zustand ist Durschnittstemperatur: H oder C Beobachtbarer Zustand ist Dicke der Ringe: S, M, L
Nun wird Abfolge S,M,S,L beobachtet. Daraus soll die wahrscheinlichste Zustandssequenz des Markovprozess ermittelt werden.