====== Hidden Markov Model ====== $Z_1, \dots, Z_n \in \{1,\dots,m\}$ diskrete Zufallsvariablen (Hidden/Latent Variables) $X_1, \dots, X_n \in X$ diskret, real, real^d Beobachtete Zufallsvariablen (observed variables) $D=(x_1,\dots,x_n)$ **Trelis-Diagramm** Z_1 => Z_2 => ... => Z_n | X_1 **Joint distribution (multidimensionale Wahrscheinlichkeitsverteilung):** $p(x_1,\dots,x_n,Z1,\dots,Z_n) = p(z_1)p(x_1|z_1) \prod_{k=2}^n p(z_k|z_{k-1})p(x_k|z_k)$ Beispiel Handschrifterkennung: * Hiddenzustände: Alphabetzeichen * Beobachtete: Geschriebenes ===== Parameter ===== Transition probabilities (Übergangswahrscheinlichkeiten): $T(i,j) = P(Z_{k+1}=j|z_k=i)$ ($i,j \in \{i,\dots,m\}$) T ist die Transition Matrix (Übergangswkt.) Emission probabilities: $\varepsilon_i(x) = p(x|Z_k=i)$ für $i\in \{i,\dots,m\} x \in X$ $\varepsilon_i$ ist eine Wahrscheinlichkeitsverteilung eine Dichte (pdf) auf $X$ Wenn $X$ diskrete ZV: $\varepsilon_i(x) = P(X_k=x|Z_k=i)$ pmf Initial distribution: $\pi(i) = P(Z_i=i), \in \{i,\dots,m\}$ Joint Distribution: $p(x_1,\dots,x_n,z_1,\dots,z_n) = \pi(z_1) \varepsilon_{z_1}(x_1) \prod_{k=2}^n T(z_{k-1},z_k) \varepsilon_{z_k}(x_k)$ ===== Forward-Backward Algorithmus ===== ===== Beispiel ===== Zustand ist Durschnittstemperatur: H oder C Beobachtbarer Zustand ist Dicke der Ringe: S, M, L Nun wird Abfolge S,M,S,L beobachtet. Daraus soll die wahrscheinlichste Zustandssequenz des Markovprozess ermittelt werden.