Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Maschinelles Lernen Hidden Markov Modelle (HMM) (Rabiner Tutorial)

Ähnliche Präsentationen


Präsentation zum Thema: "Maschinelles Lernen Hidden Markov Modelle (HMM) (Rabiner Tutorial)"—  Präsentation transkript:

1 Maschinelles Lernen Hidden Markov Modelle (HMM) (Rabiner Tutorial)

2 Grundidee Finde zu einer Beobachtung (Serie von Beobachtungen) die zugrundeliegende Struktur Basis: stochastisches Modell basierend auf Markov-Ketten (jedes Ereignis ist nur von seinem Vorgänger abhängig) Typische Anwendungen: –Spracherkennung –Tagging Ziehen von bunten Kugeln aus verschiedenen Urnen hinter einer Wand

3 Geschichte benannt nach Andrei A. Markov ( ) ihrem Entwickler Markov Modelle anfänglich für linguistische Zwecke Modellieren von Buchstabensequenzen in der russischen Literatur (1913) später Entwicklung als allgemeines statistisches Werkzeug

4 Markov-Ketten Sequenz von Zufallsvariablen X = (X 1,...,X T ) – X t+1 hängt ab vom Wert von X t – X 1,...,X t-1 braucht man nicht zu kennen Beispiel: Zufallsvariable misst Anzahl der Bücher einer Bibliothek –Um Anzahl der Bücher morgen vorhersagen zu können, genügt es Anzahl der Bücher heute zu kennen. –Die Anzahl der Bücher der letzten Woche oder sogar der letzten Jahre benötigt man für die Vorhersage nicht.

5 Definitionen Stochastischer Prozess: –Ein stochstischer Prozess oder Zufallsprozess ist eine Folge von elementaren Zufallsereignissen Zustände: –Die möglichen Zufallswerte in einem stochastischen Prozess heißen Zustände des Prozesses.Man sagt, dass sich der Prozess zum Zeitpunkt t in Zustand X t =S t befindet.

6 Stochastischer Prozess Für die vollständige Beschreibung eines Zufallsprozesses mit diskretem Zeitparameter benötigt man die Anfangswahrscheinlichkeit: die für jeden Zustand angibt, mit welcher Wahrscheinlichkeit er als Zustand X 1 =S i beobachtet werden kann (d.h. den Startzustand bildet) die Übergangswahscheinlichkeit: die für jeden Zustand angibt, mit welcher Wahrscheinlichkeit er in einer Zustandsfolge auftritt:

7 Beispiel Ein Textgenerator hat ein Lexikon mit Wörtern von denen an jeder Position jedes auftreten kann Ω = {geschickt, werden, wir} wir beobachten an jeder Position, welches Wort generiert wurde Sei –X1 das Wort zum ersten Beobachtungszeitpunkt –X2 das Wort zum zweiten Beobachtungszeitpunkt, usw. Dann ist die Folge der Wörter ein stochastischer Prozess mit diskreter Zufallsvariable und diskretem Zeitparameter

8 Markov-Kette Eine Markov-Kette ist ein spezieller stochastischer Prozess, bei dem zu jedem Zeitpunkt die Wahrscheinlichkeiten aller zukünftigen Zustände nur vom momentanen Zustand abhängt (= Markov- Eigenschaft) –d.h. es gilt: Für eine endliche Markov-Kette gibt es endlich viele Zustände, und die Kette muss sich zu jedem Zeitpunkt in einem dieser endlich vielen Zustände befinden

9 Markov-Kette kann beschrieben werden durch die Angaben Manning/Schütze, 2000: 318 Anfangswahrscheinlichkeiten Stochastische Übergangsmatrix A

10 Markov-Kette wir werden geschickt kann beschrieben werden durch einen Zustandsübergangsgraphen

11 Markov-Kette Wahrscheinlichkeit der Sequenz der Zustände X 1 … X T für eine Markov-Kette gilt:

12 Markov-Kette Wahrscheinlichkeit der Sequenz der Zustände X 1 … X T

13 Markov-Modell (MM) Ein Markov-Modell ordnet jedem Zustand (andere Variante: jedem Zustandsübergang) eine Ausgabe zu, die ausschließlich vom aktuellen Zustand (bzw. Zustandsübergang) abhängig ist Ausgabe: Sequenz von Ereignissen, die die Beobachtungen in der Beobachtungssequenz repräsentieren Zur Unterscheidung auch Visible Markov Model (VMM) genannt

14 Hidden Markov Modell (HMM) Konzept des Markov Models wird erweitert: –Beobachtung ist Wahrscheinlichkeitsfunktion des Zustandes Emissionswahrscheinlichkeiten für Beobachtung werden benötigt –Wahrscheinlichkeit, dass zur Zeit t das Symbol k beobachtet wird, –unter der Vorraussetzung, dass das Model sich zur Zeit t im Zustand S i befindet und als nächstes (zum Zeitpunkt t + 1) in den Zustand S j übergeht. Ein Hidden Markov Model ist ein Markov-Modell –bei dem nur die Sequenz der Ausgaben beobachtbar ist, –die Sequenz der Zustände verborgen bleibt Es kann mehrere Zustandssequenzen geben, die dieselbe Ausgabe erzeugen

15 Hidden Markov-Modell: Beispiel in einem Text lassen sich nur die Ausgaben (= produzierte Wörter) beobachten (visible): orange die Sequenz von Zuständen (= Wortarten), die die Wörter ausgeben, (Satzmuster) lässt sich nicht beobachten (hidden): blau mehrere Sequenzen können dieselbe Ausgabe erzeugen: nomnauxvpart wirwerdengeschickt x.2 x.4 x.3 x.2 x.4 = nomnkopvadje wirwerdengeschickt x.2 x.3 x.5 x.2 x.2 =

16 Hidden Markov-Modell: Definition Formal spezifiziert durch Fünf-Tupel Menge der Zustände Ausgabe-Alphabet Wahrscheinlichkeiten der Startzustände Wahrscheinlichkeiten der Zustandsübergänge Wahrscheinlichkeiten der Symbolemissionen Manning/Schütze, 2000: 326

17 HMM Es gibt 3 Probleme zu lösen: 1.Dekodierung: Wahrscheinlichkeit einer Beobachtung finden brute force Forward-Algorithmus / Backward-Algorithmus 2.Beste Pfad-Sequenz finden brute force Viterbi-Algorithmus 3.Training: Aufbau des besten Modells aus Trainingsdaten Forward-Backward Algorithmus Baum-Welch Algorithmus

18 HMM: Brute force-Bestimmung der Wahrscheinlichkeit einer Beobachtunsgsequenz für ein gegebenes Modell: –Für alle möglichen Zustandsfolgen X = X 1...X t+1 Berechnung der Wahrscheinlichkeit der Beobachtungen Summierung der Wahrscheinlichkeiten state transition symbol emission

19 HMM: Lösungsweg 1: brute force: Effizienz Lösungsweg ist hoffnungslos ineffizient Benötigt im allgemeinen Fall, d.h. -Start in jedem Zustand möglich, -Jeder Zustand kann auf jeden folgen (2T + 1) x N T+1 Multiplikationen T Anzahl der Beobachtungen N Anzahl der Zustände Manning/Schütze, 2000: 326

20 HMM: Alternative: Merken partieller Ergebnisse: –Forward Procedure oder Backward Procedure Forward-Procedure wird beschrieben durch die Forward-Variable –Wahrscheinlichkeit dass die partielle Observationssequenz O 1 bis O t-1 ausgegeben wurde und dass das HMM zur Zeit t sich im Zustand S i befindet, unter der Bedingung des Modells μ.

21 Forward Procedure Die Vorwärts-Wahrscheinlichkeit α j (t+1) ergibt sich aus der Summe des Produktes der Wahrscheinlichkeiten jedes reinkommenden Bogens mit der Forward- Variable des ausgehenden Knotens. (N 2 T) 1. Initialisierung 2. Induktion 3. Total

22 Backward Procedure Ähnlich wie Forward Procedure: –Beschrieben durch Backward Variable –Wahrscheinlichkeit dass der Rest der Observationssequenz O t bis O T ausgegeben wird unter der Bedingung dass sich das HMM zur Zeit t im Zustand S i befindet und des Modells μ –Die Backward-Variable β i (t) wird zur Zeit t im Knoten S i gespeichert –Die Rückwärtswahrscheinlichkeit β i (t) ergibt sich aus der Summe des Produktes der Wahrscheinlichkeiten jedes ausgehenden Bogens mit der Rückwärtswahrscheinlichkeit des erreichten Knotens

23 Backward-Procedure 1.Initialisierung 2. Induktion 3. Total Für die Berechnung von P(O|μ) kann auch die Kombination von Forward- und Backward-Procedure verwendet werden.

24 HMM: Beste Pfadsequenz Brute force: Berechnung aller möglichen Pfade Viterbi-Algorithmus: –Speichere zu jedem Zeitpunkt nur den bis dahin optimalen Pfad zu jedem Zustand wir|Adje wir|Nomn wir|AuxV wir|KopV wir|Part werden|Adje werden|Nomn werden|AuxV werden|KopV werden|Part geschickt|Adje geschickt|Nomn geschickt|AuxV geschickt|KopV geschickt|Part

25 HMM: Training gegeben eine Sequenz von Beobachtungen In einem Trainingscorpus ein Modellgesucht das für die beobachteten Sequenzen im Trainingscorpus die maximalen Wahrscheinlichkeiten erzeugt Mögliche Verfahren: Baum-Welch Algorithmus Forward-Backward Algorithmus

26 Baum-Welch Algorithmus Spezialfall des EM (Expectation Maximization) Algorithmus Iterativer Algorithmus: versucht ein beliebig gewähltes Start-Modell 0 hinsichtlich O Training zu optimieren –Mittels Berechnungen herausfinden, welche Transitionen und Symbolemissionen bei Ausgabesequenz O wahrscheinlich am häufigsten genutzt werden. –Erhalten eines überarbeiteten Models μ´ durch Erhöhen dieser Wahrscheinlichkeiten

27 Baum-Welch-Algorithmus 1. Berechnungen: p t (i,j) ist die Wahrscheinlichkeit, dass der Bogen von Zustand Si nach Zustand Sj zur Zeit t passiert wird, gegeben das Modell μ und die Observationssequenz O. ist Wahrscheinlichkeit, dass das HMM sich zur Zeit t im Zustand Si befindet.

28 Baum-Welch-Algorithmus Ist die erwartete Anzahl der Transitionen vom Zustand S i bei der Ausgabesequenz O. Ist die erwartete Anzahl der Transitionen vom Zustand S i zum Zustand S j bei der Ausgabesequenz O. 2. Neuberechnung der Wahrscheinlichkeiten 1. Startwahrscheinlichkeiten – erwartete Häufigkeit im Zustand Si zur Zeit t = 1 zu sein 2. Transitionswahrscheinlichkeiten –

29 Baum-Welch-Algorithmus 3. Emissionswahrscheinlichkeiten Mit den Neuberechnungen der Wahrscheinlichkeiten erhalten wir aus dem Model ein neues Model, so dass gilt:

30 Baum-Welch-Algorithmus Die Iteration erfolgt solange, bis keine signifikante Verbesserung der Ergebnisse mehr sichtbar ist. Der Baum-Welch-Algorithmus garantiert nicht, dass das beste Modell gefunden wird, da der Prozess in einem lokalen Maximum stecken bleiben kann (z.B. Sattelpunkt). Baum-Welch-Algorithmus ist dennoch effektiv für HMMs. Für das Finden des globalen Maximums sollten die Parameter des Ausgangs HMMs in der Region nahe des globalen Maximums liegen. Anfängliches Abschätzen der Werte ist besser als zufälliges Wählen.Schätzen von B ist dabei wichtig. Zufälliges Wählen von A und Π ist ausreichend.

31 Beziehung zu Bayes Vermeidung der Unabhängigkeitsannahme: –Interpretiere Abhängigkeiten der Features als Übergangswahrscheinlichkeiten der Zustände –Features entsprechen Zuständen Bayesian (Belief) Network!


Herunterladen ppt "Maschinelles Lernen Hidden Markov Modelle (HMM) (Rabiner Tutorial)"

Ähnliche Präsentationen


Google-Anzeigen