Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

KI 13 - Unsicherheit1 Mündliche Prüfungen … im Sekretariat 1.453 anmelden !

Ähnliche Präsentationen


Präsentation zum Thema: "KI 13 - Unsicherheit1 Mündliche Prüfungen … im Sekretariat 1.453 anmelden !"—  Präsentation transkript:

1 KI 13 - Unsicherheit1 Mündliche Prüfungen … im Sekretariat anmelden !

2 KI 13 - Unsicherheit2 Unsicherheit

3 KI 13 - Unsicherheit3 Überblick Unsicherheit Wahrscheinlichkeit Syntax und Semantik Inferenz Unabhängigkeit und Bayessche Regel Beispiel: Wumpus-Welt

4 KI 13 - Unsicherheit4 Unsicherheit Sei Aktion A t = zum Flugplatz fahren, t sei Zeit in Minuten vor dem Flug. Werde ich durch Ausführung von A t den Flug erreichen? Probleme: 1.Teilweise Beobachtbarkeit (Straßenzustand, Verkehrsdichte, Navi kaputt etc.) 2.Unzuverlässige Sensoren (Verkehrsbericht) 3.Unsicherheit über Ergebnis von Aktionen (Reifenpanne bei schneller Fahrt …) 4.Immense Komplexität der Modellierung und Vorhersage (Verkehr, Wetter etc.) Daher wird ein rein logischer Ansatz entweder 1.falsche Aussagen riskieren (A 25 erreicht den Flug), oder 2.zu schwachen Schlüssen führen, die keine Entscheidungsfindung erlauben: A 25 erreicht Flug falls kein Unfall auf der Brücke und falls es nicht regnet … A 1440 würde höchstwahrscheinlich den Flug erreichen, aber Übernachtung auf Flugplatz erfordern.

5 KI 13 - Unsicherheit5 Umgang mit Unsicherheit Nichtmonotone Logik: Monotone Logik: Z.B. AL, PL, Schlüsse fügen Wissen zu WB hinzu, verändern vorhandenes Wissen nicht. Nichtmonotone Logik: Schlüsse können WB verändern. Dadurch vorläufige Schlussfolgerungen möglich, bei unvollständigem Wissen werden Default verwendet. –Annahme: Auto hat keinen Platten. –Annahme: A 25 funktioniert, bis A 25 durch Erfahrung widerlegt wird. Probleme: –Welche Annahmen sind vernünftig? –Wie werden Widersprüche behandelt?

6 KI 13 - Unsicherheit6 Umgang mit Unsicherheit Regeln mit Wahrscheinlichkeiten: –A 25 | 0.3 erreicht Flugplatz rechtzeitig –Sprinkler | 0.99 NassesGras –NassesGras | 0.7 Regen Probleme mit Kombination: Z.B. ist Sprinkler Ursache für Regen? Wahrscheinlichkeit: Drückt Glauben des Agenten aus: Ausgehend von den gegebenen Fakten wird A 25 den Flugplatz mit Wahrscheinlichkeit 0.04 rechtzeitig erreichen.

7 KI 13 - Unsicherheit7 Wahrscheinlichkeit Probabilistische Aussagen fassen verschiedene Effekte zusammen: –Faulheit: Unfähigkeit / Unwilligkeit, alle Voraussetzungen, Ausnahmen etc. aufzuzählen. –Unwissen: Fehlen von Fakten, Anfangsbedingungen etc. –Zufall: Z.B. Würfeln Aus Faulheit und Unwissen resultierende Aussagen sind keine Aussagen über die Welt, sondern das Resultat von Subjektivität: Wahrscheinlichkeiten setzen die Aussagen in Beziehung zum persönlichen Wissenszustand des Agenten: z.B. P(A 25 erreicht Flug | keine gemeldeten Unfälle) = 0.06 Wahrscheinlichkeiten von Sätzen ändern sich, sobald neues Wissen verfügbar wird: Z.B. P(A 25 erreicht Flug | keine gemeldeten Unfälle, 6:30h) = 0.15

8 KI 13 - Unsicherheit8 Entscheidungen treffen bei Unsicherheit Agent glaubt folgendes: P(A 25 erreicht Flug | …) = 0.04 P(A 90 erreicht Flug | …) = 0.70 P(A 120 erreicht Flug | …) = 0.95 P(A 1440 erreicht Flug | …) = Welche Aktion soll er ausführen? Hängt von Präferenzen des Agenten ab (Flug verpassen, Wartezeit, früh aufstehen …) –Nutzentheorie erlaubt Repräsentation und Inferenz von Präferenzen –Entscheidungstheorie = Wahrscheinlichkeitstheorie + Nutzentheorie

9 KI 13 - Unsicherheit9 Syntax: Zufallsvariable Grundelement: Zufallsvariable Ähnlich AL: Mögliche Welten werden durch Zuweisung von Werten an Zufallsvariable definiert. Boolesche Zufallsvariable: Z.B. Loch (Habe ich ein Loch im Zahn?) Diskrete Zufallsvariable –Z.B. Wetter hat einen der Werte –Werte einer Domäne müssen erschöpfend sein und sich gegenseitig ausschliessen. Stetige Zufallsvariable –Reelle Zahlen –Z.B. Aussage Länge=2,4

10 KI 13 - Unsicherheit10 Syntax: Aussagen Elementaraussagen werden getroffen durch Zuweisen eines Wertes an eine Zufallsvariable: –Wetter = sonnig –Loch = falsch (Abk. Loch) Komplexe Aussagen werden durch die üblichen logischen Verknüpfungen aus Elementaraussagen gebildet: Wetter = sonnig Loch = falsch

11 KI 13 - Unsicherheit11 Atomares Ereignis: Eine vollständige Spezifikation des Zustands der Welt (über den der Agent allerdings unsicher ist). Bsp.: Welt besteht nur aus den zwei Booleschen Variablen Loch und Zahnschmerzen. Dann gibt es 4 verschiedene atomare Ereignisse: Loch = falsch Zahnschmerzen = falsch Loch = falsch Zahnschmerzen = wahr Loch = wahr Zahnschmerzen = falsch Loch = wahr Zahnschmerzen = wahr Atomare Ereignisse sind erschöpfend und schließen einander aus. Syntax: Ereignisse

12 KI 13 - Unsicherheit12 Wahrscheinlichkeitsaxiome Für alle Aussagen A, B gelten die Kolmogorov-Axiome: 1.0 P(A) 1 2.P(wahr) = 1 und P(falsch) = 0 3.P(A B) = P(A) + P(B) - P(A B)

13 13 A-priori-Wahrscheinlichkeit A-priori oder unbedingte Wahrscheinlichkeiten von Aussagen: P(Loch = wahr) = 0.1 und P(Wetter = sonnig) = 0.72 drücken Vermutungen aus, bevor neue Information verfügbar wird. Wahrscheinlichkeitsverteilung gibt Werte für alle möglichen Zuweisungen: P(Wetter) = (normalisiert, d.h. Summe = 1) Gemeinsame Wahrscheinlichkeitsverteilung für mehrere Zufallsvariable gibt Wahrscheinlichkeit aller atomaren Ereignisse an: P(Wetter,Loch) ist eine 4 × 2 Matrix von Werten: Wetter = sonnig regnerisch bewölkt schneit Loch = wahr Loch = falsch Die gemeinsame Wahrscheinlichkeitsverteilung beantwortet alle Fragen über die Domäne !

14 KI 13 - Unsicherheit14 Bedingte Wahrscheinlichkeit Bedingte oder a-posteriori-Wahrscheinlichkeiten z.B. P(Loch | Zahnschmerzen) = 0.8 d.h. die Information Zahnschmerzen ist gegeben (aber mehr nicht). Notation für bedingte Verteilungen: P(Loch | Zahnschmerzen) = 2-komp. Vektor von 2-komp. Vektoren Falls zudem Loch bekannt ist, gilt P(Loch | Zahnschmerzen,Loch) = 1. Weitere Information kann irrelevant sein: P(Loch | Zahnschmerzen,sonnig) = P(Loch | Zahnschmerzen) = 0.8 Derartige durch Domänenwissen unterstützte Inferenz ist sehr wichtig!

15 KI 13 - Unsicherheit15 Definition bedingter Wahrscheinlichkeit: P(a | b) = P(a b) / P(b) wenn P(b) > 0 Produktregel ist alternative Formulierung: P(a b) = P(a | b) P(b) = P(b | a) P(a) Die allgemeine Version gilt für ganze Verteilungen, z.B. P(Wetter, Loch) = P(Wetter | Loch) P(Loch) (Dies stellt 4 × 2 separate Gleichungen dar, nicht Matrixmultiplikation !) Kettenregel (abgeleitet durch wiederholte Anwendung der Produktregel): P(X 1, …,X n ) = P(X 1,...,X n-1 ) P(X n | X 1,...,X n-1 ) = P(X 1,...,X n-2 ) P(X n-1 | X 1,...,X n-2 ) P(X n | X 1,...,X n-1 ) = … = π i= 1 n P(X i | X 1, …,X i-1 ) Bedingte Wahrscheinlichkeit

16 KI 13 - Unsicherheit16 Inferenz durch Aufzählung WB: Gemeinsame Wahrscheinlichkeitsverteilung Probabilistische Inferenz: Berechnung der Wahrscheinlichkeit von Aussagen.

17 KI 13 - Unsicherheit17 Inferenz durch Aufzählung Gemeinsame Wahrscheinlichkeitsverteilung:

18 KI 13 - Unsicherheit18 Inferenz durch Aufzählung Gemeinsame Wahrscheinlichkeitsverteilung: Wahrscheinlichkeit einer Aussage φ ist die Summe der Wahrscheinlichkeiten der entsprechenden atomaren Ereignisse: P(φ) = Σ ω:ωφ P(ω).

19 KI 13 - Unsicherheit19 Inferenz durch Aufzählung Gemeinsame Wahrscheinlichkeitsverteilung: Wahrscheinlichkeit einer Aussage φ ist die Summe der Wahrscheinlichkeiten der entsprechenden atomaren Ereignisse: P(φ) = Σ ω:ωφ P(ω). P(Zahnschmerzen) = = 0.2

20 KI 13 - Unsicherheit20 Inferenz durch Aufzählung Gemeinsame Wahrscheinlichkeitsverteilung: Wahrscheinlichkeit einer Aussage φ ist die Summe der Wahrscheinlichkeiten der entsprechenden atomaren Ereignisse: P(φ) = Σ ω:ωφ P(ω). P(Zahnschmerzen) = = 0.2 P(Zahnschmerzen Loch) = = 0.28

21 KI 13 - Unsicherheit21 Inferenz durch Aufzählung Gemeinsame Wahrscheinlichkeitsverteilung: Bedingte Wahrscheinlichkeiten: P( Loch | Zahnschmerzen) = P( Loch Zahnschmerzen) / P(Zahnschmerzen)* = ( ) / ( ) = 0.4 *Da Zahnschmerzen bekannt muss jetzt die linke Tabellenhälfte auf 1 normiert werden.

22 22 Normalisierung Nenner kann als Normalisierungskonstante angesehen werden: α = 1 / P(Zahnschmerzen) P(Loch | Zahnschmerzen) = α P(Loch, Zahnschmerzen) = α [P(Loch, Zahnschmerzen, catch) + P(Loch, Zahnschmerzen, catch)] = α [ + ] = α = Idee: Berechne Verteilung der Abfragevariablen (Loch) in Abhängigkeit von Evidenzvariablen (Zahnschmerzen) und Summation über unbeobachtete Variable (Catch).

23 KI 13 - Unsicherheit23 Inferenz durch Aufzählung Bei einer Menge X von Zufallsvariablen interessieren uns –Gemeinsame a-posteriori Verteilungen der Abfragevariablen Y –bei gegebenen Werten e für die Evidenzvariablen E. Die unbeobachteten Variablen sind H = X – Y – E, sie werden durch Summation beseitigt: P(Y | E = e) = α P(Y,E = e) = α Σ h P(Y, E= e, H = h) Probleme: 1.Worst-case Zeitkomplexität ist für n Variable O(d n ), wobei d die größte Stelligkeit (d.h. # Werte) ist. 2.Raumkomplexität O(d n ) um die gemeinsame Verteilung zu speichern. 3.Wie findet man die Werte für O(d n ) Einträge?

24 KI 13 - Unsicherheit24 Unabhängigkeit A und B sind unabhängig wenn gilt: P(A|B) = P(A) oder P(B|A) = P(B) oder P(A, B) = P(A) P(B) Da das Wetter unabhängig von meinen Zähnen ist, gilt: P(Zahnschmerzen, Catch, Loch, Wetter) = P(Zahnschmerzen, Catch, Loch) P(Wetter) Damit reduzieren sich die 32 Werte in der Tabelle der gemeinsamen Wahrscheinlichkeitsverteilung auf 12.

25 KI 13 - Unsicherheit25 Unabhängigkeit Weiteres Bsp.: Für n Münzwürfe mit 2 n Werten ergibt Unabhängigkeit Reduzierung auf n. Absolute Unabhängigkeit ist sehr nützlich, aber selten. Zahnmedizin ist ein Gebiet mit Hunderten von Variablen, die alle nicht unabhängig sind. Was tun?

26 KI 13 - Unsicherheit26 Bedingte Unabhängigkeit P(Zahnschmerzen, Loch, Catch) hat 2 3 – 1 = 7 unabhängige Wahrscheinlichkeiten (die 8. ist festgelegt, da Summe =1 ). Wenn ein Loch da ist, ist die Wahrscheinlichkeit, dass der Arzt es findet (catch) unabhängig davon, ob ich Zahnschmerzen habe: (1) P(Catch | Zahnschmerzen, loch) = P(Catch | loch) Ebenso liegt Unabhängigkeit vor, wenn kein Loch da ist: (2) P(Catch | Zahnschmerzen, loch) = P(Catch | loch) Nach (1),(2) ist Catch also bedingt unabhängig von Zahnschmerzen für geg. Wert für Loch: P(Catch | Zahnschmerzen, Loch) = P(Catch | Loch) Es ist aber nicht P(Catch | Zahnschmerzen) = P(Catch) P(Zahnschmerzen) ! Denn Catch hängt sehr wohl von Zahnschmerzen ab, solange wir nichts über Loch wissen.

27 KI 13 - Unsicherheit27 Bedingte Unabhängigkeit Ebenso wie P(Catch | Zahnschmerzen, Loch) = P(Catch | Loch) gilt: P(Zahnschmerzen | Catch, Loch) = P(Zahnschmerzen | Loch) P(Zahnschmerzen, Catch | Loch) = P(Zahnschmerzen | Loch) P(Catch | Loch) Vollständige gemeinsame Wahrscheinlichkeitsverteilung ergibt sich mittels Kettenregel: P(Zahnschmerzen, Catch, Loch) = P(Zahnschmerzen | Catch, Loch) P(Catch, Loch) = P(Zahnschmerzen | Catch, Loch) P(Catch | Loch) P(Loch) = P(Zahnschmerzen | Loch) P(Catch | Loch) P(Loch) d.h = 5 unabhängige Werte.

28 KI 13 - Unsicherheit28 Meist reduziert bedingte Unabhängigkeit die Größe der Repräsentation einer gemeinsamen Verteilung von n Zufallsvariablen von exponentiell in n auf linear in n. Bedingte Unabhängigkeit ist eine einfache und robuste Form der Wissensrepräsentation in unsicheren Umgebungen. Bedingte Unabhängigkeit

29 KI 13 - Unsicherheit29 Bayessche Regel Produktregel P(a b) = P(a | b) P(b) = P(b | a) P(a) Bayessche Regel: P(a | b) = P(b | a) P(a) / P(b) Dasselbe für Verteilungen: P(Y|X) = P(X|Y) P(Y) / P(X) = α P(X|Y) P(Y) Nützlich für Berechnung diagnostischer Wahrscheinlichkeit aus kausaler Wahrscheinlichkeit: –P(Ursache | Wirkung) = P(Wirkung | Ursache) P(Ursache) / P(Wirkung) –Z.B. sei M Meningitis, S sei steifer Nacken: P(M | S) = P(S | M) P(M) / P(S) = 0.8 × / 0.1 = –Beachte: A-posteriori Wahrscheinlichkeit für Meningitis ist auch bei Symptom steifer Nacken sehr klein, weil die a-priori Wahrscheinlichkeit für Meningitis klein ist, die a-priori Wahrscheinlichkeit für steifer Nacken dagegen wesentlich größer!

30 KI 13 - Unsicherheit30 Bayessche Regel und bedingte Unabhängigkeit Bisher: Schluss auf Ursache aus einer beobachteten Wirkung (= Evidenz) der Form P(M | S) = P(S | M) P(M) / P(S) Wie kann man aus mehreren Evidenzen auf Ursache schließen? Bsp.: Evidenzen = zahnschmerzen, catch. P(Loch | Zahnschmerzen Catch) = α P(Zahnschmerzen Catch | Loch) P(Loch) = α P(Zahnschmerzen | Loch) P(Catch | Loch) P(Loch) P(Loch, Zahnschmerzen, Catch) = P(Zahnschmerzen | Loch) P(Catch | Loch) P(Loch) Dies ist ein Beispiel eines naiven Bayes-Modells der Form P(Ursache,Wirkung 1, …,Wirkung n ) = P(Ursache) π i P(Wirkung i | Ursache)

31 KI 13 - Unsicherheit31 Bayessche Regel und bedingte Unabhängigkeit Naives Bayes-Modell: P(Ursache,Wirkung 1, …,Wirkung n ) = P(Ursache) π i P(Wirkung i | Ursache) Gesamtzahl der Parameter ist linear in n.

32 KI 13 - Unsicherheit32 Wumpus-Welt P ij = wahr wenn Pit in [i,j] B ij = wahr wenn Breeze in [i,j] Wir berücksichtigen nur B 1,1, B 1,2, B 2,1 im Wahrscheinlichkeitsmodell.

33 KI 13 - Unsicherheit33 Wumpus-Welt: Wahrscheinlichkeits-Modell Vollständige gemeinsame Wahrscheinlichkeitsverteilung: P(P 1,1 … P 4,4, B 1,1, B 1,2, B 2,1 ) Wende Produktregel an, um Regeln der Form P(Wirkung | Ursache) zu erhalten: P(B 1,1, B 1,2, B 2,1 | P 1,1 … P 4,4 ) P(P 1,1 … P 4,4 ) 1. Faktor: 1, falls Pits neben Breeze, sonst Faktor: Ein Feld enthält mit der Wahrscheinlichkeit 0.2 ein Pit, dadurch ergeben sich n Pits: P(P 1,1 … P 4,4 ) = i,j=1,1 P(P i,j ) = 0.2 n x n

34 KI 13 - Unsicherheit34 Wumpus-Welt: Beobachtungen und Anfragen Bekannt: bb = b 1,1 b 1,2 b 2,1 (breezes bekannt) pb = p 1,1 p 1,2 p 2,1 (pits bekannt) Anfrage: P(P 1,3 | pb, bb) = ? Definiere pits unbekannt pu = Alle P i,j ohne pb und, P 1,3,. Inferenz durch Aufzählung: P(P 1,3 | pb, bb) = pu P(P 1,1 … P 4,4, bb) Aufwand wächst exponentiell mit # Felder !

35 KI 13 - Unsicherheit35 Wumpus-Welt: Bedingte Unabhängigkeit Beobachtungen (Breeze) sind bedingt unabhängig von den anderen unbeobachteten Feldern, wenn die Nachbarfelder gegeben sind. Es gilt ub = Fringe Other P(b | P 1,1 … P 4,4 ) = P(b | P 1,3, pb, pu) = P(bb | P 1,3, pb, Fringe) (= cf. nächste Folie!) Forme Anfrage so um, dass dies ausgenutzt werden kann!

36 36 P(P 1,3 | pb, bb) = pu P(P 1,1 … P 4,4, bb) = pu P(P 1,3, pb, pu, bb) = pu P(b | P 1,3, pb, pu) P(P 1,3, pb, pu) = fringe other P(b | P 1,3,pb,fringe,other) P(P 1,3,pb,fringe,other) = fringe other P(b | P 1,3,pb,fringe) P(P 1,3,pb,fringe,other) = fringe P(b | P 1,3,pb,fringe) other P(P 1,3,pb,fringe,other) = fringe P(b | P 1,3,pb,fringe) other P(P 1,3 ) P(pb) P(fringe) P(other) = P(pb) P(P 1,3 ) fringe P(b | P 1,3,pb,fringe) P(fringe) other P(other) = ´ P(P 1,3 ) fringe P(b | P 1,3,pb,fringe) P(fringe) Wumpus-Welt: Bedingte Unabhängigkeit

37 KI 13 - Unsicherheit37 P(P 1,3 | pb, bb) = ´ P(P 1,3 ) fringe P(b | P 1,3,pb,fringe) P(fringe) = ´ P(P 2,2 | pb, bb) Wumpus-Welt: Bedingte Unabhängigkeit

38 KI 13 - Unsicherheit38 Zusammenfassung Wahrscheinlichkeitstheorie ist ein streng definierter Formalismus für unsicheres Wissen. Die gemeinsame Wahrscheinlichkeitsverteilung spezifiziert die Wahrscheinlichkeit jedes atomaren Ereignisses, sie stellt die WB dar. Abfragen werden durch Summation über Wahrscheinlichkeiten atomarer Ereignisse beantwortet. Die Werkzeuge dafür sind Unabhängigkeit und bedingte Unabhängigkeit von Variablen.

39 KI 13 - Unsicherheit39 Zusammenfassung Bisher: –Gemeinsame Wahrscheinlichkeitsverteilung wurde als gegeben angesehen. –Inferenz durch Reduktion. –Dabei war (bedingte) Unabhängigkeit nützlich. Reale Anwendungen: –Gemeinsame Wahrscheinlichkeitsverteilung unbekannt. –Unabhängigkeit muss angenommen werden, um die gemeinsame Wahrscheinlichkeitsverteilung aus begrenztem Wissen zu erschließen.


Herunterladen ppt "KI 13 - Unsicherheit1 Mündliche Prüfungen … im Sekretariat 1.453 anmelden !"

Ähnliche Präsentationen


Google-Anzeigen