Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

© Prof. Dr. H. Gläser, Künstliche Intelligenz Automatisierung des Lernens.

Ähnliche Präsentationen


Präsentation zum Thema: "© Prof. Dr. H. Gläser, Künstliche Intelligenz Automatisierung des Lernens."—  Präsentation transkript:

1 © Prof. Dr. H. Gläser, Künstliche Intelligenz Automatisierung des Lernens

2 © Prof. Dr. H. Gläser, Künstliche Intelligenz Inhalt: Problemstellung Prädikatenlogische Mittel Sequentielle Bedeckalgorithmen Induktive Logische Programmierung Induktion als invertierte Deduktion Erklärungsbasiertes Lernen

3 © Prof. Dr. H. Gläser, Künstliche Intelligenz Problemstellung: Lernen = Induzieren von Regeln aus Beispielen ! Viele Patienten mit Röteln haben rote Punkte Alle Menschen mit roten Punkten haben Röteln

4 © Prof. Dr. H. Gläser, Künstliche Intelligenz Attribute Eigenschaften, die einen Wert annehmen können Spaltenbezeichnungen in einer Tabelle Beispiel eine Zeile der Tabelle

5 © Prof. Dr. H. Gläser, Künstliche Intelligenz Regel: IF THEN Vorbedingung bzw. Nachbedingung: Konjunktion (Verbindungen mit UND) von Attribut / Wert Kombinationen z.B. Wetter=sonnig UND Feuchtigkeit=hoch UND...

6 © Prof. Dr. H. Gläser, Künstliche Intelligenz Aufgabe: Es sollen Regeln gelernt werden, die ein Attribut (das Zielattribut) als Nachbedingung haben z.B. IF Wind=schwach UND Feuchtigkeit=niedrig THEN TennisWirdGespielt=ja

7 © Prof. Dr. H. Gläser, Künstliche Intelligenz Sequentieller Bedeckalgorithmus while( noch nicht alle Beispiele abgedeckt ) ruft Learn One Rule auf: Learn-One_Rule liefert neue Regel abgedeckte Beispiele werden beiseite gelegt Regeln = bisher gewonnene Regeln neue Regel Learn-One-Rule(ZielAttribut, Attribute, Beispiele)

8 © Prof. Dr. H. Gläser, Künstliche Intelligenz Learn One Rule - Algorithmus Menge von Hypothese Kandidaten Beste Hypothese informierte Tiefe zuerst Suche vom allgemeinen zum speziellen Hypothese Eine versuchsweise aufgestellte Regel Während der Suche diejenige Hypothese, mit der besten Performanz, d.h. diejenige, die die Beispiele am besten beschreibt Stapel noch nicht expandierter Knoten, d.h. noch nicht ausgewerteter Kandidaten für Hypothesen

9 © Prof. Dr. H. Gläser, Künstliche Intelligenz Alle Constraints Neue Hypothese Kandidaten Eine Menge von neuen Hypothese Kandidaten, die während der Suche gebildet werden Menge aller Constraints, die in den Beispielen vorkommen Constraint Attribut / Wert Paar der Form Windstärke=stark

10 © Prof. Dr. H. Gläser, Künstliche Intelligenz Problemzustand: = eine Regel-Hypothese mit dem Zielattribut Operator: jeder Constraint a=b aus alle Constraints bildet einen Operator beim Expandieren eines Problemzustands wird der neue Constraint der bisherigen Hypothese mit UND hinzugefügt: alter Problemzustand: IF Windstärke=stark UND Wetter=regnerisch THEN TS = ja Operator: Feuchtigkeit=hoch neuer Problemzustand: IF Windstärke=stark UND Wetter=regnerisch UND Feuchtigkeit=hoch THEN TP = ja

11 © Prof. Dr. H. Gläser, Künstliche Intelligenz Algorithmusidee: es werden vorhandenen Constraints systematisch mit UND zu Regel-Vorbedingungen kombiniert, und deren Wirksamkeit in der Beschreibung der Beispiele gemessen (Performanz) = informierte Suche Dabei beginnt man mit möglichst allgemeinen Hypothesen d.h. mit möglichst wenigen Constraints und expandiert diese zu spezielleren Hypothesen (mehr Constraints)

12 © Prof. Dr. H. Gläser, Künstliche Intelligenz Performanzmaß relative Häufigkeit n = Zahl von Beispielen, die mit der Vorbedingung der Regel übereinstimmen n c = Zahl von Beispielen aus n, bei denen das Zielattribut den Wert des Zielattributs der Regel annimmt

13 © Prof. Dr. H. Gläser, Künstliche Intelligenz Performanzmaß Entropie: S = Menge von Beispielen, die mit der Vorbedingung der Regel übereinstimmen c = Anzahl von verschiedenen Werten, die das Zielattribut annehmen kann p i = Anteil von Beispielen aus S, bei denen das Zielattribut den i-ten Wert annimmt (Formel wie sie im beschriebenen Algorithmus verwendet wird) (bessere Regeln haben höhere Werte) (mißt die Gleichförmigkeit der Zielattribut Werte für den Satz S an Beispielen)

14 © Prof. Dr. H. Gläser, Künstliche Intelligenz

15 (Fortsetzung des Algorithmus) Initialisieren der Beste Hypothese mit der allgemeinsten Hypothese while (Menge von Hypothese Kandidaten nicht leer) 1. Erzeuge die nächst-spezifischeren Hypothese Kandidaten d.h. die Neue Hypothese Kandidaten: for jede Hypothese h in Menge von Hypothese Kandidaten for jeden Constraint c in Alle Constraints neue Spezialisierung durch Hinzufügen von c zu h 2. for jede Hypothese h aus Neue Hypothese Kandidaten: if Performanz(h) > Performanz(Beste Hypothese) h wird Beste Hypothese Entferne alle Hypothesen, die doppelt, inkosistent, nicht maximal spezifisch

16 © Prof. Dr. H. Gläser, Künstliche Intelligenz (Fortsetzung des Algorithmus) 3. die k besten Hypothesen aus Neue Hypothese Kandidaten bilden nun Menge von Hypothese Kandidaten (Ende von while über Menge von Hypothese Kandidaten ) return Regel: IF Beste Hypothese THEN Nachbedingung wobei Nachbedingung: Zielattribut=Wert wobei Wert der häufigste Wert vom Zielattribut unter den Beispielen, die Beste Hypothese beschreibt

17 © Prof. Dr. H. Gläser, Künstliche Intelligenz Beispiel für Sequentielle Bedeckung + Lerne_Eine_Regel

18 © Prof. Dr. H. Gläser, Künstliche Intelligenz

19 Alle Constraints : {Wetter=sonnig,Wetter=regnerisch, Luftfeuchtigkeit=gering, Luftfeuchtigkeit=hoch,Windstärke=gering, Windstärke=hoch} Kandidaten Hypothesen: IF THEN TennisWirdGespielt = ? Neue Kandidaten Hyphothesen: IF Wetter=sonnig THEN TennisWirdGespielt = ? IF Wetter=regnerisch THEN TennisWirdGespielt = ? IF Luftfeuchtigkeit=gering THEN TennisWirdGespielt = ? IF Luftfeuchtigkeit=hoch THEN TennisWirdGespielt = ? IF Windstärke=gering THEN TennisWirdGespielt = ? IF Windstärke=hoch THEN TennisWirdGespielt = ?

20 © Prof. Dr. H. Gläser, Künstliche Intelligenz IF Wetter=sonnig THEN TennisWirdGespielt = ? Gesamtbsp.: 11; p ja =6/11; p nein =5/11; Entropie=-0,99 IF Wetter=regnerisch THEN TennisWirdGespielt = ? Gesamtbsp.:6; p ja =2/6; p nein =4/6; Entropie=-0,92 IF Luftfeuchtigkeit=gering THEN TennisWirdGespielt = ? Gesamtbsp.:11; p ja =6/11; p nein =5/11; Entropie=-0,99 IF Luftfeuchtigkeit=hoch THEN TennisWirdGespielt = ? Gesamtbsp.:6; p ja =2/6; p nein =4/6; Entropie=-0,92 IF Windstärke=gering THEN TennisWirdGespielt = ? Gesamtbsp.:11; p ja =6/11; p nein =5/11; Entropie=-0,99 IF Windstärke=hoch THEN TennisWirdGespielt = ? Gesamtbsp.:6; p ja =2/6; p nein =4/6; Entropie=-0,92 Bewertung mit Entropie:

21 © Prof. Dr. H. Gläser, Künstliche Intelligenz Kandidaten Hypothesen (k = 1) Neue Kandidaten Hypothesen IF Wetter=regnerisch THEN TennisWirdGespielt = ? Gesamtbsp.:6; p ja =2/6; p nein =4/6; Entropie=-0,92 IF Wetter=regnerisch UND Wetter=sonnig, IF Wetter=regnerisch UND Wetter=regnerisch, IF Wetter=regnerisch UND Luftfeuchtigkeit=gering, IF Wetter=regnerisch UND Luftfeuchtigkeit=hoch, IF Wetter=regnerisch UND Windstärke=gering, IF Wetter=regnerisch UND Windstärke=hoch

22 © Prof. Dr. H. Gläser, Künstliche Intelligenz Bewertung mit Entropie: IF Wetter=regnerisch UND Wetter=sonnig, widersprüchlich ! IF Wetter=regnerisch UND Wetter=regnerisch, doppelt ! IF Wetter=regnerisch UND Luftfeuchtigkeit=gering, kein Beispiel IF Wetter=regnerisch UND Luftfeuchtigkeit=hoch, Gesamtbsp.:6; p ja =2/6; p nein =4/6; Entropie=-0,92 IF Wetter=regnerisch UND Windstärke=gering, Gesamtbsp.:6; p ja =2/6; p nein =4/6; Entropie=-0,92 IF Wetter=regnerisch UND Windstärke=hoch kein Beispiel

23 © Prof. Dr. H. Gläser, Künstliche Intelligenz Kandidaten Hypothesen (k = 1) Neue Kandidaten Hypothesen Wetter=regnerisch,Luftfeuchtigkeit=hoch, Wetter=sonnig, Wetter=regnerisch,Luftfeuchtigkeit=hoch, Wetter=regnerisch, Wetter=regnerisch,Luftfeuchtigkeit=hoch, Luftfeuchtigkeit=gering, Wetter=regnerisch,Luftfeuchtigkeit=hoch, Luftfeuchtigkeit=hoch, Wetter=regnerisch,Luftfeuchtigkeit=hoch, Windstärke=gering, Wetter=regnerisch,Luftfeuchtigkeit=hoch, Windstärke=hoch IF Wetter=regnerisch UND Luftfeuchtigkeit=hoch, Gesamtbsp.:6; p ja =2/6; p nein =4/6; Entropie=-0,92

24 © Prof. Dr. H. Gläser, Künstliche Intelligenz

25 Kandidaten Hypothesen (k = 1) Neue Kandidaten Hypothesen Wetter=regnerisch,Luftfeuchtigkeit=hoch, Wetter=sonnig, widersprüchlich ! Wetter=regnerisch,Luftfeuchtigkeit=hoch, Wetter=regnerisch, doppelt ! Wetter=regnerisch,Luftfeuchtigkeit=hoch, Luftfeuchtigkeit=gering, widersprüchlich ! Wetter=regnerisch,Luftfeuchtigkeit=hoch, Luftfeuchtigkeit=hoch, doppelt Wetter=regnerisch,Luftfeuchtigkeit=hoch, Windstärke=gering, Gesamtbsp.:6; p ja =2/6; p nein =4/6; Entropie=-0,92 Wetter=regnerisch,Luftfeuchtigkeit=hoch, Windstärke=hoch kein Bsp. IF Wetter=regnerisch UND Luftfeuchtigkeit=hoch, Gesamtbsp.:6; p ja =2/6; p nein =4/6; Entropie=-0,92

26 © Prof. Dr. H. Gläser, Künstliche Intelligenz Beste Hypothese Wetter=regnerisch,Luftfeuchtigkeit=hoch, Windstärke=gering, häufigste Belegung des Zielattributs mit dieser Vorbedingung: TennisWirdGespielt = nein (4 von 6) => 1. Regel: IF Wetter=regnerisch,Luftfeuchtigkeit=hoch, Windstärke=gering THEN TennisWirdGespielt = nein

27 © Prof. Dr. H. Gläser, Künstliche Intelligenz Entfernen der beschriebenen Beispiele aus dem Beispielsatz: Learn_One_Rule beginnt von vorne:

28 © Prof. Dr. H. Gläser, Künstliche Intelligenz Alle Constraints : {Wetter=sonnig, Luftfeuchtigkeit=gering, Windstärke=gering, Windstärke=hoch} Kandidaten Hypothesen: IF THEN TennisWirdGespielt = ? Neue Kandidaten Hyphothesen: Wetter=sonnig, Luftfeuchtigkeit=gering, Windstärke=gering, Windstärke=hoch

29 © Prof. Dr. H. Gläser, Künstliche Intelligenz Entfernen der beschriebenen Beispiele aus dem Beispielsatz:

30 © Prof. Dr. H. Gläser, Künstliche Intelligenz Bewertung mit Entropie: Wetter=sonnig, Gesamtbsp.: 11; p ja =6/11; p nein =5/11; Entropie=-0,99 Luftfeuchtigkeit=gering, Gesamtbsp.: 11; p ja =6/11; p nein =5/11; Entropie=-0,99 Windstärke=gering, Gesamtbsp.: 5; p ja =4/5; p nein =1/5; Entropie=-0,72 Windstärke=hoch Gesamtbsp.: 6; p ja =2/6; p nein =4/6; Entropie=-0,92

31 © Prof. Dr. H. Gläser, Künstliche Intelligenz Neue Kandidaten Hypothesen Windstärke=gering UND Wetter=sonnig, Windstärke=gering UND Luftfeuchtigkeit=gering, Windstärke=gering UNDWindstärke=gering, Windstärke=gering UND Windstärke=hoch IF Windstärke=gering Kandidaten Hypothesen (k = 1)

32 © Prof. Dr. H. Gläser, Künstliche Intelligenz Entfernen der beschriebenen Beispiele aus dem Beispielsatz:

33 © Prof. Dr. H. Gläser, Künstliche Intelligenz Bewertung mit Entropie: Windstärke=gering UND Wetter=sonnig, Gesamtbsp.: 5; p ja =4/5; p nein =1/5; Entropie=-0,72 Windstärke=gering UND Luftfeuchtigkeit=gering, Gesamtbsp.: 5; p ja =4/5; p nein =1/5; Entropie=-0,72 Windstärke=gering UNDWindstärke=gering, doppelt Windstärke=gering UND Windstärke=hoch widersprüchlich

34 © Prof. Dr. H. Gläser, Künstliche Intelligenz Da bei allen Bsp. sonnig und Luftfcht. = gering: Beste Hypothese Wetter=sonnig,Luftfeuchtigkeit=gering, Windstärke=gering häufigste Belegung des Zielattributs mit dieser Vorbedingung: TennisWirdGespielt = ja (4 von 5) => 2. Regel: IF Wetter=sonnig,Luftfeuchtigkeit=gering, Windstärke=gering THEN TennisWirdGespielt = ja

35 © Prof. Dr. H. Gläser, Künstliche Intelligenz Entfernen der beschriebenen Beispiele aus dem Beispielsatz: => 3. Regel: IF Wetter=sonnig,Luftfeuchtigkeit=gering, Windstärke=hoch THEN TennisWirdGespielt = nein

36 © Prof. Dr. H. Gläser, Künstliche Intelligenz Regeln geben zwar Aussagen für alle Beispiele Sie treffen aber nicht unbedingt immer zu Performanzwert gibt Aussage über Wahrscheinlichkeit => 1. Regel: IF Wetter=regnerisch,Luftfeuchtigkeit=hoch, Windstärke=gering THEN TennisWirdGespielt = nein => 2. Regel: IF Wetter=sonnig,Luftfeuchtigkeit=gering, Windstärke=gering THEN TennisWirdGespielt = ja => 3. Regel: IF Wetter=sonnig,Luftfeuchtigkeit=gering, Windstärke=hoch THEN TennisWirdGespielt = nein

37 © Prof. Dr. H. Gläser, Künstliche Intelligenz Learn One Rule positive Beispiele: (Name 1 =Sharon, Mother 1 =Louise, Father 1 =Bob, Male 1 = False, Female 1 =True, Name 2 =Bob, Mother 2 =Nora, Father 2 =Victor, Male 2 =True, Female 2 =False, Daughter 1,2 =True) while (noch Attribute übrig) Daughter 1,2 =True (ohne Vorraussetzung) Daughter 1,2 =True Voraussetzung 1 neues Attribut Attribut / Wert Kombinationen Wirksamkeit in Bedeckung der Beispiele Rangliste

38 © Prof. Dr. H. Gläser, Künstliche Intelligenz Prädikatenlogische Mittel prädikatenlogischer Ausdruck = Literalsymbol, Prädikatsymbol,Funktionsymbol, M = Greater_than( age( Mary ), x ) Konstantensymbol, Variablensymbol

39 © Prof. Dr. H. Gläser, Künstliche Intelligenz Horn Clause Kopf Körper IF Parent(x,y) THEN Ancestor(x,y) Kopf Körper

40 © Prof. Dr. H. Gläser, Künstliche Intelligenz Ergebnis Regel propositional: Nachteil Propositionen: Keine Beziehung zwischen den Attributwerten Lösung: Horn clause: 1. Ordnungsregel

41 © Prof. Dr. H. Gläser, Künstliche Intelligenz Induktive Logische Programmierung innere Schleife des sequentiellen Bedeckalgorithmus: (input: Prädikate, die auch in den Beispielen vorkommen, z.B Father, Female) GrandDaughter(x,y) (ohne Vorraussetzung) Regel: Es wird nur nach Regeln für GrandDaughter(x,y)=True gesucht !

42 © Prof. Dr. H. Gläser, Künstliche Intelligenz while (es werden noch negative Bindungen abgedeckt) Kandidatenbildung: Bewertung anhand der Beispiele GrandDaughter(x,y) bisherige Regel bester Kandidat Ergebnis:

43 © Prof. Dr. H. Gläser, Künstliche Intelligenz Algorithmus zur induktiven logischen Programmierung Eingabe: (Ziel_Prädikat, Prädikate, Beispiele) Prädikate: Prädikatsnamen, wie sie auch in den Beispielen vorkommen, hier also Father, Female Beispiele: Beispielprädikate mit Konstanten z.B. GrandDaughter(Victor, Sharon) Father(Sharon, Bob) Father(Tom, Bob) Female(Sharon) Father(Bob, Victor)

44 © Prof. Dr. H. Gläser, Künstliche Intelligenz Victor, Sharon, Bob, Tom16 Kombinationen mit x,y 1 positive Bindung: StartRegel: die reine Nachbedingung (am allgemeinsten) 15 negative Bindungen Bilanz: Closed World Assumption: alles was nicht explizit wahr ist, ist falsch. Dies führt zu negative Bindungen von x, y

45 © Prof. Dr. H. Gläser, Künstliche Intelligenz Implizite negative Beispiele: Die Regel bedeckt auch diese negativen Beispiele ! (Denn sie besagt: Alle sind Enkelin von allen, auch von sich selbst) d.h. die Regel sagt z.B. Victor ist Enkelin von Victor, dies ist aber wegen der Closed World Assumption nicht wahr. -> Spezialisierung muss weitergehen

46 © Prof. Dr. H. Gläser, Künstliche Intelligenz nächster Schritt: Bisher vorkommende (alte) Variablen: Neue Regel = Alte Regel ^ neues Literal x, y Neue Variablenmenge (mit einer ergänzten Variable): x, y, z

47 © Prof. Dr. H. Gläser, Künstliche Intelligenz Kandidatenbildung für neues Literal: - Alle möglichen Kombinationen der Prädikate (von der Eingabe) sowie equals mit den Variablen aus der Variablenmenge. - Dabei muß in der Variablenliste jedes Kandidatenliterals mindestens ein Variable, die schon in der Regel existiert ! vorkommen (bei equals nur Variablen die schon in Regel existieren) ! - Dazu kommen alle Negationen dieser neuen Literale ! Prädikate der Eingabe: Father, Female Alle möglichen Kombinationen: Father(x,y) Father(x,z) Father(y,x) Father(y,z) Father(z,x) Father(z,y) Female(x) Female(y) Female(z) equals(x,y) equals(x,z) equals(y,x) equals(y,z) equals(z,x) equals(z,y) identisch

48 © Prof. Dr. H. Gläser, Künstliche Intelligenz Bewertung der Kandidaten: 16 Möglichkeiten der Bindung der 4 Konstanten an x,y Keine positive Bindung ! 4 3 Möglichkeiten der Bindung der 4 Konstanten an x,y,z 4 2 Möglichkeiten der Bindung der 4 Konstanten an x,y Eine positive Bindung !

49 © Prof. Dr. H. Gläser, Künstliche Intelligenz Zwar gibt es 4 3 Möglichkeiten der Bindung der 4 Konstanten an x,y,z aber nach wie vor 1 positives Beispiel für das Zielprädikat und 15 negative Beispiele für das Zielprädikat. Auswahl des Literals Father(y,z) Durch Hinzunahme des Literals Father(y,z) wird die Anzahl bedeckter negativer Beispiele des Zielprädikats geringer: Es gelten nur GrandDaughter Beispiele, die als zweiten Parameter dieselbe Person haben, wie ein Father Prädikat als erste Person ! (Es darf immer noch x==y und/oder x==z und/oder y==z sein)

50 © Prof. Dr. H. Gläser, Künstliche Intelligenz Es gibt zwei Father Beispiele: Father(Sharon,Bob), Father(Tom,Bob) positive Belegung: negative Belegungen d.h. es existiere nur noch zwei negative Belegungen GrandDaughter(Victor, Sharon) Father(Sharon, Bob) Father(Tom, Bob) Female(Sharon) Father(Bob, Victor)

51 © Prof. Dr. H. Gläser, Künstliche Intelligenz Beste Hypothese: Kandidatenbildung für neues Literal: - Alle Literale aus dem vorherigen Schritt - zusätzlich: Neue Variablenmenge (mit einer ergänzten Variable): x, y, z, w Father(z,w) Father(w,z) Father(y,w) Father(w,y) Father(x,w) Father(w,x) Female(z)equal(z,x) equal(z,y) Nächste Iteration:

52 © Prof. Dr. H. Gläser, Künstliche Intelligenz Neue Hypothesen: u.s.w. mit alten Literalen u.s.w.

53 © Prof. Dr. H. Gläser, Künstliche Intelligenz Es gibt nur ein Femal Beispiele: Female(Sharon) positive Bedeckung: negative Bedeckung: d.h. es existiert keine negative Belegung: Learn One Rule bricht ab, keine weitere Spezialisierung der Vorbedingung Beste Hypothese Es werde Female(y) gewählt - Für die echte Regel fehlt es an Beispielen

54 © Prof. Dr. H. Gläser, Künstliche Intelligenz Herausfinden der besten Kandidaten p = Zahl positiver bedeckter Beispiele, n= Zahl negativer bedeckter Beispiele 0 = vor Erweitern der Regel um Literal L, 1= nach Erweitern der Regel t = Zahl der positiven Bindungen der Regel R die noch bedeckt werden, nachdem L hinzugefügt wurde Foil_Gain = Verminderung notwendiger Bits um positive Bindungen von R zu kodieren.

55 © Prof. Dr. H. Gläser, Künstliche Intelligenz Bewertung der Kandidaten: R = Kandidaten für L p 0 =1 n 0 =15 neues R z.B. (mit Father(x,y)) 4 mögliche Konstanten: Victor, Sharon, Bob, Tom Negationen binden nur negative Beispiele

56 © Prof. Dr. H. Gläser, Künstliche Intelligenz Übung zur induktiven logischen Programmierung -- zum Selberrechnen - versuchen Sies selbst

57 © Prof. Dr. H. Gläser, Künstliche Intelligenz Eine Anwendung des maschinellen Lernens: Data Mining- Schürfen im Datenbergwerk Data Mining Entdeckung von Mustern Vorhersage Suche nach Besonderheiten Wenn Dann Regeln Zusammenhänge Trends Suche nach Informationsmustern in Daten

58 © Prof. Dr. H. Gläser, Künstliche Intelligenz Zwei unterschiedliche Strategien logisch Gleichungen Daten werden destilliert Data bleiben erhalten Nächster Nachbar Entscheidungsbaum Induktion von Regeln Statistik Neuronale Netze

59 © Prof. Dr. H. Gläser, Künstliche Intelligenz Nächster Nachbar Methode Vorhersage von Eigenschaften Beispiel: Ist ein neuer Bankkunde eventuell an Aktienfonds interessiert ? Attribute von vorhandenem Kunden werden mit Attributen von neuem Kunden verglichen Hat ähnlichster Alt- Kunde Aktienfonds ? Werbematerial nicht zusenden. Werbematerial zusenden. JaNein Speicheraufwand! -> Datensatz auf Typische einschränken

60 © Prof. Dr. H. Gläser, Künstliche Intelligenz logisch Gleichungen Daten werden destilliert Data bleiben erhalten Nächster Nachbar Entscheidungsbaum Induktion von Regeln Statistik Neuronale Netze

61 © Prof. Dr. H. Gläser, Künstliche Intelligenz Entscheidungsbaum Beispiel: Wann ist der Gewinn einer deutsche Firma im Ausland hoch ?

62 © Prof. Dr. H. Gläser, Künstliche Intelligenz Entscheidungsbaum China Japan Start Niederlande Mitt el Alberts Jung Mitt el Nied rig Hoc h Schmidt Jung blau rot blau grün Hoc h

63 © Prof. Dr. H. Gläser, Künstliche Intelligenz Entscheidungsbaum Problem: In welcher Reihenfolge werden die Attribute angewandt ?

64 © Prof. Dr. H. Gläser, Künstliche Intelligenz blau rot Start grün Japan Niederlande Mitt el Nied rig Hoc h Japan China Mitt el Nied rig

65 © Prof. Dr. H. Gläser, Künstliche Intelligenz Induktion als invertierte Deduktion Nur Regeln erzeugen, die auf Beispiele passen B: Hintergrundwissen h: Hypothese x i : Beispiel f: Zielprädikat

66 © Prof. Dr. H. Gläser, Künstliche Intelligenz Konstruktion von C 2

67 © Prof. Dr. H. Gläser, Künstliche Intelligenz Erklärungsbasiertes Lernen Jedes Beispiel wird anhand von Hintergrundwissen mit Blick auf das Zielkonzept erklärt. z.B. es ist sicher x auf y zu stapeln, da y nicht zerbrechlich ist Beispiel: Glas auf einen Holzklotz zu stapeln ist sicher. Holzklotz ist nicht zerbrechlich. Holzklotz ist braun. Mit dieser Erklärung werden die relevanten von den nicht relevanten Eigenschaften getrennt. Mit Hintergrundwissen wird der Hypothesenraum deduktiv verringert

68 © Prof. Dr. H. Gläser, Künstliche Intelligenz Domänentheorie: positives Beispiel: Zielkonzept: SafeToStack(Obj1, Obj2) = Hintergrundwissen Konstanten groß geschrieben Variablen klein geschrieben

69 © Prof. Dr. H. Gläser, Künstliche Intelligenz Anwendung von PROLOG Das Beispiel wird aus dem Hintergrundwissen erklärt Das Zielkonzept wird (irgenwie) aus den anderen Prädikaten des Beispiels deduktiv abgeleitet

70 © Prof. Dr. H. Gläser, Künstliche Intelligenz Erklärungsbaum SafeToStack(Obj1,Obj2) Lighter(Obj1,Obj2) Weight(Obj1,0.6)Weight(Obj2,5) Volume(Obj1,2)Density(Obj1,0.3)Equal(0.6,2*0.3)LessThan(0.6,5)Type(Obj2,Endtable) Prolog

71 © Prof. Dr. H. Gläser, Künstliche Intelligenz Verallgemeinerung Durchgehen des Erklärungsbaums von der Wurzel aus Ebene um Ebene Geltungsbereich der Variablen der Literale ausdehnen, soweit es die Regeln der Domänen Theorie zulassen

72 © Prof. Dr. H. Gläser, Künstliche Intelligenz SafeToStack(Obj1,Obj2) Lighter(Obj1,Obj2) Weight(Obj1,0.6)Weight(Obj2,5) Volume(Obj1,2)Density(Obj1,0.3)Equal(0.6,2*0.3)LessThan(0.6,5)Type(Obj2,Endtable) Verallgemeinerung

73 © Prof. Dr. H. Gläser, Künstliche Intelligenz Maschinelles Lernen Lösung: Man fängt mit dem allgemeinsten Zielprädikat an, und spezialisiert pro Regelkopf zu Regelkörper Schritt gerade nur soviel, wie irgend nötig. Suchen nach dem Unifikator von zwei Prädikaten: Term = Konstante; Variable; Funktion; Wie kann man die Erklärungskette verallgemeinern ?? -> Unifikation von Regelkopf mit Regelkörper Bsp.: abgeben(x,Geld) und abgeben(Otto,y) was ist das allgemeinste Prädikat abgeben(v,w) das sich aus den obigen Prädikaten gerade noch ableiten läßt ?? Wenn man x durch Otto und y durch Geld ersetzt -> Unifikator = {Otto/x, Geld/y} -> abgeben(Otto, Geld)

74 © Prof. Dr. H. Gläser, Künstliche Intelligenz Maschinelles Lernen Variable x: Werte können aus dem gesamten Wertebereich kommen Funktion f(x): Werte kommen aus einem Teil des Wertebereichs Konstante a: Ein Wert des Wertebereichs Mögliche Ersetzungen bei denen P wahr bleibt: P(x) zu P(f(x)) P(x) zu P(a) P(x) zu P(y) wenn x und y aus der gleichen Wertemenge kommen Ersetzungen, bei denen man nicht garantieren kann, das P wahr bleibt: P(f(x)) zu P(a) a ist möglicherweise nicht in der Menge, die durch die f(x) gebildet wird g(x) und f(x) beschreiben nicht die gleiche MengeP(f(x)) zu P(g(x))

75 © Prof. Dr. H. Gläser, Künstliche Intelligenz Maschinelles Lernen C1C1 C2C2 _ _ _ _ _ _... Position k = 1 Zeichen an Position k vergleichen - k weiterrücken bis Ende Sobald verschiedene Zeichen: Wenn in C 1 (bzw. C 2 ) eine Variable an Position k beginnt, wird sie durch den an k beginnende Term von C 2 (bzw. C 1 ) ersetzt Position k = 1 Die Ersetzung wird in einer Liste vermerkt Wenn verschiedene Zeichen, aber keine Variable => nicht unifizierbar

76 © Prof. Dr. H. Gläser, Künstliche Intelligenz Maschinelles Lernen Beispiele: {P(x,f(z)), P(h(a),y)} Unifikator: {h(a)/x, f(z)/y} y wird durch f(z) ersetzt {P(h(g(u))), P(g(h(x)))} nicht unifizierbar {P(x, f(a,b), h(a)), P(f(z,v),x,h(z))} Unifikator {f(a,b)/x, a/z, b/v} {P(x, f(z,x), h(a)), P(f(a,b),x, h(x))} nicht unifizierbar z, x, y Variablen a, b Konstanten

77 © Prof. Dr. H. Gläser, Künstliche Intelligenz SafeToStack(Obj1,Obj2) SafeToStack(x,y) Ligther(Obj1,Obj2) Ligther(x,y) Weight(Obj1,0.6) Weight(x,wx) LessThan(0.6,5) LessThan(wx,wy) Weight(Obj2,5) Weight(y,wy) LessThan(wx,wy) Equal(0.6,2*0.3) Equal(wx,vx*dx) Density(Obj1,0.3) Density(x,dx) Volume(Obj1,2) Volume(x,vx) LessThan(wx,5) Equal(wx,vx*dx) Density(x,dx) Volume(x,vx) Type(Obj2,Endtable) Type(y,Endtable) zugehörige Regel=

78 © Prof. Dr. H. Gläser, Künstliche Intelligenz Literal aus der Regel Literal aus der Frontlinie z.B. weight(x,w) aus z.B. weight(y,wy)

79 © Prof. Dr. H. Gläser, Künstliche Intelligenz 1. Schritt zugehörige Regel= Unifikation von Literal der Frontlinie mit Kopf der Regel : {x/x, y/y} Kopf wird durch Regelkörper ersetzt: Frontlinie wird verändert Frontlinie: Literal der Frontlinie: SafeToStack(x,y) Ersetzung wird in der ganzen Frontlinie durchgeführt: nichts zu tun

80 © Prof. Dr. H. Gläser, Künstliche Intelligenz 2. Schritt zugehörige Regel= Frontlinie erweitert: Literal wird durch Regelkörper ersetzt: Frontlinie: Literal der Frontlinie: Unifikation von Literal der Frontlinie mit Kopf der Regel : {x/x, y/y} Ersetzung wird in der ganzen Frontlinie durchgeführt: nichts zu tun

81 © Prof. Dr. H. Gläser, Künstliche Intelligenz 4. Schritt zugehörige Regel= Frontlinie erweitert: Literal wird durch Regelkörper ersetzt: Literal der Frontlinie: Unifikation von Literal der Frontlinie mit Kopf der Regel : {y/y, wy/5} Ersetzung wird in der ganzen Frontlinie durchgeführt:

82 © Prof. Dr. H. Gläser, Künstliche Intelligenz 2. Beispiel abgeben(Mary, Geld); zeigtMitGewehrAuf(John, Mary); verlangtGeldVon(John, Mary) zugehörige Domänentheorie:

83 © Prof. Dr. H. Gläser, Künstliche Intelligenz Schliess-Baum abgeben(Mary, Geld) mehrWert(Leben,Geld) abgebenMüssenXOder(Mary,Leben,Geld) zeigtMitGewehrAuf(John,Mary) verlangtGeld(John,Mary)

84 © Prof. Dr. H. Gläser, Künstliche Intelligenz verallgemeinerter Ausdruck passende Regel (laut Schliess-Baum) abgeben(x,y) mehrWert(x,y) abgebenMüssenXOder(z,x,y) abgeben(z,y) Unifikation des Regelkopfs mit dem verallgemeinerter Ausdruck : (das allgemeinere wird durch das speziellere ersetzt. x und x sind gleich allgemein, y und y auch -> es ist egal wie ersetzt wird, nur es muss AUCH in der LiteralFront ersetzt werden !!) {neu / alt} {x/z, y/y}unifizierte Regel: mehrWert(x,y) abgebenMüssenXOder(x,x,y) abgeben(x,y) Front der Literale mehrWert(x,y) abgebenMüssenXOder(x,x,y) abgeben(x,y) ersetzen von Literalen mit Hilfe von Regeln verallgemeinerter Ausdruck mehrWert(x,y) passende Regel (laut Schliess-Baum) TRUE mehrWert(Leben,x) Unifikation des Regelkopfs mit dem verallgemeinerter Ausdruck : (Leben ist spezieller als x, y und xsind gleich allgemein) {Leben/x, y/x}unifizierte Regel: TRUE mehrWert(Leben,y) Front der Literale (nach Unif. und ersetzen des Literals durch den Regelkörper) ersetzen von Literalen mit Hilfe von Regeln TRUE abgebenMüssenXOder(x,Leben,y) abgeben(x,y)

85 © Prof. Dr. H. Gläser, Künstliche Intelligenz verallgemeinerter Ausdruck passende Regel (laut Schliess-Baum) abgebenMüssenXOder(x,Leben,y) zeigtMitGewehrAuf(x,y) verlangtGeld(x,y) abgebenMüssenXOder(y,Leben,Geld) Unifikation des Regelkopfs mit dem verallgemeinerter Ausdruck : (das allgemeinere wird durch das speziellere ersetzt. y und x sind gleich allgemein, Leben und Leben sind gleich (sonst wäre gar keine Unifikation möglich, denn beides sind Konstanten !), Geld ist spezieller als y ) {neu / alt} {x/y, Geld/y} unifizierte Regel: zeigtMitGewehrAuf(x,x) verlangtGeld(x,x) abgebenMüssenXOder(x,Leben,Geld) Front der Literale (nach Unif. und ersetzen des Literals durch den Regelkörper) TRUE zeigtMitGewehrAuf(x,x) verlangtGeld(x,x) abgeben(x,Geld) Keine weiteren Regeln mehr im Schliess-Baum TRUE kann weggelassen werden, wegen UND Verknüpfung zeigtMitGewehrAuf(x,x) verlangtGeld(x,x) abgeben(x,Geld) Aus dem Beispiel gelernte Regel lautet:


Herunterladen ppt "© Prof. Dr. H. Gläser, Künstliche Intelligenz Automatisierung des Lernens."

Ähnliche Präsentationen


Google-Anzeigen