Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Seminar Softwareagenten

Ähnliche Präsentationen


Präsentation zum Thema: "Seminar Softwareagenten"—  Präsentation transkript:

1 Seminar Softwareagenten
Suchen mit Agenten Seminar Softwareagenten Simon Fischer

2 Gliederung Motivation Suchprobleme Suchalgorithmen für Agenten
Zusammenfassung/Kritik

3 Motivation „Suche“ nach Informationen Lösungen Hilfe Wegen
Stichwort: „intelligente Suchmaschine“ Lösungen komplexe Aufgaben Hilfe Unterstützung / Teambildung Wegen Navigation, Orientierung

4 Beispiele intelligente Suchmaschinen komplexe Aufgaben
„Information Retrieval“ und „Content Analysis“ mit Agenten komplexe Aufgaben z.B. „Suche das günstigste Urlaubsangebot für die nächsten Ferien!“ Navigationssystem incl. dynamischer Verkehrsstauumgehung

5 Suchräume und Ziele Quantifizierung von qualitativen Aspekten.
Spezielle Agenten für bestimmte Suchräume unterschiedliche Ziele: eine Lösung! beste Lösung!

6 Suchprobleme „Suche“ als Oberbegriff für eine Reihe von Problemlösungstechniken in der KI. Aktionsreihenfolge zur Lösung des Problems vorher nicht bekannt. Anwendung von „Trial & Error“-Techniken Probleme/Aufgaben lassen sich klassifizieren:

7 Suchprobleme (2) „Constraint Satisfaction Problems“
Urlaubsrecherche 8/n-Damen Problem Graphenfärbung „Path-Finding Problems“ Navigationssystem n-Puzzle Labyrinth / Hindernisflächen „Two-Player Games“ Verhandlungen Tic-Tac-Toe

8 Suchalgorithmen für Agenten
Eigenschaften eines Agenten Kein globales Wissen!! Begrenzte Wahrnehmung Begrenzte Ressourcen Daher: Kooperation mit anderen Agenten Asynchroner Informationsaustausch oder/und Schrittweises Vorgehen und lösen des lokalen Problems

9 Constraint Satisfaction Problems
Definition n-Variablen: x1,x2,...,x n Wert der Variable jeweils aus einer „Domain“: D1,D2,...,Dn (diskret, endlich) „Constraint“: pk(xk1,....,xkj) Ermittlung einer Wertkonstellation die alle Bedingungen erfüllt.

10 Problemmodellierung Bsp.: 8-Damen Problem
Je Schachbrettzeile eine Variable (x1,...,x8) „Domain“ jeweils {1,2,...,8} – Position in der Zeile Bedingungen: xi  xj (Keine zwei Damen in einer Spalte) und |i-j| | xi –xj | (keine Diagonalen)

11 Problemmodellierung (2)
„Constraint“-Graph Voraussetzung: Bedingungen immer nur zwischen 2 Variablen („binary CSP‘s“) Knoten: Variablen Kanten: Bedingung Knoten mit direkter Verbindung sind „Nachbarn“ X1 {1,2} X2 {2} X3

12 Distributed CSP‘s Pro Variable ein Agent Problem:
lokale Sicht: Treffen lokaler Entscheidungen ohne globales Wissen Interdependenzen mit andern Agenten über „Constraints“ Wichtig: Modellierung der „Constraints“ asynchrone Kommunikation Keine „Lost Messages“ Reihenfolge der Nachrichten bleibt erhalten

13 Filtering Algorithm „Preprocessing“ evtl. nur Reduktion des Problems
(wiederholte) Kommunikation der eigenen „Domain“ an seine Nachbarn Elimination der Werte der eigenen Domain, die in jedem Fall einen Konflikt erzeugen.

14 Filtering Algorithm 3-Damen Problem x1 x2 x3 x1 x2 x3
procedure revise(xi,xj) for all vi in Di do if there is no value vj in Dj such that vj is consistent with vi then delete vi from Di; end if; end do;

15 Hyper-Resolution-Based Consistency Algorithm
Grundlagen Constraint-Modellierung über „nogoods“ Bsp. Graphenfärbung: Bedingung: Benachbarte Knoten nie gleichfarbig „nogoods“: {x1=red,x2=red},{x1=blue,x2=blue} Hyper-Resolution Regel: Domain A1 A1 ... Am „nogoods“ (A1 A11 ... ), (A2 A21 ... .), ..., (Am Am1 ...) =>„nogood“ (A11 ...  A21 ... Am1 ... )

16 Hyper-Resolution-Based Consistency Algorithm (2)
„nogood“ Beispiel: Bekannte„nogoods“ bei x1: {x1=red,x2=red} {x1=blue,x2=blue} {x1=red,x3=red} {x1=blue,x3=blue} Hyper-Resolution Regel: Domain x1=red, x1=blue „nogoods“ (x1=red  x2=red), (x1=blue  x3=blue) =>„nogood“ (x2=red  x3=blue) X1 {redt,blue} X2 {red,blue} X3

17 Hyper-Resolution-Based Consistency Algorithm (3)
Algorithmus: Austausch neuer „nogoods“ mit Nachbarn Problem nicht lösbar, sobald „nogood“ leere Menge Lösung, falls keine neuen „nogoods“ generierbar Problem: Generierung von sehr vielen „nogoods“ teuer Restriktion der max. Länge von „nogoods“ führt nur zur Gesamtproblemreduktion (vgl. Filtering Algorithm)

18 Asynchronous Backtracking
Agenten/Variablen werden angeordnet (z.B. x1>x2>x3...) 2 Nachrichten-Typen: Ok?-Messages „nogood“-Messages Vorgehen Initialwerte kommunizieren (ok?) Bei Erhalt einer ok?-Message: Wertänderung, falls inkonsistent mit höherwertigen Agenten nicht möglich? -> „nogood“ Erzeugung Kommunikation des „nogood“ an „niedrigsten“ Agenten aus dem „nogood“ X1 {1,2} X2 {2} X3 (ok?,(x1,1) (nogood, {(x1,1),(x2,2)}) (ok?,(x2,2)

19 Asynchronous Backtracking (2)
Add neighbour request X1 {1,2} X2 {2} X3 local view {(x1,1)} Beim Erhalt einer „nogood“-Message: „Kontakt“ zu bisher unbekannten Agenten aufbauen (-> zukünftige Updates) „Local view“ ergänzen und überprüfen (nogood, {(x1,1),(x2,2)})

20 Asynchronous Backtracking (3)
(nogood, {(x1,1)}) X1 {1,2} X2 {2} X3 local view {(x1,1)} Vorgehen wie bei OK?-Message: Falls möglich neuen Wert wählen Sonst: „Nogood“ Message erzeugen usw... 3 Proceduren: When received (ok?...) When received (nogood...) Check local view! Generate and send new (nogood...) Send (ok?...) (nogood, {(x1,1),(x2,2)})

21 Asynchronous Backtracking (4)
Zusammenfassung: Anordnung der Agenten Auswahl eines initialen Wertes Kommunikation an Nachbarn Aufbau eines „local view“ (Werte anderer Agenten) Überprüfung des eigenen Wertes mit Werten von höherpriorisierten Agenten anhand der „Constraints“ Änderung – ansonsten Generierung eines „nogood“ (nur aktueller Zustand wird berücksichtigt) Kommunikation des „nogood“ an den niedrigstpriorisierten Agenten aus dem „nogood“ Dadurch: sukzessive Änderungen entlang der Priorisierung Problem Ungünstige Entscheidung von hochpriorisierten Agenten bedingen umfangreiche Suchaktionen niedrigerer Agenten

22 Asynchronous Weak-Commitment Search
Verbesserung des „Asynchronous Backtracking“ Dynamische Ordnung: Zusätzlich: Ein ansteigender Prioritätswert (initial 0) Bei gleichem Wert gilt fixe Ordnung Reduktion der Wahrscheinlichkeit von falschen Entscheidungen Auswahl eines neuen Werte mittels „min-conflict“- Heuristik

23 Asynchronous Weak-Commitment Search (2)
Erhöhung der Priorität: Nur, falls kein konsistenter Wert gefunden wird und ein neues(!) „nogood“ generiert werden kann. „min-conflict“-Heuristik: Auswahl des Wertes, der konsistent mit höherpriorisierten Agenten ist und die wenigsten Konflikte mit niedrigerpriorisierten Agenten verursacht. Probleme: Gewährleistung der Vollständigkeit wird evtl. teuer erkauft.

24 Path-Finding Problems
Definition Modellierung als Graph: Zustände = Knoten N Aktion = Kante L Startzustand als Ausgangspunkt Menge von Zielknoten als Endzustände Kantengewichte als Kosten der Aktion bzw. Entfernung zwischen zwei Knoten Ermittlung des „kürzesten“ Weges vom Startknoten zu einem Endknoten

25 Problemmodellierung Bsp.: 8-Puzzle Labyrinth 1 4 2 3 5 6 7 8
Jede mögliche Anordnung als Knoten Kosten pro „Zug“ = 1 Labyrinth Gitternetz Jeder gültiger Ort ein Knoten Kanten entsprechen den möglichen Bewegungsrichtungen

26 „Path-Finding“ mit Agenten
Suche nach möglichst kurzen Wegen mit evtl. mehreren Agenten. Konkurrenzsituationen bei „Bottlenecks“ Zielgerichtete Navigation in unbekannten Umgebungen Klassifikation Unidirektionale Bidirektionale Multidirektional Problem auch hier: nur lokale Sicht

27 Asynchronous Dynamic Programming
Grundlagen Optimalitätsprinzip: Ein Pfad ist genau dann optimal, wenn jeder Teilpfad auch optimal ist. Definitionen h*(j) - Kürzester Weg von Knoten j zum Ziel k(i,j) – Kosten der Kante von i zu j f*(j) – Kürzester Weg über Knoten j zum Ziel f*(j)=k(i,j)+h*(j) Kürzester Weg von Knoten i zum Ziel h*(i)= minjf*(j)

28 Asynchronous Dynamic Programming (2)
Problem: h*(j) unbekannt Idee: Pro Knoten ein Agent h(i) - aktuell kürzeste Entfernung Initial: Zielknoten=0 sonst z.B. . Jeder Agent hat Zugriff auf aktuellen „h“-Wert der Nachbarn und die Kosten der Kante Jeder Knoten berechnet dann wiederholt seinen h-Wert als minj(k(i,j)+h(j)) Algorithmus ist nicht praxisrelevant aber Basisidee für andere Algorithmen

29 Learning Real-Time A* (LRTA*)
Unidirektional Ein Agent (vgl. Roboter) Reduktion auf Entscheidung über nächsten optimalen Knoten Vorgehen: Initiale h(j) werden geschätzt (Heuristiken) 1. f(j) für jeden Nachbarknoten bestimmen 2. Wert h(i) des aktuellen Knoten neu setzen: minj(f(j)) 3. Zu „vielversprechendstem“ Knoten wechseln

30 Real-Time A* (RTA*) Variante von LRTA*
Update des aktuellen Wertes mit dem zweitkleinsten f-Wert der Nachbarknoten Weiterhin Wechsel zu Nachbarn mit kleinstem f-Wert Vorteil: RTA* lernt effizienter

31 Heuristiken Anforderung an Heuristiken
„Zulässigkeit“ Eine Heuristik ist zulässig (admissible) wenn sie nie den tatsächlichen Wert überschätzt! h(i)h*(i) Heuristik statt globales Wissen: Effizienz des Algorithmus abhängig von Optimalität der Heuristik

32 Moving Target Search Generalisierung von LRTA* für bewegte Ziele
Verwendung einer Matrix heuristischer Werte - h(x,y) y als Position des Zieles. Voraussetzung: Information über Bewegung des Zieles Unterschiedliche Update-Prozeduren für h- Werte des aktuellen Knotens bei eigener Bewegung bzw. Bewegung des Zieles

33 Real-Time Bidirectional Search
Bidirektional 2 Agenten Startpositionen: Ausgangszustand Endzustand Ermittlung des Gesamtweges durch Treffen des anderen Agenten Unterschiedliche Ergebnisse bei unterschiedlichen Organisationsformen: Centralized RTBS Decoupled RTBS

34 Real-Time Multiagent Search
Vorteile beim Einsatz von mehreren Agenten: Start Ziel

35 Two-Player Games Konkurrierende Agenten Grundlage „Minmax“-Algorithmus
Modellierung des Spiels als Baum Vollständiger Baum wäre Grundlage für perfekte Strategie – aber: zu komplex „Minmax“-Algorithmus Pro Zug wird ein Teil des Baumes evaluiert Mögliche zukünftige Spielzustände werden über Heuristik bewertet und in die nähere Zukunft propagiert. Mögliche Aktionen des Gegenspielers werden berücksichtigt Nächster Zug gemäß besseren Zukunftsaussichten

36 Two-Player Games Optimierung: Alpha-Beta Pruning
Basiert auf Vorgehen bei der Bewertung der Teilbäume (Depth-first order) Äste, die nur noch schlechtere Spielzustände versprechen werden erst gar nicht untersucht. „Speed-up“ bzw. tiefere Suche möglich

37 Zusammenfassung/Kritik
+ Interessante Algorithmen für Agenten Distributed Constraint-Satisfaction Problems Distributed Path-Finding Problems Two-Player Games + evtl. Grundlage für viele Anwendungen Geeignete Modellierung als Voraussetzung Effizienz ist problemabhängig Keine Aussagen bzgl. Praxistauglichkeit Abhängigkeit von der Qualität der Heuristik


Herunterladen ppt "Seminar Softwareagenten"

Ähnliche Präsentationen


Google-Anzeigen