Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

G.Heyer Algorithmen und Datenstrukturen 2 1 Dynamische Programmierung Das Prinzip „Teile und Herrsche“ diente als Grundlage für die Entwicklung vieler.

Ähnliche Präsentationen


Präsentation zum Thema: "G.Heyer Algorithmen und Datenstrukturen 2 1 Dynamische Programmierung Das Prinzip „Teile und Herrsche“ diente als Grundlage für die Entwicklung vieler."—  Präsentation transkript:

1 G.Heyer Algorithmen und Datenstrukturen 2 1 Dynamische Programmierung Das Prinzip „Teile und Herrsche“ diente als Grundlage für die Entwicklung vieler der untersuchten Algorithmen. Um ein umfangreiches Problem zu lösen, zerlege man es in kleinere Probleme, die unabhängig voneinander gelöst werden können. In der dynamischen Programmierung wird dieses Prinzip bis zum Extrem weiterentwickelt: Wenn nicht bekannt ist, welche kleineren Probleme zu lösen sind, löst man einfach alle und speichert dann die Ergebnisse zum Zwecke der späteren Verwendung bei der Lösung größerer Probleme. Dieser Ansatz ist in „Operations Research“ weit verbreitet. Hierbei bezieht sich der Begriff „Programmierung“ auf den Prozess der Formulierung der Bedingungen eines Problems, um das Verfahren anwendbar zu machen.

2 G.Heyer Algorithmen und Datenstrukturen 2 2 Prinzip und Voraussetzung 1. Charakterisiere den Lösungsraum und die Struktur der intendierten optimalen Lösung 2. Definiere rekursiv, wie sich eine optimale Lösung (und der ihr zugeordnete Wert) aus kleineren optimalen Lösungen (und deren Werte) zusammensetzt. 3. Konzipiere den Algorithmus in einer bottom-up Weise so, dass für n=1,2,3,... tabellarisch optimale Teillösungen (und deren zugeordnete Werte) gefunden werden. Beim Finden einer bestimmten optimalen Teillösung der Größe k>1 ist auf alle optimalen Teillösungen der Größe < k zurückzugreifen. Voraussetzung: Die optimale Lösung für ein Problem der Größe n setzt sich aus optimalen Teillösungen kleinerer Größe zusammen. (Bellmannsches Optimalitätsprinzip)

3 G.Heyer Algorithmen und Datenstrukturen 2 3 Bei der Anwendung der dynamischer Programmierung können zwei Schwierigkeiten auftreten: - Erstens muss es nicht immer möglich sein, die Lösungen kleinerer Probleme so zu kombinieren, dass sich die Lösung eines größeren Problems ergibt. - Zweitens kann die Anzahl der zu lösenden Probleme unvertretbar groß sein. Es ist noch nicht gelungen, genau anzugeben, welche Probleme mit Hilfe der dynamischen Programmierung in effizienter Weise gelöst werden können; es gibt viele „schwierige“ Probleme, für die sie nicht anwendbar zu sein scheint, aber auch viele „leichte“ Probleme, für die sie weniger effizient ist als Standardalgorithmen.

4 G.Heyer Algorithmen und Datenstrukturen 2 4 Das Produkt mehrerer Matrizen Ein klassischer Anwendungsfall der dynamischen Programmierung ist das Problem der Minimierung des Rechenaufwands, der für die Multiplikation einer Reihe von Matrizen unterschiedlicher Dimension erforderlich ist. a 11 a 12 a 21 a 22 a 31 a 32 a 41 a 42 b 11 b 12 b 13 b 21 b 22 b 23 c 11 c 21 c 31 d 11 d 12 e 11 e 12 e 21 e 22 f 11 f 12 f 13 f 21 f 22 f 23 4 x 2 2 x 3 3 x 1 1 x 22 x 22 x 3 Ziel: Multiplikation der 6 Matrizen Natürlich muss die Anzahl der Spalten in einer Matrix stets mit der Anzahl der Zeilen in der folgenden Matrix übereinstimmen, damit die Multiplikation ausführbar ist.

5 G.Heyer Algorithmen und Datenstrukturen 2 5 Die Gesamtanzahl der erforderlichen Skalar-Multiplikationen hängt von der Reihenfolge ab, in der die Matrizen multipliziert werden. Im Beispiel könnte man von links nach rechts vorgehen: A x B 24 Skalar-Multipl. neue Matrix M1 4 x 3 M1 x C 12 Skalar-Multipl. neue Matrix M2 4 x 1 M2 x D 8 Skalar-Multipl. neue Matrix M3 4 x 2... nach84 Skalar-Multipl. Ergebnismatrix 4 x 3 Geht man statt dessen von rechts nach links vor, erhält man als Ergebnis die gleiche Matrix der Dimension 4 x 3 nach nur 69 Skalarmultiplikationen. Es sind auch noch viele andere Reihenfolgen möglich.

6 G.Heyer Algorithmen und Datenstrukturen 2 6 Die Reihenfolge der Multiplikation kann durch das Setzen von Klammern ausgedrückt werden, z. B. entspricht die Reihenfolge von links nach rechts dem Ausdruck ( ( ( ( ( AB ) C ) D ) E ) F ) und die Reihenfolge von rechts nach links dem Ausdruck ( A ( B ( C ( D ( EF ) ) ) ) ). Jedes zulässige Setzen von Klammern führt zum richtigen Ergebnis, doch wann ist die Anzahl der Skalar-Multiplikation am kleinsten? Wenn große Matrizen auftreten, können beträchtliche Einsparungen erzielt werden: Wenn z. B. die Matrizen B, C und F im obigen Beispiel eine Dimension von 300 statt von 3 besitzen, sind bei der Reihenfolge von links nach rechts6024 Skalar-Multipl. erforderlich, bei der Reihenfolge von rechts nach links dagegen die astronomische Zahl von Multiplikationen auszuführen.

7 G.Heyer Algorithmen und Datenstrukturen 2 7 Demnach ergibt die Multiplikation einer Matrix der Dimension p x q mit einer Matrix der Dimension q x r eine Matrix der Dimension p x r, wobei jedes Element mit Hilfe von q Multiplikationen berechnet wird, so dass insgesamt p q r Multiplikationen ausgeführt werden müssen. Allgemeiner Fall: N Matrizen sind miteinander zu multiplizieren: M 1 M 2 M 3... M n wobei die Matrizen der Bedingung genügen, dass M i für 1  i < N r i Zeilen und r i+1 Spalten ausweist. Ziel: Diejenigen Reihenfolge der Multiplikation der Matrizen zu finden, für die die Gesamtzahl der auszuführenden Skalar-Multiplikationen minimal wird.

8 G.Heyer Algorithmen und Datenstrukturen 2 8 Die Anzahl der Reihenfolgen ist eine kombinatorische Funktion, die Katalanische Zahl genannt wird; die Anzahl der Möglichkeiten, N Variablen zu klammern, beträgt ungefähr 4 N-1 / N   N Die Lösung des Problems mit Hilfe der dynamischen Programmierung besteht darin, „von unten nach oben“ vorzugehen und berechnete Lösungen kleiner Teilprobleme zu speichern, um eine wiederholte Rechnung zu vermeiden. Um die beste Möglichkeit zu ermitteln, M 1 M 2 M 3 zu multiplizieren, entnehmen wir zuerst der gespeicherten Tabelle die Kosten der Berechnung von M 1 M 2 und addieren dann die Kosten der Multiplikation dieses Ergebnisses mit M 3 dazu. Diese Summe wird mit den Kosten verglichen, die enstehen, wenn zuerst die Multiplikation M 2 M 3 ausgeführt und dann mit M 1 multipliziert wird, was auf die gleiche Weise berechnet werden kann.

9 G.Heyer Algorithmen und Datenstrukturen 2 9 Die kleinere der beiden Summen wird gespeichert und ebenso wird mit allen anderen Tripeln verfahren. Anschließend berechnet man unter Berücksichtigung aller Informationen die beste Möglichkeit Quadrupel Matrizen zu multiplizieren. Indem man in dieser Weise fortfährt, findet man schließlich die beste Möglichkeit, alle Matrizen miteinander zu multiplizieren. Für 1  j  N - 1 ermittelt man die minimalen Kosten der Berechnung von M i M i+1... M i + j‘ indem man für 1  i  N-j und für jedes k zwischen i und i + j die Kosten der Berechnung von M i M i M k-1 ermittelt und dann die Kosten addiert, die bei der Multiplikation dieser Ergebnisse entstehen. Da man stets eine Gruppe in zwei kleinere Gruppen zerlegt, braucht man die minimalen Kosten für die beiden Gruppen nur aus einer Tabelle zu entnehmen und nicht neu zu berechnen.

10 G.Heyer Algorithmen und Datenstrukturen 2 10 Dies führt zu folgendem Programm: for ( i = 1 ; i <= N ; i++ ) for ( j = i + 1 ; j < = N ; j++ ) cost [i] [j] = INT_MAX ; for ( i = 1 ; i <= N ; i++ ) cost [i] [i] = 0 ; for ( j = 1 ; j < N ; j++ ) for ( i = 1 ; i <= N - j ; i++ ) for ( k = i + 1 ; k <= i + j ; k++ ) { t = cost [i][k - 1] + cost [k][i+j] + r[i] * r[k] * r[i+j+1]; if ( t < cost [i][i+j] ) { cost [i][i+j] = t ; best [i][i+j] = k ; } }

11 G.Heyer Algorithmen und Datenstrukturen 2 11 cost [l][r] gibt die minimalen Kosten der Berechnung von M l M l+1... M r an; die Kosten für die erste oben angegebene Gruppe betragen cost [i][k-1], die Kosten für die zweite Gruppe cost [k][i + j]. Die Kosten für die abschließenden Multiplikationen lassen sich leicht bestimmen: M i M i+1.. M k-1 ist eine Matrix der Dimension r i x r k‘ und M k M k+1... M i+j ist eine Matrix der Dimension r k x r i+j+1, so dass die Kosten der Multiplikation dieser beiden Matrizen r i r k r i+j+1 betragen. Auf diese Weise berechnet das Programm cost [i][i+j] für 1  i  N - j, wobei j von 1 bis N-1 wächst. Wenn man j = N - 1 erreicht (und i = 1), hat man die gesuchten minimalen Kosten der Berechnung M 1 M 2... M N gefunden.

12 G.Heyer Algorithmen und Datenstrukturen 2 12 Die getroffenen Entscheidungen werden in einem getrennten Feld best registriert, um sie später, wenn die tatsächliche Folge der Multiplikationen erzeugt werden soll, wieder bestimmen zu können. Das folgende Programm stellt die Implementation dieses Prozesses der Ermittlung der optimalen Anordnung der Klammern anhand der mit Hilfe des obigen Programms berechneten Felder cost und best dar. order (int i, int j ) {if (i == j ) printf ( „%c“, name ( i ) ) ; else { printf ( „(„ ) ; order ( i, best [i][j] -1) ; order (best[i][j], j ); printf ( „)“ ) ; }

13 G.Heyer Algorithmen und Datenstrukturen 2 13 Lösung des Problems der Multiplikation mehrerer Matrizen BCDEF A [A][B] [A][BC] [ABC][D] [ABC][DE] [ABC][DEF] B [B][C] [BC][D] [BC][DE] [BC][DEF] C61019 [C][D] [C][DE] [C][DEF] D 410 [D][E] [DE][F] E12 [E][F]

14 G.Heyer Algorithmen und Datenstrukturen 2 14 Beschreibung zur Tabelle Sie zeigt den Ablauf der oben gezeigten Programme für das angegebene Beispiel. Sie gibt die Gesamtkosten und die optimale „letzte“ Multiplikation für jede Teilfolge in der Liste der Matrizen an. Z. B. besagt die Eintragung in der Zeile A und der Spalte F, dass 36 Skalar-Multiplikationen erforderlich sind, um die Matrizen A bis F zu multiplizieren, und dass dies erreicht werden kann, indem A bis C auf optimale Weise multipliziert werden, dann D bis F auf optimale Weise multipliziert werden und danach die erhaltenen Matrizen miteinander multipliziert werden. Nur D ist in dem Feld best enthalten. Für obiges Beispiel ist die ermittelte Anordnung der Klammern ( (A ( BC ) ) ( ( DE ) F ), wofür nur 36 Skalar- Multiplikationen benötigt werden. Für das Beispiel, wo die Dimension von 3 auf 300 geändert wurde, ist die gleiche Anordnung der Klammern optimal, wobei hier 2412 Skalar-Multiplikationen erforderlich sind.

15 G.Heyer Algorithmen und Datenstrukturen 2 15 Eigenschaft: Mit Hilfe der dynamischen Programmierung kann das Problem der Multiplikation mehrerer Matrizen in einer zu N 3 proportionalen Zeit und mit einem zu N 2 proportionalen Speicheraufwand gelöst werden.

16 G.Heyer Algorithmen und Datenstrukturen 2 16 Beispiel: Traveling Salesman Problem (TSP) Gegeben: n Städte, Entfernungsmatrix M = (m ij ), m ij Entfernung von Stadt i nach Stadt j. Gesucht: Rundreise über alle Städte mit minimaler Länge, also Permutation  : {1,...,n} -> {1,...,n} so daß NP-vollständig (Rechenzeit mit großer Sicherheit exponentiell) Naiver Algorithmus: alle (n-1)! viele Reihenfolgen betrachten. c(p) =  m  (i),  (i+1) + m  (n),  (1) minimal. n-1 i=1

17 G.Heyer Algorithmen und Datenstrukturen 2 17 Dynamische Programmierung: Sei g (i,S) Länge des kürzesten Weges von i über jede Stadt in S (jeweils genau 1 Besuch) nach Stadt 1. Lösung des TSP also g(1, {2,...,n}). (Stadt 1 kann beliebig gewählt werden, da Rundreise gesucht wird) Es gilt: g(i,S) = m i1 falls S = {} min j  S (m ij + g ( j, S -{ j } ) sonst

18 G.Heyer Algorithmen und Datenstrukturen 2 18 Algorithmus konstruiert Tabelle : for ( i = 2 ; i = n; i++) g[i,{}] = m i1 for ( k = 1; k = n-2 ; k++ ) for (S, |S| = k, 1  S ) for (i  {2,...,n} - S ) Berechne g[i,S] gemäß Formel Berechne g[1,{ 2,...,n } gemäß Formel Komplexität: Tabellengröße * Aufwand Tabelleneintrag Größe: < n 2 n (Anzahl der i's mal Anzahl betrachtete Teilmengen) Tabelleneintrag: Suche nach Minimum unter j aus S: O(n) Insgesamt: O(n 2 2 n ), deutlich besser als (n-1)!.

19 G.Heyer Algorithmen und Datenstrukturen 2 19 Beispiel: 4 Städte, symmetrische Entfernungen, M: Tabelleneinträge: g[2,{}] = 4 g[3,{}] = 9 g[4,{}] = 8 g[2,{3}] = = 21 g[2,{4}] = = 10 g[3,{2}] = = 16 g[3,{4}] = = 19 g[4,{2}] = = 6 g[4,{3}] = = 19

20 G.Heyer Algorithmen und Datenstrukturen 2 20 Lösung: 1, 2, 4, 3, 1 g[2,{3,4}] = min(m 23 + g[3,{4}], m 24 + g[4,{3}] ) = 21 g[3,{2,4}] = min(m 32 + g[2,{4}], m 34 + g[4,{2}] ) = 16 g[4,{2,3}] = min(m 42 + g[2,{3}], m 43 + g[3,{2}] ) = 23 g[1,{2,3,4}] = min(m 12 + g[2,{3,4}], m 13 + g[3,{2,4}], m 14 + g[4,{2,3}]) = 25

21 G.Heyer Algorithmen und Datenstrukturen 2 21 Das Rucksack-Problem Ein Dieb, der einen Safe ausraubt, findet in ihm N Typen von Gegenständen unterschiedlicher Größe und unterschiedlichen Werts, hat aber nur einen kleinen Rucksack der Größe M zur Verfügung, um die Gegenstände zu tragen. Das Rucksack-Problem besteht darin, diejenige Kombination von Gegenständen zu finden, die der Dieb für seinen Rucksack auswählen sollte, so dass der Gesamtwert der von ihm geraubten Gegenstände maximal wird. Beispiel: Der Rucksack besitzt ein Fassungsvermögen von 17, der Safe enthält viele Gegenstände mit unterschiedlichen Größen und den angegebenen Werten. (Die Bezeichnungen der Gegenstände werden im Programm in Indizes umgewandelt.)

22 G.Heyer Algorithmen und Datenstrukturen 2 22 Abbildung zum Rucksack-Problem Größe Wert Bezeichnung AB C D E Der Dieb kann dann 5 Gegenstände A ( jedoch nicht 6) mitnehmen, so dass die gesamte Beute den Wert 20 hat, oder er kann seinen Rucksack mit einem D und einem E füllen, was einen Gesamtwert von 24 ergibt, oder er kann andere Kombinationen ausprobieren. Doch für welche Kombination wird der Gesamtwert maximal?

23 G.Heyer Algorithmen und Datenstrukturen 2 23 Bedeutung des Rucksack-Problems auch im kommerziellen Bereich: z. B. ist es für eine Reederei von Interesse, die beste Möglichkeit zu kennen, wie ein Lastkraftwagen oder ein Transportflugzeug mit Gütern für die Verschiffung beladen werden kann. Bei solchen Anwendungsfällen können auch andere Varianten des Problems auftreten: Es könnte z. B. sein, dass von jedem Gegenstand nur eine begrenzte Anzahl vorhanden ist. Für viele solche Varianten ist der gleiche Ansatz geeignet. Zur Lösung des Rucksack-Problems mit Hilfe der dynamischen Programmierung berechnet man die beste Kombination für alle Größen eines Rucksacks bis M.

24 G.Heyer Algorithmen und Datenstrukturen 2 24 Diese Berechnung kann in sehr effizienter Weise realisiert werden, indem die Operationen in einer zweckmäßigen Reihenfolge ausgeführt werden: for ( j = 1 ; j <= N ; j ++ ) { for ( i = 1 ; i <= M ; i++ ) if ( i >= size [ j ] ) if ( cost [i] < cost [i - size [j] ] + val [j] ) { cost [i] = cost [i - size [j]] + val [j]; best [i] = j ; }

25 G.Heyer Algorithmen und Datenstrukturen 2 25 In diesem Beispiel ist: cost [i]der größte Wert, der mit einem Rucksack mit dem Fassungsvermögen i erzielt werden kann, best [i]ist das letzte Element, das hinzugefügt wurde, um das Maximum zu realisieren. Zuerst berechnet man für alle Größen des Rucksacks den maximalen Wert, wenn nur Elemente vom Typ A verwendet werden, danach berechnet man den maximalen Wert, wenn nur Elemente A und B verwendet werden usw. Die Lösung reduziert sich auf eine einfache Berechnung von cost [i]. Annahme: Auswahl des Elements j für den Rucksack, dann wäre der beste Gesamtwert, der erzielt werden könnte val [j] (für das Element) + cost [i - size [j]] (um den Rest des Rucksacks aufzufüllen). Wenn dieser Wert den besten Wert übersteigt, der ohne ein Element j erreicht werden kann, aktualisiert man cost [i] und best [i]; andernfalls lässt man diese Größen unverändert.

26 G.Heyer Algorithmen und Datenstrukturen 2 26 Lösung des Rucksack-Problems k j = 1 cost [k] best [k]A A A A A A A A A A A A A A A j = 2 cost [k] best [k]A B B A B B A B B A B B A B B j = 3 cost [k] best [k]A B B A C D A C C A C C D C C j = 4 cost [k] best [k]A B B A C D A C C A C C D C C j = 5 cost [k] best [k]A B B A C D E C C E C C D E C

27 G.Heyer Algorithmen und Datenstrukturen 2 27 Erklärung zur Lösung des Beispiels Das erste Zeilenpaar zeigt den maximalen Wert (den Inhalt der Felder cost und best ), wenn nur Elemente A benutzt werden; das zweite Zeilenpaar zeigt den maximalen Wert, wenn nur Elemente A und B verwendet werden, usw. Der höchste Wert, der mit einem Rucksack der Größe 17 erreicht werden kann, ist 24. Im Verlaufe der Berechnung dieses Ergebnisses hat man auch viele Teilprobleme gelöst, z. B. ist der größte Wert, der mit einem Rucksack der Größe 16 erreicht werden kann, 22, wenn nur Elemente A, B und C verwendet werden. Der tatsächliche Inhalt des optimalen Rucksacks kann mit Hilfe des Feldes best berechnet werden. Per Definition ist best[M] in ihm enthalten, und der restliche Inhalt ist der gleiche wie im optimalen Rucksack der Größe M - size [best [M]] usw.

28 G.Heyer Algorithmen und Datenstrukturen 2 28 Eigenschaft: Für die Lösung des Rucksack-Problems mit Hilfe der dynamischen Programmierung wird eine zu N M proportionale Zeit benötigt. Somit kann das Rucksack-Problem leicht gelöst werden, wenn M nicht groß ist; für große Fassungsvermögen kann die Laufzeit jedoch unvertretbar groß werden. Eine grundlegende Schwierigkeit ist es, das das Verfahren nicht anwendbar ist, wenn M und die Größen oder Werte z. B. reelle Zahlen anstatt ganzer Zahlen sind. Wenn jedoch die Fassungsvermögen sowie die Größen und Werte der Gegenstände ganze Zahlen sind, so gilt das grundlegende Prinzip, dass optimale Entscheidungen nicht geändert werden müssen, nachdem sie einmal getroffen wurden. Jedesmal, wenn dieses allgemeine Prinzip zur Anwendung gebracht werden kann, ist die dynamische Programmierung anwendbar.

29 G.Heyer Algorithmen und Datenstrukturen 2 29 Optimale binäre Suchbäume Bei vielen Suchanwendungen ist bekannt, dass die Suchschlüssel mit stark variierenden Häufigkeiten auftreten können, z. B. wird ein Programm, das die Schreibweise von Wörtern in einem deutschen Text prüft, wahrscheinlich viel öfter nach Wörtern wie „und“ und „der“ suchen, als nach Wörtern wie „dynamische“ und „Programmierung“. In ähnlicher Weise wird ein C-Compiler sicher weit häufiger Schlüsselwörter wie „if“ und „for“ aufsuchen, als „goto“ oder „ main“. Wenn Suche in einem Binärbaum angewandt wird, ist es vorteilhaft, die am häufigsten gesuchten Schlüssel in der Nähe der Spitze des Baumes anzuordnen. Um zu bestimmen, wie die Schlüssel im Baum anzuordnen sind, so dass die Gesamtkosten der Suche minimiert werden, kann ein Algorithmus der dynamischen Programmierung benutzt werden.

30 G.Heyer Algorithmen und Datenstrukturen 2 30 Jeder Knoten im binären Suchbaum ist mit einer ganzen Zahl gekennzeichnet, von der angenommen wird, dass sie der Häufigkeit des Zugriffs auf diesen Knoten entspricht. Das besagt, dass zu erwarten ist, dass bei jeweils 18 Suchvorgängen (im Beispielbaum) in diesem Baum viermal nach A gesucht wird, zweimal nach B, einmal nach C usw. Bei jedem der vier Suchvorgänge, die A betreffen, sind zwei Zugriffe auf Knoten erforderlich, bei jedem der zwei Suchvorgänge, die B betreffen, drei Zugriffe auf Knoten usw. Man kann ein Maß für die „Kosten“ des Baumes berechnen, indem man die jedem Knoten zugeordnete Häufigkeit mit seinem Abstand von der Wurzel multipliziert und dann die Summe dieser Produkte bildet. Dies ist die gewichtete innere Pfadlänge des Baumes.

31 G.Heyer Algorithmen und Datenstrukturen 2 31 Ein binärer Suchbaum mit Häufigkeiten C E D F B A G Für diesen Baum beträgt die gewichtete innere Pfadlänge 4 * * * * * * * 3 = 51. Ziel: Für die gegebenen Schlüssel mit den gegebenen Häufigkeiten den binären Suchbaum bestimmen, der unter allen solchen Bäumen die kleinste innere Pfadlänge besitzt.

32 G.Heyer Algorithmen und Datenstrukturen 2 32 Dieses Problem weist Ähnlichkeiten zu dem Problem der Minimierung der gewichteten äußeren Pfadlänge auf, das bei der Betrachtung der Huffman-Codierung untersucht wurde. Bei der Huffman-Codierung war es jedoch nicht erforderlich, die Reihenfolge der Schlüssel beizubehalten; bei dem binären Suchbaum muss die Eigenschaft erhalten bleiben, dass alle links von der Wurzel befindlichen Knoten Schlüssel besitzen, die kleiner sind usw. Diese Forderung bewirkt, dass das Problem dem oben betrachteten Problem der Multiplikation mehrerer Matrizen sehr ähnlich ist; es kann praktisch das gleiche Programm verwendet werden.

33 G.Heyer Algorithmen und Datenstrukturen 2 33 Annahme: Gegeben: Menge von Suchschlüsseln K 1 < K 2 <... < K N und Menge von zugehörigen Häufigkeiten r 0, r 1,...,r N wobei r i die vermutete Häufigkeit des Zugriffs auf den Schlüssel K i ist. Ziel: Bestimmung des binären Suchbaums, für den die über alle Schlüssel gebildete Summe der Produkte dieser Häufigkeiten mit den Abständen des Schlüssels von der Wurzel ( den Kosten des Zugriffs auf den entsprechenden Knoten) minimal wird. Der Zugang zu diesem Problem mittels dynamischer Programmierung besteht darin, der Reihe nach für jedes 1  j  N - 1 die beste Möglichkeit zu berechnen, einen Unterbaum zu erzeugen, der K i, K i+1,..., K i + j für 1  i  N - j enthält.

34 G.Heyer Algorithmen und Datenstrukturen 2 34 Implementierung for ( i = 1 ; i <= N ; i++ ) for ( j = i +1; j <= N+1 ; j++ ) cost[i] [j] = INT_MAX ; for ( i = 1 ; i <= N ; i++ ) cost[i] [i] = f [i]; for ( i = 1 ; i <= N+1; i++ ) cost[i] [i-1] = 0 ; for ( j = 1 ; j <= N - 1 ; j++ ) for ( i = 1 ; i <= N - j ; i++ ) { for ( k = i ; k <= i + j ; k++ ) { t = cost[i] [k - 1] + cost[k+1] [i + j] ; if ( t < cost[i] [i+j] ) { cost[i] [i + j] = t ; best[i] [i+j] = k ; } } for ( k = i ; k <= i + j ; cost[i] [i+j] += f[k++] ) ; }

35 G.Heyer Algorithmen und Datenstrukturen 2 35 Für jedes j wird die Berechnung ausgeführt, indem jeder Knoten als Wurzel ausprobiert wird und im voraus berechnete Werte verwendet werden, um die beste Möglichkeit zur Erzeugung der Unterbäume zu ermitteln. Für jedes i  k  i + j möchte man den optimalen Baum mit K k als Wurzel finden, der K i, K i+1,..., K i+j enthält. Dieser Baum wird gebildet, indem der optimale Baum für K i, K i+1,..., K k-1 als der linke Unterbaum und der optimale Baum für K k+1, K k+2,..., K i+j als der rechte Unterbaum verwendet wird. Die innere Pfadlänge dieses Baumes ist gleich der Summe der inneren Pfadlänge der beiden Unterbäume und der Summe der Häufigkeiten für alle Knoten (da jeder Knoten in dem neuen Baum einen Schritt weiter von der Wurzel entfernt ist).

36 G.Heyer Algorithmen und Datenstrukturen 2 36 Optimaler binärer Suchbaum D E F GC B A Die gewichtete innere Pfadlänge dieses Baumes beträgt 41. Man muss beachten, dass die Summe aller Häufigkeiten jedesmal zu den Kosten addiert wird, weshalb sie für die Bestimmung des Minimums nicht benötigt wird. Weiterhin muss cost[i][i - 1] = 0 gelten, um die Möglichkeit zu berücksichtigen, dass ein Knoten nur einen Nachfolger hat (beim Problem der Multiplikation mehrerer Matrizen gab es keine analoge Möglichkeit). Wie zuvor ist ein kurzes rekursives Programm erforderlich, um anhand des mit Hilfe des Programms berechneten Felds best den eigentlichen Baum zu rekonstruieren.

37 G.Heyer Algorithmen und Datenstrukturen 2 37 Eigenschaft: Das Verfahren der dynamischen Programmierung zur Bestimmung eines optimalen binären Suchbaums erfordert einen zu N 3 proportionale Zeit und einen zu N 2 proportionalen Speicherplatz. Der Algorithmus arbeitet wieder mit einer Matrix der Größe N 2 und benötigt für jedes Element eine zu N proportionale Zeit. In Wirklichkeit ist es in diesem Falle möglich, die erforderliche Zeit auf N 2 zu reduzieren, indem man die Tatsache ausnutzt, dass die optimale Position der Wurzel eines Baumes nicht zu weit von der optimalen Position für die Wurzel eines etwas kleineren Baumes entfernt sein kann, so dass k in dem obigen Programm nicht alle Werte von i bis i+j durchlaufen muss.


Herunterladen ppt "G.Heyer Algorithmen und Datenstrukturen 2 1 Dynamische Programmierung Das Prinzip „Teile und Herrsche“ diente als Grundlage für die Entwicklung vieler."

Ähnliche Präsentationen


Google-Anzeigen