Christian Scheideler SS 2009

Slides:



Advertisements
Ähnliche Präsentationen
Fast Fourier Transformation
Advertisements

Christian Scheideler SS 2009
Randomisierte Algorithmen Präfix Suche und Konsistentes Hashing
Christian Scheideler SS 2009
Christian Scheideler SS 2009
Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Rekursion: Rekurrenz: Algorithmen rufen sich selbst (rekursiv) auf.
Falls Algorithmen sich selbst rekursiv aufrufen, so kann ihr Laufzeitverhalten bzw. ihr Speicherplatzbedarf in der Regel durch eine Rekursionsformel (recurrence,
Eine dynamische Menge, die diese Operationen unterstützt,
Vorlesung Programmieren II
Prof. Dr. S. Albers Prof.Dr.Th Ottmann
Algebraische Zahlen: Exaktes Rechnen mit Wurzeln
Prof. Dr. W. Conen 15. November 2004
Kapitel 3: Listen Lineare Liste: endliche Folge von Elementen eines Grundtyps (n>=0), leere Liste falls n=0 Listenelemente besitzen.
Algorithmentheorie 04 –Hashing
WS Algorithmentheorie 05 - Treaps Prof. Dr. Th. Ottmann.
Prof. Dr. S. Albers Prof. Dr. Th. Ottmann
Prof. Dr. S. Albers Prof. Dr. Th. Ottmann
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (19 - Analyse natürlicher Bäume) Prof. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (11-3 –Selbstanordnende lineare Listen) Prof. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (11-1 –Selbstanordnende lineare Listen) Prof. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27-Selbstanordnende lineare Listen) Prof. Th. Ottmann.
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (21 – Kürzeste Wege) T. Lauer.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (14 Amortisierte worst-case-Analyse Beispiel: Bitwechselkosten eines Dualzählers) Prof. Th. Ottmann.
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (17 – Fibonacci-Heaps – Analyse) Tobias Lauer.
Algorithmentheorie 7 – Bin Packing
WS Algorithmentheorie 15 – Fibonacci-Heaps Tobias Lauer.
Informatik II, SS 2008 Algorithmen und Datenstrukturen Vorlesung 16 Prof. Dr. Thomas Ottmann Algorithmen & Datenstrukturen, Institut für Informatik Fakultät.
Kapitel 5 Stetigkeit.
Kapitel 1 Das Schubfachprinzip
Kapitel 6 Differenzierbarkeit. Kapitel 6: Differenzierbarkeit © Beutelspacher Juni 2005 Seite 2 Inhalt 6.1 Die Definition 6.2 Die Eigenschaften 6.3 Extremwerte.
Friedhelm Meyer auf der Heide 1 HEINZ NIXDORF INSTITUTE University of Paderborn Algorithms and Complexity Algorithmen und Komplexität Teil 1: Grundlegende.
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Materialien zu Übung 9 Bälle in Körbe Ranged.
Was sind Histogramme? (1)
Minimum Spanning Tree: MST
Effiziente Algorithmen
Effiziente Algorithmen
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Diskrete Mathematik II
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Polynome und schnelle Fourier-Transformation
Verteilte Algorithmen und Datenstrukturen Kapitel 4: Caching Christian Scheideler Institut für Informatik Universität Paderborn.
Arne Vater Wintersemester 2006/ Vorlesung
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Analyse der Laufzeit von Algorithmen
 Präsentation transkript:

Christian Scheideler SS 2009 Methoden des Algorithmenentwurfs Kapitel 2.2: Randomisierte Online Algorithmen Christian Scheideler SS 2009 25.03.2017 Kapitel 2

Übersicht Notation Paging Selbstorganisierende Suchstrukturen Finanzielle Spiele 25.03.2017 Kapitel 2

Notation 2.1 Definition: Sei P ein Optimierungs-problem und A ein Online Algorithmus für P. Für eine beliebige Eingabesequenz s=(s(1), s(2),…, s(t)) seien E[A(s)] die erwarteten Kosten von A für s. A heißt c-kompetitiv, wenn es einen von t unabhängigen Parameter a gibt, so dass für alle Eingabesequenzen s gilt: E[A(s)]  cOPT(s) + a 25.03.2017 Kapitel 2

Übersicht Notation Paging Selbstorganisierende Suchstrukturen Finanzielle Spiele 25.03.2017 Kapitel 2

Paging Problem: Eine online eintreffende Folge von Seitenanfragen s=(x1,…,xn) muss durch ein zweistufiges Speichersystem (Cache und Hauptspeicher) bearbeitet werden. Ist eine Seite nicht im Cache vorhanden (Cache-Miss), muss sie vom Hauptspeicher dorthin geladen werden (und verdrängt bei vollem Cache eine dort vorhandene Seite). Ziel: minimiere die Anzahl der Cache-Misses Algorithmus RANDOM: Entferne bei jedem Seitenfehler eine zufällig gemäß der Gleichverteilung gewählte Seite aus dem Cache. 25.03.2017 Kapitel 2

Paging 2.2 Satz: RANDOM ist nicht besser als k-kompetitiv im Erwartungswert. Beweis: Wähle für N>>k die folgende Eingabesequenz: s=b0 a1…ak-1 (b1 a1…ak-1)N(b2 a1…ak-1) N… In jeder Phase Pi,i1, ist die Wkeit für das Aus-lagern der Seite bi-1 bei jedem Cache-Miss 1/k. Also macht RANDOM in jeder Phase im Erwar-tungswert k Fehler, bis er sich von bi-1 trennt. P0 P1 P2 25.03.2017 Kapitel 2

Paging Algorithmus MARKING: Die Anfragesequenz s wird in Phasen bedient. Zu Beginn einer Phase sind alle Seiten unmarkiert. Wird eine Seite angefragt, so wird sie markiert. Bei einem Seitenfehler wird eine zufällig gleichverteilt ausgewählte unmarkierte Seite entfernt. Eine Phase endet unmittelbar vor einem Seitenfehler, wenn alle Seiten im schnellen Speicher markiert sind. 2.3 Satz: MARKING ist 2Hk-kompetitiv, wobei Hk = Si=1k 1/i die k-te harmonische Zahl ist. Bemerkung: Es gilt ln(k+1)  Hk  ln(k) + 1. 25.03.2017 Kapitel 2

Paging Algorithmus MARKING: s: Cache Hauptspeicher 7 4 8 3 1 6 4 2 1 2 5 6 Hauptspeicher 7 8 25.03.2017 Kapitel 2

Paging Algorithmus MARKING: s: Cache Hauptspeicher 7 4 8 3 1 6 4 2 1 2 5 6 Hauptspeicher 3 8 25.03.2017 Kapitel 2

Paging Algorithmus MARKING: s: Cache Hauptspeicher 7 4 8 3 1 6 4 2 1 2 5 6 Hauptspeicher 3 8 25.03.2017 Kapitel 2

Paging Algorithmus MARKING: s: Cache Hauptspeicher 7 4 8 3 1 6 4 2 1 2 5 8 Hauptspeicher 3 6 25.03.2017 Kapitel 2

Paging Algorithmus MARKING: s: Cache Hauptspeicher 7 4 8 3 1 6 4 2 1 3 5 8 Hauptspeicher 2 6 25.03.2017 Kapitel 2

Paging Algorithmus MARKING: s: Cache Hauptspeicher 7 4 8 3 1 6 4 2 1 3 5 8 Hauptspeicher 2 6 25.03.2017 Kapitel 2

Paging Algorithmus MARKING: s: Cache Hauptspeicher 7 4 8 3 1 6 4 2 1 3 5 25.03.2017 Kapitel 2

Paging Algorithmus MARKING: s: Cache Hauptspeicher 7 4 8 3 1 6 4 2 1 3 5 25.03.2017 Kapitel 2

Paging Algorithmus MARKING: s: Cache Hauptspeicher neue Phase 7 4 8 3 1 6 4 2 neue Phase Cache 1 3 7 4 6 8 Hauptspeicher 2 5 25.03.2017 Kapitel 2

Paging Beweis: Sei s eine beliebige Anfragesequenz. MARKING zerlegt s in Phasen P1,P2,…,Pm. Jede Phase Pi enthält genau k verschiedene Seiten-anfragen, und die erste Anfrage von Pi ist verschieden von allen Seitenanfragen in Pi-1. ni: Anzahl der neuen Seitenanfragen in Pi (d.h. Seiten, die nicht in Pi-1 angefragt wurden) Wir zeigen, dass OPT amortisierte Kosten von mindestens ni/2 in Pi erzeugt und MARKING mit erwarteten Kosten von niHk auskommt. Dann ergibt sich als Kompetitivitätsfaktor c  niHk/(ni/2) = 2Hk 25.03.2017 Kapitel 2

Paging Beweis (Fortsetzung): Wir zeigen zunächst, dass OPT amortisierte Kosten von mindestens ni/2 pro Phase Pi erzeugt. Wir betrachten zwei aufeinanderfolgende Phasen Pi und Pi+1. Pi und Pi+1 enthalten zusammen genau k+ni paarweise verschiedene Seiten. OPT macht also in diesem Phasenpaar mindestens ni Fehler. Es gilt also: OPT  n2+n4+n6+… = Si gerade ni sowie OPT  n1+n3+n4+… = Si ungerade ni Insgesamt erhalten wir als amortisierte Kosten 2OPT  Si gerade ni + Si ungerade ni  OPT  (1/2) Si ni 25.03.2017 Kapitel 2

Paging Beweis (Fortsetzung): MARKING erzeugt in Phase Pi genau ni Seitenfehler für die Anfragen auf neue Seiten. Es kann aber auch Seitenfehler für Seiten geben, die nicht neu in Pi sind! Die Anzahl der in Pi angefragten alten Seiten sei oi. Es gilt oi+ni=k. Wir betrachten die erste Anfrage auf die j-te alte Seite, joi. Unmittelbar vorher enthält der Cache nij neue Seiten, die bisher angefragt worden sind, nijni. Es gibt k-(j-1) alte Seiten, die vor der Anfrage auf die j-te alte Seite noch nicht angefragt wurden. Von diesen alten Seiten sind nij nicht mehr im Cache. Die Wahrscheinlichkeit für einen Seitenfehler ist also nij/(k-(j-1))  ni/(k-(j-1)) Da ni1 ist, gilt oik-1 und damit 1/(k-oi+1)  ½. Als erwartete Kosten für die alten Seiten ergibt sich also Sj=1oi ni/(k-(j-1))  ni(1/k+…+1/2) = ni(Hk-1) Die Gesamtkosten in Phase Pi sind also cost(Pi)  ni+ni(Hk-1) = niHk. 25.03.2017 Kapitel 2

Paging 2.4 Satz: Sei A ein randomisierter Online-Paging-Algorithmus, der c-kompetitiv ist. Dann ist c  Hk. Beweis: Sei A ein Online-Paging-Algorithmus. Die Menge der angefragten Seiten sei {p1,…,pk+1}. Der Gegner verwaltet einen Vektor von Wahrscheinlichkeitswerten Q=(q1,…,qk+1). qi ist die Wahrscheinlichkeit, dass die Seite pi nicht im Cache von A ist. Es gilt Si=1k+1 qi = 1. Die Einträge im Vektor Q werden vom Gegner in jedem Schritt aktualisiert. Wir unterteilen die Anfragesequenz s in Phasen, die jeweils aus k Subphasen bestehen. Der Gegner markiert die angefragten Seiten wie bei MARKING und unterteilt s in entsprechende Phasen. Mit jeder neu markierten Seite beginnt eine neue Subphase. In jeder Subphase j wollen wir für A erwartete Kosten von 1/(k+1-j) erzeugen, so dass sich die Kosten pro Phase für A berechnen zu Sj=1k 1/(k+1-j) = 1/k + 1/(k-1) + … + 1 = Hk Der Gegner soll pro Phase Kosten von 1 erzeugen. Dann folgt Satz 2.4. 25.03.2017 Kapitel 2

Paging Beweis (Fortsetzung): Zu Beginn einer Subphase j gibt es j markierte Seiten. Sei M die Menge der markierten Seiten. Wir setzen g = SpiM qi und unterscheiden zwei Fälle. Ist g=0, dann gibt es k+1-j unmarkierte Seiten, von denen wir eine unmarkierte Seite pi mit qi  1/(k+1-j) auswählen. Diese Seite wird vom Gegner angefragt und markiert. Damit endet Subphase j. Ist g>0, dann gibt es ein piM mit qi=e>0. Der Gegner fragt pi an und erzeugt somit bei A erwartete Kosten e. Solange die erwarteten Kosten für Subphase j kleiner als 1/(k+1-j) sind und g>e ist, fragt der Gegner die markierte Seite piM mit dem größten qi an. Nach dem Ende dieser Schleife fragen wir die unmarkierte Seite pi mit größtem qi an und markieren sie, womit Subphase j beendet wird. 25.03.2017 Kapitel 2

Paging e+ = e+  e+  Beweis (Fortsetzung): Wird die Schleife verlassen, dann sind die erwarteten Kosten entweder mindestens 1/(k+1-j) oder es gilt ge. Die erwarteten Kosten am Ende der Schleife sind also mindestens 1- SpiM qi 1-g 1-e 1 k+1-j k+1-j k+1-j k+1-j Am Phasenende bleibt die zuletzt markierte Seite für die neue Phase markiert. Am Anfang einer Phase entfernt der Gegner gerade die Seite aus dem Cache, die zu Beginn der folgenden Phase angefragt wird. So erreicht er Kosten 1 pro Phase. e+ = e+  e+  25.03.2017 Kapitel 2

Übersicht Notation Paging Selbstorganisierende Suchstrukturen Finanzielle Spiele 25.03.2017 Kapitel 2

Erinnerung: Suchstruktur S: Menge von Elementen Jedes Element e identifiziert über key(e). Operationen: S.insert(e: Element): S:=S  {e} S.delete(k: Key): S:=S\{e}, wobei e das Element ist mit key(e)=k S.lookup(k: Key): gibt eS aus mit key(e)=k, falls es ein solches e gibt, und sonst  25.03.2017 Kapitel 2

Erinnerung: Suchstruktur Effektive Regel für Listen: Move-to-Front Frage: geht es besser mit randomisierter Regel? 1 3 19  … 25.03.2017 Kapitel 2

Selbstorganisierende Liste Sei eine beliebige lookup-Anfragefolge s gegeben. Bei einem Zugriff auf ein Listenelement entstehen Kosten, die von der Position des Elements abhängen. Das angefragte Element kann nach seiner Anfrage an eine beliebige Position weiter vorne in der Liste bewegt werden (mit keinen Zusatzkosten). Außerdem ist es möglich, zwei benachbarte Elemente mit Kosten 1 zu vertauschen. Kosten 7 x x 25.03.2017 Kapitel 2

Selbstorganisierende Liste Algorithmus BIT: Halte für jedes Listenelement x ein Bit b(x). Anfangs werden diese Bits zufällig und unabhängig voneinander mit 0 oder 1 initialisiert. Bei jeder Anfrage x wird b(x) komplementiert. Wechselt b(x) dabei auf 1, so wird x an den Kopf der Liste bewegt, andernfalls wird die Position von x nicht geändert. 2.5 Satz: BIT ist 1,75-kompetitiv. 25.03.2017 Kapitel 2

Selbstorganisierende Liste Beweis: Sei s beliebig. Zu jedem Zeitpunkt von s gilt: b(x) = (Startwert+#(Anfragen auf x)) mod 2. Wir führen eine amortisierte Analyse durch, wobei wir die Anzahl der Inversionen betrachten (siehe die MTF-Analyse im vorigen Kapitel). Bei einer Inversion (x,y) ist x vor y in OPTs Liste, aber y vor x in BITs Liste. Wir unterscheiden Inversionen, bei denen b(x)=0 ist (Typ 1) und bei denen b(x)=1 ist (Typ 2). Als Potentialfunktion verwenden wir F = #(Inversionen vom Typ 1) + 2#(Inversionen vom Typ 2) Wir wollen zeigen: BIT(s(t)) + E[F(t)-F(t-1)]  1,75 OPT(s(t)) 25.03.2017 Kapitel 2

Selbstorganisierende Liste Beweis (Fortsetzung): OPT bearbeite die Anfragen vor BIT. Wir betrachten nun die Fälle, in denen eine Inversion aufgehoben bzw. neu erzeugt werden kann. Sei k die Position in OPTs Liste direkt vor dem aktuell angefragten Listenelement x und i die Position direkt vor der neuen Position von x. Für die Aktionen von OPT gilt OPT(s(t))=k+1 und E[DFOPT]  (k-i)((1/2)(1+2)) = 1,5(k-i) i k x OPT: 25.03.2017 Kapitel 2

Selbstorganisierende Liste Beweis (Fortsetzung): In BITs Liste sei x an Position l+1. Für die Potentialänderung durch BITs Bedienen der Anfrage unterscheiden wir zwei Fälle. b(x):10 BIT: i l x b(x):01 25.03.2017 Kapitel 2

Selbstorganisierende Liste Erster Fall: li. Ist b(x)=1 vor dem Zugriff, dann wechelt b(x) auf 0. Die Position von x wird nicht verändert, es können also keine neuen Inversionen entstehen. Damit ist DFBITa=0. Ist b(x)=0, dann können höchstens l neue Inversionen entstehen, die jeweils entsprechend des Bitwerts des übersprungenen Listenelements bewertet werden. Damit ergibt sich E[DFBITb] l  ((1/2)(1+2)) = 1,5 l Da (a) und (b) mit Wkeit 0,5 auftreten, gilt: BIT(s(t)) + E[DF] = = BIT(s(t)) + E[DFOPT] + 0,5(E[DFBITa] + E[DFBITb])  l+1+1,5(k-i) + 0,50 + 0,51,5 l = l+1 + 0,75l + 1,5(k-i) = 1,75l + 1,5(k-i) + 1  1,75i + 1,5(k-i) + 1  1,75(k+1) = 1,75 OPT(s(t)) 25.03.2017 Kapitel 2

Selbstorganisierende Liste Zweiter Fall: i<l. Ist b(x)=1, dann ändert sich die Position von x nicht. Da x in OPT jetzt an Position i+1 ist, gibt es l-i Inversionen, deren Typ von 2 auf 1 wechselt. Damit ergibt sich DFBITa  –(l-i). Ist b(x)=0, dann kommt x an den Kopf der Liste, womit l-i Inversionen aufgehoben werden. Hier sinkt F mindestens um l-i. Außerdem werden höchstens i neue Inversionen (y,x) erzeugt, die im Erwartungswert mit 1,5 zu F beitragen. Also ist E[DFBITb]  1,5i - (l-i). Da (a) und (b) mit gleicher Wkeit auftreten, gilt BIT(s(t)) + E[DF] = = BIT(s(t)) + E[DFOPT] + 0,5(E[DFBITa] + E[DFBITb])  l+1+1,5(k-i) + 0,5(l-i) + 0,5(1,5i – l + i) = l+1 + 1,5k – 1,5i – 0,5l + 0,5i + 0,75i – 0,5l + 0,5i = 1 + 1,5k + 0,25i  1 + 1,75k  1,75(k+1) = 1,75 OPT(s(t)) 25.03.2017 Kapitel 2

Übersicht Notation Paging Selbstorganisierende Suchstrukturen Finanzielle Spiele 25.03.2017 Kapitel 2

Finanzielle Spiele Sei s = p1, p2, p3,… eine Sequenz von Preisen für ein Gut. Problem: wähle das Maximum (Minimum) in s. Akzeptieren wir den i-ten Preis, dann ist unser Ertrag pi. Andernfalls spielen wir weiter und das Angebot pi ist verfallen. Beispiele: Hausverkauf, Gehaltsverhandlung, Aktienkauf Einschränkung: Wir beschränken uns auf Suchprobleme mit einer beschränkten Preisspanne [m,M] mit 0<mM, die dem Online-Spieler bekannt ist. 25.03.2017 Kapitel 2

Finanzielle Spiele Algorithmus RPP (Reservation-Price-Policy): Wir setzen einen Reservation Price p*= mM und akzeptieren den ersten Preis p mit pp*. Falls wir am Ende noch kein Angebot angenommen haben, geben wir uns mit dem letzten Angebot zufrieden. 2.6 Satz: RPP ist -kompetitiv, wobei =M/m ist. Beweis: Sei s beliebig und pmax der maximale Preis der Sequenz. Ist p*pmax, dann ist OPT(s)/RPP(s)  pmax/m  p*/m = Mm/m =  Ist p*<pmax, dann ist OPT(s)/RPP(s)  pmax/p*  M/ Mm =  In beiden Fällen ist also RPP –kompetitiv. 25.03.2017 Kapitel 2

Finanzielle Spiele 2.7 Satz: Kein deterministischer Online-Algorithmus A ist besser als -kompetitiv. Beweis: Der Gegner bietet als ersten Preis mM . Akzeptiert A das Angebot, dann bieten wir als nächstes M und erhalten als Verhältnis . Akzeptiert A das Angebot nicht, dann bieten wir als nächstes m und erhalten ebenfalls als Verhältnis . 25.03.2017 Kapitel 2

Finanzielle Spiele Wie wir sehen werden, können randomisierte online Algorithmen deutlich besser sein. Algorithmus EXPO: Sei M=m2k mit kIN, also =2k. Sei RPPi der RPP Algorithmus mit p*=m2i. Wähle mit Wahrscheinlichkeit 1/k die Strategie RPPi für i{1,…,k}. 2.8 Satz: EXPO ist c()log –kompetitiv mit c()1 für . 25.03.2017 Kapitel 2

Finanzielle Spiele Beweis: Sei eine beliebige Preisfolge s gegeben und jIN so, dass m2j  pmax < m2j+1. Hat EXPO die Strategie RPPi gewählt, dann ist für ij der Ertrag mindestens m2i. Für i>j und damit p*>pmax ist der Ertrag von EXPO mindestens m. Als erwarteter Ertrag von EXPO ergibt sich daraus E[EXPO(s)] = (1/k)(Si=1j m2i + (k-j)m) = (m/k)(2j+1-2+k-j) Also ist OPT(s)/E[EXPO(s)]  m2j+1/[(m/k)(2j+1-2+k-j)]  k/(1+(k-j-2)/2j+1) = log  /(1+(k-j-2)/2j+1) Der Term 1/(1+(k-j-2)/2j+1) wird maximiert für j*=k-2+1/log 2, wodurch dieser für k gegen 1 konvergiert. 25.03.2017 Kapitel 2

Fragen? 25.03.2017 Kapitel 2