Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 29.6.

Ähnliche Präsentationen


Präsentation zum Thema: "Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 29.6."—  Präsentation transkript:

1 Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 29.6.

2 Information & Kommunikation 212 Untere Schranken Wenn wir untere Schranken für D(f) beweisen können wir entweder die Rangmethode verwenden oder die Rechteckmethode Rechteckmethode: –Finde schwierige Verteilung –Beschränke die Größe monochromatischer Rechtecke –Schließe auf hohe Kommunikation Die Rechteckmethode gibt tatsächlich Schranken für C(f) Wie gut sind diese?

3 Information & Kommunikation 213 Rechteckmethode Definition 21.1 sei eine Verteilung auf den a-Eingaben von f b(,f,a)=max R (R), wobei R über alle a- chromatischen Rechtecke für f läuft b(f,a)=min b(,f,a) Theorem 21.2 N(f) ¸ –log b(f,1) Beweis: –2 N(f) =C 1 (f) –Für jede Verteilung gibt es somit ein 1-Rechteck der Größe 2 -N(f) –Damit folgt b(f,1) ¸ 2 -N(f)

4 Information & Kommunikation 214 Rechteckmethode Analog gilt: N( : f) ¸ –log(b(f,0)) Daher erhalten wir D(f) ¸ max {N(f),N( : f)} ¸ max a=0,1 –log(b(f,a)) In Worten: –Wähle a 2 {0,1} –Wähle schwierige Verteilung auf den a-Eingaben –Beschränke die Größe von a-Rechtecken –Berechne die Kommunikationsschranke

5 Information & Kommunikation 215 Rechteckmethode Wie gut ist diese Methode? Wir zeigen: Theorem 21.3 N(f) · –log b(f,1)+log n+O(1) Damit gilt Korollar 21.4 D(f) · O(N(f) N( : f)) · log b(f,1) ¢ log b(f,0) ¢ O(log 2 n) D.h. bis auf log Faktoren kann die Rechteckmethode immer Schranken der Größe D 1/2 (f) berechnen

6 Information & Kommunikation 216 Beweis 21.3 Wir zeigen: C 1 (f) · ln(2) 2n/b(f,1) Idee: Wir konstruieren eine Überdeckung der 1- Eingaben Wir beginnen mit der uniformen Verteilung auf allen 1-Eingaben, 1 In jedem Schritt wählen wir ein größtes 1-Rechteck in unsere Überdeckung Dann passen wir i an: Wenn n i+1 1-Eingaben noch nicht überdeckt sind, ist i+1 auf diesen uniform Iterieren bis alle 1-Eingaben überdeckt sind

7 Information & Kommunikation 217 Beweis 21.3 Wir wissen: für alle Verteilungen auf den 1- Eingaben gibt es ein 1-chromatisches Rechteck der Größe ¸ b(f,1) Also wird in jedem Schritt ein b(f,1) Anteil aller 1- Eingaben, die noch nicht überdeckt sind, überdeckt Anders: n i+1 /n i · 1-b(f,1) Daher folgt: n i · 2 2n (1-b(f,1)) i Wenn i ¸ ln(2 2n )/b(f,1) gilt n i <1 und wir sind fertig Daher ist C 1 (f) · ln(2)2n/b(f,1) Und N(f) · –log(b(f,1))+2 log n+O(1)

8 Information & Kommunikation 218 Rechtecke und N(f) Ist der additive log Term in 21.3 notwendig? Wir betrachten : EQ Klar gilt N( : EQ) ¸ log n, denn die Ersparnis durch Nichtdeterminismus ist höchstens exponentiell Tatsächlich C 1 ( : EQ)=2n Behauptung: b( : EQ,1) ¸ 1/4 Sei also eine Verteilung auf den Einsen Wir suchen ein Rechteck der Größe 1/4 Wir ziehen r 2 {0,1} n und b 2 {0,1} zufällig Sei R r,b ={x: h x,r i =b} £ {y: h y,r i b} Klar: x,y 2 R r,b ) x y, d.h. das Rechteck ist 1- chromatisch

9 Information & Kommunikation 219 Rechtecke und N(f) Wie groß ist R r,b erwartet? Wir zeigen E[ (R r,b )] ¸ 1/4 Dann gibt es ein Rechteck wie behauptet Sei Z r,b (x,y) eine Zufallsvariable, die (x,y) ist wenn x,y 2 R r,b und sonst 0 Für alle x y: E[Z r,b (x,y)]= (x,y)/4, denn x,y ist in R r,b mit Ws. 1/4 E[ (R r,b )]=E[ x y Z r,b (x,y)] = x y E[Z r,b (x,y)] = x y (x,y)/4=1/4

10 Information & Kommunikation 2110 Disjunktheit Das (negierte) Disjunktheitsproblem spielt die Rolle eines vollständigen Problems für nichtdeterministische Kommunikations : DISJ(x,y)= _ i=1,…,n x i ^ y i Definition 21.4 –Eine Funktion f:{0,1} n £ {0,1} n {0,1} ist reduzierbar auf eine Funktion g:{0,1} m £ {0,1} m {0,1} wenn es Abbildungen a,b:{0,1} n {0,1} m gibt und f(x,y)=g(a(x),b(y)) für alle x,y. D.h. Alice und Bob können lokal ihre Eingaben abbilden und ein Protokoll für g laufen lassen, um f zu berechnen Lemma 21.5 –Wenn f auf g reduzierbar ist, gilt N(f) · N(g) und D(f) · D(g)

11 Information & Kommunikation 2111 Disjunktheit Theorem 21.6 –Alle f mit N(f)=k sind auf i=1,…,2 k x i y i reduzierbar Damit ist : DISJ vollständig in der Klasse der Probleme mit N(f) · polylog n : DISJ ist NP-vollständig in der Kommunikation Beweis: – N(f)=k, dann ist C 1 (f) · 2 k –Es gibt also 2 k 1-chrom. Rechtecke 1,…,2 k, die alle 1-Eingaben überdecken –Zu Eingabe x gebe es Rechtecke i 1,…,i t, die x als Zeile enthalten –a(x) ist der String der Länge 2 k, der an i 1,...,i t Einsen hat –Analog definiere b(y) –f(x,y)=1, dann gibt es ein Rechteck i, das x,y enthält a(x) i b(y) i =1 und : DISJ(a(x),b(y))=1 –f(x,y)=0, dann gilt : DISJ(a(x),b(y))=0

12 Information & Kommunikation 2112 Randomisierte Kommunikation Definition 21.7 –In einem randomisierten Zweiweg Protokoll mit privatem Zufall haben Alice und Bob Zugriff auf zusätzliche Eingaben r A,r B (die Zufallstrings) fester Länge –Im Protokollbaum dürfen die Funktionen der Knoten entweder von Alices Eingabe und r A oder von Bobs Eingabe und r B abhängen –Ansonsten wie deterministische Protokolle definiert –Ein randomisiertes Protokoll berechnet f(x,y), wenn für alle Eingaben x,y die korrekte Ausgabe mit Wahrscheinlichkeit 2/3 berechnet wird, über die uniform zufällige Wahl der r A,r B –R(f) bezeichnet die minimalen Kommunikationskosten eines randomisierten Protokolls für f –R (f) bezeichnet die Kosten, wenn der Fehler ist

13 Information & Kommunikation 2113 Randomisierte Kommunikation Definition 21.9 –In einem public coin Protokoll gibt es einen Zufallsstring r (fester Länge) –Die Knoten des Protokollbaums haben Entscheidungsfunktionen, die entweder von Alices Eingabe und r oder von Bobs Eingabe und r abhängen –R pub (f) usw. bezeichne die public coin Kommunikationskomplexität

14 Information & Kommunikation 2114 Public Coin Theorem 21.10 [Newman] 1.Ein public coin Protokoll braucht nicht mehr als log n+O(1) Zufallsbits, d.h. zu einem gegebenen public coin Protokoll für f:{0,1} n £ {0,1} n {0,1} mit Kommunikation c und Fehler 1/3 existiert ein Protokoll mit Kommunikation O(c), Fehler 1/3 und log n+O(1) Zufallsbits 2.R(f) · O(R pub (f)) + log n Beweis wie im Einweg Fall

15 Information & Kommunikation 2115 Randomisierung vs. Determinismus Wir wissen bereits, dass D(EQ)=n und R 1 (EQ)=O(log n), d.h. Randomisierung gibt uns eine exponentielle Ersparnis Theorem 21.11 –Für alle f: R(f) ¸ (log D 1 (f)) D.h. die Ersparnis ist maximal exponentiell, selbst im Zweiweg Fall Beweis wie im Einweg Fall

16 Information & Kommunikation 2116 Boosting Gegeben ein Protokoll mit Fehler 1/2- können wir das Protokoll k mal durchführen, und nachher die Ausgabe durch Mehrheitsentscheid bestimmen Dies führt zu verringerter Fehlerwahrscheinlichkeit Theorem 21.12 k=O(log (1/ )/ 2 ) reicht aus für Fehlerwahrscheinlichkeit im neuen Protokoll. Beweis durch Chernoff Schranke.

17 Information & Kommunikation 2117 Beispiele R(EQ) · O(log n), da R 1 (EQ) · O(log n) R pub (EQ)=O(1), da R 1,pub (EQ)=O(1) Tatsächlich gilt R pub (EQ)=O(-log ) Greater Than: GT(x,y)=1 gdw. x ¸ y Wir wissen, dass R 1 (GT)= (n) Theorem 21.13 R(GT)=O(log n) Es ist leicht zu zeigen, dass N(GT)=N( : GT)=n

18 Information & Kommunikation 2118 Beweis 21.13 Wir zeigen nur: R(GT) · O(log n log log n) Angenommen x ¸ y Dann gilt x=x 1,…,x n und y=y 1,…,y n und y 1,…,y i =x 1,…,x i und x i+1 =1, y i+1 =0 für ein i Es reicht, das maximale i zu bestimmen, für das y 1,…,y i =x 1,…,x i Idee: Kombiniere das EQ und binäre Suche

19 Information & Kommunikation 2119 Beweis 21.13 Protokoll: –Teste ob x 1,…,x n/2 =y 1,…,y n/2 –Wenn ja, fahre fort mit Positionen n/2+1,…,3/4 n, wenn nein mit Positionen 1,…,n/4 –usw., bis mit binärer Suche i gefunden ist –Teste, ob x i+1 ¸ y i+1 Wir verwenden also log n Equality Protokolle, auf Eingabelängen n/2 j für j=1,…,log n Für jede Iteration verwenden wir ein public coin EQ Protokoll mit Fehler 1/(10 log n). Wir erhalten also ein (public coin) Protokoll mit Kosten O(log n loglog n) Dann folgt auch R(GT) · O(log n log log n)


Herunterladen ppt "Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 29.6."

Ähnliche Präsentationen


Google-Anzeigen