Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 2.7.

Ähnliche Präsentationen


Präsentation zum Thema: "Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 2.7."—  Präsentation transkript:

1 Information und Kommunikation Hartmut Klauck Universität Frankfurt SS

2 Information & Kommunikation 22 2 Untere Schranken Wir sind daran interessiert, untere Schranken für R(f) zu zeigen Aus technischen Gründen werden wir meistens R pub (f) betrachten Der maximale Unterschied ist § O(log n) Public coin Protokolle sind durch Verteilungen auf deterministischen Protokollen gegeben

3 Information & Kommunikation 22 3 Protokolle mit Fehler Wir betrachten deterministische Protokolle mit Fehler für Funktionen f Sei eine Verteilung auf df Eingaben, d.h. auf {0,1} n £ {0,1} n Ein deterministisches Protokoll P hat Fehler auf, wenn Prob x,y gemäß (P(x,y) f(x,y)) · Definition 22.1 –Die deterministische Komplexität mit Fehler unter ist D (f), die Komplexität eines optimalen Protokolls das bzgl. Fehler hat

4 Information & Kommunikation 22 4 Protokolle mit Fehler Theorem 22.2 [Yao-Prinzip] –R pub (f)=max D (f), wobei über alle Verteilungen auf den Eingaben läuft In Worten: die randomisierte Komplexität mit (worst case) Fehler ist gleich der deterministischen Komplexität mit average case Fehler für die schwierigste Verteilung

5 Information & Kommunikation 22 5 Beispiel D 1/4 (GT) · 2 wenn uniform: –Alice sendet das erste Bit x 1, Bob das erste Bit y 1 –Akz., wenn x 1 ¸ y 1 –Fehler tritt auf, wenn x 1 =y 1 und y>x, was mit Ws. 1/4 der Fall ist

6 Information & Kommunikation 22 6 Rechtecke mit Fehler Wieder werden untere Schranken für R(f) so bewiesen: –Wähle a=0,1 –Lege eine schwierige Verteilung auf die Eingaben (O.B.d.A. mit 1/4 · (f -1 (a)) · 3/4) –Zeige, dass alle Rechtecke in der Kommunikationsmatrix entweder 1.Klein sein: (R) · 1/2 k 2.Oder großen Fehler bezüglich Ausgabe a haben: (R \ f -1 ( : a))/ (R)= (1) –Dann gilt R(f) ¸ (k) Denn: Es gibt dann ein konstantes >0 mit D (f) ¸ k/2 (*) Damit folgt R(f) ¸ (k) –Denn wenn R(f)=o(k), wäre R (f)=o(k) und somit D (f)=o(k) für jede Konstante

7 Information & Kommunikation 22 7 Rechtecke mit Fehler Warum gilt (*)? –Sei P ein det. Protokoll für f mit Komm. c und Fehler unter –Der Fehler auf Eingaben mit f(x,y)=a ist höchstens 4, d.h. Prob(P(x,y) a | f(x,y)=a) · 4 –Das Protokoll ergibt eine Partition der Eingaben in höchstens 2 c Rechteck –Alle Rechtecke der Größe kleiner als 1/2 2c bedecken nur höchstens einen Anteil von 1/2 c aller Eingaben –Es gibt mindestens ein Rechteck mit Größe ¸ 1/2 2c und Fehler · 4 1/2 c ) Denn sonst wäre der Fehler auf a-Eingaben Prob(P(x,y) a | f(x,y)=a) > (1-1/2 c ) ¢ 4 /(1-1/2 c )=4 –Für k=2c ist damit = (1)

8 Information & Kommunikation 22 8 Disjunktheit Fakt 22.3 –Es gibt eine Verteilung auf den Eingaben von Disj und eine Konstanten, so dass für alle Rechtecke R gilt: – R \ DISJ -1 (0)) ¸ ¢ (R \ DISJ -1 (1))-2 - n In anderen Worten: –Wenn wir ein 1-Rechteck R mit Fehler für DISJ suchen, so ist dies entweder klein ( (R) · 2 - n ) oder hat konstant großen Fehler –D.h. R(DISJ)= (n) Hinweis: Es gibt große 0-chromatische Rechtecke für DISJ unter jeder Verteilung

9 Information & Kommunikation 22 9 Disjunktheit Hier ist die Verteilung unter der DISJ schwierig ist: –Sei n=4k-1 –Wähle eine zufällige Partition von {1,…,n} in 3 Mengen T 1,T 2, {i} –|T 1 |=|T 2 |=2k-1 –Wähle Mengen x,y so dass |x|=|y|=k, x µ T 1 [ {i}, y µ T 2 [ {i} Prob (x \ y= ; )=1/4 |x \ y| 2 {0,1}

10 Information & Kommunikation Untere Schranken Wir werden die untere Schranke für Disjunktheit auf eine andere Art beweisen, mit informationstheoretischen Methoden Wir betrachten jedoch zunächst das innere Produkt Problem IP(x,y)= i x i y i mod 2 Theorem 22.4 –R(IP)= (n)

11 Information & Kommunikation Diskrepanz Wir zeigen tatsächlich eine Rechteckschranke indirekt. Definition 22.5 –Für eine Kommunikationsmatrix M f und ein Rechteck R sei disc(R,f)= | Prob (f(x,y)=1 und x,y 2 R) - Prob (f(x,y)=0 und x,y 2 R) | –disc(f)=max R disc(R,f) Die Diskrepanz bestimmt also den größtmöglichen bias von Rechtecken.

12 Information & Kommunikation Diskrepanz Theorem 22.6 –D 1/2- (f) ¸ log(2 /disc(f)) Es reicht also aus, zu zeigen, dass disc(IP) · 2 - (n). Beweis: –P sei ein Protokoll mit Kommunikation c und Fehler 1/2-

13 Information & Kommunikation Beweis 22.6 Dann gilt: 2 · Prob (P(x,y)=f(x,y))-Prob (P(x,y) f(x,y)) = l [ Prob (P(x,y)=f(x,y) und (x,y) 2 R l ) -Prob (P(x,y) f(x,y) und (x,y) 2 R l ) ] über alle Blätter l im Protokollbaum –Auf jedem Blatt ist die Ausgabe fix –Daher: 2 · l | Prob (f(x,y)=0 und (x,y) 2 R l ) -Prob (f(x,y)=1 und (x,y) 2 R l ) | –Jeder der 2 c Terme ist durch disc(f) beschränkt –Also disc(f) ¸ 2 /2 c

14 Information & Kommunikation Inner Product Wir zeigen: Theorem 22.7 disc(IP) · 2 -n/2 Damit folgt sofort R(IP)= (n) Genauer folgt sogar: D 1/2- unif (IP) ¸ n/2-log(1/ )

15 Information & Kommunikation Beweis 22.7 Sei H die 2 n £ 2 n Matrix mit H(x,y)=1 wenn IP(x,y)=0 und H(x,y)=-1, wenn IP(x,y)=1 H H T =2 n I für die Indentitätsmatrix I Wir betrachten die Norm von H: –||H||=max v:||v||=1 ||Hv|| (mit euklidischer Vektornorm) –||H||=max{ 1/2 : ist Eigenwert von HH T } –||H||=max u,v:||u||=||v||=1 |u T Hv| 2 n ist der einzige Eigenwert von HH T ||H||=2 n/2

16 Information & Kommunikation Beweis 22.7 Sei R=S £ T ein Rechteck in H disc(R,IP)=| x 2 S,y 2 T H(x,y)|/2 2n =|1 S H 1 T |/2 2n Wobei 1 S der charakteristische Vektor von S, 1 T derjenige von T ist disc(R,IP) =|1 S H 1 T |/2 2n · ||1 S || ||H|| ||1 T ||/2 2n · |S| 1/2 2 n/2 |T| 1/2 /2 2n Damit folgt über |S|,|T| · 2 n : disc(IP)=max R disc(R,IP) · 2 -n/2


Herunterladen ppt "Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 2.7."

Ähnliche Präsentationen


Google-Anzeigen