Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 23.4.

Ähnliche Präsentationen


Präsentation zum Thema: "Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 23.4."—  Präsentation transkript:

1 Information und Kommunikation Hartmut Klauck Universität Frankfurt SS

2 Nichtnegativität Theorem 3.1 –D(p||q) ¸ 0 für alle p,q Beweis: –Sei A={i:p(i)> 0} der Träger von p –Dann:

3 Information und relative Entropie Wir wollen I(X:Y) ¸ 0 zeigen Seien also X,Y mit Verteilung p gegeben Sei p X die Grenzverteilung von X p Y von Y Setze q=p X ­ p Y, d.h. q(i,j)=p X (i)p Y (j) I.A. q(i,j) p(i,j)

4 Information und relative Entropie Lemma 3.2 –I(X:Y)=D(p||q)=D(XY||X ­ Y) Beweis:

5 Information und relative Entropie Korollar 3.3 –I(X:Y) ¸ 0 für alle X,Y

6 Entropie und relative Entropie Theorem 3.4 H(X)=log n-D(p||u), wobei X eine Zufallsvariable auf {1,…,n} ist, p die Verteilung von X, und u die uniforme Verteilung auf {1,…,n}. Beweis: log n - D(p||u) =log n - i=1,...,n p(i) log (p(i) ¢ n) =H(X)

7 Konvexität Theorem 3.5 –Die relative Entropie ist konvex: –Seien p 1,p 2,q 1,q 2 Verteilungen und 0 · · 1, dann gilt D( p 1 +(1- )p 2 || q 1 +(1- )q 2 ) · D(p 1 ||q 1 )+ (1- ) D(p 2 ||q 2 )

8 Ein Korollar Mit Theoremen 3.4 und 3.5 folgt, dass die Entropie konkav ist, d.h. Korollar 3.6 H( p 1 +(1- )p 2 ) ¸ H(p 1 )+ (1- ) H(p 2 )

9 Maximale Entropie Wir haben gesehen, dass für alle Zufallsvariablen X auf {1,…,n} gilt: H(X) · log n Die uniforme Verteilung hat H(X)=log n Gibt es noch andere Verteilungen mit H(X)=log n? Theorem 3.7 Wenn H(X)=log n (für ZV X auf {1,…,n}), dann ist X uniform verteilt.

10 Maximale Entropie Beweis: –Sei X mit Verteilung p gegeben –u sei die uniforme Verteilung –H(X)= log n – D(p||u) –Daher D(p||u)= log n –H(X)=0 –Somit gilt p=u

11 Zusammenfassung Maße in der Informationstheorie: –Entropie, Information, relative Entropie Diese Maße sind nichtnegativ Entropie misst Unbestimmtheit, Information Korrelation (bzw. Sinken der Unbestimmtheit durch neues Wissen), relative Entropie ist eine Distanzmaß für Verteilungen Eigenschaften: Kettenregel, verschiedene Ungleichungen und Schranken, Entropie konkav

12 Data Processing Inequality Kann Information durch Datenverarbeitung vergrößert werden? Zufallsvariablen X,Y,Z bilden eine Markov-Kette (X ! Y ! Z), wenn p(x,y,z)=p(x)p(y|x)p(z|y). D.h. Z hängt nur von Y, aber nicht direkt von X

13 Data Processing Inequality Theorem 3.8 –Wenn X ! Y ! Z, dann I(X:Z) · I(X:Y) Beweis: – I(X:YZ)=I(X:Z)+I(X:Y|Z) =I(X:Y)+I(X:Z|Y) –X und Z sind unabhängig wenn über Y konditioniert wird, daher gilt I(X:Z)+I(X:Y|Z)=I(X:Y) und das Theorem folgt mit Korollar 3.3.

14 Data Processing Inequality Interpretation: –Wenn Information über X in einer Zufallsvariable Y gegeben wird, und Y zu Z weiterverarbeitet wird, kann die Information über X nicht gesteigert werden.

15 Noiseless Coding Sei X eine Zufallsvariable auf {0,1} n mit Entropie H(X) Wir wollen den Wert von X von Alice zu Bob kommunizieren Dabei verlaufe die Kommunikation über einen fehlerfreien Kanal Wie viele Bits muss Alice senden? –Im Durchschnitt –Im worst case

16 Noiseless Coding Wir nehmen an, dass Bob die x ohne Fehler rekonstruieren muss Worst Case Szenario: – alle x 2 {0,1} n haben positive Wahrscheinlichkeit. Alice muss somit n Bits im worst case kommunizieren, da sonst zwei x,x dieselbe Nachricht hätten Durchschnitts Szenario: –Wie viele Bits ? –Uns interessiert E x [ |m(x)| ], wobei m(x) die Nachricht für x sei.

17 Noiseless Coding Wir zeigen zunächst nur folgendes: Theorem 3.9 –Noiseless Coding für eine Zufallsvariable X benötigt Nachrichten mit Entropie mindestens H(X) Beweis: –M sei die Zufallsvariable der Nachrichten von Alice an Bob. Z sei Bobs Ausgabe. –Z=X mit Wahrscheinlichkeit 1, d.h. I(Z:X)=H(X) –Mit der Data Processing Ungleichung folgt H(M) ¸ I(M:X) ¸ I(Z:X)=H(X) Wir werden später zeigen, dass H(X) auch eine untere Schranke für die Codelänge ist.

18 Entropie und Fehler Angenommen, es gibt ein Paar von Zufallsvariablen X,Y Wir haben Zugriff auf Y, wollen aber den Wert von X raten Wenn X und Y unabhängig sind, haben wir keine Information durch Y –In diesem Fall würden wir das wahrscheinlichste i als Wert von X wählen, ohne Y zu beachten Wenn H(X|Y)=0, dann gibt es zu jedem Y=j genau ein X=i mit p(i|j)=1, d.h. Fehler 0 Allgemein bestimmen wir eine Zufallsvariable Z als Funktion von Y, und die Fehlerwahrscheinlichkeit ist P e =Prob(X Z)

19 Fanos Ungleichung Fanos Ungleichung stellt eine Verbindung zwischen dem Fehler und der relativen Entropie her Theorem 3.10 [Fano] H(P e ) + P e log (n-1) ¸ H(X|Y) Beispiel: Sei n=2, und X sei uniform verteilt. Dann gilt H(P e ) ¸ H(X|Y) bzw. 1-H(P e ) · I(X:Y). Z.B. für Fehler 0.1 braucht man I(X:Y)>0.53

20 Fanos Ungleichung Beweis: Wir definieren eine (Fehler-) Zufallsvariable E=1 wenn X Z und E=0 wenn X=Z H(E,X|Y)=H(X|Y)+H(E|X,Y) H(E,X|Y)=H(E|Y)+H(X|E,Y) H(E|X,Y)=0 H(E|Y) · H(P e ) H(X|E,Y)=Prob(E=0) ¢ H(X|Y,E=0) +Prob(E=1) ¢ H(X|Y,E=1) · (1-P e ) ¢ 0 + P e log(n-1) (*) Damit gilt: H(X|Y) · H(P e )+P e log (n-1) (*): wenn E=1, wissen wir, dass eine Möglichkeit für den Wert von X (nämlich der Wert von Z) nicht mehr erlaubt ist


Herunterladen ppt "Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 23.4."

Ähnliche Präsentationen


Google-Anzeigen