Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 7.5.

Ähnliche Präsentationen


Präsentation zum Thema: "Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 7.5."—  Präsentation transkript:

1 Information und Kommunikation Hartmut Klauck Universität Frankfurt SS

2 Information & Kommunikation 72 Gemeinsam Typische Sequenzen Wir betrachten Zufallsvariablen X 1,…,X n,Y 1,…,Y n X i,Y i haben für jedes i die Verteilung p(x,y) Die Zufallsvariablen entsprechen Ein- und Ausgaben eines Kanals der n mal (unabhängig) benutzt wird Wir wollen später dekodieren, indem wir zur Ausgabe Y 1,…,Y n ein X 1,…,X n finden, so dass beide gemeinsam typisch sind

3 Information & Kommunikation 73 Gemeinsam Typische Sequenzen Definition 7.1 –Gegeben sei eine Verteilung p(x,y) auf X £ Y –Die Menge A der gemeinsam typischen Sequenzen ist die Menge derjenigen strings in X n £ Y n mit:

4 Information & Kommunikation 74 Gemeinsam Typische Sequenzen Theorem Prob(A ) ¸ 1- für genügend große n 2.|A | · 2 n(H(X,Y)+ ) 3.Wenn U,…,U n bzw. V 1,…,V n verteilt sind wie p X bzw. p Y (Grenzverteilungen von p), dann gilt: Prob(U 1,…,U n,V 1,…,V n 2 A ) · 2 -n(I (X:Y)-3 ) Prob(U 1,…,U n,V 1,…,V n 2 A ) ¸ 2 -n(I (X:Y)+3 ) (für genügend große n)

5 Information & Kommunikation 75 Beweis 1): –Wie für typische Sequenzen gilt: E[-1/n ¢ log p(X 1,…,X n )]=H(X) –Mit Chebyshev folgt: für alle >0 gibt es ein n 0, für alle n ¸ n 0 : Prob(|-1/n ¢ log p(X 1,…,X n )-H(X)| ¸ ) · /3 –Genauso: für jedes >0 gibt es ein n 1, für alle n ¸ n 1 : Prob(|-1/n ¢ log p(Y 1,…,Y n )-H(Y)| ¸ ) · /3 –Und: für jedes >0 gibt es ein n 0, für alle n ¸ n 2 : Prob(|-1/n ¢ log p(X 1,…,X n,Y 1,…,Y n )-H(XY)| ¸ ) · /3

6 Information & Kommunikation 76 Beweis Daher sind alle 3 Bedingungen mit Ws. 1- erfüllt, wenn n ¸ n 0,n 1,n 2 2):

7 Information & Kommunikation 77 Beweis 3) U 1,…,U n sei mit (p X ) n verteilt –V 1,…,V n,mit (p Y ) n –Es gilt:

8 Information & Kommunikation 78 Bemerkungen Es gibt also ungefähr 2 n H(X) typische X- Sequenzen, 2 n H(Y) typische Y-Sequenzen, aber nur 2 n H(X,Y) gemeinsam typische Sequenzen Paare von typischer X-Sequenz und typischer Y-Sequenz sind nicht immer gemeinsam typisch Die Wahrscheinlichkeit dass ein Paar gemeinsam typisch ist, ist nur ¼ 2 -n I(X:Y), wenn X-Sequenz und Y-Sequenz unabhängig gewählt werden

9 Information & Kommunikation 79 Shannons Theorem Theorem 7.3 Gegeben sei ein Kanal mit Kapazität C durch die Wahrscheinlichkeiten p(y|x). –Alle Raten R mit RC sind nicht erreichbar. Anders fomuliert: –Für alle R

10 Information & Kommunikation 710 Shannons Theorem Wir beginnen mit der ersten Aussage Gegeben sei die Matrix der p(y|x). p(x) sei die Verteilung auf dem Eingabealphabet, auf welcher die Kapazität C des Kanals erreicht wird R

11 Information & Kommunikation 711 Der Code Wir wählen eine (2 Rn,n)-Code so: –Wir bestimmen die Menge der Codeworte –Dazu füllen wir eine 2 Rn £ n-Matrix auf, indem wir jedes Element gemäß p(x) wählen –Die Zeilen der Matrix sind unsere Codeworte –Anders gesagt wählen wir 2 Rn Codeworte x 1,…,x n, indem wir x i mit Ws. p(x i ) wählen

12 Information & Kommunikation 712 Der Code Daher gilt, dass eine bestimmte Codewortmenge mit Ws. gewählt wird, dabei sei C i (W) das i-te Zeichen des W-ten Codeworts Um einen Code zu erhalten, bilden wir nun einfach die Elemente von {1,…, 2 Rn } auf die Codeworte ab (Kodierungsfunktion) Die Dekodierungsfunktion müssen wir noch beschreiben (Codeworte C(W) werden wie durch das Inverse der Kodierungsfunktion dekodiert, d.h. zu W). Mit sehr geringer Wahrscheinlichkeit ist der Code ungültig, das dasselbe Codewort zweimal vorkommt.

13 Information & Kommunikation 713 Der Gesamtablauf Wir betrachten den Kommunikationsablauf in folgenden Schritten: –Ein zufälliger Code wird erzeigt wie beschrieben und Sender und Empfänger erhalten den Code –Eine Nachricht W wird uniform zufällig gewählt, aus {1,…, 2 Rn } und dem Sender bekannt gemacht –Das W-te Codewort C(W) wird vom Sender über den Kanal geschickt (den n-fachen Produktkanal) –Der Empfänger erhält Y 1,…,Y n, gemäß der Verteilung p(y i |C(W)) –Der Empfänger dekodiert.

14 Information & Kommunikation 714 Dekodierung Es gibt eine optimale Methode der Dekodierung: Maximum-Likelihood Decoding Das bedeutet, dass der Empfänger, gegeben einen Wert y 1,…,y n von Y 1,…,Y n einen wahrscheinlichsten Wert von X 1,…,X n bestimmt (unter allen Codeworten) Dieses Verfahren hat offensichtlich den kleinsten Fehler Allerdings ist es schwierig zu analysieren

15 Information & Kommunikation 715 Typical-Set-Decoding Wir verwenden daher für die Analyse ein anderes Verfahren: –Typical-Set-Decoding Der Empfänger gibt W aus, –wenn (C(W);Y 1,…,Y n ) gemeinsam typisch sind –Wenn es kein W mit derselben Eigenschaft gibt Im letzteren Fall wird ein dummy ausgegeben


Herunterladen ppt "Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 7.5."

Ähnliche Präsentationen


Google-Anzeigen