Information und Kommunikation

Slides:



Advertisements
Ähnliche Präsentationen
Christian Scheideler SS 2009
Advertisements

Motivation Bisher: Codes mit möglichst kurzer Codelänge.
Rekursion: Rekurrenz: Algorithmen rufen sich selbst (rekursiv) auf.
Falls Algorithmen sich selbst rekursiv aufrufen, so kann ihr Laufzeitverhalten bzw. ihr Speicherplatzbedarf in der Regel durch eine Rekursionsformel (recurrence,
Huffmans Kompressionsverfahren
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Effiziente Algorithmen
Effiziente Algorithmen
Information und Kommunikation
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Effiziente Algorithmen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Effiziente Algorithmen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation
Information und Kommunikation
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt WS 06/
Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Information und Kommunikation
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
 Präsentation transkript:

Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 27.4. Information & Kommunikation 4

Information & Kommunikation 4 Random Access Codes Wir geben eine einfache Anwendung von Fanos Ungleichung Strings x2{0,1}n werden mit uniformer Verteilung zufällig gezogen Wir suchen einen Code, der es erlaubt, für i2{1,…,n} das Bit xi zu bestimmen, dabei soll die durchschnittliche Erfolgswahrscheinlichkeit  sein. D.h. es sei erlaubt, für einige x,i die falsche Antwort zu geben. Wir nennen solche Codes „random access codes“ Z.B. reicht es aus, die ersten n von x Bits als Code zu verwenden. Information & Kommunikation 4

Information & Kommunikation 4 Random Access Codes Gibt es kurze Random Access Codes? Theorem 4.1 Jeder Random Access Code hat mindestens (1-H())n Bits Länge. Bemerkung: Für  konstant muss der Code (n) Bits haben. Die Schranke in 4.1 ist dicht bis auf O(log n) Information & Kommunikation 4

Information & Kommunikation 4 Random Access Codes Beweis: X sei die Zufallsvariable der zu kodierenden x H(X)=n M sei die Zufallsvariable, die dem Code entspricht, m die Länge des Codes Wenn wir Xi mit Ws. i dekodieren können, dann gilt nach Fano 1-H(i))· I(Xi:M) Nach Kettenregel gilt m¸H(M)¸I(X:M)=i=1,…,n I(Xi:M|X1,…,Xi-1)¸i=1,…,n I(Xi:M), da die Xi unabhängig sind Also ist die Länge des Codes mindestens i=1,…,n (1-H(i)) = n-n Ei=1,…,n H(i) Ei[i]= und daher Ei=1,…,n H(i)· H(), da H konkav Es folgt eine Codelänge von mindestens n(1-H()) Information & Kommunikation 4

Ein Kommunikationsspiel Wir haben implizit folgendes Spiel analysiert: Alice erhält x2{0,1}n Bob erhält i2{1,…,n} Alice sendet eine Nachricht zu Bob Bobs Aufgabe ist es, xi zu berechnen Die durchschnittliche Erfolgswahrscheinlichkeit sei  Dann muss Alices Nachricht mindestens (1-H())n Bits haben Auf der anderen Seite, wenn Bob eine Nachricht senden darf, sind nur log n Bits Kommunikation nötig, damit Alice xi lernt Information & Kommunikation 4

Information & Kommunikation 4 Datenkompression Wir kehren nun zur Frage des noiseless coding zurück Ein Code für eine Zufallsvariable X über {1,…,m} mit Verteilung p ist eine Abbildung C von {1,…,m} nach {0,1,…,D-1}*. D sei die Größe des Codealphabets. li sei die Länge von C(i) Die erwartete Codelänge ist L(C)=i p(i) li Beispiel: Die Buchstaben des Alphabets sollen binär kodiert werden. Häufigere Buchstaben wie „e“ oder „r“ sollen kürzere Codes erhalten Information & Kommunikation 4

Information & Kommunikation 4 Datenkompression Wir wollen aber noch weitere Eigenschaften Die Kodierung soll eindeutig sein, d.h. für ij soll C(i)C(j) gelten Wenn wir kodierte Zeichen übertragen, muss der Empfänger wissen, wann ein Zeichen endet. Wir wollen kein bestimmtes Ende Symbol zusätzlich verwenden Definition Ein Code ist präfixfrei, wenn C(i) kein Präfix von C(j) ist für alle ij Information & Kommunikation 4

Information & Kommunikation 4 Beispiel Wir wollen A,B,C,D kodieren 0,1,01,10 ist ein eindeutiger Code, aber nicht präfixfrei 0,10,110,111 ist präfixfrei Die Folge 011010111 kann ohne Trennzeichen dekodiert werden Information & Kommunikation 4

Eine Eigenschaft präfixfreier Codes Theorem 4.2 [Kraftsche Ungleichung] Ein präfixfreier Code mit m Codewortlängen l1,…,lm über einem Alphabet der Größe D erfüllt: i D-li· 1 Gegeben l1,..,lm, die diese Ungleichung erfüllen, gibt es einen präfixfreien Code mit diesen Codewortlängen Information & Kommunikation 4

Kraftsche Ungleichung Beweis Teil 1: Gegeben ein präfixfreier Code mit Längen l1,…,lm Wir betrachten einen Baum mit Grad D Die Verzweigungen entsprechen den Buchstaben des Alphabets Die Blätter den Codeworten Information & Kommunikation 4

Kraftsche Ungleichung Beispiel: A,B,C,D mit Codeworten 0,10,110,111 Information & Kommunikation 4

Kraftsche Ungleichung Die Präfixeigenschaft impliziert, dass kein Vorgänger eines Blattes ein Codewort ist lm sei die größte Codewortlänge Alle (möglichen) Knoten in Tiefe lm sind entweder Codeworte, Nachfolger von Codeworten, oder keins von beidem Ein Codewort in Tiefe li schließt Dlm-li viele Knoten in Ebene lm als Codeworte aus Alle diese Mengen von ausgeschlossenen Knoten sind paarweise disjunkt Es werden höchstens Dlm Knoten in Tiefe lm ausgeschlossen D.h. i Dlm-li· D-lm ) i D-li · 1 Information & Kommunikation 4

Kraftsche Ungleichung Information & Kommunikation 4

Kraftsche Ungleichung Teil 2: Gegeben l1,…,lm mit i D-li · 1 Wir wollen „Worte“ 1,…,m kodieren Der (lexikographisch) erste Knoten in Tiefe l1 ist der Code von 1 (bzw. der Pfad zum Knoten ist mit dem Codewort gelabelt). Alle Nachfolger des Blattes werden entfernt Iteration Klar: wir erzeugen einen präfixfreien Code Übung: zeigen, dass dies tatsächlich funktioniert. Information & Kommunikation 4

Optimale Codewortlängen Wir haben nun eine hinreichende und notwendige Bedingung für präfixfreie Codes Was ist nun die erwartete Codewortlänge? Wir definieren HD(X)=-i p(i) logD(pi), die Entropie zur Basis D Information & Kommunikation 4

Optimale Codewortlängen Theorem 4.3 Jeder präfixfreie Code mit Alphabet {0,..,D-1} für eine Zufallsvariable X auf {1,…,m} hat erwartete Länge i p(i) li¸ HD(X) Information & Kommunikation 4

Optimale Codewortlängen Beweis Wir setzen L= i p(i) li und betrachten L-HD(X) = Information & Kommunikation 4

Optimale Codewortlängen DD(p||r) ist die relative Entropie zur Basis D c·1 wegen der Kraft Ungleichung Information & Kommunikation 4

Optimale Codewortlängen Wir kennen nun eine untere Schranke für die erwartete Codelänge Unser Ziel ist es, eine obere Schranke zu finden, d.h. einen Code zu konstruieren Gegeben ist also eine Zufallsvariable X auf {1,…,m} mit Entropie HD(X) und wir wollen einen Code mit Alphabet {0,…,D-1} konstruieren Information & Kommunikation 4

Optimale Codewortlängen Theorem 4.4 Zu X gibt es einen Code mit erwarteter Länge <HD(X)+1 Beweis: Wir wollen  p(i)li minimieren, dabei muss  D-li· 1 gelten Wir setzen Information & Kommunikation 4

Optimale Codewortlängen Diese Wahl erfüllt die Kraft Ungleichung Es gilt Information & Kommunikation 4

Optimale Codewortlängen Wir können nun wie in der Konstruktion zur Kraft Ungleichung einen Code angeben. Diese Konstruktion liefert uns also einen Code mit erwarteter Länge zwischen HD(X) und HD(X)+1 Der erhaltene Code ist nicht unbedingt optimal! Information & Kommunikation 4