Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Kommunikationstechnik B Teil 4 – Informationstheorie

Ähnliche Präsentationen


Präsentation zum Thema: "Kommunikationstechnik B Teil 4 – Informationstheorie"—  Präsentation transkript:

1 Kommunikationstechnik B Teil 4 – Informationstheorie
Stephan Rupp Nachrichtentechnik

2 Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz

3 Quellenkodierung und Kanalkodierung
Informationstheorie Quellenkodierung und Kanalkodierung Was bewirkt die Quellenkodierung? Was bewirkt die Kanalkodierung? Wozu der Aufwand? Quellen- kodierung Kodierte Nachricht Information Information Redundan z Redundan z Nachrichten- quelle Nachricht, z.B. Text, SMS, , ... Kanalkodierung Information Redundan z Übertragung Kanal

4 Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz

5 Information und Wahrscheinlichkeit
xi Information und Wahrscheinlichkeit Würfelexperiment Beispiel: fairer Würfel pxi = 1/6, 2 Würfe: pxi,xj = pi * pi = 1/36 allgemein: pxi,xj = pxi * pxj Zeichenvorrat: X ={ x1, x2, x3, x4, x5, x6} Wahrscheinlichkeiten: px1, px2, px3, px4, px5, px6 Zeichenquelle Ideen: Zufallsexperiment löst Ungewissheit auf, liefert also Information, d.h. Ixi ~ 1/pxi Information bei 2 Würfen: Ix1,x2 = Ix1 + Ix2

6 Information und Wahrscheinlichkeit
Information eines Zeichens Definition: Masseinheit: bit Beispiele: binäres Zeichen X={0, 1}: pxi = 2-1 => Information = 1 bit hexadezimales Zeichen: ? dezimales Zeichen? Würfel? Zeichen im BDC-Format? Ixi = ld(1/pxi) = - ld(pxi)

7 Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz

8 Informationsgehalt einer Zeichenquelle
Entropie Informationsgehalt einer Zeichenquelle Beispiel: Zeichenvorrat: X ={ x1, x2, x3, x4, x5, x6} Wahrscheinlichkeiten: px1, px2, px3, px4, px5, px6 Zeichenquelle Definition: Entropie Informationsgehalt der Quelle = Information aller Zeichen gewichtet mit deren Wahrscheinlichkeit H(X) = ∑ pi Ii = - ∑ pi ld(pi) Ü

9 Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz

10 Wann ist die Entropie einer Quelle maximal?
Entscheidungsgehalt Wann ist die Entropie einer Quelle maximal? Beispiele: fairer Würfel pxi = 1/6: H0 = ? Quelle mit 10 Zeichen? Beispiel: Zeichenvorrat: X ={ x1, x2, x3, x4, x5, x6} Wahrscheinlichkeiten: px1, px2, px3, px4, px5, px6 Zeichenquelle Definition: Entscheidungsgehalt H0 = maximale Entropie

11 Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz

12 Die Differenz zwischen Entscheidungsgehalt und Entropie
Redundanz Die Differenz zwischen Entscheidungsgehalt und Entropie Informationsgehalt Entropie max. Entropie Redundan z Redundanz Nachrichten- quelle Nachricht, z.B. Text, SMS, , ... Definition: Redundanz = H0 – H(X) Ü

13 Kommunikationstechnik B
ENDE Teil 4


Herunterladen ppt "Kommunikationstechnik B Teil 4 – Informationstheorie"

Ähnliche Präsentationen


Google-Anzeigen