Präsentation herunterladen
Veröffentlicht von:Sieglinde Gerken Geändert vor über 11 Jahren
1
Kommunikationstechnik B Teil 4 – Informationstheorie
Stephan Rupp Nachrichtentechnik
2
Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz
3
Quellenkodierung und Kanalkodierung
Informationstheorie Quellenkodierung und Kanalkodierung Was bewirkt die Quellenkodierung? Was bewirkt die Kanalkodierung? Wozu der Aufwand? Quellen- kodierung Kodierte Nachricht Information Information Redundan z Redundan z Nachrichten- quelle Nachricht, z.B. Text, SMS, , ... Kanalkodierung Information Redundan z Übertragung Kanal
4
Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz
5
Information und Wahrscheinlichkeit
xi Information und Wahrscheinlichkeit Würfelexperiment Beispiel: fairer Würfel pxi = 1/6, 2 Würfe: pxi,xj = pi * pi = 1/36 allgemein: pxi,xj = pxi * pxj Zeichenvorrat: X ={ x1, x2, x3, x4, x5, x6} Wahrscheinlichkeiten: px1, px2, px3, px4, px5, px6 Zeichenquelle Ideen: Zufallsexperiment löst Ungewissheit auf, liefert also Information, d.h. Ixi ~ 1/pxi Information bei 2 Würfen: Ix1,x2 = Ix1 + Ix2
6
Information und Wahrscheinlichkeit
Information eines Zeichens Definition: Masseinheit: bit Beispiele: binäres Zeichen X={0, 1}: pxi = 2-1 => Information = 1 bit hexadezimales Zeichen: ? dezimales Zeichen? Würfel? Zeichen im BDC-Format? Ixi = ld(1/pxi) = - ld(pxi)
7
Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz
8
Informationsgehalt einer Zeichenquelle
Entropie Informationsgehalt einer Zeichenquelle Beispiel: Zeichenvorrat: X ={ x1, x2, x3, x4, x5, x6} Wahrscheinlichkeiten: px1, px2, px3, px4, px5, px6 Zeichenquelle Definition: Entropie Informationsgehalt der Quelle = Information aller Zeichen gewichtet mit deren Wahrscheinlichkeit H(X) = ∑ pi Ii = - ∑ pi ld(pi) Ü
9
Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz
10
Wann ist die Entropie einer Quelle maximal?
Entscheidungsgehalt Wann ist die Entropie einer Quelle maximal? Beispiele: fairer Würfel pxi = 1/6: H0 = ? Quelle mit 10 Zeichen? Beispiel: Zeichenvorrat: X ={ x1, x2, x3, x4, x5, x6} Wahrscheinlichkeiten: px1, px2, px3, px4, px5, px6 Zeichenquelle Definition: Entscheidungsgehalt H0 = maximale Entropie
11
Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz
12
Die Differenz zwischen Entscheidungsgehalt und Entropie
Redundanz Die Differenz zwischen Entscheidungsgehalt und Entropie Informationsgehalt Entropie max. Entropie Redundan z Redundanz Nachrichten- quelle Nachricht, z.B. Text, SMS, , ... Definition: Redundanz = H0 – H(X) Ü
13
Kommunikationstechnik B
ENDE Teil 4
Ähnliche Präsentationen
© 2025 SlidePlayer.org Inc.
All rights reserved.