Kommunikationstechnik B Teil 4 – Informationstheorie

Slides:



Advertisements
Ähnliche Präsentationen
oder der Weg zum „Platzsparen“
Advertisements

Kapitel 2 Information Information ist der grundlegende Begriff der Informatik. Mehr noch: „Der Begriff der Information ist vermutlich das zentrale interdisziplinäre.
(Zweistufige) Logiksynthese
Johannes-Kepler-Gymnasium
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (22 – B-Bäume)
Algorithmen und Datenstrukturen
Arbeiten mit Mittelwert- und Kovarianzstrukturmodellen
Information - syntaktisch
Übung 2.1 Information Wieviele Fragen benötigen Sie beim „Zahlenraten“
Anhang F:Beispielklausur In diesem Kapitel wird ein Beispiel für eine Klausur vorgestellt. Dabei sind jeweils die Aufgaben und die Lösungen gegeben. Beachten.
Beispielklausur In diesem Kapitel wird ein Beispiel für eine Klausur vorgestellt. Dabei sind jeweils die Aufgaben und die Lösungen gegeben. Beachten Sie.
Welches sind die beiden Kirchhoffschen Gesetze, die mit der hier dargestellten Schaltung verifiziert werden können und wie lauten diese?   Kirchhofsche.
1 Computergestützte Verifikation SAT-basiertes Model Checking Ansatz: Übersetze das Model Checking Problem in ein aussagenlogisches Erfüllbarkeitsproblem.
1 Computergestützte Verifikation Symbolisches Model Checking 4.1 CTL Model Checking mit Binary Decision Diagrams (1. Systeme 2. Spezifikationen.
Tina John Ebenen und Links in Sprachdatenbanken. Ebenen = Symbole werden mit der Zeit in einer Ebene verbunden. Namen der Ebenen Symbole der Word-Ebene.
Hypothesenprüfung nach Bayes
Sortierverfahren Richard Göbel.
Sortierverfahren Richard Göbel.
Law of comparative judgement
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (22 – Bruder-Bäume, B-Bäume) Prof. Th. Ottmann.
© 2006 W. Oberschelp, G. Vossen Rechneraufbau & Rechnerstrukturen, Folie 4.1.
Die Seevermessung Kl.8 Reflexives Magnetthema
Technische Informatik I
Graph Drawing by Force-directed Placement
Der QR-Code 1. Grundlagen & Geschichte 2. Aufbau
PowerPoint-Folien zur 4. Vorlesung „Evolutionsstrategie II“
Das Wunder der Koordinatentransformation Das Wunder der sexuellen Fortpflanzung = Rekombination.
Ingo Rechenberg PowerPoint-Folien zur 4. Vorlesung Evolutionsstrategie II Das Wunder der sexuellen Fortpflanzung - Theorie der rekombinativen ES.
Eine mathematische Analyse
Beweiser – Integer Linear Problems Oleg Iskov Methoden der Verifikation Universität Bremen SS2005.
DÖLAUER - Würfelspiel Spielanleitung (Hauptseite)
Information und Kommunikation
Funktionen Johannes-Kepler-Gymnasium Plenum Funktionen
Sensitivitätsanalyse
Information und Kommunikation
Information und Kommunikation
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Java, Java, Java R. Morelli
Interpretation des Simplex
Wahrscheinlichkeit Zufallsexperiment:
Rechnen in verschiedenen Systemen
Wahrscheinlichkeitsrechnung
Mixture modeling Holger Steinmetz and Peter Schmidt
Zufallsgröße und Erwartungswert
Informationstheorie Begr. von Claude Shannon
Kommunikationstechnik B Teil 1 – Einführung
Grundlagen der Kommunikation in Verbindung mit der Codierung von Daten
Determinanten und Cramer‘sche Regel
Kommunikation und Codierung von Daten
Rechnersysteme Marcel Waldvogel. Marcel Waldvogel, IBM Zurich Research Laboratory, Universität Konstanz, , 2  Wer bin ich?  Die Vorlesung.
Algorithmen für das Erfüllbarkeitsproblem SAT
Kommunikationstechnik B Teil 2 – Digitale Modulationsverfahren
1 Computergestützte Verifikation Binary Decision Diagrams (BDD) Inhalt: Die Datenstruktur BDD Operationen auf BDD CTL Model.
Kommunikationstechnik B Teil 3 – Signalverarbeitung
Stochastik Grundlagen
Der Weg und das Ziel Algorithmische Zusammenhänge finden
PS Wissen und neue Medien
Information - syntaktisch
Daten und Information in der ITG
Florian Hutter & Nicole Waibel
GRUNDBEGRIFFE.
LAP IT-Techniker und IT-Informatiker
X. Übungsblatt – Aufgabe X Für die Bevölkerung Deutschlands wird für das Jahr 2050 folgende Altersstruktur vorausgesagt: a)Die Bevölkerung soll in 2 Gruppen.
Eine Begriffserklärung
Quellen: Mikrozensus, eigene Berechnungen (gewichtet) © IAT, 2005
W Passen Sie dieses Banner mit Ihrer eigenen Nachricht an! Wählen Sie den Buchstaben aus, und fügen Sie Ihren eigenen Text hinzu. Verwenden Sie ein Zeichen.
G Passen Sie dieses Banner mit Ihrer eigenen Nachricht an! Wählen Sie den Buchstaben aus, und fügen Sie Ihren eigenen Text hinzu. Verwenden Sie ein Zeichen.
H Passen Sie dieses Banner mit Ihrer eigenen Nachricht an! Wählen Sie den Buchstaben aus, und fügen Sie Ihren eigenen Text hinzu. Verwenden Sie ein Zeichen.
Eine Begriffserklärung
 Präsentation transkript:

Kommunikationstechnik B Teil 4 – Informationstheorie Stephan Rupp Nachrichtentechnik www.dhbw-stuttgart.de

Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz

Quellenkodierung und Kanalkodierung Informationstheorie Quellenkodierung und Kanalkodierung Was bewirkt die Quellenkodierung? Was bewirkt die Kanalkodierung? Wozu der Aufwand? Quellen- kodierung Kodierte Nachricht Information Information Redundan z Redundan z Nachrichten- quelle Nachricht, z.B. Text, SMS, E-Mail, ... Kanalkodierung Information Redundan z Übertragung Kanal

Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz

Information und Wahrscheinlichkeit xi Information und Wahrscheinlichkeit Würfelexperiment Beispiel: fairer Würfel pxi = 1/6, 2 Würfe: pxi,xj = pi * pi = 1/36 allgemein: pxi,xj = pxi * pxj Zeichenvorrat: X ={ x1, x2, x3, x4, x5, x6} Wahrscheinlichkeiten: px1, px2, px3, px4, px5, px6 Zeichenquelle Ideen: Zufallsexperiment löst Ungewissheit auf, liefert also Information, d.h. Ixi ~ 1/pxi Information bei 2 Würfen: Ix1,x2 = Ix1 + Ix2

Information und Wahrscheinlichkeit Information eines Zeichens Definition: Masseinheit: bit Beispiele: binäres Zeichen X={0, 1}: pxi = 2-1 => Information = 1 bit hexadezimales Zeichen: ? dezimales Zeichen? Würfel? Zeichen im BDC-Format? Ixi = ld(1/pxi) = - ld(pxi)

Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz

Informationsgehalt einer Zeichenquelle Entropie Informationsgehalt einer Zeichenquelle Beispiel: Zeichenvorrat: X ={ x1, x2, x3, x4, x5, x6} Wahrscheinlichkeiten: px1, px2, px3, px4, px5, px6 Zeichenquelle Definition: Entropie Informationsgehalt der Quelle = Information aller Zeichen gewichtet mit deren Wahrscheinlichkeit H(X) = ∑ pi Ii = - ∑ pi ld(pi) Ü4.6 -.12

Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz

Wann ist die Entropie einer Quelle maximal? Entscheidungsgehalt Wann ist die Entropie einer Quelle maximal? Beispiele: fairer Würfel pxi = 1/6: H0 = ? Quelle mit 10 Zeichen? Beispiel: Zeichenvorrat: X ={ x1, x2, x3, x4, x5, x6} Wahrscheinlichkeiten: px1, px2, px3, px4, px5, px6 Zeichenquelle Definition: Entscheidungsgehalt H0 = maximale Entropie

Inhalt Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz

Die Differenz zwischen Entscheidungsgehalt und Entropie Redundanz Die Differenz zwischen Entscheidungsgehalt und Entropie Informationsgehalt Entropie max. Entropie Redundan z Redundanz Nachrichten- quelle Nachricht, z.B. Text, SMS, E-Mail, ... Definition: Redundanz = H0 – H(X) Ü4.15 -.18

Kommunikationstechnik B ENDE Teil 4