Technische Informatik I

Slides:



Advertisements
Ähnliche Präsentationen
Lokale und globale Netzwerke
Advertisements

Kapitel 3 Codes Damit Information in einem Rechner verarbeitet werden kann, muss sie in eine für den Rechner verarbeitbare Form transformiert werden. Dabei.
Motivation Bisher: Codes mit möglichst kurzer Codelänge.
Codierung Haydn: Streichquartett op 54.3 aus Largo, Violine I
Fehlerkorrektur-Codes Lange Nacht der Wissenschaften 14. Juni 2003 Humboldt-Universität zu Berlin Institut für Mathematik Prof. Dr. R.-P. Holzapfel M.
Information - syntaktisch
Übung 2.1 Information Wieviele Fragen benötigen Sie beim „Zahlenraten“
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken IX Christian Schindelhauer
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken X Christian Schindelhauer
Historische Datenmodelle
2. Semantische Datenmodellierung
2.1 Kodierung von Zeichen 2.2 Kodierung von Zahlen
Fehlererkennende Codes
Kompressionsverfahren für Texte
Vorlesung 9.2: Specification Universität Bielefeld – Technische Fakultät AG Rechnernetze und verteilte Systeme Peter B. Ladkin
Vorlesung 9.1: Erinnerung Universität Bielefeld – Technische Fakultät AG Rechnernetze und verteilte Systeme Peter B. Ladkin
Vorlesung 9.1: Erinnerung Universität Bielefeld Technische Fakultät AG Rechnernetze und verteilte Systeme Peter B. Ladkin Wintersemester.
Huffman Entropie-Codierung Codierung mit variabler Länge
Digital Audio Medientyp digital audio representation
Eigenschaften der OLS-Schätzer
Information und Kommunikation
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Fehler in Rechnernetzen
Java, Java, Java R. Morelli
1 Kap. 2 - Aufbau von Prozessoren ComputerarchitekturBéat HirsbrunnerS Oktober Primäre Speicher Fehlerkorrekturcodes.
Lineare Restriktionen
Ökonometrie I Analyse der Modellstruktur Ökonometrie I2 Rekursive OLS-Schätzung Spezifiziertes Modell: y = X + u y, u: n-Vektoren; X: Ordnung.
Missspezifikation: Konsequenzen und Tests
Ökonometrie I Variablenauswahl.
OLS-Schätzer und seine Eigenschaften
Einfache und multiple Regression
Prognose und Prognosequalität
Ökonometrie I Modellvergleich (Übersicht) Ökonometrie I2 Vergleich von Modellen Fragestellungen für Modellvergleich 1.Fehlende Regressoren.
Winschool-Weiterbildung
Das betriebliche Rechnungswesen und der Jahresabschluss
Informationstheorie Begr. von Claude Shannon
Präsentation Pflichtenheft Meta Resource Management System (MRMS)
Grundlagen der Informatik
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Systeme II Christian Schindelhauer Sommersemester 2006.
Wahlpflicht I INFORMATIK 7. bis 10. Klasse 2010/2011 Informatik WP I.
Die Lurchis. Unser Gruppenleiter Die Gruppe Die Kirche.
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Systeme II Christian Schindelhauer Sommersemester 2006.
Kommunikationstechnik B Teil 4 – Informationstheorie
Arne Vater Sommersemester Vorlesungswoche
Christian Schindelhauer Sommersemester Vorlesung
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Systeme II Christian Schindelhauer Sommersemester 2006.
Systeme II Christian Schindelhauer Sommersemester 2007
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Systeme II Christian Schindelhauer Sommersemester 2006.
Rechnersysteme Marcel Waldvogel. Marcel Waldvogel, IBM Zurich Research Laboratory, Universität Konstanz, , 2  Wer bin ich?  Die Vorlesung.
Digitales Fernsehen - was ist das? Bislang funktionierte Fernsehen mit analoger Technik, bei der ein komplettes TV-Bild 25-mal pro Sekunde auf die Bildschirme.
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken VIII Christian Schindelhauer
1 Präsentation der Studienarbeit Wie funktioniert die Übertragung eines Sprachsignals beim Mobiltelefon? Referent: Michael Kunz Dauer: ca. 10 min Fach:
Diskrete Mathematik Angelika Steger Institut für Theoretische Informatik TexPoint fonts used in EMF. Read the TexPoint manual before.
Information - syntaktisch
IrDA Infrared Data Association von Halastar Mustafa.
Sükün_Karatas Grundlagen der Codes Sükün_Karatas 3aFD.
X. Übungsblatt – Aufgabe X a)Erstellen Sie den Huffman-Codierungsbaum für die folgende Zeichenkette: ABRAKADABRASIMSALABIM Vorgehensweise: 1.Tabelle mit.
X. Übungsblatt – Aufgabe X Das Bild zeigt ein Diagramm, dass die Nachbarschafsbeziehungen für einen Code mit 3 Binärstellen darstellt. a)Welche Hamming-Distanz.
X. Übungsblatt – Aufgabe X Mit Hilfe der dargestellten Drehscheibe soll ein Drehwinkel erfasst werden. Die Scheibe ist in 16 Sektoren mit jeweils 4 Feldern.
1 Codierung Prof. Dr. Dörte Haftendorn, Leuphana Universität Lüneburg, Haydn: Streichquartett op 54.3 aus Largo,
Systeme II 3. Die Datensicherungsschicht
Den Bus erkunden ….
Codification Haydn: Streichquartett op 54.3 aus Largo, Violine I
 Präsentation transkript:

Technische Informatik I Universität Bielefeld Technische Fakultät Technische Informatik I Vorlesung 10: Kodierungstheorie I Joachim Schmidt jschmidt@techfak.uni-bielefeld.de

Überblick Motivation: Wozu Kodierungstheorie? Begriffsdefinitionen Übertragung durch gestörte Kanäle Hamming-Distanz Parität, Parity Check, CRC Huffman-Kodierung Lempel-Ziv-Kodierung Shannon‘sches Theorem Beispiele Ausblick

Wozu Kodierungstheorie? Wir hatten bereits: Repräsentation von Informationen Gewünscht: Möglichst günstige Repräsentation für: Möglichst sparsame Darstellung zur Speicherung, nicht Verlustbehaftet Sichere Übertragung von Informationen auf gestörten Kanälen Unabdingbares Instrument in der modernen Kommunikationstechnik

Begriffe Datenquelle: Kanal: Datensenke: Informationsliefernde Einheit / „Sender“ Mit (bekannten) statistischen Eigenschaften Kanal: Übertragungsweg für Informationen Digital, d.h. kleinste Informationseinheit = 1 Bit Fehlerbehaftet  sog. Bitfehler Datensenke: Informationsempfangende Einheit / „Empfänger“ Soll die Information genau so erhalten, wie sie gesendet wurde

Kanal mit Fehlereinstreuung Der Empfänger kann „echte“ Information und eingestreuten Fehler nicht unterscheiden

Begriffe Code: Kodierung: Die darzustellende Information in einer bestimmten Repräsentation Zeichenfolge Kodierung: Übergang von einem Repräsentationssystem (mit gewissen Eigenschaften) in ein anderes (mit anderen Eigenschaften)

Sichere Übertragung Ist die Nachricht zu sehr gestört, kann es zu Fehldekodierungen kommen Wissen über die Fehleranfälligkeit des Kanals erforderlich Anpassung der eingesetzten Codierung an den jeweiligen Kanal

Redundanz Bezeichnung für das Vorhandensein von weglaßbaren Elementen in einer Nachricht, die keine zusätzlichen Informationen liefern, sondern lediglich die beabsichtigte Grundinformation stützen. Fünf  5 _ o _ i e _ u _ g s _ _ e o _ i e

Entropie Physik: Wärmelehre Größe des Nachrichtengehaltes einer nach statistischen Gesetzen gesteuerten Nachrichtenquelle Mittlerer Informationsgehalt der Zeichen eines bestimmten Zeichenvorrates Maß für den Grad der Ungewißheit über das Senden eines Zeichens aus einer Datenquelle

Definitionen Auftrittswahrscheinlichkeit pa Informationsgehalt Ia Eines Zeichens a ist die Anzahl n der Auftritte des Zeichens in einer zufälligen Zeichenfolge der Länge N Informationsgehalt Ia Eines Zeichens a ist der Kahrwert seiner Auftrittswahrscheinlichkeit pa

Definitionen Entropie Einer Quelle ist der mittlere Informationsgehalt Je höher die Entropie der Quelle, desto größer ist der Übertragungswert der von ihr ausgegebenen Nachrichten. Die Entropie erreicht ihr Maximum, wenn alle Zeichen gleich wahrscheinlich sind:

Entropie einer Einzelbitquelle p: Wahrscheinlichkeit für das Auftreten von 1 H: Entropie der Quelle Hohe Entropie  geringes Wissen über nächstes Zeichen

Hammingabstand Anzahl der (Bit-)Stellen, in denen sich zwei Wörter voneinander unterscheiden Direkter Vergleich, keine Einfügungen oder Löschungen erlaubt h (‘Kanne‘,‘Tanne‘) = 1 h (‘11001001‘,‘01010001‘) = 3

Codewürfel

Codewürfel Nicht der gesamte zur Verfügung stehende Wortraum wird genutzt Tritt ein beliebiger Einzelbitfehler auf entsteht ein „Illegales Codewort“ Einzelbitfehler werden erkannt Stelle des Fehlers nicht erkennbar Daher keine Korrektur möglich

Parität (Parity) Sicherung der Nachricht durch gezieltes Einfügen zusätzlicher Redundanz Unterscheidung in Nutzstellen und Prüfstellen Mögliche Vorschrift: Ergänze Wort so, daß es eine gerade Anzahl Einsen enthält. (Even Parity)

Prüfziffern Verschiedenste Berechnungsvorschriften Ergänzung bestehender Ziffernfolgen Dadurch Sicherung gegen Fehler Keine Korrektur möglich Beispiele: ISBN-Nummern (Bücher) EAN 13-Code (Lebensmittel)

Beispiele - NASA Mariner, Voyager Deep Space Network Pathfinder Global Surveyor

Beispiele – Audio CD Zwei „verschachtelte“ Codes Bis zu 4000 aufeinanderfolgende Fehler korrigierbar (ca 2.5 mm Spurlänge) Audio CD-Spieler können durch Interpolation des Signals noch stärkere Fehler umgehen

Weitere Beispiele Netzwerke (Ethernet, WLAN) Mobilfunk (Handys) Digitales Fernsehen (DVB) Digitales Radio (DAB)

Nächste Woche Kodierungstheorie II: Huffman-Kodierung Lempel-Ziv-Kodierung Shannon‘sches Theorem