Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Abteilung Informatik aF&E Informations- und Codierungstheorie Prof. Dr.-Ing. Andreas Rinkel Sprechstunde: Jeden.

Ähnliche Präsentationen


Präsentation zum Thema: "Abteilung Informatik aF&E Informations- und Codierungstheorie Prof. Dr.-Ing. Andreas Rinkel Sprechstunde: Jeden."—  Präsentation transkript:

1 Abteilung Informatik aF&E Informations- und Codierungstheorie Prof. Dr.-Ing. Andreas Rinkel andreas.rinkel@hsr.ch andreas.rinkel@hsr.ch Sprechstunde: Jeden Montag10:00 bis 11:00, Raum: 6.110 Tel.: +41 (0) 55 2224928 Mobil: +41 (0) 79 3320562 http://rinkel.ita.hsr.ch

2 Abt. Informatik Prof. Dr.Ing. A. Rinkel 2 Struktur Literaturempfehlungen Einführung Motivation Modell der Informationsübertragung und Problemdefinition Exkurs Wahrscheinlichkeitsrechnung Einführung in die Informationstheorie Informationsgehalt, Entropie, Redundanz und mittlere Codewortlänge Binärcodierung Diskrete Quellen mit und ohne Gedächtnis Quellencodierung: Übersicht Kompressionsverfahren  Beispiele: Morse Alphabet, Fanao, Huffmann, ZIP, Kryptoverfahren Kanalmodell, Kanalmatrix, Maximum-Likelihood, Transinformation Kanalkodierung: Fehlererkennung und Behebung  Verfahren von Hamming  Binäre Gruppencodes  Zyklische Codes (Beispiel: HDLC, X.75, TCP)  Faltungscodes Signale: Träger der Information Klassifizierung von Signalen Zeit und Frequenzbereich der Signaldarstellung Abtastung und Quantisierung (Beispiel PCM) Leitungscodierung

3 Abt. Informatik Prof. Dr.Ing. A. Rinkel 3 Prüfung Keine Prüfungen während des Vorlesungszeitraums Prüfung in der Prüfungszession Prüfungsdauer 120 min, bitte pünktlich erscheinen!  Die Prüfung besteht aus zwei Teilen –Teil 1: Erlaubt sind keine Unterlagen (Prüfungsdauer 30 min) –Teil 2; Erlaubt sind Taschenrechner, Unterlagen, Bücher,.. (Prüfungsdauer 90 min) Nicht erlaubt: Labtop, Kommunikationsmittel,.. Gefragt werden  Wissen  Verständnis und  Transferleistung

4 Abt. Informatik Prof. Dr.Ing. A. Rinkel 4 Literatur I Empfohlene Begleitliteratur Informatiionstheorie: M. Werner, Information und Codierung, Vieweg Verlag uni-script. Eine gute praxisorientierte Einführung in die Grundlagen der Informations- und Codierungstheorie und in ihre Anwendung H. Klimant, R. Piotrascheke, D. Schönfeld, Informations- und Kodierungstheorie, Teubner Gute und detaillierte Einführung, beinhaltet auch einen kleinen Abschnitt zur Quantisierung, was den anderen Büchern fehlt. H.Rohling, Einführung in die Informations- und Codierungstheorie, Teubner Studienbücher. Eine allgemeine, gut verständliche Einführung. Zur Vertiefung empfohlene weiterführende Literatur: W. Willems, Codierungstheorie, de Gruyter, Mathematische Einführung Ralph-Hardo, Einführung in die Codierungstheorie, Schulz Vieweg Verlagsgesellschaft Angesprochen werden Themen aus den Gebieten: Quellencodierung, Prüfzeichenverfahren, fehlerkorrigierende Codes und Kryptosysteme. Begriffe, Methoden und Sätze sind bis ins Detail ausführlich dargestellt und durch viele einfache Beispiele erläutert. A. Betten, H. Fripertinger, A. Kerber, A. Wassermann, K.-H. Zimmermann, Codierungstheorie. Konstruktion und Anwendung linearer Codes, Springer-Verlag Eine Einführung in die Theorie der linearen Codes, in der zyklische Codes besonders ausführlich behandelt werden. Großer Wert wird auch auf computerunterstützte Methoden gelegt.

5 Abt. Informatik Prof. Dr.Ing. A. Rinkel 5 Literatur II Empfohlene Begleitliteratur Signale Werner, Nachrichtentechnik, Vieweg Verlag Sehr gute, leicht verständliche aber dennoch vollständige Darstellung der Thematik Glaser, Von Handy, Glasfaser und Internet, Vieweg Verlag sehr gute, leicht verständliche Einführung in die Thematik der Informations- und Nachrichtentechnik, hinreichend tief jedoch ohne mathematischen Ballast Beuth/Hanebuth/Kurz, Nachrichtentechnik, Vogel Verlag, Eine allgemeine Übersicht zur Thematik der Nachrichtentechnik, leicht Verständlich, nicht sehr tief. Zur Vertiefung empfohlene weiterführende Literatur Lüke, Signalübertragung, Springer Verlag Liefert eine detaillierte Einführung in die digitale und analoge Signalübertragung, mathematisch anspruchsvoll Schüssler, Digitale Signalverarbeitung, Springer-Verlag Stellt eine tiefe Darstellung der Analyse diskreter Signale und Systeme dar, mathematisch anspruchsvoll

6 Abt. Informatik Prof. Dr.Ing. A. Rinkel 6 Einführung: Exkurs Wahrscheinlichkeitsrechnung Selbststudium mit Booklet 1 -Aufgaben in Übung besprechen! Bis wann? Bis Ende zweite Übung!

7 Abt. Informatik Prof. Dr.Ing. A. Rinkel 7 Einführung.

8 Abt. Informatik Prof. Dr.Ing. A. Rinkel 8 Einführung: Motivation Troja, Agamemnon (siehe griechische Mythologie) Leuchtfeuer 3. Punischer Krieg Polybius tech. wissenschaftlicher Berater von Scipio (1. nachweisliche Veröffentlichung zur Codierungs- und Protokollproblematik) Nachrichtensystem mit 5 Bit Wortlänge Bis der Kunstmaler Samuel Morse 1837 seinen ersten Apparat zur elektromagnetischen Datenübertragung vorführt keine wesentlichen Verbesserungen Anekdote Rothschild zur Bedeutung der Sicherheit in der Informationsübertragung Grundlegende Veröffentlichungen zur technischen Informationstheorie von Hartly, 1928: „Transmission of Information“ Shannon, 1948: „A Mathematical Theory of Communication“

9 Abt. Informatik Prof. Dr.Ing. A. Rinkel 9 Übertragungssystem Einführung: Modell der Informationsverarbeitung Kanal Quelle Senke Quellen- Codierer Quellen- Decoder Kanal Codierer Kanal Decoder Modulator Leitungscodierer Demodulator Entscheider Sender Empfänger Stör- Quelle

10 Abt. Informatik Prof. Dr.Ing. A. Rinkel 10 Informationstheorie

11 Abt. Informatik Prof. Dr.Ing. A. Rinkel 11 Übertragungssystem Einführung: Modell der Informationsverarbeitung Kanal Quelle Senke Quellen- Codierer Quellen- Decoder Kanal Codierer Kanal Decoder Modulator Leitungscodierer Demodulator Entscheider Sender Empfänger Stör- Quelle

12 Abt. Informatik Prof. Dr.Ing. A. Rinkel 12 Information Kanal QuelleSenke „bad“ Die Quelle bildet die Nachricht „bad“ Die Senke entscheidet und interpretiert Information!? Nachricht DarstellungBedeutung Zeichenvorrat bei Quelle und Senke verschieden vorhersagbarInformation redundantnicht-redundant irrelevant relevant Nachricht Zeichenvorrat X={a, b, c, d}

13 Abt. Informatik Prof. Dr.Ing. A. Rinkel 13 Entscheidungsgehalt und Entscheidungsfluss Definitionen Mass für den Aufwand, der zur Bildung einer Nachricht bzw. für die Entscheidung einer Nachricht notwendig ist, ist der Entscheidungsgehalt lb: Logarithmus binär oder Logarithmus dualis Entscheidungsfluss  ist die Zeit, die zur Übertragung eines Quellzeichens benötigt wird. Zeichenvorrat X={a, b, c, d} N= 4 abcd

14 Abt. Informatik Prof. Dr.Ing. A. Rinkel 14 Informationsgehalt und Entropie Definitionen Informationsgehalt eines Zeichens Entropie: Mittlerer Informationsgehalt der Quelle Wie viele Elementarentscheidungen sind zur Bestimmung des Zeichens zu treffen? Wie viele Elementarentscheidungen Trifft die Quelle/Senke im Mittel pro Zeichens? Kanal QuelleSenke Zeichenvorrat X={a, b, c, d} Die Quelle bildet die Nachricht!

15 Abt. Informatik Prof. Dr.Ing. A. Rinkel 15 Entropie und Redundanz Wann wird der mittlere Informationsgehalt, die Entropie, einer Quelle/Senke maximal?  Ansatz: Binäre Quelle! Redundanz der Quelle

16 Abt. Informatik Prof. Dr.Ing. A. Rinkel 16 Binärcodierung für diskrete Quellen  Quellencodierung Bei der Quellencodierung werden die diskreten Zeichen der Quelle auf binäre Codeworte (CW) abgebildet. Günstig ist, wenn die mittlere Codewortlänge L möglichst klein ist Beispiele für CW ASCII: Block-Code mit fester Wortgrösse L = 8 Bit Morsecode: variable Wortgrösse L: 1.. 4 Bit  Berücksichtigung der Auftrittswahr- scheinlickeit der einzelnen Zeichen Kanal Quelle Zeichenvorrat X={a, b, c, d} Die Quelle bildet die Nachricht als binäre Zeichenfolge ab! Mittlere Codewortlänge L

17 Abt. Informatik Prof. Dr.Ing. A. Rinkel 17 Binärcodierung für diskrete Quellen: Präfixeigenschaft 0 0 0 0 0 1 1 1 1 1 BC E AD F Problem? Besitzt die Präfixeigenschaft bzw. Ist ein kommafreier Code ZeichenWahrscheinlichkeit*ASCII_CodeMorse A0.0642 0100000101 B0.0127 010000101000 C0.0218 010000111010 D0.0317 01000100100 E0.1031 010001010 F0.0208 010001100010 *Anm. Wahrscheinlichkeitsangabe für englischen Text

18 Abt. Informatik Prof. Dr.Ing. A. Rinkel 18 Binärcodierung: Beispiele Zeichen*Wahrscheinlichkeit ASCII_Code Morse Leerz.0.1859 00100000SPACE A0.0642 0100000101 B0.0127 010000101000 C0.0218 010000111010 D0.0317 01000100100 E0.1031 010001010 F0.0208 010001100010 G0.0152 01000111110 H0.0467 010010000000 I0.0575 0100100100 J0.0008 010010100111 K0.0049 01001011101 L0.0321 010011000100 M0.0198 0100110111 N0.0574 0100111010 O0.0632 01001111111 P0.0152 010100000110 Q0.0008 010100011101 R0.0484 01010010010 S0.0514 01010011000 T0.0796 010101001 U0.0228 01010101001 V0.0083 010101100001 W0.0175 01010111011 X0.0013 010110001001 Y0.0164 010110011011 Z 0.0005 010110101100 *Anm. Wahrscheinlichkeits- angabe für englischen Text

19 Abt. Informatik Prof. Dr.Ing. A. Rinkel 19 Binärcodierung für diskrete Quellen  Shannon‘sches Codierungstheorem: 1.Für jede beliebige zugehörige Binär- Codierung mit Präfixeigenschaft ist die zugehörige mittlere Codewortlänge nicht kleiner als die Entropie H(X) o.B. 2. Für jede beliebige Quelle kann eine Binär-Codierung gefunden werden, so dass die folgende Ungleichung gilt: o.B. Redundanz der Quelle Redundanz des Codes Der Begriff der Redundanz der Quelle wird erweitert um den Begriff der Redundanz des Codes

20 Abt. Informatik Prof. Dr.Ing. A. Rinkel 20 Q Diskrete Quellen mit und ohne Gedächtnis Bisher: Quelle ohne Gedächtnis Die Auftrittswahrscheinlichkeit eines Zeichens ist unabhängig von dem zuvor emittierten Zeichen bzw. der zuvor emittierten Zeichenfolge, d.h. die Verbundwahrscheinlichkeit für die beiden Zeichen x i und y k ist Allgemein kann nicht von einer gedächtnislosen Quelle ausgegangen werden ! Verbundentropie zweier Zeichen einer gedächtnisbehafteten Quelle ? Quelle Deutsche Sprache xixi ykyk

21 Abt. Informatik Prof. Dr.Ing. A. Rinkel 21 Mathematisches zu Diskrete Quellen mit und ohne Gedächtnis Interpretation Die mittlere Entropie einer Quelle ohne Gedächtnis ist stets grösser oder gleich der Entropie einer Quelle mit Gedächtnis! In der Quellencodierung sind daher nicht Einzelzeichen zu codieren, sondern stets Zeichenketten. Beispiel der Redundanz der deutschen Sprache: H 0 = 4,7 Bit/Symbol Entropie der Einzelzeichen H = 4.097 Bit/Symbol  R = 0,6 Bit/Symbol Entropie bei Ausnutzung aller Abhängigkeiten H = 1,6 Bit pro Symbol  R = 3,1 Bit/Symbol Bedingte Entropie, für diese kann Gezeigt werden, dass gilt:

22 Abt. Informatik Prof. Dr.Ing. A. Rinkel 22 Beispiel: Diskrete Quelle mit Gedächtnis Gegeben sei eine Quelle mit dem Alphabet A, B, C. Die Abhängigkeiten werden durch ein Markoff-Diagramm 1. Ordnung beschrieben. Zur Berechnung der Entropien H mit werden die Wahrscheinlichkeiten p(x), p(y¦x) und p(y,x) benötigt! p(y¦x)y = ABC x =A04/51/5 B1/2 0 C 2/51/10 ablesen xp(x) A1/3 B16/27 C2/27 berechnen p(y,x)y = ABC x =A04/151/15 B8/27 0 C1/274/1351/135 berechnen A C B 1/2 1/5 2/5 4/5 1/10 Markoff-Diagramm

23 Abt. Informatik Prof. Dr.Ing. A. Rinkel 23 Beispiele zur Quellencodierung VerschlüsselungDatenkomprimierung Verlustfrei Verlustbehaftet  Slide 88 ff Symmetrisch Asymmetrisch Quellencodierung Lit. Verschlüsselungsverfahren Einführung unter: andreas-romeyke.de/Projekt1/ffbr/web.html Tool unter: http://www.cryptool.de/

24 Abt. Informatik Prof. Dr.Ing. A. Rinkel 24 Beispiel zur Quellen-Codierung Datenkompression Das Ziel der Datenkompression ist, den Aufwand der Datenspeicherung und Datenübertragung zu reduzieren d.h. Entfernen von  Redundanz und  Irrelevanz Verfahren zur Datenkompression Statische Verfahren z.B. Huffmann-Codoerung für die deutsche Sprache Dynamische Verfahren z.B. ITU Standard V42.bis Basiert auf LZ77 (Lempel, Ziv) Adaptive Verfahren z.B. Huffmann-Codoerung Mit gemssener Häufigkeitsverteilung Adaptive Verfahren z.B. Huffmann-Codoerung Mit gemssener Häufigkeitsverteilung

25 Abt. Informatik Prof. Dr.Ing. A. Rinkel 25 Binärcodierung: Huffman-Codierung Verfahren zur Entwicklung eines Codes mit minimaler mittlerer Codewortlänge Rekursives Verfahren, d.h. der Binärbaum wird nicht von der Wurzel, sondern von den Blättern aus entwickelt Verfahren: Ordne die Zeichen gemäss ihrer Auftrittswahrscheinlichkeit Die beiden Zeichen mit der kleinsten Auftrittswahrscheinlichkeit haben die gleiche CW-Länge L N Sei L N die mittlere CW-Länge für eine Quelle mit N Zeichen und L N-1 die mittlere CW-Länge für den Fall, dass die beiden letzten zu einem einzigen Zeichen zusammengefasst werden, dann gilt: Beispiel: xixi 123456789 P(x i )0.220.190.150.120.080.07 0.060.04

26 Abt. Informatik Prof. Dr.Ing. A. Rinkel 26 xixi 123456789 P(x i )0.220.190.150.120.080.07 0.060.04 xixi 123489567 Codierung 01 P(x i )0.220.190.150.120.10.080.07 xixi 123674895 Codierung 01 01 P(x i )0.220.190.150.140.120.10.08 xixi 1289536. 74 Codierung 001011 0 1 P(x i )0.220.190.180.150.140.12 xixi 674128953 Codierung001011 001011 P(x i )0.260.220.190.180.15 Huffman-Code: Animation I

27 Abt. Informatik Prof. Dr.Ing. A. Rinkel 27 xixi 128953674 Codierung0100000101100011 P(x i )0.410.330.26 xixi 895367412 Codierung00000000010001001010001010111011 P(x i )1.0 xixi 895367412 Codierung00000001001011001011101 P(x i )0.590.41 xixi 895367412 Codierung00000101100011 P(x i )0.330.260.220.19 xixi 674128953 Codierung001011 001011 P(x i )0.260.220.190.180.15 Huffman-Code: Animation II

28 Abt. Informatik Prof. Dr.Ing. A. Rinkel 28 Lempel-Ziv Encoder: Grundüberlegung der zu komprimierende Code hat wiederkehrende Muster oder Phrasen anstatt den Code vollständig zu übertragen, werden „nur“ die codierten Phrasen übertragen Dazu müssen die Phrasen zur Laufzeit erfasst und in einem Phrasenspeicher oder Wörterbuch gespeichert und codiert werden die Grösse des Wörterbuchs und des „look ahead buffers“ muss bestimmt werden LZ77 wurde 1977 von Jacob Ziv und Abraham Lempel entwickelt Problem: „Effiziente Umsetzung des Phrasenspeichers?“

29 Abt. Informatik Prof. Dr.Ing. A. Rinkel 29 Lempel-Ziv Encoder: Umsetzung Während des Durchlaufens der Daten wird ein ständig wachsender Baum erzeugt. Der Baum dient als Wörterbuch und zeigt Regularitäten auf. Die Knoten dienen als Referenzen. Werden gleiche Subdaten wiederholt geparst, so kann auf den entsprechenden Knoten des Wörterbuches referrenziert werden. LZ77 wurde 1977 von Jacob Ziv und Abraham Lempel entwickelt.

30 Abt. Informatik Prof. Dr.Ing. A. Rinkel 30 Beispiel Lempel-Ziv Encoder I (0,0)(1,1)(0,1)(2,0)(3,0)(5,1)(3,1)(4,0)5

31 Abt. Informatik Prof. Dr.Ing. A. Rinkel 31 Beispiel Lempel-Ziv Encoder II (0,0)(1,1)(0,1)(2,0)(3,0)(5,1) (3,1)(4,0)5 System: Erste Komponente binär + Zweite Komponente Effizienter: 1. Repräsentation kann nur Werte im Bereich {0,...n-1} annehmen n. Räpräsentation: lb(n + 1): 0 11 01 100 110 1011 111 1000 101-

32 Abt. Informatik Prof. Dr.Ing. A. Rinkel 32 Komprimierung? Komprimierter Text: 01100101001101011011110000101 Original: 00110101010111010010 Voraussetzung: Text muss Regelmässigkeit beinhalten. Am effizientesten, wenn sich nur ein langer Pfad entwickelt, z.B. {00000}

33 Abt. Informatik Prof. Dr.Ing. A. Rinkel 33 Probleme Wörterbuch-Management Effizient Suchen und Einfügen Grösse des Baumes In der Praxis wird der Baum nur bis zu einer gewissen Maximalgrösse angewachsen lassen und danach werden keine neue Knoten mehr hinzugefügt.

34 Abt. Informatik Prof. Dr.Ing. A. Rinkel 34 Beispiel zur Quellen-Codierung Kryptologie: Symmetrische Verfahren Substitutionsverfahren Die Buchstaben des Klartextes werden durch andere Symbole ersetzt  Folgefolie Transpositionsverfahren Die Zeichenfolge des Klartextes werden nicht ersetzt sondern verwürfelt  Folgefolie Playfair-Chiffre Geht auf Lord Playfair zurück. In diesem Verfahren werden Gruppen von Zeichen codiert siehe Literatur Vigenàir-Chiffre Geht auf den französischen Diplomaten Blaise de Vigenère zurück. Er definierte ein polyalphabetisches Substitutionsverfahren  Folgefolie Rotormaschine Erste elektromechanische Chiffrier-Maschinen siehe Literatur. Enigma Modifizierte Rotormaschine mit drei Rotoren und variabler interner Verkabelung, wurde im 2. Weltkrieg von der dt. Wehrmacht verwendet; siehe Literatur. DES RSA

35 Abt. Informatik Prof. Dr.Ing. A. Rinkel 35 Beispiel zur Quellen-Codierung Kryptologie: Substitutionsverfahren Das einfachste und bekannteste Verfahren ist der sogenannte Cesar Chiffre Der Schlüssel ist im gegebenen Beispiel gleich 4, da das Chiffrieralphabet um 4 Zeichen verschoben wird. Nachteil des Verfahrens ist, dass die statistischen Eigenschaften von Klar- und Chiffriertext unverändert sind. Wie können sie eine Kryptoanalyse erfolgreich durchführen? Was leiten sie daraus für die Entwicklung von Chiffrieralgorithmen ab? a b c d e f g h i j k l m n o p q r s t u v w x y z e f g h i j k l m n o p q r s t u v w x y z a b c d Schlüssel k=4 Klartext:bald ist weihnachten Chiffretext: faph mwt aimreglxir

36 Abt. Informatik Prof. Dr.Ing. A. Rinkel 36 Beispiel zur Quellen-Codierung Kryptologie: Transpositionsverfahren Beim Transpositionverfahren werden nach gegebenen Regeln die Zeichenfolge des Klartextes „verwürfelt“, d.h. es findet keine Ersetzung (Substitution) der Zeichen statt. Ein einfaches Beispiel wird unten gezeigt: Klartext: DIE WORTE HOER ICH WOHL ALLEIN MIR FEHLT DER GLAUBE EBUALG REDTLH EFRIMN IELLAL HOWHCI REOHET ROWEID Erstellen einer Tabelle zeilenweise Chiffretext: DTILNHGIECAMLLEHHLITAWOWLR DUOEOEFEBRRHIERE Auslesen spaltenweise Hier sind Permutationen der Spalten möglich

37 Abt. Informatik Prof. Dr.Ing. A. Rinkel Beispiel zur Quellen-Codierung Kryptologie: RSA 37 IDEE: Gibt es ein asymmetrisches Kryptoverfahern? Das heisst, lässt sich ein Verfahren finden, dass es erlaubt  einen Schlüssel zur Codierung und  einen zweiten Schlüssel zur De-Codierung benutzen. Als Rahmenbedingung ist es weiterhin erforderlich, dass die Kenntnis eines Schlüssels nichts über die Identität des anderen „Partner“-Schlüssel verrät. Ursprünglich sind die drei Mathematiker Rivest, Shamir und Adleman (RSA) angetreten, um zu zeigen, dass das nicht möglich ist. Aber Sie haben gezeigt, ein asymmetrische Kryptoverfahren ist möglich heute auch bekannt als RSA-Verfahren

38 Abt. Informatik Prof. Dr.Ing. A. Rinkel 38 Beispiel zur Quellen-Codierung Kryptologie: Inverse Zahlen Für zwei teilerfremde Zahlen a, b (ggT. = 1) existiert eine Zahl c, so das gilt: Beispiel: sei b gleich 6 und a gleich 7 wobei a und b teilerfremd sind, Dann ergibt die Rechnung: für den Fall das c gleich 13 ist:

39 Abt. Informatik Prof. Dr.Ing. A. Rinkel 39 Beispiel zur Quellen-Codierung Kryptologie: Vorbereitung Satz von Euler: Die Eulerfunktion Euler, 1707-1783 Die Eulerfunktion gibt die Anzahl der zu einer Zahl n teilerfremden Zahlen an, d.h. die Zahlenpaare (n, x) mit x < n, die keinen Gemeinsamen Teiler haben. Für Primzahlen p gilt: Für das Produkt der Primzahlen pq gilt: Beispiel: seip = 5,  Φ(5) = 4; (1, 2, 3, 4) und q = 3,  Φ(3) = 2; (1, 2) ergibt sich  Φ (15) = 2 *4 = 8; (1, 2, 4, 7, 8, 11, 13, 14) 5 ist Teilerfremd zu 1, 2, 3, 4, 18 ist Teilerfremd zu 1, 5, 7, 11, 13, 17

40 Abt. Informatik Prof. Dr.Ing. A. Rinkel 40 Beispiel zur Quellen-Codierung Kryptologie: Satz von Euler o.B. Beispiel sei b = 5, dann ist a für die Werte 1, 2, 3, 4 teilerfremd zu b oder relativ prim! 1 4 MOD 5 = 1 2 4 MOD 5 = 16 MOD 5 = 1 3 4 MOD 5 = 81 MOD 5 = 1 4 4 MOD 5 = 256 MOD 5 = 1 Ist b das Produkt zweier Primzahlen, dann gilt: Satz von Euler: Für zwei teilerfremde Zahlen a und b gilt:

41 Abt. Informatik Prof. Dr.Ing. A. Rinkel 41 Kryptologie: RSA Grundlagen Anwendung Es gilt: Kann man das zeigen? Aufgrund des Satzes von Euler ist dieser Term gleich 1 und somit ist die Aussage von oben bewiesen Setzen von y =e d mit d als inverses Element folgt: Mit e als ecriptionschlüssel und Mit d als decriptionschlüssel

42 Abt. Informatik Prof. Dr.Ing. A. Rinkel 42 Kryptologie: RSA Grundlagen Beispiel seien die beiden Primzahlen p=5, q=7 gegeben. dann folgt daraus: n=p q =35 und Φ (n) = 24 Wir bestimmen den Wert e = 29, relativ prim zu Φ (n) Wir berechnen den zu e inversen Wert d mit 5 m m d c = m mod n d 1224832 17 c m = c mod n e 17 481968572106 750915091411 825223072000 12 c e encrypt: decrypt: Ersetzen wir c durch den vollständigen Term Da e invers d in der Modulrechnung Etwas genauer Problem: Wie kann ich den zu e inversen Wert berechnen? Siehe nächste Folien.

43 Abt. Informatik Prof. Dr.Ing. A. Rinkel 43 Beispiel zur Quellen-Codierung Kryptologie: RSA Euklidscher Algorithmus (Euklid, ca. 360 bis ca. 280 v Chr.) Der euklidsche Algorithmus dient zu Bestimmung des grössten gemeinsamen Teilers zweier Zahlen oder Polynome. Sei r 0 und r 1 gegeben, dann ergibt sich der ggt von r 0 und r 1 zu: r 0 = q 1 r 1 + r 2 r 1 = q 2 r 2 + r 3 r 2 = q 3 r 3 + r 4 r n-2 = q n-1 r n-1 + r n r n-1 = q n r n + 0 Beispiele: Wenden Sie das Verfahren an auf die Zahlenpaare (21, 9) und (48, 18) und (19,13)

44 Abt. Informatik Prof. Dr.Ing. A. Rinkel Inverse Zahlen und inverser euklidscher Algorithmus R 0 = 43 = 2 * 20 + 3 20 = 6 * 3 + 2 3 = 1 * 2 + 1 r 3 = 1 Ges: 20 * b MOD 43 = 1 1 = 3 - 1*2 1 = 3 - 1 *( 20 – 6 * 3) = 7 * 3 – 1 * 20 1 = 7*(43 – 2 * 20) – 1 * 20 1= 7 * 43 – 15 * 20 Dabei gilt -15 mod 43 = 28, d.h: die zu 20 inverse Zahl mod 43 ist 28 X * 43 mod 43 = 0

45 Abt. Informatik Prof. Dr.Ing. A. Rinkel Beispiel 45 seien die beiden Primzahlen p=5, q=7 gegeben. dann folgt daraus: n=p q =35 und Φ (n) = 24 Wir bestimmen den Wert d = 29, relativ prim zu Φ (n) Φ(n) = 29 = 1*24 + 5 24 = 4*5 + 4 5 = 1*4 + 1 1 = 5 - 1*4 1 = 5 - 1(24 - 4*5)= -1*24 + 5*5 1 = -1*24 + 5*(29 - 1*24) = 5*29 - 6*24 Das heisst 5 ist der zu 29 inverse Schlüssel

46 Abt. Informatik Prof. Dr.Ing. A. Rinkel 46 Übertragungssystem Einführung: Modell der Informationsverarbeitung Kanal Quelle Senke Quellen- Codierer Quellen- Decoder Kanal Codierer Kanal Decoder Modulator Leitungscodierer Demodulator Entscheider Sender Empfänger Stör- Quelle

47 Abt. Informatik Prof. Dr.Ing. A. Rinkel 47 Kanalmodell Kanal Quelle Senke „ x 1 x 1 x 2 x 1 x 2 x 2 “ Die Quelle bildet die Nachricht Zeichenvorrat X={x 1, x 2 } Die Senke entscheidet Zeichenvorrat X={x 1, x 2 } „ x 1 x 2 x 2 x 1 x 2 x 1 “ Eingangssymbol Ausgangssymbol Abbildung oder Transformation x1x1 x2x2 y1y1 y2y2 1-p p 1-q q

48 Abt. Informatik Prof. Dr.Ing. A. Rinkel 48 Kanalmatrix 1-p p 1-q q x1x1 x2x2 Eingangssymbol y1y1 y2y2 Ausgangssymbol Abbildung oder Transformation p(x 1 )=0.5 p(x 2 )=0.5 Kanalmatrix

49 Abt. Informatik Prof. Dr.Ing. A. Rinkel 49 Beispiel: Kanalmatrix des symmetrischen Kanals 0.025 0.95 Eingangssymbol Ausgangssymbol y1y1 y2y2 y3y3 0.025 x1x1 x2x2 x3x3 p(x 1 )=0.5 p(x 2 )=0.25 p(x 3 )=0.25 Kanal Symmetrisch Fehlerwahrscheinlichkeit des Kanals. Diese ist unabhängig von der Auftritts- wahrscheinlichkeit der Zeichen der Quelle.

50 Abt. Informatik Prof. Dr.Ing. A. Rinkel 50 Maximum-Likelihood-Verfahren, Kanal yjyj Entscheider xixi Kanaleigenschaften y1y1 y2y2 y3y3 y1y1 x1x1 y2y2 x3x3 y3y3 x2x2 Liefert Input Wie gross ist die Restfehlerwahrscheinlichkeit und wovon hängt sie ab?

51 Abt. Informatik Prof. Dr.Ing. A. Rinkel 51 Transinformation I Eingangssymbol Ausgangssymbol y1y1 y2y2 y3y3 x1x1 x2x2 x3x3 p(x 1 )=0.5 p(x 2 )=0.25 p(x 3 )=0.25 ?

52 Abt. Informatik Prof. Dr.Ing. A. Rinkel 52 Transinformation II Transinformation T Rauschen oder Irrelevanz H(Y¦X) Verlust oder Äquivokation H(X¦Y) Verbundentropie Transinformation Irrelevanz Äquivokation

53 Abt. Informatik Prof. Dr.Ing. A. Rinkel 53 Transinformation III: Beispiel 1(2) 1-p p 1-q q x1x1 x2x2 Eingangssymbol y1y1 y2y2 Ausgangssymbol p(x 1 )=0.5 p(x 2 )=0.5 Transinformation ?

54 Abt. Informatik Prof. Dr.Ing. A. Rinkel 54 Transinformation III: Beispiel 2 (2) 1-p p 1-q q x1x1 x2x2 Eingangssymbol y1y1 y2y2 Ausgangssymbol p(x 1 )=0.75 p(x 2 )=0.25 Transinformation ?

55 Abt. Informatik Prof. Dr.Ing. A. Rinkel 55 Hausaufgabe Machen Sie mit einem Mind-Map eine Zusammenfassung des Erlernten und definieren Sie noch offene Fragen für die nächste Veranstaltung!

56 Abt. Informatik Prof. Dr.Ing. A. Rinkel 56 Kanalcodierung Kanal Quelle Senke „ Nachricht“ Die Quelle bildet die Nachricht Zeichenvorrat X={x 1, x 2 } Die Senke entscheidet Zeichenvorrat X={x 1, x 2 } „ kurgweilig “ Hinzufügen von Redundanz, so dass sich der zur Verfügung stehende Coderaum in gültige und ungültige Codeworte (CW: Codewort) aufteilt. Idee Code-Raum 011 100 110 010 000 111 101 001 Technisches Beispiel Wie können Fehler erkannt werden? kurzweilig kurgweilig langweilig

57 Abt. Informatik Prof. Dr.Ing. A. Rinkel 57 Der n-Dimensionale Coderaum Code-Raum 011 100 110 010 000 111 101 001 Flachdrücken und Strecken! ergibt den dreidimensionalen, flachgedrückten Würfel der sechsdimensionalen, flachgedrückten Würfel d: Abstand zu nächsten gültigen CW d Rest (n) folgt durch Induktion ;)

58 Abt. Informatik Prof. Dr.Ing. A. Rinkel 58 Coderaum: Definitionen Die Hammingdistanz h ist: e* Anzahl der sicher erkennbaren Fehler e Korrigierkugel Anzahl der sicher korrigierbaren Fehler  h gerade:  h ungerade:

59 Abt. Informatik Prof. Dr.Ing. A. Rinkel 59 Coderaum: Dichtgepackt oder nicht, das ist hier die Frage. Der Coderaum ist Dichtgepackt, wenn sich alle Codewörter (gültige und ungültige) in einer Korrigierkugel befinden. Sei : n die Dimension des Code (Anzahl aller CW = 2 n ), m die Dimension der Nachrichten (Anzahl aller gültigen CW = 2 m ) k die Dimension der Kontrollstellen mit n= m+k  So folgt die Codeabschätzung: Anzahl der CW bzw. Korrigierkugeln Anzahl der CW pro Korrigierkugel Anzahl aller CW Gilt: So ist der Code dichtgepackt!

60 Abt. Informatik Prof. Dr.Ing. A. Rinkel 60 Blockcodes: Einführung m Nachrichtenstellen k Kontrollstellen Algorithmus Beispiel: Quersummencode 111 001 010 100 011 101 110 000 x3x3 x2x2 x1x1 m=2 k=1 Algorithmus zur Berechnung der Kontrollstellen Gültige Codeworte, sie erfüllen den Algorithmus Ungültige Codeworte, sie erfüllen den Algorithmus nicht, d.h. sie liefern ein Fehlermuster

61 Abt. Informatik Prof. Dr.Ing. A. Rinkel 61 Blockcodes: Hamming-Code I m = 4k = 3 Algorithmus x1x1 x2x2 x3x3 x4x4 x5x5 x6x6 x7x7 x1x1 x2x2 x3x3 x4x4 x5x5 x6x6 x7x7 1. Prüfgleichung x 5 = (x 1 +x 2 + x 3 ) mod 2 2. Prüfgleichung x 6 = (x 2 +x 3 + x 4 ) mod 2 3. Prüfgleichung x 7 = (x 1 +x 2 + x 4 ) mod 2 Alle Vektoren paarweise verschieden und ungleich 0 ! Interpretation: wird eine Stelle des CW verletzt, so werden jeweils andere Kombinationen von Prüfgleichungen verletzt, d.h. es müsste ein Fehlersyndrom geben, dass es erlaubt, den Fehlerort zu lokalisieren. Frage: wie viele Fehler können nicht mehr erkannt werden?

62 Abt. Informatik Prof. Dr.Ing. A. Rinkel 62 Blockcodes: Hamming-Code II x1x1 x2x2 x3x3 x4x4 x5x5 x6x6 x7x7 x 5 = (x 1 +x 2 + x 3 ) mod 2 x 6 = (x 2 +x 3 + x 4 ) mod 2 x 7 = (x 1 +x 2 + x 4 ) mod 2 1 0 0 001011 101110 010111 Generatormatrix Einheitsmatrix markiert die Anzahl der Kontrollstellen k Hieraus folgt die Codebedingung:

63 Abt. Informatik Prof. Dr.Ing. A. Rinkel 63 000 011 110 101 111 100 001 010 101 110 011 000 010 001 100 111 Blockcodes: Hamming-Code III Die Codebedingung: Wird für alle gültigen Codeworte (Tabelle) erfüllt. NachrichtenstellenKontrollstellen x 5 = (x 1 +x 2 + x 3 ) mod 2 x 6 = (x 2 +x 3 + x 4 ) mod 2 x 7 = (x 1 +x 2 + x 4 ) mod 2 1 0 0 001011 101110 010111 Was ergibt die Berechnung der Codebedingung bei einem Bitfehler? x5x6x7x1x2x3x4 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111 Tabelle der gültigen Codeworte

64 Abt. Informatik Prof. Dr.Ing. A. Rinkel 64 Blockcodes: Hamming-Code IV Das Syndrom Z: 1101001 1001001 0 0 0 1100001 1101011 Nachrichtenstellen Kontrollstellen 1 0 0 001011 101110 010111 Generatormatrix 1 1 1 0 1 1 0 1 0

65 Abt. Informatik Prof. Dr.Ing. A. Rinkel 65 Hamming-Code: Das Fehlersyndrom Aus der Codebedingung folgt das Syndrom Gesendetes Codewort Überlagert durch das Fehlermuster Empfangenes Wort Codebedingung = 0 Das heisst, bei genau einem Fehler markiert die Prüfspalte den Fehlerort.

66 Abt. Informatik Prof. Dr.Ing. A. Rinkel 66 Zyklische Codes: Mathemaitische Beschreibung Idee: Generatormatrix kann durch Generatorpolynom beschrieben werden! Generatorpolynom G(u) Codewortpolynom X(u) Codebedingung Das Codewortpolynom ist ohne Rest durch das Generatorpolynom teilbar (in mod-2-Rechnung) Ziel: Vereinfachte Berechung der Kontrollstellen durch rückgekoppelte Schieberegister. Grad k entspricht der Anzahl der Prüfstellen. Grad n entspricht der Anzahl der Codewortstellen. Die Zahl der Nachrichtenstellen ist m  n = m +k g i ={0,1} mit g 0 = g k = 1

67 Abt. Informatik Prof. Dr.Ing. A. Rinkel 67 Zyklische Codes: Ermittlung der Kontrollstellen durch Polynomdivision Sei: m = 4, k = 3, n = 7 Nachricht:(x 1,x 2,x 3,x 4,) = (1 0 0 0) Generator:G(u) = u 3 + u + 1  (g 3 g 2 g 1 g 0 ) = (1 0 1 1) u6u6 u5u5 u4u4 u3u3 u2u2 u1u1 u0u0 u3u3 u2u2 u1u1 u0u0 u3u3 u2u2 u1u1 u0u0 %011 mod 2 1101 ...0001  1101 10 0000 1 1101 %110 %111 1 1101 %101 101 101 sind die gesuchten Kontrollstellen, die die Codebedingung erfüllen.

68 Abt. Informatik Prof. Dr.Ing. A. Rinkel 68 Zyklische Codes: Ermittlung der Kontrollstellen durch Mehrfachaddition...0001 0001101 1101 Addition des ersten Terms G(u) erzeugt die Stellen u 6, u 5 von X(u) 1101 Addition des zweiten Terms G(u) erzeugt die Stelle u 4 von X(u) 1101 Addition des dritten Terms G(u) erzeugt die Stelle u 3 von X(u) Der Rest muss nach Codebedingung die Kontrollstellen bilden! Gültiges Codewort Idee: X(u) ist durch G(u) mod2 teilbar, also muss X(u) durch Addition von G(u) mod2 erzeugbar sein! Addition u0u0 u1u1 u2u2 u3u3 u4u4 u5u5 u6u6 mk Sei: m = 4, k = 3, n = 7 Nachricht:(x 1,x 2,x 3,x 4,) = (1 0 0 0) Generator:G(u) = u 3 + u + 1  (g 3 g 2 g 1 g 0 ) = (1 0 1 1)

69 Abt. Informatik Prof. Dr.Ing. A. Rinkel 69 Zyklische Codes: Prüfen der Codebedingung 1 0 0 0 1 0 1 Empfangenes Codewort: Generator: 1 0 1 1 Idee: Durch die Codebedingung muss die fortgesetzte Addition (mod 2) des Generators zum empfangenen CW Das Nullwort ergeben. 1 0 1 1 0 0 0 0 0 0 0 Code- Bedingung erfüllt! 1 0 1 1 0 0 0 0 0 1 1 Code- Bedingung nicht erfüllt! Fehlersyndrom 1 0 0 1 1 0 1 Empfangenes Codewort:

70 Abt. Informatik Prof. Dr.Ing. A. Rinkel 70 Zyklischer Hamming- Code und Generatormatrix ? 1 0 0 0 1 0 1 101101 111111 110110 011011 010010 100100 001001 Generatormatrix Gültiges Codewort: 0 0 0 0 1 0 1 1 0 1 1 1 0 1 0 1 0 1 1 0 1 1 0 0 0 0 1 1 0 1 0 0 1 1 0 1 1 0 1 1 0 0 0 0 0 1 1 1 0 1 1 1 0 0 0 0 0 1 1 0 1 1 0 0 0 0 1 0 0 1 0 1 1 1 0 0 0 1 0 0 1 0 1 1 0 0 0 0 0 0 1 1 1 0 0 1 0 1 1 0 1 1 0 0 0 0 1 1 1 1 0 1 1 1 0 0 0 1 1 1 1 0 1 1 0 0 0 0 0 1 0 1 0 1 1

71 Abt. Informatik Prof. Dr.Ing. A. Rinkel 71 Zyklische Codes: Ermittlung der Kontrollstellen durch rückgekoppeltes Schieberegister + Modulo 2 Addierer (XOR) Sei: m = 4, k = 3, n = 7 Nachricht: (x 1,x 2,x 3,x 4,) = (1 0 0 0) Generator: G(u) = u 3 + u + 1 u3u3 u2u2 u1u1 u0u0  G(u) 000 000Vorbelegung x1=1x1=1 1 1 1 1 011 Nach Übernahme x 1 011 x2=0x2=0 0 0 1 0 Nach Übernahme x 2 110 110 x3=0x3=0 1 1 1 1 111 Nach Übernahme x 3 111 x4=0x4=0 1 1 0 1 101Nach Übernahme x 4 101 ++ Ermittelten Kontrollstellen

72 Abt. Informatik Prof. Dr.Ing. A. Rinkel 72 Zyklische Codes Zyklische Hamming-Codes: Hammingdistanz h=3 Diese werden gebildet durch sogenannte primitive Polynome p(x) = g(x): p(x) = 1+x+x 3 p(x) = 1+x+x 4 p(x) = 1+x 2 +x 5 p(x) = 1+x+x 6 p(x) = 1+x 3 +x 7 p(x) = 1+x 2 +x 3 + x 4 +x 5 +x 6 +x 7 p(x) = 1+x 2 +x 3 + x 4 +x 5 +x 8 p(x) = 1+x 4 +x 9 p(x) = 1+x 3 +x 10 p(x) = 1+x 2 +x 11 p(x) = 1+x + x 4 +x 6 +x 12 p(x) = 1+x+x 3 + x 4 +x 13 p(x) = 1+x 2 +x 6 +x 10 +x 14 p(x) = 1+x+x 15 p(x) = 1+x 5 +x 23 p(x) = 1+x+x 2 +x 4 +x 5 + x 7 +x 8 +x 10 +x 11 +x 12 + x 16 + x 22 +x 23 +x2 6 +x 32 Zyklische Abramson-Codes bzw. CRC- Codes: Hammingdistanz h=4 Diese werden gebildet durch die Multiplikation eines primitven Polynoms mit dem Term (1+x) Abramson-Code: g(x)= p(x) (1+x) Bsp.: g(x) = ( 1+x+x 3 ) (1+x) g(x) = 1+x 2 +x 3 +x 4 Aus: Martin Werner, Information und Codierung, vieweg 2002

73 Abt. Informatik Prof. Dr.Ing. A. Rinkel 73 Faltungscodes Einführung Die ersten Arbeiten zu Block- und Faltungscodes gehen auf die 50-er Jahre zurück Blockcodes wurden schnell zur Sicherung gegen Übertragungsfehler eingesetzt, nicht zuletzt wegen ihrer einfachen Implementierbarkeit.  Eigenschaften –Leichte Implementierbarkeit der Encoder und Decoder durch Schieberegister –Hohe Fehlererkennungsmächtigkeit (Bündelfehlererkennung bei zyklischen Codes) –Blockbildung der zu codierenden Daten notwendig Für Faltungscodes wurde erst 1967 ein effizienter Algorithmus zur Dekodierung (Viterbi-Algorithmus) gefunden, Einsatz in der GSM, UMTS Funkübertragung  Eigenschaften: –Faltungscodes erlauben die fortlaufende Codierung eines kontinuierlichen Datenstroms, d.h. keine Blockbildung erforderlich –Die Decodierung von Faltungscodes benötigen keine Blocksynchronisation –Gute Faltungscodes werden durch Rechnersimulation gefunden

74 Abt. Informatik Prof. Dr.Ing. A. Rinkel 74 Idee der Faltung Die Faltung ist entlehnt aus der Systemtheorie: Charakteristik Übertragungs- Gleichung g(n) Einangsdatenstrom u(n) Ausangsdatenstrom v(n) n 012345 -2-3-4-5 Der Generator sei: g(n) = 1011 Der Eingangsstrom sei: u(n)= 1 1 0 0 1 Transformation: v(n) = u(n)  g(n) n 012345 -2-3-4-5 g(0) u(0) v(n) u(n)

75 Abt. Informatik Prof. Dr.Ing. A. Rinkel 75 Idee des binären Faltungs-Encoders I Definitionen LTI System DEMUX MUX Eingänge u j [n] u 1 [n] u 2 [n] u k [n] Eingangsfolgen: Nachrichtenfolge u[n 1 ] Nachrichtenfolge: Ausgänge v j [n] v 1 [n] v 2 [n] v n [n] Ausgangsfolgen: Codefolge v[n 2 ] Codefolge: Impulsantwort: Faltung Die Ausgangsfolge wird durch die Faltung der Eingangsfolgen erzeugt! (zur Vertiefung siehe auch Z-Transformation) LTI: Linear Time Invariant

76 Abt. Informatik Prof. Dr.Ing. A. Rinkel 76 Idee des binären Faltungs-Encoders II Encoderschaltung des (2,1,3) Encoders LTI System Nachrichtenfolge u[n 1 ] Codefolge v[n 2 ] u 1 [n] u 2 [n] u k [n] v 1 [n] v 2 [n] v n [n] DEMUX MUX -000--- 10001111 01000101 10100000 01011010 00101111 000111 Beispiel: sei {u n }={1, 0, 1} die Speicherplätze S 0, S 1, S 2 sind mit 0 vorbelegt uS0S0 S1S1 S2S2 v 1 [n] v 2 [n] V [n 2 ] -000--- Nachrichtenfolge u[n] s0s0 s1s1 s2s2 v 1 [n] g 1,0 =1g 1,3 =1g 1,2 =1g 1,1 =0 {g 1 }={1, 0, 1, 1} v 2 [n] g 2,0 = 1 g 2,3 = 1 g 2,2 = 1 g 2,1 = 1 {g 2 }={1, 1, 1, 1} Codefolge v[n 2 ] Ausgangs- zustand erreicht

77 Abt. Informatik Prof. Dr.Ing. A. Rinkel 77 Idee des binären Faltungs-Encoders III Zustandsdarstellung des (2,1,3) Encoders Codefolge v[n 2 ] v 1 [n] v 2 [n] Nachrichten- folge u[n] s0s0 s1s1 s2s2 S 0 S 1 S 2 S 3 S 4 S 5 S 6 S 7 100 010 110 001 101 011 111 00 0 0 1 2 3 4 5 6 7 Zustandsgrösse Zustand S i i= x 3 2 0 + x 2 2 1 + x 1 2 2 x3x3 x2x2 x1x1

78 Abt. Informatik Prof. Dr.Ing. A. Rinkel 78 Beispiel/Aufgabe Gegebn ist ein (3, 1, 2) Faltungscode mit g 1 (x)=1+x g 2 (x)=1+x 2 g 2 (x)=1+x+x 2 Ermitteln Sie den Codierer und das Zustandsdiagramm!

79 Abt. Informatik Prof. Dr.Ing. A. Rinkel 79 S2S2 S1S1 S0S0 S3S3 0/000 1/111 1/010 1/001 1/100 0/110 0/101 0/011 Netz- oder Trellis- Diagramm am Beispiel des (3,1,2) Faltungscodes S0S0 S2S2 S1S1 S3S3 S0S0 S2S2 S1S1 S3S3 1/001 1/010 1/100 1/111 0/110 0/101 0/011 0/000 S0S0 S2S2 S1S1 S3S3 S0S0 S2S2 S1S1 S3S3 1/001 1/010 1/100 1/001 1/010 1/100 S0S0 S2S2 S1S1 S3S3 S0S0 S2S2 S1S1 S3S3 1/001 1/010 1/100 1/001 1/010 1/100 S0S0 S2S2 S1S1 S3S3 S0S0 S2S2 S1S1 S3S3 1/001 1/010 1/100 1/001 1/010 1/100 0/110 0/101 0/011 0/000 0/110 0/101 0/011 0/000 0/110 0/101 0/011 0/000 0/110 0/101 0/011 0/000 0/110 0/101 0/011 0/000 0/110 0/101 0/011 0/000 Takt 0654321

80 Abt. Informatik Prof. Dr.Ing. A. Rinkel 80 Struktur des Faltungscodes Fundamentalweg und Gewichte Definitionen Gewicht des Codes ist die Anzahl von Bitstellen eines Codeworts, die von „0“ verschieden sind. Fundamentalweg ist der (Teil-) Weg eines Codes, der im Zustand S 0 beginnt und wieder im Zustand S 0 endet. Die Analyse der Fundamentalwege liefert die Struktur des Faltungscodes. Metrik:  I bezeichne den Zustands- übergang, der durch „1“ ausgelöst wird  D l bezeichne die Anzahl der durch den Übergang zur Codefolge hinzukommenden „1“ Bitstellen (Gewichtszunahme)  J sei eine Zählvariable, die die Anzahl der Übergänge zählt  Jede Kante eines Fundamentalweges lässt sich durch das Triplet (I D l J) beschreiben  „Kantengewicht“ S2S2 S1S1 S0S0 S3S3 0/000 1/111 1/010 1/001 1/100 0/110 0/101 0/011 S2S2 S1S1 S0S0 S3S3 S0S0 Beispiel: (3, 1, 2) Faltungscode ID 3 J IDJ ID 1 J D2JD2J D2JD2JD2JD2J Beispiel:

81 Abt. Informatik Prof. Dr.Ing. A. Rinkel 81 Generatorpolynome für optimale Faltungscodes Nc= m+1R=1/2R=1/3R = 1/4 g1g1 g2g2 dfdf g1g1 g2g2 g3g3 dfdf g1g1 g2g2 g3g3 g4g4 dfdf 35755778577710 415176131517101315 1715 523357253337122527333716 653758475375135367717518 71331711013314517515135 14716320 8247371102253313671623527531335722 9561753125576637111846353573374524 Quelle: Martin Werner, Information und Codierung, vieweg, g i in oktaler Schreibweise

82 Abt. Informatik Prof. Dr.Ing. A. Rinkel 82 S2S2 S1S1 S0S0 S3S3 0/000 1/111 1/010 1/001 1/100 0/110 0/101 0/011 Codierung des (3,1,2) Faltungscodes S0S0 S2S2 S1S1 S3S3 S0S0 S2S2 S1S1 S3S3 1/001 1/010 1/100 1/111 0/110 0/101 0/011 0/000 S0S0 S2S2 S1S1 S3S3 S0S0 S2S2 S1S1 S3S3 1/001 1/010 1/100 1/001 1/010 1/100 S0S0 S2S2 S1S1 S3S3 S0S0 S2S2 S1S1 S3S3 1/001 1/010 1/100 1/001 1/010 1/100 S0S0 S2S2 S1S1 S3S3 S0S0 S2S2 S1S1 S3S3 1/001 1/010 1/100 1/001 1/010 1/100 0/110 0/101 0/011 0/000 0/110 0/101 0/011 0/000 0/110 0/101 0/011 0/000 0/110 0/101 0/011 0/000 0/110 0/101 0/011 0/000 0/110 0/101 0/011 0/000 Takt 0654321 1100 10 0

83 Abt. Informatik Prof. Dr.Ing. A. Rinkel 83 Decodierung des (3,1,2) Faltungscodes von Folie 68 im Netzdiagramm S0S0 S2S2 S1S1 S3S3 Takt 0654321 1/111 0/000 1/111 0/000 1/010 0/101 1/111 0/000 1/010 0/101 1/001 0/011 0/110 1/100 0/110 1/111 0/000 1/001 1/010 0/101 0/011 1/100 1/010 0/011 1/111 0/000 1/001 0/101 0/110 1/100 0/000 0/101 0/011 0/110 0/011 Tail-Bits: auslesen des Speichers 111010110011 111101 011

84 Abt. Informatik Prof. Dr.Ing. A. Rinkel 84 Decodierung des (3,1,2) Faltungscodes von Folie 68 im Netzdiagramm S0S0 S2S2 S1S1 S3S3 Takt 0654321 1/111 0/000 1/111 0/000 1/010 0/101 1/111 0/000 1/010 0/101 1/001 0/011 0/110 1/100 0/110 1/111 0/000 1/001 1/010 0/101 0/011 1/100 1/010 0/011 1/111 0/000 1/001 0/101 0/110 1/100 0/000 0/101 0/011 0/110 0/011 Tail-Bits: auslesen des Speichers 110 111011 101101101 001001

85 Abt. Informatik Prof. Dr.Ing. A. Rinkel 85 Decodierung des (3,1,2) Faltungscodes von Folie 68 im Netzdiagramm S0S0 S2S2 S1S1 S3S3 Takt 0654321 1/111 0/000 1/111 0/000 1/010 0/101 1/111 0/000 1/010 0/101 1/001 0/011 0/110 1/100 0/110 1/111 0/000 1/001 1/010 0/101 0/011 1/100 1/010 0/011 1/111 0/000 1/001 0/101 0/110 1/100 0/000 0/101 0/011 0/110 0/011 Tail-Bits: auslesen des Speichers 100010110010 111101

86 Abt. Informatik Prof. Dr.Ing. A. Rinkel 86 Signale: Träger der Information Keep it simple, as simple as possible but not simpler.

87 Abt. Informatik Prof. Dr.Ing. A. Rinkel 87 Übertragungssystem Einführung: Abtastung und Quantisierung Kanal Quelle Senke Quellen- Codierer Quellen- Decoder Kanal Codierer Kanal Decoder Modulator Leitungscodierer Demodulator Entscheider Sender Empfänger Stör- Quelle

88 Abt. Informatik Prof. Dr.Ing. A. Rinkel 88 Abtastung und Quantisierung AnalogZeit- und Wertdiskret

89 Abt. Informatik Prof. Dr.Ing. A. Rinkel 89 Klassifikation von Signalen

90 Abt. Informatik Prof. Dr.Ing. A. Rinkel 90 Darstellung von Signalen I

91 Abt. Informatik Prof. Dr.Ing. A. Rinkel 91 Darstellung von Signalen II Zeitbereich Tastverhältnis 0.5

92 Abt. Informatik Prof. Dr.Ing. A. Rinkel 92 Vorgehensweise in der Fourier-Analyse

93 Abt. Informatik Prof. Dr.Ing. A. Rinkel 93 Darstellung von Signalen III Tastverhältnis 0.05

94 Abt. Informatik Prof. Dr.Ing. A. Rinkel 94 Darstellung von Signalen IV

95 Abt. Informatik Prof. Dr.Ing. A. Rinkel 95 Bearbeitung von Signalen Addition/Subtraktion Multiplikation Verstärkung/Dämpfung Integration/Differentiation Filterung TP HP BP

96 Abt. Informatik Prof. Dr.Ing. A. Rinkel 96

97 Abt. Informatik Prof. Dr.Ing. A. Rinkel 97 Analoges Signal: Zeitdiskret

98 Abt. Informatik Prof. Dr.Ing. A. Rinkel 98 Analoges Signal: Zeit- und Wertdiskret

99 Abt. Informatik Prof. Dr.Ing. A. Rinkel 99 Kompression: Vorüberlegung

100 Abt. Informatik Prof. Dr.Ing. A. Rinkel 100 Kompression – Expandierung oder Kompandierung I 0 2047 -0 100000000000 000000000000 111111111111 011111111111 Codierung der Quantisierungsstufen in 12 bit Eingangssignal Ausgangs- signal 0 1 2 3 4 5 6 7 Eingangssignal Intervalle 1 0 0 0 0 0 0 0 W X Y Z 1 0 0 0 0 0 0 1 W X Y Z 1 0 0 1 W X Y Z c d e f 1 0 0 0 1 W X Y Z d e f 1 0 0 0 0 1 W X Y Z e f 1 0 0 0 0 0 1 W X Y Z f 1 0 1 W X Y Z b c d e f 1 1 W X Y Z a b c d e f 2 11 2 10 2 9 2 8 2 7 2 6 2 5 2 4 2 3 2 2 2 1 2 0 1 0 0 0 W X Y Z 1 0 0 1 W X Y Z 1 1 0 1 W X Y Z 1 1 0 0 W X Y Z 1 0 1 1 W X Y Z 1 0 1 0 W X Y Z 1 1 1 0 W X Y Z 1 1 1 1 W X Y Z

101 Abt. Informatik Prof. Dr.Ing. A. Rinkel 101 Kompression – Expandierung oder Kompandierung II 1 0 0 0 0 0 0 0 W X Y Z 1 0 0 0 0 0 0 1 W X Y Z 1 0 0 1 W X Y Z 1 0 0 0 1 W X Y Z 1 0 0 0 0 1 W X Y Z 1 0 0 0 0 0 1 W X Y Z 1 0 1 W X Y Z 1 1 W X Y Z 2 11 2 10 2 9 2 8 2 7 2 6 2 5 2 4 2 3 2 2 2 1 2 0 1 0 0 0 W X Y Z 1 0 0 1 W X Y Z 1 1 0 1 W X Y Z 1 1 0 0 W X Y Z 1 0 1 1 W X Y Z 1 0 1 0 W X Y Z 1 1 1 0 W X Y Z 1 1 1 1 W X Y Z 2 7 2 6 2 5 2 4 2 3 2 2 2 1 2 0 1 0 0 0 0 0 0 0 W X Y Z 1 0 0 0 0 0 0 1 W X Y Z 1 0 0 1 W X Y Z 1 0 0 0 1 0 0 0 1 W X Y Z 1 0 0 1 0 0 0 0 1 W X Y Z 1 0 1 0 0 0 0 0 1 W X Y Z 1 1 0 1 W X Y Z 1 0 0 0 0 1 1 W X Y Z 1 0 0 0 0 0 2 11 2 10 2 9 2 8 2 7 2 6 2 5 2 4 2 3 2 2 2 1 2 0 Vorzeichenbit Teilbereich Lineare Quantisierung KompressionExpandierung Kompandierung

102 Abt. Informatik Prof. Dr.Ing. A. Rinkel 102 Enkodierung MPEG-1 Audio

103 Abt. Informatik Prof. Dr.Ing. A. Rinkel 103 Hausaufgabe Machen Sie mit einem Mind-Map eine Zusammenfassung des Erlernten und definieren Sie noch offene Fragen für die nächste Veranstaltung!

104 Abt. Informatik Prof. Dr.Ing. A. Rinkel 104 Leitungscodierung

105 Abt. Informatik Prof. Dr.Ing. A. Rinkel 105 Übertragungssystem Einführung: Modell der Informationsverarbeitung Kanal Quelle Senke Quellen- Codierer Quellen- Decoder Kanal Codierer Kanal Decoder Modulator Leitungscodierer Demodulator Entscheider Sender Empfänger Stör- Quelle

106 Abt. Informatik Prof. Dr.Ing. A. Rinkel 106 Leitungscodierung: Signale im Basisband Probleme! t 0 1 01010101011111111 01101101001110111 Anforderungen: Unterstützung der Takt- und Phasenrückgewinnung im Empfänger Vermeidung von Gleichstromkomponenten Übertrager in den Kupferleitungen, Ruheströme, … Optimierung des Bandbreitenbedarfs Unempfindlichkeit gegenüber Störungen Basisband: Signale im Frequenzbereich 0 Hz bis f og

107 Abt. Informatik Prof. Dr.Ing. A. Rinkel 107 Klassifizierung binärer Leitungscodes n 0 u unipolares Signalvbipolares Signal n 0 u -u 1. Polarität 2. Impulsform RZ-Implus (Return to Zero) t 0 1 T T/2 NRZ-Implus (no return to zero) t 0 1 T T/2

108 Abt. Informatik Prof. Dr.Ing. A. Rinkel 108 Beispiele I n 0 1 Unipolare RZ Codierung 1. 2. t/T 0 12V 123456781291011 Nachteil: hoher Gleichstromanteil Bipolare NRZ Codierung z.B. die Schnittstellen: CCITT V.24/V.28 RS 232 t/T 0 12V 123456781291011 -12V geringer Gleichstromanteil Problem: lange „1“ bzw „0“ Folgen

109 Abt. Informatik Prof. Dr.Ing. A. Rinkel 109 Beispiele II: Verfeinerung NRZ NRZ-L (Level) t/T 0 12V 123456781291011 -12V t/T 0 12V 123456781291011 -12V NRZ-M (Mark, 1) eine „1“ ändert die Polarität t/T 0 12V 123456781291011 -12V NRZ-S (Space, 0) eine „0“ ändert die Polarität 0001000111111 Bitmuster

110 Abt. Informatik Prof. Dr.Ing. A. Rinkel 110 Beispiele III: Manchester – Code Grundverfahren Verwendeter Impuls Kein Gleichstromanteil Jedoch doppelte Bandbreite Anwendung: Ethernet-Systeme erlaubt Takt-Rückgewinnung t 0 1 T „0“ : fallende Flanke „1“ : steigende Flanke Takt 011100010110Bitmuster 0 1 - 1 t/T 123456781291011 Manchestercodierte Pulsfolge

111 Abt. Informatik Prof. Dr.Ing. A. Rinkel 111 Beispiele IIII: AMI – Code AMI: Alternate Mark Inversion Grundverfahren Merkmale: Kein Gleichstromanteil erlaubt Takt-Rückgewinnung -> Problem lange Nullfolgen modifizierten AMI-Code Umkehrung der Codierung für „1“ und „0“ Anwendung: modifizierter AMI-Code beim ISDN-S 0 -Bus „0“ : wird durch den 0-Pegel repräsentiert „1“ : wird abwechselnd durch einen pos. und neg. Impuls dargestellt 011100010110Bitmuster t/T 0 1 123456781291011 - 1 AMI-codierte Pulsfolge Besonderheit: Drei physikalische Pegel zur Darstellung von zwei logische Werten. Daher wird der AMI-Code auch als pseudoternärer Code bezeichnet.

112 Abt. Informatik Prof. Dr.Ing. A. Rinkel 112 Leitungscodierung: Modulierte Signale I GFSK: Gaussian Frequency Shift Keying Die Daten werden als Frequenzwechsel in einem Trägersignal modelliert. Es werden 2 zwei Verfahren unterschieden 2-Level GFSK  2 unterschiedliche Frequenzen werden zur Kodierung verwendet 4-Level GFSK  4 unterschiedliche Frequenzen werden zur Kodierung verwendet  Liefert eine höhere Datenrate als 2-Level-GFSK center frequency + Offset - Offset f t Code: 1 0 0 1 1 0 1 Frequenz 1 Frequenz 0 Prinzip 2-Level GFSK

113 Abt. Informatik Prof. Dr.Ing. A. Rinkel 113 Leitungscodierung: Modulierte Signale II DPSK: Differential Phase Shift Keying die Daten werden als Phasenwechsel bzw. Phasensprung in einem Trägersignal modelliert. die absolute Phasenlage ist irrelevant nur die Phasen-Änderung zum Vorgangssignal ist relevant es werden n = 2 m Phasenzustände unterschieden üblich: n = 4 als 4-DPSK Prinzip 2-DPSK 0  kein phase shift 1  +  phase shift t Amplitude 100111

114 Abt. Informatik Prof. Dr.Ing. A. Rinkel 114 Physical Layer: OFDM / FDM OFDM benötigt geringere Bandbreite, je mehr Subträger unterteilt werden

115 Abt. Informatik Prof. Dr.Ing. A. Rinkel 115 Physical Layer: OFDM / FDM

116 Abt. Informatik Prof. Dr.Ing. A. Rinkel 116 Traditional radio communications focussed on the use of narrow band signals – FM radio etc. Spread spectrum works by taking a narrow band signal and using mathematical techniques to diffuse the signal power over a larger range of frequencies. Both the transmitter and receiver agree on the same technique, allowing the receiver to reconstitute the narrow band signal from the diffused signal. Looks like noise to narrow-band receivers Co-patented by Austrian-born actress Hedy Lamarr in 1942 (model for Catwoman in the original Batman comics and the first actress to appear nude on film in a German film, ‘Extasy’, in 1932 WCDMA (Spread Spectrum) Air Interface

117 Abt. Informatik Prof. Dr.Ing. A. Rinkel 117 1 1,1 1,-1 1,1,1,1 1,1,-1,-1 1,-1,1,-1 1,-1,-1,1 1,-1,-1,1,1,-1,-1,1 1,-1,-1,1,-1,1,1,-1 1,-1,1,-1,1,-1,1,-1 1,-1,1,-1,-1,1,-1,1 1,1,-1,-1,1,1,-1,-1 1,1,-1,-1,-1,-1,1,1 1,1,1,1,1,1,1,1 1,1,1,1,-1,-1,-1,-1... WCDMA OVSF Codes Signal S1 Code C1 Signal S2 Code C2 S1C1 S2C2 S1C1+S2C2 Code C1 Signal S1 S1C1C1+S2C2C1 Code C2 Signal S2 S1C1C2+S2C2C2 Übertragungsstrecke X X,X X,-X Grundschema zur Codebildung und Beispiel C1 C2 2 Codes 4 Codes8 Codes

118 Abt. Informatik Prof. Dr.Ing. A. Rinkel 118 WCDMA Interference before / after Despreading

119 Abt. Informatik Prof. Dr.Ing. A. Rinkel 119 Übertragungssystem Zusammenfassung: Informations- & Codierungstheorie Stör- Quelle Kanal Quelle Senke Signale, Quantisierung und Information Quellen- Codierer Quellen- Decoder Kompressions- verfahren nach Huffman/LZ Verschlüsselungs- verfahren Kanal Codierer Kanal Decoder Kanalmodell Transinformation, Hauptsatz der Datenverarbeitung, Fehlererkennungs- verfahren Leitungscodierer Modulator Demodulator Entscheider Sender Empfänger Nicht behandelt

120 Abt. Informatik Prof. Dr.Ing. A. Rinkel 120 Übungsaufgabe 24 S0S0 S2S2 S1S1 S3S3 1/11 0/00 1/11 0/00 1/10 0/01 1/11 0/00 1/10 0/01 1/01 0/11 0/10 1/00 0/10 1/11 0/00 1/01 1/10 0/01 0/11 1/00 1/10 0/11 1/11 0/00 1/01 0/01 0/10 1/00 0/00 0/01 0/11 0/10 0/11 Takt 0654321798 1/10 0/11 1/11 0/00 1/01 0/01 0/10 1/00 1/10 0/11 1/11 0/00 1/01 0/01 0/10 1/00


Herunterladen ppt "Abteilung Informatik aF&E Informations- und Codierungstheorie Prof. Dr.-Ing. Andreas Rinkel Sprechstunde: Jeden."

Ähnliche Präsentationen


Google-Anzeigen