1 Kap. 2 - Aufbau von Prozessoren ComputerarchitekturBéat HirsbrunnerS2 - 25 Oktober 2006 2.2 Primäre Speicher Fehlerkorrekturcodes.

Slides:



Advertisements
Ähnliche Präsentationen
Christian Scheideler SS 2009
Advertisements

Kapitel 3 Codes Damit Information in einem Rechner verarbeitet werden kann, muss sie in eine für den Rechner verarbeitbare Form transformiert werden. Dabei.
Motivation Bisher: Codes mit möglichst kurzer Codelänge.
Kapitel 3 Arithmetische Schaltkreise
2.3 Kodierung von Zeichen 2.4 Kodierung von Zahlen
Polynomial Root Isolation
Codierung Haydn: Streichquartett op 54.3 aus Largo, Violine I
Schnelle Matrizenoperationen von Christian Büttner
1.4.5 Zur Berechnung von F+ (1|7)
Claudio Moraga; Gisbert Dittrich
Heute 1.F – Test zur Varianzhomogenität 2.Bartlett-Test zur Varianzhomogenität 3.Chi – Quadrat Tests für Häufigkeiten 4.Chi – Quadrat Tests zur Verteilungsanpassung.
Das LCA – Problem in Suffixbäumen
Marco Barz Seminar über Algorithmen SoSe2007
FH-Hof Deadlocks Richard Göbel. FH-Hof Deadlock - Definition Menge von Prozessen ist an einem Deadlock beteiligt: wenn jeder Prozess in dieser Menge auf.
2.1 Kodierung von Zeichen 2.2 Kodierung von Zahlen
Fehlererkennende Codes
Algorithmentheorie 04 –Hashing
Suche in Texten: Suffix-Bäume
WS Algorithmentheorie 13 - Kürzeste (billigste) Wege Prof. Dr. Th. Ottmann.
WS Prof. Dr. Th. Ottmann Algorithmentheorie 09 - Suche in Texten Suffix - Bäume.
Mathematische Grundlagen
EINI-I Einführung in die Informatik für Naturwissenschaftler und Ingenieure I Vorlesung 2 SWS WS 99/00 Gisbert Dittrich FBI Unido
2. Univariate Regressionsanalyse 2.1 Das statische Regressionsmodell
Technische Informatik I
Bit Commitment mit quadratischen Resten Vortrag von Josef Pozny
Christian Schindelhauer
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Materialien zu Übung 9 Bälle in Körbe Ranged.
Rel-Modell Relationenspezifische Operationen (11|21) Definition: natural join (natürlicher Verbund) Geg.: zwei Relationen r 1 : (A) und.
§14 Basis und Dimension (14.1) Definition: V sei wieder ein K-Vektorraum. Eine Menge B von Vektoren aus V heißt Basis von V, wenn B ist Erzeugendensystem.
§14 Basis und Dimension  (14.1) Definition: V sei wieder ein K-Vektorraum. Eine Menge B von Vektoren aus V heißt Basis von V, wenn B ist Erzeugendensystem.
§8 Gruppen und Körper (8.1) Definition: Eine Gruppe G ist eine Menge zusammen mit einer Verknüpfung, die jedem Paar (a,b) von Elementen aus G ein weiteres.
Rationale Zahlen.
Effiziente Algorithmen
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation
Information und Kommunikation
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Hartmut Klauck Universität Frankfurt WS 06/
Folie 1 Kapitel IV. Matrizen Inhalt: Matrizen als eigenständige mathematische Objekte Zusammenhang zwischen Matrizen und linearen Abbildungen Produkt von.
Mehrkriterielle Optimierung mit Metaheuristiken
Fehler in Rechnernetzen
Institut für Theoretische Informatik
Kap. 2 - Aufbau von Prozessoren
Relationentheorie AIFB SS Eigenschaften funktionaler Abhängigkeiten Eigenschaften funktionaler Abhängigkeiten (1|6) Lemma 1.1: (Regeln.
Trigonometrische Funktionen
ENDLICHE KÖRPER RSA – VERFAHREN.
Arne Vater Sommersemester Vorlesungswoche
Christian Schindelhauer Wintersemester 2006/07 5. Vorlesung
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Systeme II Christian Schindelhauer Sommersemester 2006.
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Systeme II Christian Schindelhauer Sommersemester 2007
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
7. Formale Sprachen und Grammatiken
Technische Informatik I Vorlesung 4: Vereinfachung von Schaltfunktionen Mirco Hilbert Universität Bielefeld Technische Fakultät.
Folie 1 §8 Gruppen und Körper (8.1) Definition: Eine Gruppe G ist eine Menge zusammen mit einer Verknüpfung, die jedem Paar (a,b) von Elementen aus G ein.
Florian Hutter & Nicole Waibel
Sükün_Karatas Grundlagen der Codes Sükün_Karatas 3aFD.
X. Übungsblatt – Aufgabe X Das Bild zeigt ein Diagramm, dass die Nachbarschafsbeziehungen für einen Code mit 3 Binärstellen darstellt. a)Welche Hamming-Distanz.
Lehrstuhl für Wirtschaftsinformatik Univ.-Prof. Dr. Johannes Ruhland Referent: Vogel, Stephan Business Intelligence Distanzmaße
1 Codierung Prof. Dr. Dörte Haftendorn, Leuphana Universität Lüneburg, Haydn: Streichquartett op 54.3 aus Largo,
Codierung. 16.Februar 20062Codierung Das Team Mario Kapl (Projektleiter) Ortrun Rössler Andreas Plank Christoph Pimminger Markus Stuhlberger Dominik Stelzeneder.
Systeme II 3. Die Datensicherungsschicht
 Präsentation transkript:

1 Kap. 2 - Aufbau von Prozessoren ComputerarchitekturBéat HirsbrunnerS Oktober Primäre Speicher Fehlerkorrekturcodes

Fehlerkorrekturcodes (1/6) Einige Definitionen Ein n-Bit-CodeWort besteht aus m Datenbits und r Prüfbits Hamming-Abstand w zweier Codewörter = Anzahl Bitstellen in denen sich die beiden Codewörter unterscheiden Beispiel: w=1 für die Codewörter 000 und 010 Hamming-Abstand c eines Codes = minimaler Hamming-Abstand zweier zulässigen Codewörter Eigenschaften (für d Einzelbitfehler) Fehlererkennung: möglich für c = d + 1 (d.h. c > d) Fehlerkorrektur: theoretisch möglich für c = 2d + 1 (d.h. c > 2d) Beispiel: Paritätsbit Jedem m Datenbit wird ein einzelnes Paritätsbit angehängt Für ein solcher Code gilt c = 2 (oder anders ausgedrückt : es sind 2 Einzelbitfehler erforderlich, um von einem gültigen Codewort zu einem anderen gültigen Codewort zu gelangen) und es lassen sich Einzelbitfehler erkennen

Fehlerkorrekturcodes (2/6) Lemma (Richard Hamming, 1950) Um einen 1-bitfehler in einem m=2 k -datenbit : (a) zu erkennen (b) zu korrigieren braucht man 1 beziehungsweise k+1 Prüfbits (für k2) Beweis (a) Paritätsbit ! Beweis (b) 1) es gibt 2 m gültige Muster 2) mit r-prüfsbits gibt es 2 m+r verschiedene Codewörter 3) Für jedes gültige Muster gibt es m+r ungültige mit einem Abstand von 1 (man bildet sie, indem man systematisch jedes der m+r bits invertiert) Aus (1) - (3) folgt : (m+r+1) * 2 m 2 m+r, d.h. m+r+1 2 r, d.h. k +1 r

Fehlerkorrekturcodes (3/6)

Fehlerkorrekturcodes (4/6) Hamming Algorithmus Kodierung des 4-Bit-Speicherwort 1100 in den Mengen AB, ABC, AC und BC mit je einem Bit je Menge (in alphabetischer Reihenfolge)

Fehlerkorrekturcodes (5/6) Hamming Algorithmus (wiederbesucht) Kodierung des 4-Bit-Speicherwort 1100 in den Mengen AB, AC, BC und ABC mit je einem Bit 1 11 error A B C A B C A B C Fehler Paritätsbit

Fehlerkorrekturcodes (6/6) Das gleiche in einer anderer Darstellung A B C : Mengen : Codewort : Stellenposition (2 k, k=0,1,2,…) Position 3 ist durch A und B geprüft (3=1+2 !) Position 5 ist durch A und C geprüft (5=1+4 !) Position 6 ist durch B und C geprüft (6=2+4 !) Position 7 ist durch A, B und c geprüft (7=1+2+4 !) d.h. Position 1 prüft 3, 5 und 7 Position 2 prüft 3, 6 und 7 Position 4 prüft 5, 6 und 7 Verallgemeinerung (Hamming Algorithmus) 1) Die k+1 Prüfungsbits belegen die Positionen einer 2er Potenz (1,2,..2 K ) 2) Bit b wird durch die Paritätsbits bj geprüft, wobei b = b1 + b2 + … + bi 3) Indem man die Positionen der Paritätsbits addiert die versagen erhält man die Position des falschen Bits !!!