Kap. 2 - Aufbau von Prozessoren

Slides:



Advertisements
Ähnliche Präsentationen
Motivation Bisher: Codes mit möglichst kurzer Codelänge.
Advertisements

Codierung Haydn: Streichquartett op 54.3 aus Largo, Violine I
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil3.
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Telefonnummer.
Lehrmaterial Grundlagen EDV
CPCP Institute of Clinical Pharmacology AGAH Annual Meeting, 29. Februar 2004, Berlin, Praktischer Umgang mit den Genehmigungsanträgen gemäß 12. AMG Novelle.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
Workshop zur Medienarbeit der katholischen Kirche Aspekte des Religionsmonitors Berlin, 02. April 2008.
1 JIM-Studie 2010 Jugend, Information, (Multi-)Media Landesanstalt für Kommunikation Baden-Württemberg (LFK) Landeszentrale für Medien und Kommunikation.
= = = = 47 = 47 = 48 = =
E / IDE Enhanced / Integrated Device Elektronics
WS 2009/10 1 Systeme 1 Kapitel 1 Aufbau von Rechnern.
Kapitel 3 5 Rechnerorganisation
Fehlererkennende Codes
WS Algorithmentheorie 02 - Polynomprodukt und Fast Fourier Transformation Prof. Dr. Th. Ottmann.
Rechneraufbau & Rechnerstrukturen, Folie 2.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 2.
© 2006 W. Oberschelp, G. Vossen Rechneraufbau & Rechnerstrukturen, Folie 2.1.
Grundkurs Theoretische Informatik, Folie 2.1 © 2006 G. Vossen,K.-U. Witt Grundkurs Theoretische Informatik Kapitel 2 Gottfried Vossen Kurt-Ulrich Witt.
© 2006 W. Oberschelp, G. Vossen Rechneraufbau & Rechnerstrukturen, Folie 12.1.
Internet facts 2008-II Graphiken zu dem Berichtsband AGOF e.V. September 2008.
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil2.
PKJ 2005/1 Stefan Dissmann Zusammenfassung Bisher im Kurs erarbeitete Konzepte(1): Umgang mit einfachen Datentypen Umgang mit Feldern Umgang mit Referenzen.
Bewegte Bezugssysteme
Astronomisch, Physikalische und Mathematische Geodäsie II
Vorlesung 2 Rechnerarchitektur Universität Bielefeld – Technische Fakultät AG Rechnernetze und verteilte Systeme Peter B. Ladkin
Vorlesung 3: Verschiedenes Universität Bielefeld – Technische Fakultät AG Rechnernetze und verteilte Systeme Peter B. Ladkin
Rechnerarchitektur Vorlesung 2 Peter B. Ladkin
Schieferdeckarten Dach.ppt
1 Vorlesung 3 Verschiedenes Peter B. Ladkin
Rechneraufbau & Rechnerstrukturen, Folie 12.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 12.
1. 2 Schreibprojekt Zeitung 3 Überblick 1. Vorstellung ComputerLernWerkstatt 2. Schreibprojekt: Zeitung 2.1 Konzeption des Kurses 2.2 Projektverlauf.
Bild 1.1 Copyright © Alfred Mertins | Signaltheorie, 2. Auflage Vieweg+Teubner PLUS Zusatzmaterialien Vieweg+Teubner Verlag | Wiesbaden.
20:00.
Zusatzfolien zu B-Bäumen
Leistungsbeschreibung Brückenplanung RVS RVS
INTEL Pentium 4 Prozessor
für Weihnachten oder als Tischdekoration für das ganze Jahr
Syntaxanalyse Bottom-Up und LR(0)
NEU! 1 2. Wo kommt diese Art von Rezeptor im Körper vor?
1 Kap. 2 - Aufbau von Prozessoren ComputerarchitekturBéat HirsbrunnerS Oktober Primäre Speicher Fehlerkorrekturcodes.
3.4 CPU-Chips und Busse CPU-Chips
Birdwatch Start Mit deinem Feldstecher entdeckst du auf einer Exkursion viele Vogelarten. Kennst du sie alle? Vogelquiz Birdwatch.
PROCAM Score Alter (Jahre)
Ertragsteuern, 5. Auflage Christiana Djanani, Gernot Brähler, Christian Lösel, Andreas Krenzin © UVK Verlagsgesellschaft mbH, Konstanz und München 2012.
Vom Bit zum Byte.
Vorlesung Mai 2000 Konstruktion des Voronoi-Diagramms II
Das ist die Geschichte eines kleinen Jungen aus der Schweiz.
Symmetrische Blockchiffren DES – der Data Encryption Standard
Großer Altersunterschied bei Paaren fällt nicht auf!
Zahlentheorie und Zahlenspiele Hartmut Menzer, Ingo Althöfer ISBN: © 2014 Oldenbourg Wissenschaftsverlag GmbH Abbildungsübersicht / List.
MINDREADER Ein magisch - interaktives Erlebnis mit ENZO PAOLO
1 (C)2006, Hermann Knoll, HTW Chur, FHO Quadratische Reste Definitionen: Quadratischer Rest Quadratwurzel Anwendungen.
Pigmentierte Läsionen der Haut
Schutzvermerk nach DIN 34 beachten 20/05/14 Seite 1 Grundlagen XSoft Lösung :Logische Grundschaltung IEC-Grundlagen und logische Verknüpfungen.
1 Mathematical Programming Nichtlineare Programmierung.
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Moderne Rechner-Architekturen
Ertragsteuern, 5. Auflage Christiana Djanani, Gernot Brähler, Christian Lösel, Andreas Krenzin © UVK Verlagsgesellschaft mbH, Konstanz und München 2012.
SiLeBAT Sicherstellung der Futter- und Lebensmittelwarenkette bei bio- und agro-terroristischen (BAT)-Schadenslagen.
Es war einmal ein Haus
Datum:17. Dezember 2014 Thema:IFRS Update zum Jahresende – die Neuerungen im Überblick Referent:Eberhard Grötzner, EMA ® Anlass:12. Arbeitskreis Internationale.
1 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt Wie.
Technische Kommunikation
1 Medienpädagogischer Forschungsverbund Südwest KIM-Studie 2014 Landesanstalt für Kommunikation Baden-Württemberg (LFK) Landeszentrale für Medien und Kommunikation.
Monatsbericht Ausgleichsenergiemarkt Gas – Oktober
Monatsbericht Ausgleichsenergiemarkt Gas – November
Aktueller Stand der Technik. Auf dem Markt sind heute bereits 64-Bit Mikrocontroller. Die meiste Verwendung finden allerdings noch immer die 8-Bit Modelle.
Vorgestern, gestern und heute
 Präsentation transkript:

Kap. 2 - Aufbau von Prozessoren 3. November 2005 Kap. 2 - Aufbau von Prozessoren 2.1 Prozessoren 2.1.1 Aufbau der CPU 2.1.2 Ausführung von Instruktionen 2.1.3 RISC kontra CISC 2.1.4 Designprinzipien moderner Computer 2.1.5 Parallelität auf Instruktionsebene 2.1.6 Parallelität auf Prozessorebene 2.2 Primäre Speicher Bits, Speicheradressen, Byteanordnung, Fehlerkorrekturcodes, Cache-Speicher, Speicherbaueinheiten und -typen Nicht behandelt in dieser Vorlesung: 2.3 Sekundäre Speicher Speicherhierarchien, Magnetplatten, Disketten, IDE-Festpaltten, SCSI-Festplatten, RAID, CD, DVD 2.4 Eingabe / Ausgabe (E/A) Busse, Terminals, Mäuse, Drucker, Modems, Zeichencodes nfnfdnfnfn

2.1 Prozessoren nfnfdnfnfn

2.1.1 Aufbau der CPU nfnfdnfnfn

2.1.2 Ausführung von Instruktionen (1/2) 1. Hole die nächste Instruktion aus dem Speicher in das Instruktionsregister 2. Aendere den Befehlszähler, damit er auf die nächste Instruktion zeigt 3. Bestimme den Typ der geradene eingelesenen Instruktion 4. Wenn die Instruktion ein Wort im Speicher benutzt, bestimme die Position des Wortes 5. Lies bei Bedarf das Wort in ein CPU-Register ein 6. Führe die Instruktion aus 7. Gehe zu Schritt 1 und beginne die Ausführung der nächsten Instruktion nfnfdnfnfn

2.1.2 Ausführung von Instruktionen (2/2) nfnfdnfnfn

2.1.3 RISC kontra CISC Komplexe vs einfache Instruktionen RISC = Reduced Instruction Set Computer CISC = Complex Instruction Set Computer Herrschender Trend bis 1980: CISC Intel, DEC VAX, IBM-Grossrechner Ab 1980: RISC (durch IBM initiert !!!) John Coke (IBM !) David Petterson und Carlo Séquin (Berkeley) Hennessy (Stanford): MIPS und SPARC (Sun !) Heute CISC: Pentium (Intel), … RISC: PowerPC (Motorola, IBM, Apple), Alpha (DEC), … nfnfdnfnfn

2.1.4 Designprinzipien moderner Computer Alle Instruktionen werden direkt von der Hardware ausgeführt Maximieren der Rate, mit der Instruktionen ausgegeben werden MIPS = Million Instruction Per Second (!) Die Befehle müssen leicht zu dekodieren sein Nur LOAD- und STORE-Instruktionen sollen auf den Speicher verweisen Stelle Register in Hülle und Fülle bereit nfnfdnfnfn

2.1.5 Parallelität auf Instruktionsebene: Pipelining (Fliessbandverarbeitung) Latenzzeit (= Abarbeitungszeit einer Instruktion) vs Prozessorbandbreite (= Anzahl MIPS) nfnfdnfnfn

2.1.5 Parallelität auf Instruktionsebene: Superskalare Architekturen (1/2) nfnfdnfnfn

2.1.5 Parallelität auf Instruktionsebene: Superskalare Architekturen (2/2) nfnfdnfnfn

2.1.6 Parallelität auf Prozessorebene (1/2) nfnfdnfnfn

2.1.6 Parallelität auf Prozessorebene (2/2) nfnfdnfnfn

2. Primäre Speicher 2.2.1 Bits Definition Die Grundeinheit des Speichers ist die binäre Ziffer, genannt Bit Eine Kuriosität: Binary Coded Decimal (BCD) Die Zahlen 0 bis 9 werden mit vier bits dargestellt, die 6 verbleidende Kombinationen werden nicht benutzt! Beispiel für die Zahl 91: BCD: 1001 0001 Noch kurioser: man hat solche Computer gebaut ! Z.B. gewisse IBM-Grossrechnern nfnfdnfnfn

2.2.2 Speicheradressen (1/2) Ein Speicher besteht aus einer Reihe von Zellen Alle Zellen enthalten die gleiche Anzahl von Bits Jeder Zelle wird eine Nummer (ihre Adresse) zugeordnet nfnfdnfnfn

2.2.2 Speicheradressen (2/2) Bedeutung einer Zelle Standard Sie ist die kleinste adressierbare Einheit Standard 1 Byte = 8 bits 1 Wort = n Bytes (~1975: n=1, ~1985: n=2, ~1995: n=4 und ~2005: n=8) nfnfdnfnfn

2.2.3 Byteanordnung (1/2) Big-Endian: von links nach rechts Beispiel: Intel (80x00, Pentium), SPARC, IBM-Grossrechnern Little-Endian: von rechts nach links Beispiel: Motorola (680x0), PowerPC (IBM, Motorola, Apple) nfnfdnfnfn

2.2.3 Byteanordnung (2/2) Ein Beispiel nfnfdnfnfn

2.2.4 Fehlerkorrekturcodes (1/6) Einige Definitionen Ein n-Bit-CodeWort besteht aus m Daten- und r Prüfbits Hamming-Abstand w zweier Codewörter = Anzahl Bitstellen in denen sich die beiden Codewörter unterscheiden Beispiel: w=1 für die Codewörter 000 und 010 Hamming-Abstand c eines Codes = minimaler Hamming-Abstand zweier zulässigen Codewörter Eigenschaften (für d Einzelbitfehler) Fehlererkennung: möglich für c = d + 1 (d.h. c > d) Fehlerkorrektur: theoretisch möglich für c = 2d + 1 (d.h. c > 2d) Beispiel: Paritätsbit Jedem m Datenbit wird ein einzelnes Paritätsbit angehängt Für ein solcher Code gilt c = 2 (oder anders ausgedrückt : es sind 2 Einzelbitfehler erforderlich, um von einem gültigen Codewort zu einem anderen gültigen Codewort zu gelangen) und es lassen sich Einzelbitfehler erkennen nfnfdnfnfn

2.2.4 Fehlerkorrekturcodes (2/6) Lemma (Richard Hamming, 1950) Um einen 1-bitfehler in einem m=2k-datenbit : (a) zu erkennen (b) zu korrigieren braucht man 1 beziehungsweise k+1 Prüfbits (für k≥2) Beweis (a) Paritätsbit ! Beweis (b) 1) es gibt 2m gültige Muster 2) mit r-prüfsbits gibt es 2m+r verschiedene Codewörter 3) Für jedes gültige Muster gibt es m+r ungültige mit einem Abstand von 1 (man bildet sie, indem man systematisch jedes der m+r bits invertiert) Aus (1) - (3) folgt : (m+r+1) * 2m ≤ 2m+r, d.h. m+r+1 ≤ 2r, d.h. k +1 ≤ r nfnfdnfnfn

2.2.4 Fehlerkorrekturcodes (3/6) nfnfdnfnfn

2.2.4 Fehlerkorrekturcodes (4/6) Hamming Algorithmus Kodierung des 4-Bit-Speicherwort 1100 in den Mengen AB, ABC, AC und BC mit je einem Bit je Menge (in alphabetischer Reihenfolge) nfnfdnfnfn

2.2.4 Fehlerkorrekturcodes (5/6) A A A Fehler error 1 1 1 C 1 1 C C 1 error 1 1 B B Paritätsbit B Hamming Algorithmus (wiederbesucht) Kodierung des 4-Bit-Speicherwort 1100 in den Mengen AB, AC, BC und ABC mit je einem Bit nfnfdnfnfn

2.2.4 Fehlerkorrekturcodes (6/6) Das gleiche in einer anderer Darstellung A B C : Mengen 0 1 1 1 1 0 0 : Codewort 1 2 4 : Stellenposition (2k, k=0,1,2,…) Position 3 ist durch A und B geprüft (3=1+2 !) Position 5 ist durch A und C geprüft (5=1+4 !) Position 6 ist durch B und C geprüft (6=2+4 !) Position 7 ist durch A, B und c geprüft (7=1+2+4 !) d.h. Position 1 prüft 3, 5 und 7 Position 2 prüft 3, 6 und 7 Position 4 prüft 5, 6 und 7 Verallgemeinerung (Hamming Algorithmus) 1) Die k+1 Prüfungsbits belegen die Positionen einer 2er Potenz (1,2,..2K) 2) Bit b wird durch die Paritätsbits bj geprüft, wobei b = b1 + b2 + … + bi 3) Indem man die Positionen der Paritätsbits addiert die versagen erhält man die Position des falschen Bits !!! nfnfdnfnfn

2.2.5 Cache-Speicher Lokalitätsprinzip Trefferquote (Hit Ratio), Fehlschlagrate (Miss Ratio) nfnfdnfnfn

2.2.6 Speicherbaueinheiten und -typen SIMM (Single Inline Memory Module) DIMM (Dual Inline Memory Module) nfnfdnfnfn

Kap. 2 - Aufbau von Prozessoren Aufbau der CPU, Ausführung von Instruktionen, RISC kontra CISC, Designprinzipien moderner Computer, Parallelität auf Instruktionsebene und Prozessorebene 2.2 Primäre Speicher Bits, Speicheradressen, Byteanordnung, Fehlerkorrekturcodes, Cache-Speicher, Speicherbaueinheiten und -typen 2.3 Sekundäre Speicher 2.3.1 Speicherhierarchien 2.3.2 Magnetplatten 2.3.3 Disketten 2.3.4 IDE-Festpaltten 2.3.5 SCSI-Festplatten 2.3.6 RAID 2.3.7-10 CD, DVD 2.4 Eingabe / Ausgabe (E/A) Busse, Terminals, Mäuse, Drucker, Modems, Zeichencodes nfnfdnfnfn

2.3.1 Speicherhierarchien nfnfdnfnfn

2.3.2 Magnetplatten (1/2) Die formatierte Kapazität ist meist etwa 15 Prozent geringer als die unformatierte nfnfdnfnfn

2.3.2 Magnetplatten (2/2) - Winchester Platten - Sektoren, Zylinder, - Positionierung (seek), Drehverzug (Rotational Delay) nfnfdnfnfn

2.3.3 Disketten (Floppy Disk) nfnfdnfnfn

2.3.4 IDE-Festplatten IDE EIDE Bemerkung Integrated Drive Electronics Extended IDE Bemerkung IDE- und EIDE-Festplatten gab es ursprünglich nur für Systeme auf Intel-Basis, weil die Schnittstelle eine exakte Kopie des IBM-PC Bus ist. nfnfdnfnfn

2.3.5 SCSI-Festplatten SCSI Bemerkung Small Computer System Interface (ANSI Standard, 1986) Bemerkung SCSI-Festplatten waren bis ~1998 Standard in den meisten Unix-Workstations von Sun, HP, SGI und anderen Anbietern (wie z. B. Apple) Heute sind sie durch USB- und Firewire-Festplatten ueberholt (IEEE Standards) nfnfdnfnfn

2.3.6 RAID RAID: Redundant Array of Inexpensive Disks (Patterson, 1988) SLED: Single large Expensive Disk nfnfdnfnfn

2.3.7-9 CD (1/3) CD-ROM, CD-R, CD-RW nfnfdnfnfn

2.3.7-9 CD (2/3) nfnfdnfnfn

2.3.7-9 CD (3/3) nfnfdnfnfn

2.3.10 DVD nfnfdnfnfn

Kap. 2 - Aufbau von Prozessoren 14. November 2001 Kap. 2 - Aufbau von Prozessoren 2.1 Prozessoren Aufbau der CPU, Ausführung von Instruktionen, RISC kontra CISC, Designprinzipien moderner Computer, Parallelität auf Instruktionsebene und Prozessorebene 2.2 Primäre Speicher Bits, Speicheradressen, Byteanordnung, Fehlerkorrekturcodes, Cache-Speicher, Speicherbaueinheiten und -typen 2.3 Sekundäre Speicher Speicherhierarchien, Magnetplatten, Disketten, IDE-Festpaltten, SCSI-Festplatten, RAID, CD, DVD 2.4 Eingabe / Ausgabe (E/A) 2.4.1 Busse 2.4.2 Terminals 2.4.3 Mäuse 2.4.4 Drucker 2.4.5 Modems 2.4.6 Zeichencodes nfnfdnfnfn

2.4.1 Busse (1/3) nfnfdnfnfn

2.4.1 Busse (2/3) nfnfdnfnfn

2.4.1 Busse (3/3) nfnfdnfnfn

2.4.2 Terminals (1/4) nfnfdnfnfn

2.4.2 Terminals (2/4) nfnfdnfnfn

2.4.2 Terminals (3/4) nfnfdnfnfn

2.4.2 Terminals (4/4) nfnfdnfnfn

2.4.3 Mäuse nfnfdnfnfn

2.4.4 Drucker (1/3) nfnfdnfnfn

2.4.4 Drucker (2/3) nfnfdnfnfn

2.4.4 Drucker (3/3) nfnfdnfnfn

2.4.5 Modems (1/2) nfnfdnfnfn

2.4.5 Modems (2/2) nfnfdnfnfn