Information - syntaktisch

Slides:



Advertisements
Ähnliche Präsentationen
8. Termin Teil B: Wiederholung Begriffe Baum
Advertisements

Motivation Bisher: Codes mit möglichst kurzer Codelänge.
Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Eine dynamische Menge, die diese Operationen unterstützt,
Zerlegung von Graphen.
Frame-Logik Eine Einführung Andreas Glausch.
Das LCA – Problem in Suffixbäumen
Übersicht RAID-Verfahren Labor für Betriebsdatenverarbeitung
7. Natürliche Binärbäume
6. Digitale Datendarstellung
R. Der - Vorlesung Algorithmen und Datenstrukturen (Magister)
Organisatorisches Klausur für Übungsschein (Anfang Januar)
11. Datenkomprimierung Bei den meisten bisher betrachteten Algorithmen wurde vor allem das Ziel verfolgt, möglichst wenig Zeit aufzuwenden, und erst in.
8. Formale Sprachen und Grammatiken
Übung 2.1 Information Wieviele Fragen benötigen Sie beim „Zahlenraten“
Anhang F:Beispielklausur In diesem Kapitel wird ein Beispiel für eine Klausur vorgestellt. Dabei sind jeweils die Aufgaben und die Lösungen gegeben. Beachten.
Beispielklausur In diesem Kapitel wird ein Beispiel für eine Klausur vorgestellt. Dabei sind jeweils die Aufgaben und die Lösungen gegeben. Beachten Sie.
Numerik partieller Differentialgleichungen
FH-Hof Grammatiken Richard Göbel. FH-Hof Begriffe Eine Grammatik definiert die Struktur (Syntax) einer Zeichenkette Eine Grammatik definiert nicht die.
Algorithmentheorie 04 –Hashing
Algorithmentheorie 6 – Greedy-Verfahren
Prof.Dr.S. Albers Prof. Dr. Th. Ottmann
Kompressionsverfahren für Texte
Kapitel 1 Das Schubfachprinzip
Hypothesen testen: Grundidee
Technische Informatik I
Was sind Histogramme? (1)
Zahlen mit Zahlen ausmessen
Huffman Entropie-Codierung Codierung mit variabler Länge
Wie funktioniert Signalübertragung?
Wahrscheinlichkeitsrechnung
Datenformate: Text und Bild
Information und Kommunikation
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation
Information und Kommunikation
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Java, Java, Java R. Morelli
Wahrscheinlichkeit Zufallsexperiment:
Wahrscheinlichkeitsrechnung
Daten Gruppe 7: Frauwallner Karin, Obermair Andreas Grundlagen wissenschaftlichen Arbeitens SS 2003 Titelseite.
Das Binär-System Alles ist davon abhängig, ob Strom fließt oder nicht!
Informationstheorie Begr. von Claude Shannon
Formale Sprachen Reguläre Sprachen Rudolf FREUND, Marian KOGLER.
Grundlegende Funktionsweise eines Computers
Grundlagen der Informatik
Grundlagen der Kommunikation in Verbindung mit der Codierung von Daten
Eine Darstellung mit Bits
Kommunikation und Codierung von Daten
Driften Spiel des Lebens. Anzahl der Ziehung en Absolute Häufigk eit blau Absolute Häufigk eit rot Relative Häufigk eit blau Relative Häufigk eit rot.
Automaten, formale Sprachen und Berechenbarkeit II SoSe 2004 Prof. W. Brauer Teil 3: Potenzreihen und kontextfreie Sprachen (Vgl. Buch von A. Salomaa)
Kommunikationstechnik B Teil 4 – Informationstheorie
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Rechnersysteme Marcel Waldvogel. Marcel Waldvogel, IBM Zurich Research Laboratory, Universität Konstanz, , 2  Wer bin ich?  Die Vorlesung.
Mensch – Maschine - Kommunikation
Der Hund jagt die Katze. Theoretische Informatik Satz S P O
Stochastik Grundlagen
7. Formale Sprachen und Grammatiken
1 Präsentation der Studienarbeit Wie funktioniert die Übertragung eines Sprachsignals beim Mobiltelefon? Referent: Michael Kunz Dauer: ca. 10 min Fach:
Medizinische Statistik und Informationsverarbeitung Quade Institut für Medizinische Biometrie, Informatik und Epidemiologie.
RC-5-Code.
Geoinformation3 Geoinformation III XML Grundlagen und Dokumentspezifikation Vorlesung 12b.
Information - syntaktisch
Asymmetrische Kryptographie
Arbeiten mit dem Terminal
W Passen Sie dieses Banner mit Ihrer eigenen Nachricht an! Wählen Sie den Buchstaben aus, und fügen Sie Ihren eigenen Text hinzu. Verwenden Sie ein Zeichen.
G Passen Sie dieses Banner mit Ihrer eigenen Nachricht an! Wählen Sie den Buchstaben aus, und fügen Sie Ihren eigenen Text hinzu. Verwenden Sie ein Zeichen.
 Präsentation transkript:

Information - syntaktisch 5. Informationstheorie - Information: Nachricht zusammen mit ihrer Bedeutung für den Empfänger - 2 Aspekte: syntaktisch, semantisch Information - syntaktisch - Nachricht: eine nach vorher festgelegten Regeln zusammengestellte, endliche Folge von Zeichen und Zuständen, die eine Information vermittelt - Signale: physikalische Größen, mit deren Hilfe Zeichen realisiert und zwischen Sender und Empfänger ausgetauscht werden (analoge und digitale Signale) - Datum: digitales Zeichen - Bit: (binary digit) kleinste Darstellungseinheit für Daten in binärer Zahlendarstellung (stets ganzzahlig)

Information - semantisch - Bedeutung: Interpretation mit Interpretationsschlüssel, i.a. Abbildungsvorschrift - Vorschrift zur Nachrichtenverarbeitung: Codierung - Vorschrift zur Informationsverarbeitung:   = ‘  - Umschlüsselung: vollständig, komprimierend, selektiv

Informationsgehalt Entscheidungsinformation: Anzahl optimal gewählter binärer Entscheidungen zur Ermittlung eines Zeichens innerhalb eines Zeichenvorrats Gegeben 8 Zeichen. Nach maximal wieviel Schritten ist ein Zeichen gefunden? Entscheidungsbaum: A B C D E F G H A-D? A B C D A-B? C D C? C

Allgemeiner Fall Aufteilung nicht in gleich große sondern gleich wahrscheinliche Mengen von Zeichen. 1/2 1/4 1/8 A E B C F A E B D G A B C D E F G D G B D C F G C F Das i-te Zeichen ist nach ki Alternativentscheidungen isoliert. Seine Wahrscheinlichkeit ist pi = (1/2)ki, sein Informationsgehalt ki = ld (1/pi) bit.

Optimale Codierung Buchstaben Pi Codierung A 1/4 00 E 1/4 01 F 1/8 100 mittlerer Entscheidungsgehalt pro Zeichen (Entropie): H = p1I1 + p2I2 + ... + pnIn =  pi ld(1/pi) bit = 2/4 + 2/4 + 3/8 ... = 2,625

Shannon-Funktion Gegeben eine Nachrichtenquelle die nur 0 und 1 sendet: P0 , 1-P0 Mittlerer Informationswert (Entropie) H(p) = p ld(1/p) + (1-p) ld (1/(1-p)) Die Shannon-Funktion erreicht ein Maximum für p= 1/2, d.h. wenn die Dualzeichen 0 und 1 gleich häufig auftreten. Allgemein gilt, daß H(p) maximal ist, wenn alle Zeichen gleich wahrscheinlich sind. S(p) p 0 0,5 1

Redundanz Redundanz: Maß für den Anteil einer Nachricht, der keine Information enthält Besitzt in einer Codierung einer Nachrichtenquelle das i-te Zeichen die Wortlänge Ni, so ist L=  piNi die mittlere Wortlänge. Unter der Voraussetzung, daß der Zeichenvorrat in genau gleichwahrscheinliche Teilmengen zerlegt werden kann gilt L=H. Im allgemeinen gilt das Shannonsche Codierungstheorem: 1. H  L. 2. Jede Nachricht kann so codiert werden, daß die Differenz L-H beliebig klein wird. (Betrachte Binärcodierungen für nk Gruppen von je k Zeichen). Die Differenz L-H heißt Code-Redundanz, die Größe 1-H/L relative Code-Redundanz.

Informationsgehalt Schriftsprache 30 Buchstaben (inkl. Zwischenraum) I = ld 30 = 4,9 bit Mittlerer Informationsgehalt unter Berücksichtigung von Bigrammen H = 1,6 bit Redundanz 4,9 - 1,6 bit = 3,3 bit (Text auch noch dann lesbar, wenn jeder zweite Buchstabe fehlt)

Redundanz - Beispiel Bei reduzierter Redundanz wird das Lesen sehr viel mühsamer BEI REDUZIERTER REDUNDANZ WIRD DAS LESEN SEHR VIEL MÜHSAMER BEIREDUZIERTERREDUNDANZWIRDDASLESENSEHRVIELMÜHSAMER BE RE UZ ER ER ED ND NZ IR DA LE EN EH VI LM HS ME (nach Breuer 1995)

Generieren einer optimalen Codierung (Fano-Code) Binärcode mit variabler Wortlänge 1. Ordne alle Zeichen nach der Wahrscheinlichkeit ihres Auftretens. 2. Unterteile sie in zwei Gruppen möglichst gleich summierter Wahrscheinlichkeit. 3. Die eine Gruppe erhält das Binärzeichen 1, die andere 0. 4. Unterteile jede Gruppe erneut und verfahre nach (1) - (3) bis jede Gruppe nur aus einem einzigen Zeichen besteht.