Information - syntaktisch

Slides:



Advertisements
Ähnliche Präsentationen
8. Termin Teil B: Wiederholung Begriffe Baum
Advertisements

Vorlesung Compilertechnik Sommersemester 2008
Motivation Bisher: Codes mit möglichst kurzer Codelänge.
Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Eine dynamische Menge, die diese Operationen unterstützt,
2.3 Kodierung von Zeichen 2.4 Kodierung von Zahlen
Informatik 12 | DAES Compilerbau Wintersemester 2010 / 2011 Dr. Heiko Falk Technische Universität Dortmund Lehrstuhl Informatik 12 Entwurfsautomatisierung.
Modellbasierte Software-Entwicklung eingebetteter Systeme
Frame-Logik Eine Einführung Andreas Glausch.
7. Natürliche Binärbäume
6. Digitale Datendarstellung
Information - syntaktisch
3. Kapitel: Komplexität und Komplexitätsklassen
R. Der - Vorlesung Algorithmen und Datenstrukturen (Magister)
Organisatorisches Klausur für Übungsschein (Anfang Januar)
8. Formale Sprachen und Grammatiken
Syntax, Semantik, Spezifikation - Grundlagen der Informatik R. Hartwig Kapitel 4 / 1 Termalgebren Definition "Freie Algebra" Die -Algebra A = [A, F ] heißt.
Übung 2.1 Information Wieviele Fragen benötigen Sie beim „Zahlenraten“
Syntax der Aussagenlogik
FH-Hof Grammatiken Richard Göbel. FH-Hof Begriffe Eine Grammatik definiert die Struktur (Syntax) einer Zeichenkette Eine Grammatik definiert nicht die.
Algorithmentheorie 04 –Hashing
Vorlesung Informatik 3 Einführung in die Theoretische Informatik (06 – Reduktion endlicher Automaten) Prof. Dr. Th. Ottmann.
Kapitel 5 Stetigkeit.
Kapitel 1 Das Schubfachprinzip
Kapitel 6 Differenzierbarkeit. Kapitel 6: Differenzierbarkeit © Beutelspacher Juni 2005 Seite 2 Inhalt 6.1 Die Definition 6.2 Die Eigenschaften 6.3 Extremwerte.
Beispiele für Ausdrucksalgebren
Hypothesen testen: Grundidee
Begriff "Repräsentation"
Informatik Klasse 7 Grundlagen.
Technische Informatik I
Christian Schindelhauer
Programmierung 1 - Repetitorium WS 2002/2003 Programmierung 1 - Repetitorium Andreas Augustin und Marc Wagner Homepage:
Huffman Entropie-Codierung Codierung mit variabler Länge
Wie funktioniert Signalübertragung?
Wahrscheinlichkeitsrechnung
Datenformate: Text und Bild
§17 Produkte und Quotienten von Vektorräumen
Information und Kommunikation
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation
Information und Kommunikation
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Java, Java, Java R. Morelli
Wahrscheinlichkeit Zufallsexperiment:
Das Binär-System Alles ist davon abhängig, ob Strom fließt oder nicht!
Informationstheorie Begr. von Claude Shannon
Grundlegende Funktionsweise eines Computers
Grundlagen der Informatik
Grundlagen der Kommunikation in Verbindung mit der Codierung von Daten
Automaten, formale Sprachen und Berechenbarkeit II SoSe 2004 Prof. W. Brauer Teil 3: Potenzreihen und kontextfreie Sprachen (Vgl. Buch von A. Salomaa)
Kommunikationstechnik B Teil 4 – Informationstheorie
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Arne Vater Wintersemester 2006/ Vorlesung
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Informatik Formale Sprachen 1.2 Grammatiken formaler Sprachen
Informatik Formale Sprachen 1.1 Aufbau von Sprachen
Mensch – Maschine - Kommunikation
Der Hund jagt die Katze. Theoretische Informatik Satz S P O
Institut für Softwarewissenschaft – Universität WienP.Brezany 1 Beispiele (Frist: ) Beispiel 1: Sei  = {a, b} ein Alphabet und Q = {q 0, q 1 } eine.
7. Formale Sprachen und Grammatiken
Medizinische Statistik und Informationsverarbeitung Quade Institut für Medizinische Biometrie, Informatik und Epidemiologie.
Technische Informatik I Vorlesung 4: Vereinfachung von Schaltfunktionen Mirco Hilbert Universität Bielefeld Technische Fakultät.
Syntax, Semantik, Spezifikation - Grundlagen der Informatik R. Hartwig Kapitel 3 / 1 Algebraische Hülle und Homomorphie A = [A, F ] sei  -Algebra. Eine.
Folie 1 §8 Gruppen und Körper (8.1) Definition: Eine Gruppe G ist eine Menge zusammen mit einer Verknüpfung, die jedem Paar (a,b) von Elementen aus G ein.
Algorithmen und Datenstrukturen Prof. Dr. Ralf Möller Universität zu Lübeck Institut für Informationssysteme Stefan Werner (Übungen) sowie viele Tutoren.
X. Übungsblatt – Aufgabe X a)Erstellen Sie den Huffman-Codierungsbaum für die folgende Zeichenkette: ABRAKADABRASIMSALABIM Vorgehensweise: 1.Tabelle mit.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
 Präsentation transkript:

Information - syntaktisch 8. Informationstheorie - Information (allgemein): Nachricht zusammen mit ihrer Bedeutung für den Empfänger - 2 Aspekte: syntaktisch, semantisch Information - syntaktisch - Nachricht: eine nach vorher festgelegten Regeln zusammengestellte, endliche Folge von Zeichen und Zuständen, die eine Information vermittelt - Übertragung durch Signale: physikalische Größen, mit deren Hilfe Zeichen realisiert und zwischen Sender und Empfänger ausgetauscht werden (analoge und digitale Signale) => Informationsträger. - Datum: digitales Zeichen - Bit: (binary digit) kleinste Darstellungseinheit für Daten in binärer Zahlendarstellung (stets ganzzahlig)

Information - semantisch - Bedeutung: Interpretation mit Interpretationsschlüssel, i.a. Abbildungsvorschrift - Bedeutung und Wert der Information vom gemeinsamen Kontext von Sender und Empfänger abhängig. - Der inhaltliche Wert von Information ist nicht quantifizierbar. - Folgerung: Verarbeitung von Information im Computer setzt Abstraktion von realweltlichen Zusammenhängen voraus. Im folgenden Maß für die syntaktische Information dargestellt.

Informationsgehalt Entscheidungsinformation: Anzahl optimal gewählter binärer Entscheidungen zur Ermittlung eines Zeichens innerhalb eines Zeichenvorrats Gegeben 8 Zeichen. Nach maximal wieviel Schritten ist ein Zeichen gefunden? Entscheidungsbaum: A B C D E F G H A-D? A B C D A-B? C D C? C

Allgemeiner Fall Aufteilung nicht in gleich große sondern gleich wahrscheinliche Mengen von Zeichen. Buchstaben Pi Codierung A 1/4 00 E 1/4 01 F 1/8 100 C 1/8 101 B 1/8 110 D 1/16 1110 G 1/16 1111 1/2 1/4 1/8 A E B C F A E B D G A B C D E F G D G B D C F G C F Das i-te Zeichen ist nach ki Alternativentscheidungen isoliert. Seine Wahrscheinlichkeit ist pi = (1/2)ki, sein Informationsgehalt ki = ld (1/pi) bit.

Shannon -Information Allgemein ist die Information H pro Zeichen einer (langen) Zeichenkette durch die Shannonsche Formel gegeben: es ist ld der Loarithmus zur Basis 2 und pi die relative Häufigkeit des Zeichens i in der Zeichenkette ist. Die Summe läuft über alle Zeichen i des Zeichenvorrates. Der Ausdruck liefert die Information in Bit. H = -  pi ld pi Für zwei Zeichen mit relativer Häufikgeit p bzw. 1-p gilt H = - p log p + (1-p) log(1-p) H ist als Funktion von p in der Grafik rechts dargestellt (Shannon-Funktion). Maximum bei p = 1/2 => Maximaler Informationsgehalt bei Gleichwahrscheinlichkeit der Zeichen. H(p) p 0 1

Informationsgehalt Schriftsprache 30 Buchstaben (inkl. Zwischenraum) I = ld 30 = 4,9 bit Mittlerer Informationsgehalt unter Berücksichtigung von Bigrammen H = 1,6 bit Redundanz (s.u.) 4,9 - 1,6 bit = 3,3 bit (Text auch noch dann lesbar, wenn jeder zweite Buchstabe fehlt)

Redundanz - Beispiel Bei reduzierter Redundanz wird das Lesen sehr viel mühsamer BEI REDUZIERTER REDUNDANZ WIRD DAS LESEN SEHR VIEL MÜHSAMER BEIREDUZIERTERREDUNDANZWIRDDASLESENSEHRVIELMÜHSAMER BE RE UZ ER ER ED ND NZ IR DA LE EN EH VI LM HS ME (nach Breuer 1995)

Kodierung Eine Kodierung ist eine Abbildung zwischen den Worten zweier Sprachen. Gegeben seien zwei Alphabeten A und B und Sprachen L und M: L  A* und M  B* Kodierung ist jede Abbildung K: L  M Beispiele: Direkte Kodierung = Zuordnung gemäß lexikografischer Ordnung (sofern vorhanden). Beispiel Gray-Code. Eine Binärcodierung ist jede Abbildung K: L  {0,1}*. Eine Dekodierung ist nur möglich, falls die Abbildung auf ihrer Bildmenge eindeutig umkehrbar ist. Einfachere Kodierugen bei konstanter Länge der Kodeworte. Variable Wortlänge (ohne Zwischenräume) => Serienwortkodierung.

Das Shannonsche Codierungstheorem Redundanz: Maß für den Anteil einer Nachricht, der keine Information enthält Besitzt in einer Codierung einer Nachrichtenquelle das i-te Zeichen die Wortlänge Ni, so ist L=  piNi die mittlere Wortlänge. Unter der Voraussetzung, daß der Zeichenvorrat in genau gleichwahrscheinliche Teilmengen zerlegt werden kann gilt L=H. Im allgemeinen gilt das Shannonsche Codierungstheorem: 1. H  L. 2. Jede Nachricht kann so codiert werden, daß die Differenz L-H beliebig klein wird. (Betrachte Binärcodierungen für nk Gruppen von je k Zeichen). Die Differenz L-H heißt Code-Redundanz, die Größe 1-H/L relative Code-Redundanz.

Optimale Codierung Buchstaben Pi Codierung A 1/4 00 E 1/4 01 F 1/8 100 mittlerer Entscheidungsgehalt pro Zeichen (Entropie): H = p1I1 + p2I2 + ... + pnIn =  pi ld(1/pi) bit = 2/4 + 2/4 + 3/8 ... = 2,625

Generieren einer optimalen Codierung (Fano-Code) Binärcode mit variabler Wortlänge 1. Ordne alle Zeichen nach der Wahrscheinlichkeit ihres Auftretens. 2. Unterteile sie in zwei Gruppen möglichst gleich summierter Wahrscheinlichkeit. 3. Die eine Gruppe erhält das Binärzeichen 1, die andere 0. 4. Unterteile jede Gruppe erneut und verfahre nach (1) - (3) bis jede Gruppe nur aus einem einzigen Zeichen besteht.