Einführung in die Informationsverarbeitung Teil Thaller Stunde I: Der Informationsbegriff Köln 6. November 2008.

Slides:



Advertisements
Ähnliche Präsentationen
Hier einige Hieroglyphen:
Advertisements

Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Das duale Zahlensystem
Frame-Logik Eine Einführung Andreas Glausch.
Hard Science – Soft Science
Einführung in JavaScript II
Information - syntaktisch
Puck eine visuelle Programmiersprache für die Schule
Grundlagen der Informatik
Softwaretechnologie für Fortgeschrittene Teil Thaller Stunde I: Bildverarbeitung I Köln 19. November 2009.
Einführung in die Informationsverarbeitung Stunde II: Datenstrukturen Manfred Thaller, Universität Köln Köln 22. Oktober 2007.
Syntax der Aussagenlogik
Einführung in die neuen Medien Multimedia. I. Multimedia aus informationstechnischer Sicht II. Medientypen III. Die drei Ebenen von Multimedia IV. Medieneinsatz.
Philosophie der Logik nach Frege I
C- Syntax. Bestandteile der Sprache C: Ausdrücke Anweisungen.
Kapitel 1 Die natürlichen und die ganze Zahlen. Kapitel 1: Die natürlichen und die ganzen Zahlen © Beutelspacher/Zschiegner April 2005 Seite 2 Inhalt.
Universität Dortmund, Lehrstuhl Informatik 1 EINI II Einführung in die Informatik für Naturwissenschaftler und Ingenieure.
EINI-I Einführung in die Informatik für Naturwissenschaftler und Ingenieure I Vorlesung 2 SWS WS 99/00 Gisbert Dittrich FBI Unido
Informationssysteme Grundbegriffe. © Prof. T. Kudraß, HTWK Leipzig Informationsmanagement (IM) Gegenstand – Planung, Steuerung und Kontrolle von Informationssystemen.
Informatik Klasse 7 Grundlagen.
Zusammenfassung Vorwoche
Seminar: Verteilte Datenbanken
Addierwerke.
Darstellung von Information
Gymnasium Horn – Bad Meinberg
? Was ist Informatik? Was ist Informatik? Alexander Lange
Information und Kommunikation
Informationsbasierte Interaktion information II. Struktur 1.Rekurs Daten Mathematical Theory of Communication (MTC) 2.Reichweite der MTC 3.Hauptteil Interaktion.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure
Was soll und kann eine fachdidaktische Vorlesung leisten? Maximilian Selinka.
Definitionen der SWT (1)
Erfindervon Fuzzy Logic
Kompetenz -, Lern - und Prüfungsbereiche Anforderungsbereiche
Wahrscheinlichkeitsrechnung
Bereit ???? Nimm dir 10 Minuten Zeit. Ich versuche es dir zu erklären.
Was das Gehirn alles kann …
was das Hirn alles kann …
Das Binär-System Alles ist davon abhängig, ob Strom fließt oder nicht!
Grundlegende Funktionsweise eines Computers
Ein Vortrag von Elisa Beyer und Melanie Erker
Grundlagen der Informatik
Grundlagen der Kommunikation in Verbindung mit der Codierung von Daten
Agenda für heute, 7. April, 2005 Bedingte ProgrammausführungBedingte Programmausführung Algorithmische Grundlagen Vergleichsoperatoren, Wahrheitswerte.
Context of Legal Logic chello.at Visualization of Legal Theory.
ENDLICHE KÖRPER RSA – VERFAHREN.
was das Hirn alles kann …
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Boolesche Algebra Einführung in die Boolesche Algebra George Boole
Mensch – Maschine - Kommunikation
Einführung in die Informationsverarbeitung Teil Thaller Stunde I: Der Informationsbegriff Köln 16. Oktober 2014.
Mehrfachausführungen Schleifen in VB 2010 ee. Programmidee: Der Anwender gibt eine Zahl ein, und das Programm gibt die Mehrfachen dieser Zahl aus (das.
Messergebnis Das Messergebnis ist der Näherungswert für den wahren Wert der Messgröße, der durch Auswertung der mit einer Messeinrichtung gewonnenen Messwerte.
Softwaretechnologie für Fortgeschrittene Teil Thaller Stunde VII: Information revisited Köln 2. Februar 2012.
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken VIII Christian Schindelhauer
7. Formale Sprachen und Grammatiken
Anwenden von Funktionen im EXCEL Anwenden von Funktionen im EXCEL © Walter Riedle, Computeria-Urdorf, 2008 Funktionen sind Prozesse (= Programme), die.
Einführung in die Informationsverarbeitung Teil Thaller Stunde II: Datenstrukturen Köln 25. Oktober 2012.
Vorlesung Erkenntnistheorie PD Dr. Christoph Jäger Universität Innsbruck Institut für Christliche Philosophie.
 Sortigkeit oder Arität
Information - syntaktisch
Softwaretechnologie für Fortgeschrittene Teil Thaller Stunde I: Bildverarbeitung I Köln 15. November 2012.
Von Bits, Bytes und Raid Eine Schnuppervorlesung Inhalt
Einführung in die Informationsverarbeitung Teil Eide (auf Basis von Thaller 2014–15) Stunde I: Lehre und Forschung Der Informationsbegriff Köln 29. Oktober.
Einführung in die Informationsverarbeitung Teil Thaller Stunde V: Wege und warum man sie geht Graphen. Köln 14. Januar 2016.
Was das Hirn alles kann! Einfach drauflos lesen, auch wenn es komisch ausschaut! Afugrnud enier Sduite an enier Elingshcen Unvirestiät ist.
Vo#1:Semantik als Wissenschaft Semantik I Matej-Bel-Universität in Banská Bystrica Zuzana Tuhárska.
Was das Hirn alles kann …. Was das Hirn alles kann! Einfach drauflos lesen, auch wenns komisch ausschaut! Afugrnud enier Sduite an enier Elingshcen Unvirestiät.
oder: wie Computer die Welt sehen
Einführung in die Informationsverarbeitung Teil Thaller Stunde II: Datenstrukturen Köln 27. Oktober 2011.
Prof. J. Walter Bitte römische Zahlen im Geschichtsunterricht!
 Präsentation transkript:

Einführung in die Informationsverarbeitung Teil Thaller Stunde I: Der Informationsbegriff Köln 6. November 2008

I. Häufige Missverständnisse 1

Print, film, magnetic, and optical storage media produced about 5 exabytes of new information in Ninety-two percent of the new information was stored on magnetic media, mostly in hard disks. Wissensexplosion

How big is five Exabytes? If digitized, the nineteen million books and other print collections in the Library of Congress would contain about ten terabytes of information; five Exabytes of information is equivalent in size to the information contained in half a million new libraries the size of the Library of Congress print collections. Wissensexplosion

University of California at Berkely, School of Information Management and Systems: How much Information? ow-much-info-2003/printable_report.pdf "Executive Summary" auf Seite 1 Wissensexplosion

19 Millionen Bücher 10 TB 10 x 2 40 Bytes Bytes 1 Buch / , Bytes 1 Seite 3000 Zeichen 1 Buch 175 Seiten Wissensexplosion

1 Seite Bytes 1 Buch Bytes 19 Millionen Bücher x B 425 Petabyte Wissensexplosion

Print, film, magnetic, and optical storage media produced about 5 exabytes of new information in Nintey-two percent of the new information was stored on magnetic media, mostly in hard disks. Wissensexplosion

How big is five exabytes? If digitized, the nineteen million books and other print collections in the Library of Congress would contain about 0.5 exabytes of information; five exabytes of information is equivalent in size to the information contained in ten new libraries the size of the Library of Congress print collections Wissensexplosion

Seite 17: Ein gedrucktes Buch aus rezenter Produktion wird mit 7,8 MB bewertet (ca. 10 mal so gross, wie bei der Abschätzung der Größe der Library of Congress). * Wissensexplosion

1.Es ist schön in Köln zu Ihnen zu sprechen. 2.Es ist schön in Kln zu Ihnen zu sprechen. 3.Es ist schön in Kön zu Ihnen zu sprechen. 4.Es ist schn in Kön zu Ihnen zu sprchen. 5.S'is schö in Kölle zu Ihnen zu sprchen. Information

Luat enier sidtue an eienr elgnhcsien uvrsnäiett, ist es eagl in wcheler rhnfgeeloie die bstuchbaen in eniem wrot snid. Das eniizg whictgie ist, dsas der etrse und der lztete bstuchbae am rtigeichn paltz snid. Der rset knan tatol deiuranchnedr sien und man knan es ienrmomch onhe porbelm lseen. Das legit daarn, dsas wir nhcit jeedn bstuchbaen aeilln lseen, srednon das wrot als gzanes. Information

Claude Shannon: "A Mathematical Theory of Communication", Bell System Technical Journal, Enthält eine quantitative Definition von Information. Zweck: Wie kann ein Signal zwischen einem Sender und einem Empfänger mit dem geringstmöglichen Aufwand "korrekt" übertragen werden. Information

Shannon hat also eine technische Definition von "Information", die die Bedeutungsebene völlig ausklammert. Er betont, dass "die semantischen Aspekte der Kommunikation für die ingenieurwissenschaftliche Seite irrelevant sind". Information

Nahezu alle mir bekannten Lehrbücher der Informatik beginnen mit Shannons Definition der Information. Räumen aber ein, dass die ingenieurwissenschaftliche Definition von Information defizitär sei. Insbesondere: Information

(1) Bildet sie nur einen Teil des intellektuellen Umfanges des Konzepts "Information (syntaktisch, semantisch, pragmatisch) ab. (2) Gibt es dagegen keine operable Definition die dieses Konzept in seiner vollen Breite abdeckt. Aber: Die vorhandenen Konzepte reichen aus, um Information auf einem Digitalrechner so darzustellen, dass man sie sinnvoll verarbeiten kann. * Information

II. Begriffe rund um die Information

Informationsebenen Syntax: Beziehungen der Zeichen untereinander. Semantik: Beziehungen zwischen Zeichen und Gegenständen. Pragmatik: Beziehungen zwischen Zeichen und ihren Benutzern.

Bernard Favre-Bulle Information und Zusammenhang. Informationsfluß in Prozessen der Wahrnehmung, des Denkens und der Kommunikation. Springer: 2001 Information und Wissen

Daten sind speicherbare Angaben - 22°C. Information stellt Daten in einen Kontext: "In diesem Hörsaal herrscht eine Temperatur von 22°C". Dieser Kontext ist jedoch noch fest (und für alle Informationsempfänger identisch). Information und Wissen

Wissen ist das Ergebnis von Erkenntnisprozessen. Es bezieht die praktische Anwendung der Daten und Informationen ein. Es muss nicht "absolut wahr" sein, sondern adäquates Handeln zu ermöglichen. Z.B. die Entscheidung einen Pulli (nicht) auszuziehen, um sich angenehm zu fühlen, ohne sich zu erkälten. * Information und Wissen

III. Häufige Missverständnisse 2 … und was heisst Information darstellen?

George Bool ( ), "The Laws of Thought". Formales Rechnen mit logischen Ausdrücken, die nur die Zahlenwerte "1" (wahr) und "0" (falsch) kennen. Aussage: Computer kennen nur wahr oder falsch, keine "Zwischentöne". Wahrheit

Umgesetzt in Programmiersprachen als: if (aussage == 1) nimm an, dass Aussage wahr. else nimm an, dass Aussage falsch. Wahrheit

… aber auch als: if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, dass Aussage wahr. Wahrheit

Z.B. in folgendem Programm: int aussage; aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Wahrheit

Z.B. in folgendem Programm: int aussage; "int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis annehmen kann. aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Wahrheit

Z.B. in folgendem Programm: int aussage; "int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis annehmen kann. aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Es gibt also genau eine Art "falsch" auszudrücken, aber Varianten von "wahr"? Wahrheit

Unabhängig von dem, was George Bool gesagt hat, gilt also in Wirklichkeit nicht "0" = falsch. "1" = wahr. Wahrheit

... sondern in Wirklichkeit: "0" = falsch. "1" bis " " = wahr. Wahrheit

dann könnte aber genau so gut gelten: "0" = falsch. "1" bis " " = unklar. " " = wahr. Wahrheit

oder genauso willkürlich: "0" bis "255" = falsch. "256" bis " " = unklar. " " bis " " = wahr. Wahrheit

oder auch: "0" = sicher falsch. "20.000" = ziemlich sicher falsch. " " = ziemlich sicher falsch, aber mit fünfmal größerer Wahrscheinlichkeit richtig als "20.000". " " = ziemlich sicher richtig. " " = sicher wahr. Wahrheit

Binäre Logik Kennt nur "wahr" und "falsch". n-äre oder mehrwertige Logik Kennt n Wahrheitswerte. Kontinuierliche Wahrheitsfunktionen Nehmen unendlich viele Wahrheitswerte an. * Wahrheit - Begriffe

IV. Häufige Missverständnisse 3 … oder: Die Mystik des Digitalen

Das korrekte Begriffspaar in der Informatik: kontinuierlich v. diskret. Digital - Analog

1,00134… + 0,48723… = 1,48857… Eine Addition kontinuierlicher Zahlenwerte. Digital - Analog

Nach diesem Prinzip – heute nur mehr für Spezialanwendungen – verwendete Computer, die z.B. Spannungen oder Stromstärken addieren heißen Analogrechner. Digital - Analog

4, ,00000 = 6,00000 Eine Addition diskreter Zahlenwerte. Digital - Analog

0, ,00002 = 0,00006 Ebenfalls eine Addition diskreter Zahlenwerte. Digital - Analog

0, ,00002 = 0,00006 Auch eine Addition diskreter Zahlenwerte. Digital - Analog

0, ,00002 = 0,00006 Kontinuierlich oder diskret? Digital - Analog

Ob eine Darstellung analog oder digital ist, hängt in erster Linie von der Meßgenauigkeit ab. Merke: Digitaluhren sind analoger als analoge mechanische Uhren! * Digital - Analog

V. Repräsentation von Information

Shannon, C.E.: A Mathematical Theory of Communiction. The Bell Systems Technical Journal, 27 (1948), Informationsgehalt als Wahrscheinlichkeit dass eine bestimmte Angabe zufällig zustande kommt. Wird in der Signaltheorie verwendet um beispielsweise das korrekte Übertragen von Bildern zu beurteilen. Der Informationsbegriff

Problem: Bezieht sich ausschließlich auf syntaktischen Aspekt von Zeichen. (= Beziehung zwischen Zeichen.) Zeichen stehen aber nicht nur zu anderen Zeichen in Beziehung, sondern auch: zu ihren Bedeutungen. (Semantischer Aspekt.) zu den bezeichneten Objekten. (Sigmatischer Aspekt.) zu den Systemen / Teilsystemen (zu deren Zielen, Zwecken, etc.) zwischen denen Zeichen übermittelt werden. So schon: Wörterbuch der Kybernetik, hrsg. v. G. Klaus / H. Liebscher, Berlin, , Artikel "Information", p Der Informationsbegriff

Daher in der Informatik "Information" meist als nicht weiter definierter Grundbegriff. Z.B.: U. Rembold / P. Levi: Einführung in die Informatik für Naturwissenschaftler und Ingenieure, München etc., Informatik als Wissenschaft, die sich damit beschäftigt, wie dieser "Rohstoff" in Rechnern dargestellt (Strukturen) und verarbeitet (Algorithmen) wird. Der Informationsbegriff

1."Selbstabbildende Information". Es kann "gerechnet" werden. Bilder. 2."Kodierte Information". Zeichenketten und Teilketten können verglichen werden. Texte. 3."Symbolische Information". Terme können verglichen werden. Terminologien, "Ontologien" u.ä. * Arten von Information

Danke für heute!