Einführung in die Informationsverarbeitung Teil Eide (auf Basis von Thaller 2014–15) Stunde I: Lehre und Forschung Der Informationsbegriff Köln 29. Oktober 2015
Lehre
Bachelorthemen Informationsverarbeitung z.B. Sebastian Rose: Deduktive Komponenten für native XML Datenbanken Fabian Hotze: Rasche Strukturelle Suche in native XML Datenbanken mit Lucene Fabian Zavodnik: Ubiquitious Computing 2.0: Mobile Geräte im Museum Lehre
Bachelorthemen Medieninformatik z.B. Johannes Lenz: Simulation unsteter Lichtquellen in historischen Räumlichkeiten Christoph Stollwerk: Emotional Game Agents André Streicher: Eine Sound Engine innerhalb einer allgemeinen Game Engine Lehre
MA Willems 3D IR Metapher
Visuelle Programmierung
Interface Design
Forschung
Digitale Bibliotheken Digitalisierung
Digitale Bibliotheken
„Collaboratories“
Problem ► Photoshop ►
Warum automatisieren? 1 Million Objekte: eine Sekunde pro Stück. == Minuten == Stunden == Arbeitstage eines Computers == Stunden Tage eines Menschen == 7 Arbeitswochen
Warum automatisieren? 1 Million Objekte: fünf Minuten pro Stück. == Stunden == Stunden-Tage für einen Menschen == Völlig lächerlich, dass das klappt
Was ist ein Informationsmodell? ●● + ● = ● ● ● ●● + ● ● = ● ● ● ● ●●● + ●● = Herzliche Glückwünsche, Sie lesen Maya.
Was ist ein Informationsmodell? III == 3 == γ‘ == ●●● Vier Repräsentationen eines Konzepts.
Research Data Life Cycle
Annotationen …
Der Informationsbegriff: I. Häufige Missverständnisse 1 21
Print, film, magnetic, and optical storage media produced about 5 exabytes of new information in Ninety-two percent of the new information was stored on magnetic media, mostly in hard disks. Wissensexplosion 22
How big is five Exabytes? If digitized, the nineteen million books and other print collections in the Library of Congress would contain about ten terabytes of information; five Exabytes of information is equivalent in size to the information contained in half a million new libraries the size of the Library of Congress print collections. Wissensexplosion 23
University of California at Berkely, School of Information Management and Systems: How much Information? ow-much-info-2003/printable_report.pdf "Executive Summary" auf Seite 1 Wissensexplosion 24
19 Millionen Bücher 10 TB 10 x 2 40 Bytes Bytes 1 Buch / , Bytes 1 Seite 3000 Zeichen 1 Buch 175 Seiten Wissensexplosion 25
Wissensexplosion 26
Wissensexplosion 27
1 Seite Bytes 1 Buch Bytes 19 Millionen Bücher x B 425 Petabyte Wissensexplosion 28
Print, film, magnetic, and optical storage media produced about 5 exabytes of new information in Nintey-two percent of the new information was stored on magnetic media, mostly in hard disks. Wissensexplosion 29
How big is five exabytes? If digitized, the nineteen million books and other print collections in the Library of Congress would contain about 0.5 exabytes of information; five exabytes of information is equivalent in size to the information contained in ten new libraries the size of the Library of Congress print collections Wissensexplosion 30
Seite 17: Ein gedrucktes Buch aus rezenter Produktion wird mit 7,8 MB bewertet (ca. 10 mal so gross, wie bei der Abschätzung der Größe der Library of Congress). * Wissensexplosion 31
1.Es ist schön in Köln zu Ihnen zu sprechen. 2.Es ist schön in Kln zu Ihnen zu sprechen. 3.Es ist schön in Kön zu Ihnen zu sprechen. 4.Es ist schn in Kön zu Ihnen zu sprchen. 5.S'is schö in Kölle zu Ihnen zu sprchen. Information 32
Luat enier sidtue an eienr elgnhcsien uvrsnäiett, ist es eagl in wcheler rhnfgeeloie die bstuchbaen in eniem wrot snid. Das eniizg whictgie ist, dsas der etrse und der lztete bstuchbae am rtigeichn paltz snid. Der rset knan tatol deiuranchnedr sien und man knan es ienrmomch onhe porbelm lseen. Das legit daarn, dsas wir nhcit jeedn bstuchbaen aeilln lseen, srednon das wrot als gzanes. Information 33
Claude Shannon: "A Mathematical Theory of Communication", Bell System Technical Journal, Enthält eine quantitative Definition von Information. Zweck: Wie kann ein Signal zwischen einem Sender und einem Empfänger mit dem geringstmöglichen Aufwand "korrekt" übertragen werden. Information 34
Shannon hat also eine technische Definition von "Information", die die Bedeutungsebene völlig ausklammert. Er betont, dass "die semantischen Aspekte der Kommunikation für die ingenieurwissenschaftliche Seite irrelevant sind". Information 35
Nahezu alle mir bekannten Lehrbücher der Informatik beginnen mit Shannons Definition der Information. Räumen aber ein, dass die ingenieurwissenschaftliche Definition von Information defizitär sei. Insbesondere: Information 36
(1) Bildet sie nur einen Teil des intellektuellen Umfanges des Konzepts "Information„ (syntaktisch, semantisch, pragmatisch) ab. (2) Gibt es dagegen keine operable Definition die dieses Konzept in seiner vollen Breite abdeckt. Aber: Die vorhandenen Konzepte reichen aus, um Information auf einem Digitalrechner so darzustellen, dass man sie sinnvoll verarbeiten kann. * Information 37
II. Begriffe rund um die “Information” 38
Informationsebenen Syntax: Beziehungen der „Zeichen“ untereinander. Semantik: Beziehungen zwischen „Zeichen“ und „Gegenständen“. Pragmatik: Beziehungen zwischen „Zeichen“ und ihren „Benutzern“. 39
Bernard Favre-Bulle Information und Zusammenhang. Informationsfluß in Prozessen der Wahrnehmung, des Denkens und der Kommunikation. Springer: 2001 Information und Wissen 40
Information
Data
Daten sind speicherbare Angaben - 22°C. Information stellt Daten in einen Kontext: "In diesem Hörsaal herrscht eine Temperatur von 22°C". Dieser Kontext ist jedoch noch fest (und für alle Informationsempfänger identisch). Information und Wissen 43
Wissen ist das Ergebnis von Erkenntnisprozessen. Es bezieht die praktische Anwendung der Daten und Informationen ein. Es muss nicht "absolut wahr" sein, sondern adäquates Handeln zu ermöglichen. Z.B. die Entscheidung einen Pulli (nicht) auszuziehen, um sich angenehm zu fühlen, ohne sich zu erkälten. Information und Wissen 44
* „Ladder of Knowledge“ 45 Weisheit Wissen Information Daten
III. Häufige Missverständnisse 2 … und was heisst “Information darstellen?” 46
George Bool ( ), "The Laws of Thought". Formales Rechnen mit logischen Ausdrücken, die nur die Zahlenwerte "1" (wahr) und "0" (falsch) kennen. Aussage: Computer kennen nur wahr oder falsch, keine "Zwischentöne". Wahrheit 47
Umgesetzt in Programmiersprachen als: if (aussage == 1) nimm an, dass Aussage wahr. else nimm an, dass Aussage falsch. Wahrheit 48
… aber auch als: if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, dass Aussage wahr. Wahrheit 49
Z.B. in folgendem Programm: int aussage; aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Wahrheit 50
Z.B. in folgendem Programm: int aussage; "int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis annehmen kann. aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Wahrheit 51
Z.B. in folgendem Programm: int aussage; "int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis annehmen kann. aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Es gibt also genau eine Art "falsch" auszudrücken, aber Varianten von "wahr"? Wahrheit 52
Unabhängig von dem, was George Bool gesagt hat, gilt also in Wirklichkeit nicht "0" = falsch. "1" = wahr. Wahrheit 53
... sondern in Wirklichkeit: "0" = falsch. "1" bis " " = wahr. Wahrheit 54
dann könnte aber genau so gut gelten: "0" = falsch. "1" bis " " = unklar. " " = wahr. Wahrheit 55
oder genauso willkürlich: "0" bis "255" = falsch. "256" bis " " = unklar. " " bis " " = wahr. Wahrheit 56
oder auch: "0" = sicher falsch. "20.000" = ziemlich sicher falsch. " " = ziemlich sicher falsch, aber mit fünfmal größerer Wahrscheinlichkeit richtig als "20.000". " " = ziemlich sicher richtig. " " = sicher wahr. Wahrheit 57
Binäre Logik Kennt nur "wahr" und "falsch". n-äre oder mehrwertige Logik Kennt n Wahrheitswerte. Kontinuierliche Wahrheitsfunktionen Nehmen unendlich viele Wahrheitswerte an. * Wahrheit - Begriffe 58
IV. Häufige Missverständnisse 3 … oder: Die Mystik des Digitalen 59
Das korrekte Begriffspaar in der Informatik: „diskret“ v. „kontinuierlich“. Digital - Analog 60
1,00134… + 0,48723… = 1,48857… Eine Addition kontinuierlicher Zahlenwerte. Digital - Analog 61
Nach diesem Prinzip – heute nur mehr für Spezialanwendungen – verwendete Computer, die z.B. Spannungen oder Stromstärken „addieren“ heißen „Analogrechner“. Digital - Analog 62
4, ,00000 = 6,00000 Eine Addition diskreter Zahlenwerte. Digital - Analog 63
0, ,00002 = 0,00006 Ebenfalls eine Addition diskreter Zahlenwerte. Digital - Analog 64
0, ,00002 = 0,00006 Auch eine Addition diskreter Zahlenwerte. Digital - Analog 65
0, ,00002 = 0,00006 Kontinuierlich oder diskret? Digital - Analog 66
Ob eine Darstellung „analog“ oder „digital“ ist, hängt in erster Linie von der Meßgenauigkeit ab. "Imagen 4" by Mcanet - Own work. Licensed under CC BY 3.0 via Commons - Digital - Analog 67
V. Repräsentation von Information 68
Shannon, C.E.: A Mathematical Theory of Communiction. The Bell Systems Technical Journal, 27 (1948), Informationsgehalt als Wahrscheinlichkeit dass eine bestimmte Angabe zufällig zustande kommt. Wird in der Signaltheorie verwendet um beispielsweise das korrekte Übertragen von Bildern zu beurteilen. Der Informationsbegriff 69
Problem: Bezieht sich ausschließlich auf syntaktischen Aspekt von Zeichen. (= Beziehung zwischen Zeichen.) Zeichen stehen aber nicht nur zu anderen Zeichen in Beziehung, sondern auch: zu ihren Bedeutungen. (Semantischer Aspekt.) zu den bezeichneten Objekten. (Sigmatischer Aspekt.) zu den Systemen / Teilsystemen (zu deren Zielen, Zwecken, etc.) zwischen denen Zeichen übermittelt werden. So schon: Wörterbuch der Kybernetik, hrsg. v. G. Klaus / H. Liebscher, Berlin, , Artikel "Information", p Der Informationsbegriff 70
Daher in der Informatik "Information" meist als nicht weiter definierter Grundbegriff. Z.B.: U. Rembold / P. Levi: Einführung in die Informatik für Naturwissenschaftler und Ingenieure, München etc., Informatik als Wissenschaft, die sich damit beschäftigt, wie dieser "Rohstoff" in Rechnern dargestellt (Strukturen) und verarbeitet (Algorithmen) wird. Der Informationsbegriff 71
1."Selbstabbildende Information". Es kann "gerechnet" werden. Bilder. 2."Kodierte Information". Zeichenketten und Teilketten können verglichen werden. Texte. 3."Symbolische Information". Terme können verglichen werden. Terminologien, "Ontologien" u.ä. * „Arten“ von Information 72
Danke für heute! 73