Präsentation herunterladen
Die Präsentation wird geladen. Bitte warten
Veröffentlicht von:Valentin Fuchs Geändert vor über 8 Jahren
1
Einführung in die Informationsverarbeitung Teil Eide (auf Basis von Thaller 2014–15) Stunde I: Lehre und Forschung Der Informationsbegriff Köln 29. Oktober 2015
2
Lehre
3
Bachelorthemen Informationsverarbeitung z.B. Sebastian Rose: Deduktive Komponenten für native XML Datenbanken Fabian Hotze: Rasche Strukturelle Suche in native XML Datenbanken mit Lucene Fabian Zavodnik: Ubiquitious Computing 2.0: Mobile Geräte im Museum Lehre
4
Bachelorthemen Medieninformatik z.B. Johannes Lenz: Simulation unsteter Lichtquellen in historischen Räumlichkeiten Christoph Stollwerk: Emotional Game Agents André Streicher: Eine Sound Engine innerhalb einer allgemeinen Game Engine Lehre
5
MA Willems 3D IR Metapher
7
Visuelle Programmierung
8
Interface Design
9
Forschung
10
Digitale Bibliotheken Digitalisierung
12
Digitale Bibliotheken
13
„Collaboratories“
14
Problem ► Photoshop ►
15
Warum automatisieren? 1 Million Objekte: eine Sekunde pro Stück. == 16666.7 Minuten == 277.8 Stunden == 11.57 Arbeitstage eines Computers == 34.7 8-Stunden Tage eines Menschen == 7 Arbeitswochen
16
Warum automatisieren? 1 Million Objekte: fünf Minuten pro Stück. == 416 666.7 Stunden == 52 803.4 8-Stunden-Tage für einen Menschen == Völlig lächerlich, dass das klappt
17
Was ist ein Informationsmodell? ●● + ● = ● ● ● ●● + ● ● = ● ● ● ● ●●● + ●● = Herzliche Glückwünsche, Sie lesen Maya.
18
Was ist ein Informationsmodell? III == 3 == γ‘ == ●●● Vier Repräsentationen eines Konzepts.
19
Research Data Life Cycle
20
Annotationen …
21
Der Informationsbegriff: I. Häufige Missverständnisse 1 21
22
Print, film, magnetic, and optical storage media produced about 5 exabytes of new information in 2002. Ninety-two percent of the new information was stored on magnetic media, mostly in hard disks. Wissensexplosion 22
23
How big is five Exabytes? If digitized, the nineteen million books and other print collections in the Library of Congress would contain about ten terabytes of information; five Exabytes of information is equivalent in size to the information contained in half a million new libraries the size of the Library of Congress print collections. Wissensexplosion 23
24
University of California at Berkely, School of Information Management and Systems: How much Information? 2003 http://www.sims.berkeley.edu/research/projects/h ow-much-info-2003/printable_report.pdf "Executive Summary" auf Seite 1 Wissensexplosion 24
25
19 Millionen Bücher 10 TB 10 x 2 40 Bytes 10 000 000 000 000 Bytes 1 Buch 10 000 000 000 000 / 19 000 000 526,315.79 Bytes 1 Seite 3000 Zeichen 1 Buch 175 Seiten Wissensexplosion 25
26
Wissensexplosion 26
27
Wissensexplosion 27
28
1 Seite 128 000 000 Bytes 1 Buch 22 400 000 000 Bytes 19 Millionen Bücher 22 400 000 000 x 19 000 000 425 600 000 000 000 000 B 425 Petabyte Wissensexplosion 28
29
Print, film, magnetic, and optical storage media produced about 5 exabytes of new information in 2002. Nintey-two percent of the new information was stored on magnetic media, mostly in hard disks. Wissensexplosion 29
30
How big is five exabytes? If digitized, the nineteen million books and other print collections in the Library of Congress would contain about 0.5 exabytes of information; five exabytes of information is equivalent in size to the information contained in ten new libraries the size of the Library of Congress print collections Wissensexplosion 30
31
Seite 17: Ein gedrucktes Buch aus rezenter Produktion wird mit 7,8 MB bewertet (ca. 10 mal so gross, wie bei der Abschätzung der Größe der Library of Congress). * Wissensexplosion 31
32
1.Es ist schön in Köln zu Ihnen zu sprechen. 2.Es ist schön in Kln zu Ihnen zu sprechen. 3.Es ist schön in Kön zu Ihnen zu sprechen. 4.Es ist schn in Kön zu Ihnen zu sprchen. 5.S'is schö in Kölle zu Ihnen zu sprchen. Information 32
33
Luat enier sidtue an eienr elgnhcsien uvrsnäiett, ist es eagl in wcheler rhnfgeeloie die bstuchbaen in eniem wrot snid. Das eniizg whictgie ist, dsas der etrse und der lztete bstuchbae am rtigeichn paltz snid. Der rset knan tatol deiuranchnedr sien und man knan es ienrmomch onhe porbelm lseen. Das legit daarn, dsas wir nhcit jeedn bstuchbaen aeilln lseen, srednon das wrot als gzanes. Information 33
34
Claude Shannon: "A Mathematical Theory of Communication", Bell System Technical Journal, 1948. Enthält eine quantitative Definition von Information. Zweck: Wie kann ein Signal zwischen einem Sender und einem Empfänger mit dem geringstmöglichen Aufwand "korrekt" übertragen werden. Information 34
35
Shannon hat also eine technische Definition von "Information", die die Bedeutungsebene völlig ausklammert. Er betont, dass "die semantischen Aspekte der Kommunikation für die ingenieurwissenschaftliche Seite irrelevant sind". Information 35
36
Nahezu alle mir bekannten Lehrbücher der Informatik beginnen mit Shannons Definition der Information. Räumen aber ein, dass die ingenieurwissenschaftliche Definition von Information defizitär sei. Insbesondere: Information 36
37
(1) Bildet sie nur einen Teil des intellektuellen Umfanges des Konzepts "Information„ (syntaktisch, semantisch, pragmatisch) ab. (2) Gibt es dagegen keine operable Definition die dieses Konzept in seiner vollen Breite abdeckt. Aber: Die vorhandenen Konzepte reichen aus, um Information auf einem Digitalrechner so darzustellen, dass man sie sinnvoll verarbeiten kann. * Information 37
38
II. Begriffe rund um die “Information” 38
39
Informationsebenen Syntax: Beziehungen der „Zeichen“ untereinander. Semantik: Beziehungen zwischen „Zeichen“ und „Gegenständen“. Pragmatik: Beziehungen zwischen „Zeichen“ und ihren „Benutzern“. 39
40
Bernard Favre-Bulle Information und Zusammenhang. Informationsfluß in Prozessen der Wahrnehmung, des Denkens und der Kommunikation. Springer: 2001 Information und Wissen 40
41
Information
42
Data
43
Daten sind speicherbare Angaben - 22°C. Information stellt Daten in einen Kontext: "In diesem Hörsaal herrscht eine Temperatur von 22°C". Dieser Kontext ist jedoch noch fest (und für alle Informationsempfänger identisch). Information und Wissen 43
44
Wissen ist das Ergebnis von Erkenntnisprozessen. Es bezieht die praktische Anwendung der Daten und Informationen ein. Es muss nicht "absolut wahr" sein, sondern adäquates Handeln zu ermöglichen. Z.B. die Entscheidung einen Pulli (nicht) auszuziehen, um sich angenehm zu fühlen, ohne sich zu erkälten. Information und Wissen 44
45
* „Ladder of Knowledge“ 45 Weisheit Wissen Information Daten
46
III. Häufige Missverständnisse 2 … und was heisst “Information darstellen?” 46
47
George Bool (1815-1864), "The Laws of Thought". Formales Rechnen mit logischen Ausdrücken, die nur die Zahlenwerte "1" (wahr) und "0" (falsch) kennen. Aussage: Computer kennen nur wahr oder falsch, keine "Zwischentöne". Wahrheit 47
48
Umgesetzt in Programmiersprachen als: if (aussage == 1) nimm an, dass Aussage wahr. else nimm an, dass Aussage falsch. Wahrheit 48
49
… aber auch als: if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, dass Aussage wahr. Wahrheit 49
50
Z.B. in folgendem Programm: int aussage; aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Wahrheit 50
51
Z.B. in folgendem Programm: int aussage; "int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis 2 32 -1 annehmen kann. aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Wahrheit 51
52
Z.B. in folgendem Programm: int aussage; "int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis 2 32 -1 annehmen kann. aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Es gibt also genau eine Art "falsch" auszudrücken, aber 4.294.967.294 Varianten von "wahr"? Wahrheit 52
53
Unabhängig von dem, was George Bool gesagt hat, gilt also in Wirklichkeit nicht "0" = falsch. "1" = wahr. Wahrheit 53
54
... sondern in Wirklichkeit: "0" = falsch. "1" bis "4.294.967.295" = wahr. Wahrheit 54
55
dann könnte aber genau so gut gelten: "0" = falsch. "1" bis "4.294.967.294" = unklar. "4.294.967.295" = wahr. Wahrheit 55
56
oder genauso willkürlich: "0" bis "255" = falsch. "256" bis "4.294.967.039" = unklar. "4.294.967.040" bis "4.294.967.295" = wahr. Wahrheit 56
57
oder auch: "0" = sicher falsch. "20.000" = ziemlich sicher falsch. "100.000" = ziemlich sicher falsch, aber mit fünfmal größerer Wahrscheinlichkeit richtig als "20.000". "4.000.000.000" = ziemlich sicher richtig. "4.294.967.295" = sicher wahr. Wahrheit 57
58
Binäre Logik Kennt nur "wahr" und "falsch". n-äre oder mehrwertige Logik Kennt n Wahrheitswerte. Kontinuierliche Wahrheitsfunktionen Nehmen unendlich viele Wahrheitswerte an. * Wahrheit - Begriffe 58
59
IV. Häufige Missverständnisse 3 … oder: Die Mystik des Digitalen 59
60
Das korrekte Begriffspaar in der Informatik: „diskret“ v. „kontinuierlich“. Digital - Analog 60
61
1,00134… + 0,48723… = 1,48857… Eine Addition kontinuierlicher Zahlenwerte. Digital - Analog 61
62
Nach diesem Prinzip – heute nur mehr für Spezialanwendungen – verwendete Computer, die z.B. Spannungen oder Stromstärken „addieren“ heißen „Analogrechner“. Digital - Analog 62
63
4,00000 + 2,00000 = 6,00000 Eine Addition diskreter Zahlenwerte. Digital - Analog 63
64
0,00004 + 0,00002 = 0,00006 Ebenfalls eine Addition diskreter Zahlenwerte. Digital - Analog 64
65
0,00004 + 0,00002 = 0,00006 Auch eine Addition diskreter Zahlenwerte. Digital - Analog 65
66
0,00004 + 0,00002 = 0,00006 Kontinuierlich oder diskret? Digital - Analog 66
67
Ob eine Darstellung „analog“ oder „digital“ ist, hängt in erster Linie von der Meßgenauigkeit ab. "Imagen 4" by Mcanet - Own work. Licensed under CC BY 3.0 via Commons - https://commons.wikimedia.org/wiki/File:Imagen_4.png#/media/File:Imagen_4.png Digital - Analog 67
68
V. Repräsentation von Information 68
69
Shannon, C.E.: A Mathematical Theory of Communiction. The Bell Systems Technical Journal, 27 (1948), 379-423 Informationsgehalt als Wahrscheinlichkeit dass eine bestimmte Angabe zufällig zustande kommt. Wird in der Signaltheorie verwendet um beispielsweise das korrekte Übertragen von Bildern zu beurteilen. Der Informationsbegriff 69
70
Problem: Bezieht sich ausschließlich auf syntaktischen Aspekt von Zeichen. (= Beziehung zwischen Zeichen.) Zeichen stehen aber nicht nur zu anderen Zeichen in Beziehung, sondern auch: zu ihren Bedeutungen. (Semantischer Aspekt.) zu den bezeichneten Objekten. (Sigmatischer Aspekt.) zu den Systemen / Teilsystemen (zu deren Zielen, Zwecken, etc.) zwischen denen Zeichen übermittelt werden. So schon: Wörterbuch der Kybernetik, hrsg. v. G. Klaus / H. Liebscher, Berlin, 4 1976, Artikel "Information", p. 281. Der Informationsbegriff 70
71
Daher in der Informatik "Information" meist als nicht weiter definierter Grundbegriff. Z.B.: U. Rembold / P. Levi: Einführung in die Informatik für Naturwissenschaftler und Ingenieure, München etc., 3 1999. Informatik als Wissenschaft, die sich damit beschäftigt, wie dieser "Rohstoff" in Rechnern dargestellt (Strukturen) und verarbeitet (Algorithmen) wird. Der Informationsbegriff 71
72
1."Selbstabbildende Information". Es kann "gerechnet" werden. Bilder. 2."Kodierte Information". Zeichenketten und Teilketten können verglichen werden. Texte. 3."Symbolische Information". Terme können verglichen werden. Terminologien, "Ontologien" u.ä. * „Arten“ von Information 72
73
Danke für heute! 73
Ähnliche Präsentationen
© 2024 SlidePlayer.org Inc.
All rights reserved.