Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Einführung in die Informationsverarbeitung Teil Eide (auf Basis von Thaller 2014–15) Stunde I: Lehre und Forschung Der Informationsbegriff Köln 29. Oktober.

Ähnliche Präsentationen


Präsentation zum Thema: "Einführung in die Informationsverarbeitung Teil Eide (auf Basis von Thaller 2014–15) Stunde I: Lehre und Forschung Der Informationsbegriff Köln 29. Oktober."—  Präsentation transkript:

1 Einführung in die Informationsverarbeitung Teil Eide (auf Basis von Thaller 2014–15) Stunde I: Lehre und Forschung Der Informationsbegriff Köln 29. Oktober 2015

2 Lehre

3 Bachelorthemen Informationsverarbeitung z.B. Sebastian Rose: Deduktive Komponenten für native XML Datenbanken Fabian Hotze: Rasche Strukturelle Suche in native XML Datenbanken mit Lucene Fabian Zavodnik: Ubiquitious Computing 2.0: Mobile Geräte im Museum Lehre

4 Bachelorthemen Medieninformatik z.B. Johannes Lenz: Simulation unsteter Lichtquellen in historischen Räumlichkeiten Christoph Stollwerk: Emotional Game Agents André Streicher: Eine Sound Engine innerhalb einer allgemeinen Game Engine Lehre

5 MA Willems 3D IR Metapher

6

7 Visuelle Programmierung

8 Interface Design

9 Forschung

10 Digitale Bibliotheken Digitalisierung

11

12 Digitale Bibliotheken

13 „Collaboratories“

14 Problem ► Photoshop ►

15 Warum automatisieren? 1 Million Objekte: eine Sekunde pro Stück. == 16666.7 Minuten == 277.8 Stunden == 11.57 Arbeitstage eines Computers == 34.7 8-Stunden Tage eines Menschen == 7 Arbeitswochen

16 Warum automatisieren? 1 Million Objekte: fünf Minuten pro Stück. == 416 666.7 Stunden == 52 803.4 8-Stunden-Tage für einen Menschen == Völlig lächerlich, dass das klappt

17 Was ist ein Informationsmodell? ●● + ● = ● ● ● ●● + ● ● = ● ● ● ● ●●● + ●● = Herzliche Glückwünsche, Sie lesen Maya.

18 Was ist ein Informationsmodell? III == 3 == γ‘ == ●●● Vier Repräsentationen eines Konzepts.

19 Research Data Life Cycle

20 Annotationen …

21 Der Informationsbegriff: I. Häufige Missverständnisse 1 21

22 Print, film, magnetic, and optical storage media produced about 5 exabytes of new information in 2002. Ninety-two percent of the new information was stored on magnetic media, mostly in hard disks. Wissensexplosion 22

23 How big is five Exabytes? If digitized, the nineteen million books and other print collections in the Library of Congress would contain about ten terabytes of information; five Exabytes of information is equivalent in size to the information contained in half a million new libraries the size of the Library of Congress print collections. Wissensexplosion 23

24 University of California at Berkely, School of Information Management and Systems: How much Information? 2003 http://www.sims.berkeley.edu/research/projects/h ow-much-info-2003/printable_report.pdf "Executive Summary" auf Seite 1 Wissensexplosion 24

25 19 Millionen Bücher 10 TB 10 x 2 40 Bytes 10 000 000 000 000 Bytes 1 Buch 10 000 000 000 000 / 19 000 000 526,315.79 Bytes 1 Seite 3000 Zeichen 1 Buch 175 Seiten Wissensexplosion 25

26 Wissensexplosion 26

27 Wissensexplosion 27

28 1 Seite 128 000 000 Bytes 1 Buch 22 400 000 000 Bytes 19 Millionen Bücher 22 400 000 000 x 19 000 000 425 600 000 000 000 000 B 425 Petabyte Wissensexplosion 28

29 Print, film, magnetic, and optical storage media produced about 5 exabytes of new information in 2002. Nintey-two percent of the new information was stored on magnetic media, mostly in hard disks. Wissensexplosion 29

30 How big is five exabytes? If digitized, the nineteen million books and other print collections in the Library of Congress would contain about 0.5 exabytes of information; five exabytes of information is equivalent in size to the information contained in ten new libraries the size of the Library of Congress print collections Wissensexplosion 30

31 Seite 17: Ein gedrucktes Buch aus rezenter Produktion wird mit 7,8 MB bewertet (ca. 10 mal so gross, wie bei der Abschätzung der Größe der Library of Congress). * Wissensexplosion 31

32 1.Es ist schön in Köln zu Ihnen zu sprechen. 2.Es ist schön in Kln zu Ihnen zu sprechen. 3.Es ist schön in Kön zu Ihnen zu sprechen. 4.Es ist schn in Kön zu Ihnen zu sprchen. 5.S'is schö in Kölle zu Ihnen zu sprchen. Information 32

33 Luat enier sidtue an eienr elgnhcsien uvrsnäiett, ist es eagl in wcheler rhnfgeeloie die bstuchbaen in eniem wrot snid. Das eniizg whictgie ist, dsas der etrse und der lztete bstuchbae am rtigeichn paltz snid. Der rset knan tatol deiuranchnedr sien und man knan es ienrmomch onhe porbelm lseen. Das legit daarn, dsas wir nhcit jeedn bstuchbaen aeilln lseen, srednon das wrot als gzanes. Information 33

34 Claude Shannon: "A Mathematical Theory of Communication", Bell System Technical Journal, 1948. Enthält eine quantitative Definition von Information. Zweck: Wie kann ein Signal zwischen einem Sender und einem Empfänger mit dem geringstmöglichen Aufwand "korrekt" übertragen werden. Information 34

35 Shannon hat also eine technische Definition von "Information", die die Bedeutungsebene völlig ausklammert. Er betont, dass "die semantischen Aspekte der Kommunikation für die ingenieurwissenschaftliche Seite irrelevant sind". Information 35

36 Nahezu alle mir bekannten Lehrbücher der Informatik beginnen mit Shannons Definition der Information. Räumen aber ein, dass die ingenieurwissenschaftliche Definition von Information defizitär sei. Insbesondere: Information 36

37 (1) Bildet sie nur einen Teil des intellektuellen Umfanges des Konzepts "Information„ (syntaktisch, semantisch, pragmatisch) ab. (2) Gibt es dagegen keine operable Definition die dieses Konzept in seiner vollen Breite abdeckt. Aber: Die vorhandenen Konzepte reichen aus, um Information auf einem Digitalrechner so darzustellen, dass man sie sinnvoll verarbeiten kann. * Information 37

38 II. Begriffe rund um die “Information” 38

39 Informationsebenen Syntax: Beziehungen der „Zeichen“ untereinander. Semantik: Beziehungen zwischen „Zeichen“ und „Gegenständen“. Pragmatik: Beziehungen zwischen „Zeichen“ und ihren „Benutzern“. 39

40 Bernard Favre-Bulle Information und Zusammenhang. Informationsfluß in Prozessen der Wahrnehmung, des Denkens und der Kommunikation. Springer: 2001 Information und Wissen 40

41 Information

42 Data

43 Daten sind speicherbare Angaben - 22°C. Information stellt Daten in einen Kontext: "In diesem Hörsaal herrscht eine Temperatur von 22°C". Dieser Kontext ist jedoch noch fest (und für alle Informationsempfänger identisch). Information und Wissen 43

44 Wissen ist das Ergebnis von Erkenntnisprozessen. Es bezieht die praktische Anwendung der Daten und Informationen ein. Es muss nicht "absolut wahr" sein, sondern adäquates Handeln zu ermöglichen. Z.B. die Entscheidung einen Pulli (nicht) auszuziehen, um sich angenehm zu fühlen, ohne sich zu erkälten. Information und Wissen 44

45 * „Ladder of Knowledge“ 45 Weisheit Wissen Information Daten

46 III. Häufige Missverständnisse 2 … und was heisst “Information darstellen?” 46

47 George Bool (1815-1864), "The Laws of Thought". Formales Rechnen mit logischen Ausdrücken, die nur die Zahlenwerte "1" (wahr) und "0" (falsch) kennen. Aussage: Computer kennen nur wahr oder falsch, keine "Zwischentöne". Wahrheit 47

48 Umgesetzt in Programmiersprachen als: if (aussage == 1) nimm an, dass Aussage wahr. else nimm an, dass Aussage falsch. Wahrheit 48

49 … aber auch als: if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, dass Aussage wahr. Wahrheit 49

50 Z.B. in folgendem Programm: int aussage; aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Wahrheit 50

51 Z.B. in folgendem Programm: int aussage; "int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis 2 32 -1 annehmen kann. aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Wahrheit 51

52 Z.B. in folgendem Programm: int aussage; "int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis 2 32 -1 annehmen kann. aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Es gibt also genau eine Art "falsch" auszudrücken, aber 4.294.967.294 Varianten von "wahr"? Wahrheit 52

53 Unabhängig von dem, was George Bool gesagt hat, gilt also in Wirklichkeit nicht "0" = falsch. "1" = wahr. Wahrheit 53

54 ... sondern in Wirklichkeit: "0" = falsch. "1" bis "4.294.967.295" = wahr. Wahrheit 54

55 dann könnte aber genau so gut gelten: "0" = falsch. "1" bis "4.294.967.294" = unklar. "4.294.967.295" = wahr. Wahrheit 55

56 oder genauso willkürlich: "0" bis "255" = falsch. "256" bis "4.294.967.039" = unklar. "4.294.967.040" bis "4.294.967.295" = wahr. Wahrheit 56

57 oder auch: "0" = sicher falsch. "20.000" = ziemlich sicher falsch. "100.000" = ziemlich sicher falsch, aber mit fünfmal größerer Wahrscheinlichkeit richtig als "20.000". "4.000.000.000" = ziemlich sicher richtig. "4.294.967.295" = sicher wahr. Wahrheit 57

58 Binäre Logik Kennt nur "wahr" und "falsch". n-äre oder mehrwertige Logik Kennt n Wahrheitswerte. Kontinuierliche Wahrheitsfunktionen Nehmen unendlich viele Wahrheitswerte an. * Wahrheit - Begriffe 58

59 IV. Häufige Missverständnisse 3 … oder: Die Mystik des Digitalen 59

60 Das korrekte Begriffspaar in der Informatik: „diskret“ v. „kontinuierlich“. Digital - Analog 60

61 1,00134… + 0,48723… = 1,48857… Eine Addition kontinuierlicher Zahlenwerte. Digital - Analog 61

62 Nach diesem Prinzip – heute nur mehr für Spezialanwendungen – verwendete Computer, die z.B. Spannungen oder Stromstärken „addieren“ heißen „Analogrechner“. Digital - Analog 62

63 4,00000 + 2,00000 = 6,00000 Eine Addition diskreter Zahlenwerte. Digital - Analog 63

64 0,00004 + 0,00002 = 0,00006 Ebenfalls eine Addition diskreter Zahlenwerte. Digital - Analog 64

65 0,00004 + 0,00002 = 0,00006 Auch eine Addition diskreter Zahlenwerte. Digital - Analog 65

66 0,00004 + 0,00002 = 0,00006 Kontinuierlich oder diskret? Digital - Analog 66

67 Ob eine Darstellung „analog“ oder „digital“ ist, hängt in erster Linie von der Meßgenauigkeit ab. "Imagen 4" by Mcanet - Own work. Licensed under CC BY 3.0 via Commons - https://commons.wikimedia.org/wiki/File:Imagen_4.png#/media/File:Imagen_4.png Digital - Analog 67

68 V. Repräsentation von Information 68

69 Shannon, C.E.: A Mathematical Theory of Communiction. The Bell Systems Technical Journal, 27 (1948), 379-423 Informationsgehalt als Wahrscheinlichkeit dass eine bestimmte Angabe zufällig zustande kommt. Wird in der Signaltheorie verwendet um beispielsweise das korrekte Übertragen von Bildern zu beurteilen. Der Informationsbegriff 69

70 Problem: Bezieht sich ausschließlich auf syntaktischen Aspekt von Zeichen. (= Beziehung zwischen Zeichen.) Zeichen stehen aber nicht nur zu anderen Zeichen in Beziehung, sondern auch: zu ihren Bedeutungen. (Semantischer Aspekt.) zu den bezeichneten Objekten. (Sigmatischer Aspekt.) zu den Systemen / Teilsystemen (zu deren Zielen, Zwecken, etc.) zwischen denen Zeichen übermittelt werden. So schon: Wörterbuch der Kybernetik, hrsg. v. G. Klaus / H. Liebscher, Berlin, 4 1976, Artikel "Information", p. 281. Der Informationsbegriff 70

71 Daher in der Informatik "Information" meist als nicht weiter definierter Grundbegriff. Z.B.: U. Rembold / P. Levi: Einführung in die Informatik für Naturwissenschaftler und Ingenieure, München etc., 3 1999. Informatik als Wissenschaft, die sich damit beschäftigt, wie dieser "Rohstoff" in Rechnern dargestellt (Strukturen) und verarbeitet (Algorithmen) wird. Der Informationsbegriff 71

72 1."Selbstabbildende Information". Es kann "gerechnet" werden. Bilder. 2."Kodierte Information". Zeichenketten und Teilketten können verglichen werden. Texte. 3."Symbolische Information". Terme können verglichen werden. Terminologien, "Ontologien" u.ä. * „Arten“ von Information 72

73 Danke für heute! 73


Herunterladen ppt "Einführung in die Informationsverarbeitung Teil Eide (auf Basis von Thaller 2014–15) Stunde I: Lehre und Forschung Der Informationsbegriff Köln 29. Oktober."

Ähnliche Präsentationen


Google-Anzeigen