Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Einführung in die Informationsverarbeitung Teil Thaller Stunde I: Der Informationsbegriff Köln 6. November 2008.

Ähnliche Präsentationen


Präsentation zum Thema: "Einführung in die Informationsverarbeitung Teil Thaller Stunde I: Der Informationsbegriff Köln 6. November 2008."—  Präsentation transkript:

1 Einführung in die Informationsverarbeitung Teil Thaller Stunde I: Der Informationsbegriff Köln 6. November 2008

2 I. Häufige Missverständnisse 1

3 Print, film, magnetic, and optical storage media produced about 5 exabytes of new information in 2002. Ninety-two percent of the new information was stored on magnetic media, mostly in hard disks. Wissensexplosion

4 How big is five Exabytes? If digitized, the nineteen million books and other print collections in the Library of Congress would contain about ten terabytes of information; five Exabytes of information is equivalent in size to the information contained in half a million new libraries the size of the Library of Congress print collections. Wissensexplosion

5 University of California at Berkely, School of Information Management and Systems: How much Information? 2003 http://www.sims.berkeley.edu/research/projects/h ow-much-info-2003/printable_report.pdf "Executive Summary" auf Seite 1 Wissensexplosion

6 19 Millionen Bücher 10 TB 10 x 2 40 Bytes 10 000 000 000 000 Bytes 1 Buch 10 000 000 000 000 / 19 000 000 526,315.79 Bytes 1 Seite 3000 Zeichen 1 Buch 175 Seiten Wissensexplosion

7

8

9 1 Seite 128 000 000 Bytes 1 Buch 22 400 000 000 Bytes 19 Millionen Bücher 22 400 000 000 x 19 000 000 425 600 000 000 000 000 B 425 Petabyte Wissensexplosion

10 Print, film, magnetic, and optical storage media produced about 5 exabytes of new information in 2002. Nintey-two percent of the new information was stored on magnetic media, mostly in hard disks. Wissensexplosion

11 How big is five exabytes? If digitized, the nineteen million books and other print collections in the Library of Congress would contain about 0.5 exabytes of information; five exabytes of information is equivalent in size to the information contained in ten new libraries the size of the Library of Congress print collections Wissensexplosion

12 Seite 17: Ein gedrucktes Buch aus rezenter Produktion wird mit 7,8 MB bewertet (ca. 10 mal so gross, wie bei der Abschätzung der Größe der Library of Congress). * Wissensexplosion

13 1.Es ist schön in Köln zu Ihnen zu sprechen. 2.Es ist schön in Kln zu Ihnen zu sprechen. 3.Es ist schön in Kön zu Ihnen zu sprechen. 4.Es ist schn in Kön zu Ihnen zu sprchen. 5.S'is schö in Kölle zu Ihnen zu sprchen. Information

14 Luat enier sidtue an eienr elgnhcsien uvrsnäiett, ist es eagl in wcheler rhnfgeeloie die bstuchbaen in eniem wrot snid. Das eniizg whictgie ist, dsas der etrse und der lztete bstuchbae am rtigeichn paltz snid. Der rset knan tatol deiuranchnedr sien und man knan es ienrmomch onhe porbelm lseen. Das legit daarn, dsas wir nhcit jeedn bstuchbaen aeilln lseen, srednon das wrot als gzanes. Information

15 Claude Shannon: "A Mathematical Theory of Communication", Bell System Technical Journal, 1948. Enthält eine quantitative Definition von Information. Zweck: Wie kann ein Signal zwischen einem Sender und einem Empfänger mit dem geringstmöglichen Aufwand "korrekt" übertragen werden. Information

16 Shannon hat also eine technische Definition von "Information", die die Bedeutungsebene völlig ausklammert. Er betont, dass "die semantischen Aspekte der Kommunikation für die ingenieurwissenschaftliche Seite irrelevant sind". Information

17 Nahezu alle mir bekannten Lehrbücher der Informatik beginnen mit Shannons Definition der Information. Räumen aber ein, dass die ingenieurwissenschaftliche Definition von Information defizitär sei. Insbesondere: Information

18 (1) Bildet sie nur einen Teil des intellektuellen Umfanges des Konzepts "Information (syntaktisch, semantisch, pragmatisch) ab. (2) Gibt es dagegen keine operable Definition die dieses Konzept in seiner vollen Breite abdeckt. Aber: Die vorhandenen Konzepte reichen aus, um Information auf einem Digitalrechner so darzustellen, dass man sie sinnvoll verarbeiten kann. * Information

19 II. Begriffe rund um die Information

20 Informationsebenen Syntax: Beziehungen der Zeichen untereinander. Semantik: Beziehungen zwischen Zeichen und Gegenständen. Pragmatik: Beziehungen zwischen Zeichen und ihren Benutzern.

21 Bernard Favre-Bulle Information und Zusammenhang. Informationsfluß in Prozessen der Wahrnehmung, des Denkens und der Kommunikation. Springer: 2001 Information und Wissen

22 Daten sind speicherbare Angaben - 22°C. Information stellt Daten in einen Kontext: "In diesem Hörsaal herrscht eine Temperatur von 22°C". Dieser Kontext ist jedoch noch fest (und für alle Informationsempfänger identisch). Information und Wissen

23 Wissen ist das Ergebnis von Erkenntnisprozessen. Es bezieht die praktische Anwendung der Daten und Informationen ein. Es muss nicht "absolut wahr" sein, sondern adäquates Handeln zu ermöglichen. Z.B. die Entscheidung einen Pulli (nicht) auszuziehen, um sich angenehm zu fühlen, ohne sich zu erkälten. * Information und Wissen

24 III. Häufige Missverständnisse 2 … und was heisst Information darstellen?

25 George Bool (1815-1864), "The Laws of Thought". Formales Rechnen mit logischen Ausdrücken, die nur die Zahlenwerte "1" (wahr) und "0" (falsch) kennen. Aussage: Computer kennen nur wahr oder falsch, keine "Zwischentöne". Wahrheit

26 Umgesetzt in Programmiersprachen als: if (aussage == 1) nimm an, dass Aussage wahr. else nimm an, dass Aussage falsch. Wahrheit

27 … aber auch als: if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, dass Aussage wahr. Wahrheit

28 Z.B. in folgendem Programm: int aussage; aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Wahrheit

29 Z.B. in folgendem Programm: int aussage; "int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis 2 32 -1 annehmen kann. aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Wahrheit

30 Z.B. in folgendem Programm: int aussage; "int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis 2 32 -1 annehmen kann. aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch. else nimm an, das Aussage wahr. Es gibt also genau eine Art "falsch" auszudrücken, aber 4.294.967.294 Varianten von "wahr"? Wahrheit

31 Unabhängig von dem, was George Bool gesagt hat, gilt also in Wirklichkeit nicht "0" = falsch. "1" = wahr. Wahrheit

32 ... sondern in Wirklichkeit: "0" = falsch. "1" bis "4.294.967.295" = wahr. Wahrheit

33 dann könnte aber genau so gut gelten: "0" = falsch. "1" bis "4.294.967.294" = unklar. "4.294.967.295" = wahr. Wahrheit

34 oder genauso willkürlich: "0" bis "255" = falsch. "256" bis "4.294.967.039" = unklar. "4.294.967.040" bis "4.294.967.295" = wahr. Wahrheit

35 oder auch: "0" = sicher falsch. "20.000" = ziemlich sicher falsch. "100.000" = ziemlich sicher falsch, aber mit fünfmal größerer Wahrscheinlichkeit richtig als "20.000". "4.000.000.000" = ziemlich sicher richtig. "4.294.967.295" = sicher wahr. Wahrheit

36 Binäre Logik Kennt nur "wahr" und "falsch". n-äre oder mehrwertige Logik Kennt n Wahrheitswerte. Kontinuierliche Wahrheitsfunktionen Nehmen unendlich viele Wahrheitswerte an. * Wahrheit - Begriffe

37 IV. Häufige Missverständnisse 3 … oder: Die Mystik des Digitalen

38 Das korrekte Begriffspaar in der Informatik: kontinuierlich v. diskret. Digital - Analog

39 1,00134… + 0,48723… = 1,48857… Eine Addition kontinuierlicher Zahlenwerte. Digital - Analog

40 Nach diesem Prinzip – heute nur mehr für Spezialanwendungen – verwendete Computer, die z.B. Spannungen oder Stromstärken addieren heißen Analogrechner. Digital - Analog

41 4,00000 + 2,00000 = 6,00000 Eine Addition diskreter Zahlenwerte. Digital - Analog

42 0,00004 + 0,00002 = 0,00006 Ebenfalls eine Addition diskreter Zahlenwerte. Digital - Analog

43 0,00004 + 0,00002 = 0,00006 Auch eine Addition diskreter Zahlenwerte. Digital - Analog

44 0,00004 + 0,00002 = 0,00006 Kontinuierlich oder diskret? Digital - Analog

45 Ob eine Darstellung analog oder digital ist, hängt in erster Linie von der Meßgenauigkeit ab. Merke: Digitaluhren sind analoger als analoge mechanische Uhren! * Digital - Analog

46 V. Repräsentation von Information

47 Shannon, C.E.: A Mathematical Theory of Communiction. The Bell Systems Technical Journal, 27 (1948), 379-423 Informationsgehalt als Wahrscheinlichkeit dass eine bestimmte Angabe zufällig zustande kommt. Wird in der Signaltheorie verwendet um beispielsweise das korrekte Übertragen von Bildern zu beurteilen. Der Informationsbegriff

48 Problem: Bezieht sich ausschließlich auf syntaktischen Aspekt von Zeichen. (= Beziehung zwischen Zeichen.) Zeichen stehen aber nicht nur zu anderen Zeichen in Beziehung, sondern auch: zu ihren Bedeutungen. (Semantischer Aspekt.) zu den bezeichneten Objekten. (Sigmatischer Aspekt.) zu den Systemen / Teilsystemen (zu deren Zielen, Zwecken, etc.) zwischen denen Zeichen übermittelt werden. So schon: Wörterbuch der Kybernetik, hrsg. v. G. Klaus / H. Liebscher, Berlin, 4 1976, Artikel "Information", p. 281. Der Informationsbegriff

49 Daher in der Informatik "Information" meist als nicht weiter definierter Grundbegriff. Z.B.: U. Rembold / P. Levi: Einführung in die Informatik für Naturwissenschaftler und Ingenieure, München etc., 3 1999. Informatik als Wissenschaft, die sich damit beschäftigt, wie dieser "Rohstoff" in Rechnern dargestellt (Strukturen) und verarbeitet (Algorithmen) wird. Der Informationsbegriff

50 1."Selbstabbildende Information". Es kann "gerechnet" werden. Bilder. 2."Kodierte Information". Zeichenketten und Teilketten können verglichen werden. Texte. 3."Symbolische Information". Terme können verglichen werden. Terminologien, "Ontologien" u.ä. * Arten von Information

51 Danke für heute!


Herunterladen ppt "Einführung in die Informationsverarbeitung Teil Thaller Stunde I: Der Informationsbegriff Köln 6. November 2008."

Ähnliche Präsentationen


Google-Anzeigen