Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Einführung in die KI - Einleitung

Ähnliche Präsentationen


Präsentation zum Thema: "Einführung in die KI - Einleitung"—  Präsentation transkript:

1 Einführung in die KI - Einleitung
Michael Schenke | Einführung in die KI - Einleitung 11/07/19 | Seite 1

2 Der Ort der reinen Lehre und des unumschränkten Wissens

3 Vorlesungsplan Grundlagen ausgewählte Themen 1. Einleitung
6. Sprachverarbeitung 2. Aussagenlogik 7. Maschinelles Lernen 3. Prolog 8. Wissensbasierte 4. Wissensrepräsentation Systeme 5. Lisp 9. Robotik   

4 Themen Penrose Computerdenken Dreyfuß Was Computer nicht können
Aristoteles Alan Turing Babbage/Lovelace Wittgenstein Neuronale Netze Schach KI in Spielen Modallogik Temporale Logik Epistemische Logik Fuzzy Logik

5 Themen Wissen Begriff + Anwendung mobile Roboter in der KI
Wissensrepräsentation Autorensysteme Virtual Reality Vision Knowledge Engineering Lernen + Vergessen Parsing Behaviorismus Kognitionswissenschaften/-Psychologie

6 Literatur Alpaydin,E. (2008): Maschinelles Lernen. Oldenbourg-Verlag, München. Baierle,C.; Kern-Isberner,G. (2003): Methoden wissensbasierter Systeme. Vieweg-Verlag, Wiesbaden. Barr,A.; Cohen,P.R.; Feigenbaum,E.A .(1982): the Handbook of Artificial Intelligence,Volume 1- 3 Addision Weseley Company, Inc, Reading Massachusetts. Bresnan,J. (2004): Lexical-Functional Syntax. Blackwell, Oxford.

7 Literatur Dabringer, Gerhard: Militärroboter. Einführung und ethische Fragestellungen. Materialien für Militärseelsorge. Institut für Religion und Frieden, Fasangartengasse 101, Objekt 7, 1130 Wien, 2009. DE Crescenzo,L. (1990): Geschichte der griechischen Phiolosphie. Diogenes.Verlag, Zürich. Dreyfus, H.L. (1979): Die Grenzen künstlicher Intelligenz. Was Computer nicht können. Athenäum Verlag, Königstein.

8 Literatur Feigenbaum, E.A.; McCorduck, P. (1984): Die fünfte Computer-Generation. Birkenhäuser-Verlag Basel. Gardner, H. (1989): Dem Denken auf der Spur. Ernst Klett Verlag, Stuttgart. Görz, G.; Rollinger, C.-R.; Schneeberger, J. (2003): Handbuch der Künstlichen Intelligenz. Oldenbourg Verlag München. Jurafsky, D.; Martin, J.H. (2009): Speech and Language Processing. Pearson International Upper Saddle River, New Jersey.

9 Literatur Lämmel, U.; Cleve, J. (2008): Künstliche Intelligenz. Carl Hanser Verlag, München. Luger, G.F. (2001): Künstliche Intelligenz. Pearson Studium, München. Lusti, M. (1992): Intelligente tutorielle Systeme. Oldenbourg Verlag München, Wien. McCorduck, P. (1979): Machines Who Think. San Francisco.

10 Literatur Penrose, R. (1991): Computerdenken. Spektrum der Wissenschaften, Heidelberg (dt. Ausgabe). Russell, S.; Norvig, P. (2004): Künstliche Intelligenz. Ein moderner Ansatz. Pearson Studium, München. Sells, P. (1992): Lectures on Contemporary Syntactic Theories. Chicago University Press. Turing, A.M.(1987) Intelligence Service. Schriften Hrsg. Dotzler,B; Kittler,F. Brinkmann & Bosse, 1987.

11 Literatur Winston,P.H. (1987): Künstliche Intelligenz. Addison-Wesley.
Winzer, T. (1987): Künstliche Intelligenz und Robotik. Franzis-Verlag GmbH, München. Zemb, J.-M. (1961): Aristoteles. Rowohlt Taschenbuch-Verlag.   

12 1.1 Begriffs-bestimmung Intelligenz

13 Begriffsbestimmung Intelligenz (von lat. intellegere „verstehen“, wörtlich „wählen zwischen …“ von lat. inter „zwischen“ und legere „lesen, wählen“) ist in der Psychologie ein Sammelbegriff für die kognitive Leistungsfähigkeit des Menschen. Da einzelne kognitive Fähigkeiten unterschiedlich stark ausgeprägt sein können und keine Einigkeit besteht, wie diese zu bestimmen und zu unterscheiden sind, gibt es keine allgemeingültige Definition der Intelligenz. Vielmehr schlagen die verschiedenen Intelligenztheorien unterschiedliche Operationalisierungen des alltagssprachlichen Begriffs vor.

14 Begriffsbestimmung 1904 wurde eine Gesellschaft für Kinderpsychologie, die Société Libre pour l’Etude Psychologique de l’Enfant, von der französischen Regierung damit beauftragt, einen Test zu erstellen, mit dem man geistig behinderte Kinder, die vom normalen Schulunterricht nicht mehr profitieren, identifizieren könnte. Alfred Binet und Théodore Simon entwickelten daraufhin den ersten IQ-Test. Der IQ wurde dabei als Quotient von Intelligenzalter und Lebensalter definiert. Binet sah Intelligenz als ein Bündel zahlreicher Einzelfähigkeiten, auch wenn sein Test zu zeigen schien, daß Intelligenz etwas Einheitliches, Ganzes sei. Ein genaueres Strukturmodell erstellte er jedoch nicht.

15 Begriffsbestimmung Später wurden von anderen Forschern neue Intelligenzkonzepte eingeführt, bei dem die Leistung des Einzelnen auf den Mittelwert der entsprechenden Altersklasse bezogen wird. Im Laufe der Zeit entstanden verschiedene Erklärungsmodelle, die vor allem auf die Faktorenanalyse zurückgreifen.

16 Begriffsbestimmung – Kritik des IQ
Intelligenz wird häufig als statistisches Konstrukt kritisiert. Der IQ ist im Verlauf des Lebens nicht stabil. Es gibt einen starken Zusammenhang zwischen IQ und Sozialschicht, zwischen IQ und Erziehung, zwischen IQ und Ernährung, zwischen IQ und kultureller Vorbildung. „Intelligenz ist was der IQ-Test mißt.“

17 Begriffsbestimmung In neuerer Zeit, nachdem sich der Intelligenz-begriff als zu grob dargestellt hat, wird von verschiedenen „Intelligenzen“ gesprochen. geistige Intelligenz körperliche Intelligenz soziale Intelligenz sprachliche Intelligenz emotionale Intelligenz Erfolgsintelligenz visuelle Intelligenz

18 Arbeitsdefinition: Begriffsbestimmung
Ein System heißt intelligent, wenn es Probleme selbständig und effizient lösen kann. Der Grad der Intelligenz hängt ab von dem Grad der Selbständigkeit, dem Grad der Komplexität des Problems, dem Grad der Effizienz des Problemlösungsverfahrens.

19 Die Hereditätsdebatte
In der Psychologie besteht heutzutage breiter Konsens, daß sowohl Vererbung als auch Umwelteinflüsse bei der Intelligenzentwicklung eine Rolle spielen. Manche Autoren weisen darauf hin, daß die relevanten Umwelteinflüsse meist nicht näher identifiziert werden können.

20 Die Hereditätsdebatte
Die höchsten Erblichkeitsschätzungen resultierten aus Studien an getrennt aufgewachsenen eineiigen Zwillingen. Studien zu Adoptivkindern ermöglichen es, zu untersuchen, welchen Einfluß das soziale Umfeld auf die Intelligenzentwicklung eines Kindes hat. Dort scheint sich zu zeigen, daß die adoptierten Kinder im IQ ihren Adoptiveltern und -geschwistern sehr ähnlich sind.

21 Die Hereditätsdebatte
Thesen: Nach dem Abschluß der Grundschule zählt die Motivation mehr als die Intelligenz. Intelligenz ist Fleiß. (Napoleon) Disziplin ist wichtiger als Intelligenz. Die preußische Kerntugend bringt den Erfolg.

22 Die Hereditätsdebatte
Gegenthese: Dank der Hirnforschung kann man heute substantielle Zusammenhänge zwischen Intelligenz und Indikatoren kognitiver und kortikaler Informationsverarbeitung nachweisen. Tests, die die Arbeitsgedächtnis-funktionen nachweisen, korrelieren signifikant mit dem IQ. Ähnliches gilt für EEG-Studien. Deshalb kann das Definitionsproblem vernachlässigt werden.

23 Die Hereditätsdebatte
Ist der IQ rassistisch/biologistisch? In ihrem 1994 verfaßten, vielzitierten Buch „The Bell Curve“ versuchten die Harvard-Professoren Herrnstein und Murray durch eine Metaanalyse vorliegender Datensätze nachzuweisen, daß nicht die ungünstigen Lebensverhältnisse der schwarzen US-Bevölkerung für deren schlechtes Abschneiden bei IQ-Test verantwortlich seien, sondern der genetisch determinierte niedrige IQ ihre schlechte ökonomische Situation verursache. Die Hereditätsdebatte

24 Die Hereditätsdebatte
Aber: Kein ernst zu nehmender Psychologe setzt heute noch „genetisch“ und „unveränderlich“ gleich. Gene fördern die Ausbildung geistiger Fähigkeiten nur unter günstigen Umwelt-bedingungen.

25 1.2 Begriffs-bestimmung Künstliche Intelligenz

26 Begriffsbestimmung Der Begriff Künstliche Intelligenz (KI) ist eine Übersetzung des Begriffs Artificial Intelligence ins Deutsche. Die wörtliche Übersetzung aus dem Englischen ist dabei nur teilweise richtig. Artificial sollte vielmehr als "unecht" oder "Schein-", der Begriff Intelligenz als "Verständnis" übersetzt werden.

27 Begriffsbestimmung Ergebnis der Künstlichen Intelligenz ist ein Scheinverständnis, eine unechte Intelligenz. Systeme (nicht nur Computerprogramme), die sich scheinbar intelligent verhalten, die scheinbar ein Verständnis besitzen, sollen mit Hilfe von Methoden dieses Gebietes realisiert werden. Nicht die Entwicklung anderer Intelligenzformen ist Ziel der daran beteiligten Wissenschaftler, sondern von Systemen die sich scheinbar so verhalten.

28 Begriffsbestimmung Leider besitzen Probleme, die mit Intelligenz zu lösen sind, meist sehr hohe Komplexität und lassen sich nicht unmittelbar durch überschaubare und leicht einsichtige Algorithmen lösen. Um Systeme realisieren zu können, die sich verständig verhalten, müssen wir selbst erst verstehen.

29 Kurzer Überblick über die Entwicklung
Marvin Minsky (ein KI Pionier) erklärt das Ziel der KI „in der Überwindung des Todes“. 1960 wird ein Computerprogramm vorgestellt (GPS), das mit einfachen Mitteln beliebige Probleme lösen soll. 1970 wird ein Diagnosesystem in den Dienst gestellt, welches Medizinern bei Diagnose-und Therapieentscheidungen zur Seite steht (MYCIN).

30 Kurzer Überblick über die Entwicklung
1988 schlägt zum ersten Mal eine Schachmaschine („HiTech“) einen Ex-Schachweltmeister; 1996 „Deep Blue“ schlägt G.Kasparow unter Turnierbedinungen. 2003 erklärt Marvin Minsky in einem Vortrag an der Universität in Boston, daß „die KI seit 1970 gehirntot sei“ 2016 wird erstmals ein GO-Meister von einer KI geschlagen.

31 Zielsetzung Die Zielsetzung der KI ist die Erforschung und Nachbildung von intelligentem Verhalten. Grob kann man die KI-Forschung in zwei Teile unterteilen:

32 Unterteilung der KI 1. Die Erforschung intelligenten Verhaltens von Lebewesen: Entwicklung von Konzepten und Modellen zum Verständnis von intelligentem Verhalten

33 Unterteilung der KI 2. Die Konstruktion von Systemen, welche intelligentes Verhalten aufweisen. Die entstehende Konstruktion muß nicht dem natürlichen Vorbild entsprechend konstruiert werden.

34 Schwache KI Die Forschungsgemeinde war stets zweigeteilt nach Anhängern jeweils einer der beiden Thesen: „schwache KI “: KI ist Informationsverarbeitung für bestimmte Anwendungsdomänen. intelligent handeln (in eng umrissenen Bereichen)

35 Schwache KI (Bereiche)
Expertensysteme, Navigationssysteme, Spracherkennung, Zeichenerkennung, Mustererkennung (Warenkorbanalyse), Korrekturvorschläge bei Suchen,

36 Starke KI „Starke KI-These“:
Alle Bewußtseinsprozesse lassen sich als Berechnungsprozesse nachbilden. Starke KI ist diejenige Form der künstlichen Intelligenz, die die gleichen intellektuellen Fertigkeiten wie der Mensch hat oder ihn darin sogar übertrifft. intelligent sein ?

37 Starke KI logisches Denken Treffen von Entscheidungen bei Unsicherheit
Planen Lernen Kommunikation in natürlicher Sprache alle diese Fähigkeiten zum Erreichen eines gemeinsamen Ziels einsetzen

38 Selbsterkenntnis/ Eigenwahrnehmung Empfindungsvermögen Weisheit
Starke KI auf einer Metaebene: Bewußtsein Selbsterkenntnis/ Eigenwahrnehmung Empfindungsvermögen Weisheit

39 Teilgebiete der Künstlichen Intelligenz
Die Künstliche Intelligenz läßt sich in verschiedene Teilgebiete und ihre Methoden unterteilen. Ohne auf die einzelnen Gebiete näher eingehen zu können, werden dabei sowohl geistige wie auch körperliche Fähigkeiten abgebildet.

40 Teilgebiete der Künstlichen Intelligenz

41 Intelligenz Die im Weiteren als "körperliche Intelligenz" bezeichneten Teile von Fähigkeiten stellen in der Künstliche Intelligenz die Nachbildung von Tieren und Menschen dar, also beispielsweise die Abbildung des vegetativen Nervensystems und von Körperteilen. Die "geistige Intelligenz" ist die Abbildung von Fähigkeiten des Gehirns oder kognitiver Fähigkeiten. Damit ergibt sich als Folgerung aus dieser Definition:

42 Intelligenz Da alle Lebewesen sowohl körperliche als auch geistige Fähigkeiten besitzen, besitzen alle Lebewesen Intelligenz, ob Baum, Amöbe oder Mensch. Diese ist nur verschieden ausgeprägt. Der Grad der gesamten Intelligenz ist proportional der Größe der Menge von Fähigkeiten. Eine Wertigkeit der Fähigkeiten wird nicht vorgenommen.

43 1.3 Körperliche Intelligenz

44 Abbildung der körperlichen Intelligenz
Schon seit Tausenden von Jahren träumen die Menschen davon, sich künstliche Helfer zu schaffen, die als Diener (Golem), Spione (die Eule der Athene) oder Wächter (Talos) dienen sollten. Mit der Fortentwicklung der Mechanik in der Neuzeit war die Möglichkeit für die Ingenieure gegeben, künstliche Wesen wie den Schreiber oder die Ente zu bauen.

45 Abbildung der körperlichen Intelligenz
Eine bekannte mythische Gestalt ist Talos, ein eherner (bronzener) Riese, den ein vom Kopf bis zur Ferse reichender „Blutkanal“ lebendig machte. Er soll entweder von Zeus zum Schutze der Europa auf Kreta stationiert oder dem Minos zum Geschenk gemacht worden sein.

46 Abbildung der körperlichen Intelligenz
Talos umkreiste die Insel dreimal täglich und warf Steine auf alle Schiffe, die sich näherten. Landete dennoch jemand, erhitzte sich der Riese bis zur Rotglut. Ließ sich der Angreifer auch davon nicht abschrecken, verbrannte ihn Talos, indem er ihn umarmte.

47 Abbildung der körperlichen Intelligenz
Die auf ihrer Heimfahrt befindlichen Argonauten wußten sich schließlich zu helfen. Medea betörte ihn, indem sie ihm Unsterblichkeit versprach; dann zog sie ihm den „Nagel“ (den verschließenden Pfropfen) aus der Ferse, woraufhin das Blut herausfloß und der Riese starb.

48 ein reales Beispiel: die mechanische Ente, die von Jacques de Vaucanson um 1740 konstruiert wurde

49 Körperliche Intelligenz
Solche auf Uhrwerken basierenden künstlichen Wesen konnten einfache Handlungen, etwa das Schreiben eines Wortes, aber auch kompliziertere wie Nahrungsaufnahme und Verdauung der künstlichen Ente durchführen. Geistige Intelligenz war noch nicht vorhanden.

50 Körperliche Intelligenz
Der türkische Schachspieler allerdings, gegen den schon Napoleon Bonaparte spielte, war hingegen nur ein halbkünstliches Wesen. Versteckt in ihm war ein menschlicher Schachspieler. Also wurde hier im Sinne der Künstliche Intelligenz nur "ein Türke gebaut".

51 1.4 Geistige Intelligenz

52 Abbildung der geistigen Intelligenz
Die Abbildung geistiger Fähigkeiten wurzelt letztendlich in der Philosophie. Philosophie versucht, die Wirklichkeit zu verstehen und sie nicht nur zu beschreiben. Um sie zu verstehen, schafft sie Modelle der Wirklichkeit.

53 Abbildung der geistigen Intelligenz
Die Modelle dürfen aber nicht mit der Wirklichkeit selbst verwechselt werden. Ein Modell beschreibt vielmehr, was wir bisher von der Wirklichkeit erkannt haben. Um das ganze System zu verstehen, müßten wir das System erst verlassen, denn seine Grenzen sieht man nur von außen.

54 Abbildung der geistigen Intelligenz
So mögen die Versuche der ersten Philosophie aus heutigem Erkenntnisstand etwas sonderlich erscheinen, wenn Tales sich die Welt aus unterschiedlichen Zustandsformen von Wasser vorstellt oder Demokrit sich die Atom noch etwas primitiv denkt.

55 Abbildung der geistigen Intelligenz
Andere Gedanken-Modelle der Antike allerdings erwiesen sich als erstaunlich aktuell. So verwendet die Naturwissenschaft schon seit Hunderten von Jahren die von Aristoteles gefundene Problemlösungsmethodik, in der Informatik als Top-Down-Methode bezeichnet. Schaut man sich die moderne objektorientierte Programmierung an, wird man unweigerlich an die Lehre von Platon/Aristoteles erinnert.

56 Ausgehend von diesen verschiedenen Modellen der Philosophie, entwickelten sich unterschiedliche Spezial- und Hilfs-Wissenschaften. Die Künstliche Intelligenz wird von verschiedenen anderen Wissenschaften beeinflußt, die sowohl von Spezial- als auch von Hilfswissenschaften abgeleitet sind.

57 KI ist nicht nur ein Teilgebiet der Informatik
So hatten die Psychologie, die Medizin, die Biologie, aber auch die Informatik, Technik und Sprachwissenschaft Einfluß auf die Künstliche Intelligenz. Im Bereich der geistigen Intelligenz besitzt allerdings auch heute noch die Philosophie den größten Einfluß.

58 Aus diesem Geflecht der Künstliche Intelligenz mit den verschiedenen anderen Wissenschaften ergeben sich folgende Folgerungen: Die Künstliche Intelligenz ist kein Teil einer anderen Wissenschaft. Sie selbst kann als Hilfs-Wissenschaft für die Modellierung bzw. Abbildung von geistiger und körperlicher Intelligenz angesehen werden. Die Künstliche Intelligenz stellt dabei die Methoden und Techniken zur Abbildung von natürlichen Fähigkeiten zur Verfügung. Deren programmtechnische Umsetzung mit Hilfe von Methoden der Informatik ist dabei aber nur ein Teil und sollte nicht als Hauptbestandteil der Künstlichen Intelligenz verstanden werden.

59 1.5 Vom Wunsch, die Welt zu verstehen

60 Vom Wunsch, die Welt zu verstehen
Ausgangspunkt der Weltbeschreibungsmodelle waren die Sammlungs- und Klassifizierungs-Bemühungen von Aristoteles, der nicht nur in der Stube saß, sondern alles was er um sich herum fand klassifizierte. Dabei war er nicht nur Mathematiker und Physiker, sondern auch Biologe. Nach ihm sind zum Beispiel mehrere Tiere benannt. Ohne die Erkenntnisse der vielen Philosophen zwischen ihnen schmälern zu wollen, war für die Entwicklung der Künstlichen Intelligenz ein weiterer wesentlicher Schritt die Arbeit von Descartes. Er erbrachte eine wesentliche Verankerung, in dem er auf den Ursprung der Denkmodelle "zurückdachte".

61 Vom Wunsch, die Welt zu verstehen
War der Ursprung („Cogito ergo sum.“) erst gefunden, konnten Verfahren entwickelt werden, die Welt "rechnend" zu erfassen. Die Arbeiten von Leibniz und Pascal bis zu Gödel kennzeichnen diesen Prozeß und seine Schwierigkeiten. Der Wunsch, die Probleme der Welt "rechnend" zu lösen, macht es notwendig, zunächst alle Objekte dieser Welt abzubilden, um dann den Rechenvorgang auf sie anwenden zu können. Dieses Problem ist in der Künstlichen Intelligenz schon lange unter dem Begriff "Background-Wissen" bekannt . Die Komplexität der Welt, ihre wichtigen und unwichtigen Objekte (Wer vermag das zu entscheiden?), entzieht sich bisher der Abbildung auch auf dem größten Computer .

62 Vom Wunsch, die Welt zu verstehen
Die Beschreibung der Welt wurde schließlich von Mathematikern von der reinen Sprachebene auf die formale Ebene überführt. Über die zweiwertige mathematische Logik, Modallogiken, die mehrwertigen Logiken (z. B. die n-wertige Logik von Lukasiewicz), bis hin zur Zadehs Fuzzy-Logik gehen heute die Versuche. Ein großes Problem ist die Kompatibilität der verschiedenen Ansätze.

63 Vom Wunsch, die Welt zu verstehen
Obwohl die Beschreibungsmöglichkeiten immer feiner wurden, liegt das Problem hier in den Zuordnungen der Werte zu den Aussagen und Objekten. Ob eine Aussage wahr oder falsch ist, kann meistens relativ leicht festgestellt werden. Ob ein Objekt aber zu 0,345 zur Fuzzy-Menge gehört oder nur zu 0,343, ist äußerst schwer zu bestimmen. So werden die Zuordnungen immer abhängiger vom Bewerter und entziehen sich letztlich der objektiven Betrachtung. Es geht also wieder einmal um die Frage der präzisen Mathematisierung der Welt.

64 Vom Wunsch, die Welt zu verstehen
Einher mit der Möglichkeit, die Welt formal zu beschreiben, ging das Bestreben, diese formale Beschreibung auf Maschinen abzubilden, um mit ihnen rechnen zu können. Man erfand Apparate, die diesen Rechenvorgang vereinfachten sollten. Von den ersten Versuchen von Pascal, über die Analytic Engine von Babbage bis zum ersten Computer war allerdings ein fast 200-jähriges Streben notwendig, bei dem die Entwickler immer wieder an die Grenzen der Feinmechanik stießen.

65 Vom Wunsch, die Welt zu verstehen
Nach der Entwicklung von frei programmierbaren Computern durch die Einführung von Computersprachen war 1950 die Bühne bereitet, sich über die Abbildung der Intelligenz auf dem Computer ernsthaft Vorstellung zu machen.

66 1.6 Der Turing-Test

67 Alan Turing Als Vater der Künstlichen Intelligenz kann der Mathematiker Alan Turing angesehen werden, der im Jahre 1950 in seinem aufsehenerregenden Aufsatz "Intelligent Machinery" erklärte: „Ich möchte mich mit der Frage beschäftigen, ob es Maschinen möglich ist, intelligentes Verhalten zu zeigen.“ Ist eine solche Maschine dann intelligent?

68 Turingmaschine Turingmaschine allgemeine Berechnung von Funktionen
Berechnung als mathematisches Problem Methode zur prinzipiellen Lösung von Entscheidbarkeits-, Berechenbarkeitsproblemen 68

69 Turingmaschine Bestandteile
potentiell unendliches Band mit diskreten Zellen Bandalphabet Schreib-Lesekopf auf einer Zelle Konfiguration aus : Bandinschrift, Zustand, Position des Schreib-Lesekopfes Überführungsfunktion zur Umwandlung der Konfigurationen

70 Berechenbarkeit Wohldefinierte Eingabe -> Wohldefinierte Ausgabe
TM: Ablauf mit wohldefinierten Anweisungen (Algorithmus) maschinell realisierbar

71 Universielle Turing Maschine
spezielle Turingmaschine U U kann jede beliebige TM simulieren Eingabe für U: Beschreibung der zu simulierenden TM T Eingabedaten E für T U liefert für T,E dasselbe Ergebnis wie T für E

72 Turingmaschine Mit Blick auf die universelle TM zeigt sich der Doppelcharakter der Turingmaschine: als allgemeiner Computer als Programm, das auf dem Computer ablaufen kann

73 Der Turing-Test Wie konnte aber nun festgestellt werden, ob sich eine Maschine intelligent verhält? Turing näherte sich der Lösung, indem er ein Imitationsspiel einführte.

74 Das Imitationsspiel

75 Der Turing-Test Zwei Personen spielen dabei einem Schiedsrichter vor, daß sie beide Mann oder Frau sind, obwohl sie unterschiedlichen Geschlechtern angehören. Der Schiedsrichter sieht die Personen nicht und muß anhand von Fragen ermitteln, welche Person das falsche Geschlecht angibt. Dabei wird er den Lügner in einer bestimmten Anzahl von Fällen erraten, während er aber manchmal die Wahrheit auch nicht ermitteln kann.

76 Der Turing-Test Im Turing-Test, "ob eine Maschine intelligentes Verhalten zeigt", ersetzt man nun eine der Personen durch die Maschine bzw. durch ein Programm. Eine Maschine zeigt dann intelligentes Verhalten, wenn der menschliche Schiedsrichter beim Test nur prozentual in der gleichen Anzahl von Fällen wie der Schiedsrichter des Imitationsspiels errät, wer Mensch und wer Maschine ist.

77 Können Maschinen den Turing-Test bestehen?

78 1966 von Joseph Weizenbaum entwickelt
Eliza 1966 von Joseph Weizenbaum entwickelt Eliza sollte zunächst die Möglichkeiten der Kommunikation zwischen einem Menschen und einem Computer über natürliche Sprache aufzeigen. Bekannt geworden ist Eliza für die oberflächliche Simulation eines Psychotherapeuten, der die non-direktiven Methoden der klientenzentrierten Psychotherapie nach Carl Rogers verwendet. Eliza hätte den Turing-Test aus zwei Gründen nicht bestanden: mangelnde Universalität Ein Benutzer kann recht einfach herausfinden, daß er mit einer Maschine kommuniziert.

79 Turing glaubte, daß ein Computer diesen Test bis zum Jahr 2000 bestehen würde. Hier irrte er sich. Trotz aller Fortschritte in der Computertechnologie, trotz der Tatsache, daß man dem Computer das Schreiben von Gedichten und selbst die Ungeduld oder das "verärgert sein" beibrachte, konnte bisher kein Computer den allgemeinen Turing-Test bestehen. Die Anzahl der möglichen Fragen, die man über die Welt stellen kann, das alltägliche Welt-Wissen ist einfach zu groß. Man erfand das Maschinelle Lernen als Teilgebiet der Künstlichen Intelligenz, um dem Computer die automatische Aufnahme dieses Wissens zu ermöglichen.

80 Grenzen des Turing-Tests
Eine Schwierigkeit des Tests läßt sich mit der folgenden kleinen Geschichte verdeutlichen. Innerhalb einer Testreihe wurden Studenten als Schiedsrichter ausgewählt. Sie sollten über zwei Computer Fragen stellen. Ein Computer war mit einem Menschen verbunden, auf dem anderen lief ein Programm. Die Sache verlief in den gewohnten Bahnen, bis ein Student sich auf den Stuhl setzte und nichts tat. "Sie dürfen machen, was sie wollen", versucht ihn der Versuchsleiter zu motivieren," Sie dürfen jede Frage stellen, die Ihnen einfällt." "Ich will gar nichts machen!" antwortet ihm der Student. Nach einer Viertelstunde erscheint auf dem einen Bildschirm "Hat der Test schon angefangen?" Der Student deutete auf den Bildschirm und erriet: "Das ist der Mensch!"

81 Der Loebner-Preis ist ein von Hugh Gene Loebner seit 1991 ausgeschriebener Preis. Mit ihm soll der Programmierer des ersten Computerprogramms ausgezeichnet werden, welches einem Turing-Test über 25 Minuten standhält.

82 Goldmedaille: US-Dollar, sollte das Programm einen Turing-Test bestehen, bei dem auch Multimedia-Inhalte wie Musik, Sprache, Bilder und Videos verarbeitet werden müssen.

83 Silbermedaille: 25.000 US-Dollar, falls das Programm den schriftlichen Turing-Test besteht.
Bronzemedaille: US-Dollar für das Programm, das sich als das „menschenähnlichste“ erweist (jährlich vergeben).

84 Bis heute hat niemand die Goldmedaille gewonnen.
heutige führende Projekte: Cleverbot Eugene Goostman

85 Cleverbot Cleverbot ist eine Webapplikation, die durch Kommunikation mit Menschen erlernt, menschliche Unterhaltungen nachzuahmen. Sie wurde vom Informatiker Rollo Carpenter entwickelt.

86 Cleverbot Nach seiner Erfindung im Jahre 1988 hielt Cleverbot im ersten Jahrzehnt tausende Unterhaltungen mit Carpenter und seinen Kollegen. Seit der Veröffentlichung im Web am 30. November 1997 wurden mehr als 65 Millionen Unterhaltungen mit Cleverbot geführt.

87 Cleverbot nahm zusammen mit wahren Personen am 3
Cleverbot nahm zusammen mit wahren Personen am 3. September 2011 an einem formellen Turing Test am indischen Institut IIT Guwahati teil, insgesamt 1334 Teilnehmer. Cleverbot wurde zu 59,3 % als menschlich erklärt. Menschliche Konkurrenten erzielten 63,3 %. Dennoch gilt der Turing-Test noch als nicht bestanden. Grund: begrenzter Gesprächsstoff

88 Eugene Goostman

89 Eugene Goostman Web-Applikation (www.princetonai.com)
seit 2001 von Wladimir Weselow (Russland) und Jewgenij Demchenko (Ukraine) entwickelt KI und Turing von S.Walesch, S. Hornemann, M. Denysenko 89

90 Identität 13 - jähriger Junge aus Odessa besitzt ein Meerschweinchen
mag Eminem Sohn eines Gynäkologen Die Auswahl des Charakters begründeten die Entwickler damit, daß ein 13-Jähriger vieles, aber nicht alles wisse. Außerdem verzeihe man ihm leichter grammatikalische Fehler.

91 Bei einem Wettbewerb am 7. Juni 2014 anläßlich des 60
Bei einem Wettbewerb am 7. Juni 2014 anläßlich des 60. Todestages von Alan Turing gelang es Eugene Goostman, 33 Prozent seiner menschlichen Chatpartner davon zu überzeugen, daß er ein Mensch und nicht ein Computer sei. An dem Test nahmen 30 Prüfer teil.

92 Kritiker merkten unter anderem an, daß die Vorgaben für das Bestehen des Tests, so wie sie Alan Turing 1950 entwickelt hat, deutlich umfangreicher wären als die Umsetzung im Wettbewerb. Auch sei die Auswahl des Charakters, eines 13-jährigen ukrainischen Jungen, ein Trick, mit dem die Entwickler über strukturelle Unzulänglichkeiten hinwegtäuschen konnten.

93 Alternative Versionen des Turing-Tests
Maschinen klüger -> Tests komplizierter totaler Turingtest Nötig zur Bestätigung intelligenten Verhaltens ist es eigentlich, einen Robote bauen, der in seinen Fähigkeiten nicht vom Menschen unterscheidbar ist Erweiterung des Turingtestes um weitere Medien: Videokamera und Bildübertragung.

94 Eine praktische Variante mit Namen CAPTCHA (Completely Automated Public Turing Test To Tell Computers and Humans Apart) wird verwendet, um festzustellen, ob ein Mensch oder ein Bot handelt. In der Regel dient CAPTCHA zur Prüfung, von wem Eingaben in Internetformulare erfolgt sind, weil Roboter hier oft mißbräuchlich eingesetzt werden. Captchas sind meist Challenge-Response-Tests, für Menschen einfach zu lösen, für Computer hingegen sehr schwierig. Beispiel: Mustererkennung.

95 Philip K. Dick verwendete in einem 1982 unter dem Titel Blade Runner verfilmten Roman den so genannten Voigt-Kampff-Test, eine Variante des Turing-Tests. Dabei werden künstliche Menschen (Replikanten), einem Empathietest unterzogen, der ihre emotionale Reaktion prüft und feststellen soll, ob sie Mensch oder Replikant sind.

96 Visual Turing Test Wer ist der Computer?

97 Visual Turing Test Wo ist die Kaffeetasse?

98 1.

99 2.

100 3.

101 4.

102 5.

103 6.

104 7.

105 Richtige Antwort

106 1.7 Philosophie und Ethik

107 Philosophische Standpunkte
A.Turing: Statt ständig über den Aspekt zu streiten, ob Maschinen wirklich intelligent sind, sollten wir wohlwollend annehmen, daß sie denken. Behaviorismus Die Frage des Bewußtseins ist sehr schwierig, hat aber in der Praxis der KI keine größere Bedeutung.

108 Philosophische Standpunkte
J.Searle: Niemand nimmt an, die Computersimulation eines Sturms macht uns alle naß… Warum sollte jemand annehmen, eine Computersimulation mentaler Prozesse hätte wirklich mentale Prozesse erzeugt?

109 Philosophische Standpunkte
Funktionalismus: Ein mentaler Zustand ist eine kausale Zwischenbedingung zwischen Eingabe und Ausgabe. Zwei Systeme mit isomorphen kausalen Prozessen haben dieselben mentalen Zustände. Das gilt dann insbesondere für Computer und Menschen.

110 Philosophische Standpunkte
Biologischer Naturalismus: Ein mentaler Zustand entsteht auf einer hohen Abstraktionsebene. Eine niedrigere Abstraktionsebene wird durch die Neuronen gebildet. Diese bewirken so die mentalen Phänomene. Damit sind diese selber keine Funktionen.

111 Philosophische Standpunkte
Das Geist/Körper-Problem: Wie sind mentale Zustände mit den körperlichen Funktionen verknüpft? Monismus (Materialismus) Dualismus

112 Philosophische Standpunkte
Das Geist/Körper-Problem 2: Beide Denkrichtungen müssen mit geistigen Phänomenen fertig werden: freier Wille Vestehen Bewußtsein Selbstbewußtsein

113 Philosophische Standpunkte
Gedankenexperiment 1 Das Gehirn im Faß liebe(ich,Bier) Perspektiven: außen (weiter Inhalt), innen (enger Inhalt) Qualia (Erinnerungen) Ist mein „rot“ Dein „rot“?

114 Philosophische Standpunkte
Gedankenexperiment 2 Die Gehirnprothese Neuronen werden sukzessive ausgetauscht. Moravec (Materialist): Bewußtsein bleibt erhalten. Searle (biologischer Naturalist): Bewußtsein verschwindet. Dabei kann das äußere Verhalten erhalten bleiben.

115 Philosophische Standpunkte
Fragen an den biologischen Naturalismus: Was geschieht mit dem freien Willen? Antwort auf die Frage „Wie geht es Ihnen?“ während des Austausches Wie manifestieren sich durch den Körper hervorgerufene Bewußtseinszustände in der Maschine? Hat dann die Maschine nicht notwendig doch noch Bewußtsein?

116 Philosophische Standpunkte
Fragen an den biologischen Naturalismus 2: Was ist, wenn die Operation rückgängig gemacht wird? Erinnerungen an Operation? Ist Bewußtsein ein Epiphänomen?

117 Philosophische Standpunkte
Gedankenexperiment 3 Das chinesische Zimmer (Searle) Algorithmische Übersetzung ohne Verständnis. Folge: Intelligentes Verhalten beweist nicht, daß Intelligenz vorhanden ist.

118 Philosophische Standpunkte
Implizite Axiome von Searle: Computerprogramme sind formale, syntaktische Einheiten. Verstand hat mentalen Inhalt (Semantik). Syntax ist nicht ausreichend für Semantik. Gehirn führt zu Verstand.

119 Welche Probleme fallen Ihnen ein?
Ethik Welche Probleme fallen Ihnen ein?

120 KI beeinflußt uns schon heute
Korrekturvorschläge / Suchhilfen, Zeichenerkennung, Mustererkennung in Daten (Warenkorbanalyse), Navigationssysteme, Smartphones, Klassifikation (Spam, Kreditwürdigkeit)

121 KI beeinflußt uns schon heute
Mustererkennung in Bildern / Gesichtserkennung, Autos, Spracherkennung, Expertensysteme, Gesundheitsdaten, Echtzeitregelung statt starrer Algorithmen

122 KI wird unsere Zukunft noch viel mehr beeinflussen
Psychoberatung / Lebensberatung Schädlingsbekämpfung intelligentes Heim Überwachung, soziale Fürsorge virtuelle Realität bessere Prognosen durch bessere Simulation Thalanx stellt Personalauswahl auf KI um

123 KI wird unsere Zukunft noch viel mehr beeinflussen
Big Data Datenmengen, welche zu groß (ab Petabytes – 10^15 Bytes, Google bewältigt 24 Petabytes am Tag), zu komplex, zu schnellebig oder zu schwach strukturiert sind, um sie mit herkömmlichen Methoden der Datenverarbeitung auszuwerten. 

124 KI wird unsere Zukunft noch viel mehr beeinflussen
Big Data, Industrie 4.0, Internet der Dinge KI wird unsere Gesellschaft noch viel mehr beeinflussen. (Motto der Google-Entwicklerkonferenz 2016: Google wird in Zukunft noch tiefer in unseren Alltag eindringen.) Politisches Handeln wird nötig.

125 KI wird unsere Zukunft noch viel mehr beeinflussen
Bedrohte mittelständische Berufe Apotheker Lehrer Buchhändler Ärzte Zeitungswesen Juristen Steuerberater Photographie Filmwesen Logistik (Disponenten) Journalisten Dienstleistungsbereich

126 Sinnkrise durch Verlust der menschlichen Einzigartigkeit.
Ethik Erfolg in der KI könnte zu Gefahren für die Menschheit führen. Zu ihrem Ende? Arbeitsplatzverlust. Zuviel Freizeit. Sinnkrise durch Verlust der menschlichen Einzigartigkeit.

127 Verlust der Persönlichkeitsrechte. Verlust der Verantwortung.
Ethik Verlust der Persönlichkeitsrechte. Verlust der Verantwortung. Fehleranfälligkeit. Cyborgs.

128 Thesen zu 1. Gefahren für die Menschheit:
Ethik Thesen zu 1. Gefahren für die Menschheit: altes Thema: Frankenstein, Terminator, Matrix KI = das Unbekannte, Bedrohung durch KI = Bedrohung durch Geister/Hexen? Jede neue Technologie kann mißbraucht werden. Nicht KI ist aggressiv; der Mensch ist es durch die Evolution. KI muß besonders sorgfältig realisiert werden (Sicherheitsmethoden).

129 Ethik Thesen zu 1. Gefahren für die Menschheit: Intelligenzexplosion (I.J.Good) „Kurz danach wird die Ära des Menschen beendet sein.“ (V.Vinge) „Und das ist auch gut so … Kinder im Geiste … beste Hoffnung der Menschheit“ (H.Moravec) Intelligentere Wesen werden auch höhere moralische Standards entwickeln. (F.Tippler) Werden wir Menschen dann Partner oder Haustiere? Sollten Roboter als Menschen angesehen werden? Menschenrechte für KI?

130 Ethik Thesen zu 1. Gefahren für die Menschheit: Wieso es wohl keine Superintelligenz geben wird: Die meisten Koryphäen der KI halten es für SF, raten aber zur Vorsicht. Das Ziel ist heute eher schwache KI mit konkreten Anwendungen. Die Integration solcher speziellen Fähigkeiten ist noch sehr weit weg. Einfluß des menschlichen Körpers auf die kognitive aber auch ethische Entwicklung. Wie soll KI Durst verstehen? Ironie? Anspielungen?

131 Thesen zu 2. Arbeitsplatzverlust :
Ethik Thesen zu 2. Arbeitsplatzverlust : Neue Technik hat sich noch nie durch Verweigerung aus der Welt schaffen lassen. Arbeitsplatzverlust war oft tatsächlich der Fall. Es darf eben nicht das Ziel sein, den Menschen zu ersetzen (Expertensysteme), sondern ihn zu unterstützen. KI senkt die Produktionskosten und fördert so den Arbeitsmarkt. KI schafft viele neue Arbeitsplätze. Diese sind oft interessant und gut bezahlt, erfordern permanente Qualifikation, Interdisziplinarität. neue Chancen für Handwerk / hohe Qualität KI macht viele alte gefährliche oder unangenehme Arbeitsplätze unnötig.

132 Ethik Thesen zu 2. Arbeitsplatzverlust : verstärkte Asymmetrie Kapital/Arbeit Führt Nachfrageverlust durch weniger / ärmere Kunden zur Stockung in der Wirtschaft? Maschinensteuer für KI? (Bill Gates) Bedingungsloses Grundeinkommen? (Precht, Straubhaar, Käser, Höttges) Abbau der protestantischen/sozialistischen Arbeitsethik? Sollen sich Menschen durch ihre Arbeit definieren? Abkommen zwischen Wirtschaftspartnern oder Staaten werden vermutlich nötig.

133 Thesen zu 2. Arbeitsplatzverlust :
Ethik Thesen zu 2. Arbeitsplatzverlust : Neue Qualität der Arbeitsplatzverluste durch das Ausmaß (Schafft der Mensch sich selber als handelndes Subjekt ab?) nichtlineare wirtschaftliche Regelkreise (KI optimiert sich selbst.) Wachsen externe Märkte weiter? Chance für kohlenstoffreie Kreislaufwirtschaft? Chance zur Vermeidung der Malthusianischen Katastrophe durch Wachstum bei sinkender Bevölkerungszahl weniger Einwanderung nötig

134 Ethik Thesen zu 3. Zuviel Freizeit : Neue Technik hat auch in der Vergangenheit zum Anstieg der Freizeit geführt. Das hat den Menschen gut getan. Diese ist aber sehr ungleich verteilt. Gefahr: arbeitsloses Proletariat. Wird der Mensch von Routine entlastet? Freier Weg in kreative Tätigkeit? Oder verdummt der Mensch durch immer bessere Assistenzsysteme?

135 Thesen zu 3. Zuviel Freizeit :
Ethik Thesen zu 3. Zuviel Freizeit : In der Vergangenheit war Gewinn etwa der geleisteten Arbeit proportional. Sind Abweichungen davon ungerecht? In der Zukunft werden diese Abweichungen sich vergrößern. („winner takes all“) > Jeroen Lanier („Big Data“)

136 Dieser Gedanke ist älter als Computer Descartes
Ethik Thesen zu 4. Verlust der Einzigartigkeit : Durch KI könnte der Gedanke verbreitet werden, Menschen seien nur Maschinen. Dann könne man sie auch wie solche behandeln. (Joseph Weizenbaum) Dieser Gedanke ist älter als Computer Descartes La Mettrie (L`Homme Machine, 1748)

137 Thesen zu 4. Verlust der Einzigartigkeit :
Ethik Thesen zu 4. Verlust der Einzigartigkeit : Der Mensch mußte sich schon oft von seiner Einzigartikeit lösen (Kopernikus, Darwin) Wird eine erfolgreiche KI für die Moral im 21.Jhdt. so bedrohlich wie die Evolutionstheorie im 19. Jhdt.?

138 Thesen zu 5. Persönlichkeitsrechte:
Ethik Thesen zu 5. Persönlichkeitsrechte: Gefahren für die Privatsphäre durch Erkennung von Mustern in Daten (totales Bild eines Menschen) Spracherkennung, Schlüsselwortsuche Vernetzung, Agenten Sicherheit als Vorwand für Unfreiheit

139 Mich betrifft das nicht. Ich habe nichts zu verbergen.
Ethik Mich betrifft das nicht. Ich habe nichts zu verbergen.

140 Thesen zu 5. Persönlichkeitsrechte:
Ethik Thesen zu 5. Persönlichkeitsrechte: Überwachung will nicht die Vergangenheit aufdecken sondern die Zukunft beeinflussen. Zwang zu Konformismus über Gesetze hinaus politische Einstellung Charakter Gesundheitsprävention Fahrstil Vorlieben (individuelle Werbung)

141 Thesen zu 5. Persönlichkeitsrechte:
Ethik Thesen zu 5. Persönlichkeitsrechte: Verstärkte KI-Lobby Seit 2016 ist Google-Chef Eric Schmidt Berater des Pentagon.

142 Thesen zu 5. Persönlichkeitsrechte (Gefahr für Privatsphäre):
Ethik Thesen zu 5. Persönlichkeitsrechte (Gefahr für Privatsphäre): Kann der Staat die Privatsphäre schützen? ausufernde Regulierung nötig Technologien ändern sich sehr schnell. „Software ist nie fertig.“

143 Thesen zu 5. Persönlichkeitsrechte (Gefahr für Privatsphäre):
Ethik Thesen zu 5. Persönlichkeitsrechte (Gefahr für Privatsphäre): Will der Staat die Privatsphäre schützen? Kryptographiestreit Beispiel: Google knickt gegenüber China ein (China-Variante)

144 Ethik Thesen zu 5. Persönlichkeitsrechte : Militärische Roboter Ziel: Automatische Suche und Zerstörung preiswert, leicht herzustellen, zu bedienen Folge: Schwarzmarkt Geringe eigene Verluste können Hemmschwelle senken. Was geschieht bei Verlust der Kontrolle über Tötungsroboter? Darf eine Maschine über Menschenleben entscheiden?

145 Ethik Thesen zu 5. Persönlichkeitsrechte (Gefahr für Privatsphäre): Militärische Roboter (Hoffnungen): Heute gibt es noch keine automatischen Zerstörungsmechanismen in der Praxis. Menschheit hat sich oft als vernünftig erwiesen: biologische Waffen, Nuklearwaffen im All Konventionen gegen Landminen, Chemiewaffen Deutschland wird sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen. (Koalitionsvertrag2013)

146 Thesen zu 5. Persönlichkeitsrechte (Gefahr durch Privatsphäre):
Ethik Thesen zu 5. Persönlichkeitsrechte (Gefahr durch Privatsphäre): Gefahr durch Rückzug in eine zu isolierte Privatsphäre Privatsphäre führt zu Ungleichheit/Ungerechtigkeit. Ist sie wirklich wünschenswert? Fragmentierung der Gesellschaft, Verlust von Solidarität und Interaktion

147 Thesen zu 5. Persönlichkeitsrechte:
Ethik Thesen zu 5. Persönlichkeitsrechte: Eine der wichtigsten Folgen von Big Data wird eine weltweite Vereinheitlichung der Lebensumstände sein. Verlust von Heimat, Identifikation Verlust individueller Besonderheiten Verlust von Werten Verlust der eigenen Kultur

148 Ethik Thesen zu 6. Verlust der Verantwortung : Wer trägt die Verantwortung für den Einsatz von KI? Es gibt Gerichtsurteile, daß Expertensysteme für den Arzt dieselbe Rolle spielen wie Lehrbücher und Nachschlagewerke. Heute stellt sich die Frage nach der Verantwortung für das autonome Fahren (Hersteller/ Halter/Fahrer). subtile Änderungen im Rechtsverständnis Die Fragmentierung der Gesellschaft kann zu Macht ohne Verantwortung führen.

149 Thesen zu 6. Verlust der Verantwortung :
Ethik Thesen zu 6. Verlust der Verantwortung : Und was wird aus der Verantwortung, wenn KI dem Menschen ebenbürtig werden sollte? Eigenverantwortung für Roboter? Oder wird der Roboter verantwortlich für sein Haustier Mensch?

150 Thesen zu 7. Fehleranfälligkeit:
Ethik Thesen zu 7. Fehleranfälligkeit: Statistische Verfahren liefern Korrelation statt Kausalität Prognosemodelle mit zu kleiner Datenbasis overfitting Wirtschaftliche Crashs werden durch KI ausgelöst. Ist das moralisch vertretbar?

151 Ethik Thesen zu 8. CybOrgs: Definition: Ein CybOrg ist ein Organismus, der natürliche und künstliche Systeme integriert und selbstregulierend ist. restaurativ / augmentativ Cloning genetisch

152 Ethik Thesen zu 8. CybOrgs: PRO Bessere Fähigkeiten sind positiv.
Ist der Mensch noch durch Evolution zu verbessern? Geht das besser durch planvolles Design? Wer entscheidet, wohin sich die Menschheit entwickeln soll? Menschen sind Mängelwesen. Können so ideale Führungen geschaffen werden? Überbevölkerung kann uns zu schneller Anpassung an feindliche Umgebung zwingen. Gegnerschaft aus Vorurteilen, Unwissen, Urängsten? Wissenschaft kann eine ähnliche soziale Verantwortung entwickeln wie Biotechnologie.

153 Was heißt dann noch „menschlich“?
Ethik Thesen zu 8. CybOrgs: CONTRA Ist die Schaffung von hybriden Menschen (Cyborgs) vertretbar? (-> Eugenik) Moralischer Zwang für Eltern / den CybOrg? Schaffung von Ungleichheit Was heißt dann noch „menschlich“? Leben über die natürliche Dauer hinaus Leidensverlängerung am Lebensende Überbevölkerung blockiert Evolution Mißbrauch der Technik (Supersoldaten, Überwachung) Schaffung von Schwarzmärkten

154 1.8 Grenzen der symbolischen KI

155 Grenzen symbolischen KI
Eine Schwierigkeit der KI ist es, daß zum Zweck einer Verarbeitung mit dem Computer „die Welt“ durch mathematische Abstraktion dargestellt werden muß. Damit läuft die Bearbeitung von realen Aufgaben auf die Bearbeitung mathematischer Symbole hinaus. Dadurch entsteht das schon von A.Turing angedachte Qualifizierungsproblem.

156 Grenzen symbolischen KI
Das Qualifizierungsproblem: Kann das gesamte Weltwissen angemessen durch eine Menge logischer/formaler Regeln dargestellt werden? Hier geht es also um die Frage, ob eine KI, die auf reiner Symbolverarbeitung beruht, ausreichend ist. Frage: Welche anderen Formen der KI gibt es denn noch?

157 Grenzen symbolischen KI
Antwort: Kognitive Prozesse Lernende Systeme Probabilistische Modelle Kommunikation mit der Umwelt Frage: Was ist der Unterschied zwischen symbolischer und anderer KI?

158 Grenzen der symbolischen KI
Gödels Unvollständigkeitstheorem In jedem formalen axiomatischen System F, das stark genug ist, die Zahlentheorie zu enthalten, läßt sich ein Gödel-Satz G(F) konstruieren mit G(F) ist ein syntatisch korrekter Satz von F. G(F) kann nicht in F bewiesen werden. Wenn F konsistent ist , ist G(F) wahr.

159 Grenzen der symbolischen KI
Ausgehend von Gödels Unvollständigkeitstheorem hat J.R.Lucas 1963 die These geäußert, daß Maschinen den Menschen prinzipiell unterlegen seien. Maschinen sind formale Systeme, also durch das Unvollständigkeitstheorem beschränkt. Sie können also nicht die Wahrheit ihres eigenen Gödel-Satzes einsehen. Menschen unterliegen diesen Einschränkungen nicht. Einwände gegen das Argument?

160 Grenzen der symbolischen KI
Einwände gegen das Argument: Mathematisches Schließen ist nicht die einzige Form von Intelligenz. Sind Menschen formale Systeme (durch fS beschreibbar)? Sind Menschen wirklich immun gegen die Gödelschen Einschränkungen?

161 Grenzen der symbolischen KI
Sir Roger Penrose hat dieses Argument umgedreht: Ein formales System kann Wahrheiten nur operationell durch Schließen konstruieren. Der Mensch kann mehr: Er kann eine Wahrheit als solche ohne formale Schlüsse erkennen. Das beste Beispiel dafür sei der Gödelsche Satz, dessen Inhalt es ja geradezu ist, aus dem formalen Rahmen herauszuspringen.

162 Grenzen der symbolischen KI
Penrose hat andererseits gegen jede Form von Mystizismus Stellung bezogen: Menschliches Denken werde irgendwann erklärbar sein, wenn man quantenphysikalische Effekte einbezieht: Darauf deute schon die Kopenhagener Interpretation der Quantenphysik hin. Penrose hat ein eigenes Modell des Denkens geschaffen, bei dem die Quantengravitation eine wichtige Rolle spielt.

163 Grenzen der symbolischen KI
Erweiterungen der symbolischen KI (H.Dreyfus) Hintergrundwissen lernende Systeme (überwacht/ nicht überwacht/verstärkend) neue Funktionen (SVM) Informationsaufnahme (Sensoren, Informationswerttheorie) Nutzung der Informationen zum Handeln

164 1.9 Eine kurze Geschichte der KI

165 Summerschool for Artificial Intelligence
Nachdem Turing die Frage aufgeworfen hatte, gab es von verschiedenen Forschern völlig unterschiedlicher Disziplinen erste Versuche, natürliche Fähigkeiten abzubilden. Der Begriff Artificial Intelligence wurde von diesen Forschern der ersten Stunde im Jahre 1956 durch das Abhalten der Summerschool for Artificial Intelligence in Hanover, New Hamsphire geprägt.

166 Summerschool for Artificial Intelligence
Das Forschungsprogramm der KI basiert auf der Annahme, daß jeder Aspekt von Lernen sowie jedes andere Kennzeichnen von Intelligenz im Prinzip so präzise beschrieben werden können, daß eine Maschine sie simulieren kann. Das hatte Pascal vor 200 Jahren aber auch schon gesagt.

167 Geschichte Wie andere Forscher vorher hatten die KI-ler dann schnell die Vorstellung, sehr große Fortschritte in kurzer Zeit machen zu können. So wurde angenommen, daß bereits im Jahre 1966 ein Computer Schachweltmeister sei (man hatte gerade Schachprobleme mit einem vier mal vier Brett gelöst) oder 1966 bräuchte man keine Dolmetscher mehr.  

168 Geschichte Als Beispiel eines Übersetzungsvorganges der damaligen Zeit wird oft der Satz „Der Geist ist willig, aber das Fleisch ist schwach." genannt, der nach Übersetzung und Rückübersetzung zu „Der Wodka ist gut, aber das Steak ist schlecht." verwandelt wurde.

169 Geschichte Vielleicht ist schon durch dieses Beispiel gezeigt, daß die Komplexität von uns gewöhnlich erscheinenden Handlungen doch weit unterschätzt wird. Im Allgemeinen gleicht das Ringen um Erkenntnis eher der Arbeit des Sisyphus als der des Cäsars.

170 Einer der ersten Ansätze, die Welt abzubilden, ging in den 70er Jahren davon aus, eine kleine Anzahl von Objekten mit den ihnen innewohnenden Eigenschaften, wie z. B. "kann auf einem anderen stehen", "kann als Stütze eines anderen Objekts dienen", "kann bewegt werden" usw. abzubilden. Meist wurde dabei ein Tisch mit geometrischen Objekten verwendet. Diese Abbildung der "primitiven Physik" wurde zunächst im sprachverstehenden System SHRDLU von T. Winogradow (dies ist kein Akronym) verwendet.

171 Mikro-Welten

172 Ein virtueller Roboterarm konnte dabei Befehle ausführen
Ein virtueller Roboterarm konnte dabei Befehle ausführen. Er konnte veranlaßt werden, Objekte aufzunehmen, Objekte auf andere Objekte stellen oder sie auf dem Tisch ablegen. Überprüft wurde dabei, ob die Möglichkeit des Abstellens bzw. Verschiebens überhaupt gegeben war. Das System, das 1974 erstmals realisiert wurde, wird heute von einem realen Roboterarm durchgeführt, der versucht, kleine Blockwelten aufzubauen. Ergebnis: Ein gewöhnlicher Säugling dürfte beim Bau dieser Klötzchenwelten immer noch findiger sein als der angesprochene Roboter.

173 Das Frame-Problem bezeichnet in der künstlichen Intelligenz ein Problem bei der logischen Repräsentation der Effekte von Aktionen. Es reicht oft nicht aus, bloß die Effekte von Aktionen zu beschreiben, deren Wahrheitswerte sich ändern. Eine vollständige, explizite Beschreibung sämtlicher Auswirkungen von Aktionen auf alle in einer Welt geltenden Fakten (also nicht nur dessen, „was sich ändert“, sondern auch, „was gleich bleibt“) wäre allerdings zu aufwendig. Mathematisch beschäftigt sich das Frame-Problem mit der Frage, wie ein Logikkalkül vollständig sein kann, ohne triviale Nichtänderungen explizit zu beschreiben.

174 Fügt man bei der Klötzchenwelt nun ein Objekt nach dem anderen ein, so wird das generelle Frameproblem bezeichnet, schnell klar. Bis zu einer gewissen Anzahl an Objekten könnte der Aufwand, die Objekte und ihre Beziehungen untereinander zu verwalten sowie die Objekte zu manipulieren, scheinbar linear steigen. In Wirklichkeit, und das zeigt sich nur zu bald, steigt der Aufwand exponentiell.

175 Diese Erkenntnis ernüchterte die Forscher, weil ursprünglich davon ausgegangen worden war, daß man die in der kleinen überschaubaren Welt gewonnen Ergebnisse auf die reale Welt übertragen könnte. Die Komplexität der realen Welt machte den Forschern allerdings einen Strich durch die Rechnung. Heute werden Micro-Worlds noch in einem Bereich von lehrenden Systemen verwendet, um gewisse, eng umrissene Sachverhalte zu erklären.

176 1.10 Wissens-basierte Systeme

177 Wissensbasierte Systeme
Als Beispiel für ein wissensbasiertes System seien hier die einstmals populären Expertensysteme aufgeführt. In den 80er Jahren war plötzlich jedes einfache Computerprogramm ein Expertensystem. Was war geschehen? Viele Industriebetriebe erkannten, daß mit dem Weggang von Spezialisten auch das Know-How den Betrieb verließ. Um es zu retten, wollte man Expertensysteme einführen. Der große Bedarf an EXS führte dazu, daß alle Softwarehersteller plötzlich behaupteten, solche Systeme zu entwickeln oder sie sogar schon zu vertreiben.

178 Wissensbasierte Systeme
Es war schwer, Anfragen von Kunden zu beantworten, die wissen wollten, warum ein EXS eine Million kostete, während man doch schon für 1000 Mark das Produkt X kaufen konnte, das auch ein Expertensystem sei. Was beim 1000-DM-Produkt allerdings verschwiegen wurde, war die Kleinigkeit, daß hier zwar primitive WENN-DANN-Regeln abgebildet werden konnten, man aber sonst auf die Mitarbeiter der Kunden und auf andere Produkte vertraute.

179 Wissensbasierte Systeme
Wie die Regeln entstanden, also das gesamte Knowledge Engineering, wie sie dargestellt wurden, also die Mensch-Maschine-Schnittstelle, und wie sie verarbeitet wurden, also der Inferenzmechanismus, wurde weitgehend ausgespart. Die Kleinigkeit von 10 bis 20 Mannjahren an zu investierender Leistung, bis das System lief, verschwieg man dem Kunden "versehentlich".

180 Wissensbasierte Systeme
Nach ein paar Jahren verschwanden dann allmählich die EXS vom Markt, sie hatten angeblich die Erwartungen der Kunden nicht erfüllt. Die Probleme - den Fachleuten sehr wohl bewußt - waren einfach nicht vermittelbar gewesen, man wollte sich in seiner Euphorie nicht bremsen lassen.

181 Wissenserwerb Das Problem der wissensbasierten Systeme ist nicht nur die Verarbeitung des Wissens, wenn es erst mal im System ist. Das eigentliche Problem liegt bei der Aufnahme dieses Wissens.

182 Wissenserwerb In den 80er Jahren gab es über das sogenannte Knowledge Engineering keine Theorie, so daß man sich die Strategien erst erarbeiten mußte. Da man das Wissen aus Experten eines bestimmten Wissensbereichs erst herausarbeiten muß - zum Teil ist er sich des Wissens gar nicht bewusst - arbeitet der Knowledge Engineer als halber Psychologe. Der Knowledge Engineer ist meist kein Experte des Wissensbereichs (dies verhütet auch Expertenstreit), über das er eine Wissensbasis aufbauen soll, der Experte ist meist kein Spezialist im Bereich wissensbasierter Systeme. Der Knowledge Engineer muß also fremdes Wissen "richtig verstehen" und dann in eine Struktur umarbeiten, welche das Expertensystem versteht.

183 Wissenserwerb Zusätzlich gilt – und das ist eine zusätzliche Schwierigkeit: Jeder Mensch besitzt eine durch seinen Lernvorgang und seine Erfahrungen gebildete Wissensstruktur, in die er das von ihm aufgenommene Wissen an die richtige Stelle einarbeitet. Diese Wissensstruktur ist für jeden Menschen individuell.

184

185 Der Mensch, der einen Sachverhalt erklärt - also zum Beispiel der Experte - muß zunächst seine Wissensstruktur abrufen und das Wissen in übertragbare Informationen umformen. Da beim Experten viele seiner Erfahrungen gar nicht bewußt vorliegen, ist schon der schwierige Prozeß der Bewußtwerdung, meist durch das Gespräch mit dem Knowledge Engineer angeregt, eine erste Fehlerquelle für die abzubildenden Wissensbestandteile.

186 Die übertragenen Informationen müssen als nächstes vom Knowledge Engineer erst richtig verstanden werden, damit dieser sie in eine vom wissensbasierten System verarbeitbaren Form übertragbar machen kann.

187 Aber selbst wenn dieser Vorgang völlig fehlerfrei verlaufen sollte, muß der Knowledge Engineer sein Wissen über die Domain fehlerfrei in der Wissensrepräsentation des Systems abbilden. Auch dabei kann man leicht an Grenzen stoßen.

188 Die aufgezeigten Probleme führen dazu, daß fertige wissensbasierte Systeme meist Wissensbasen besitzen, die nicht völlig konsistent und fehlerfrei sind. Die verbleibenden Fehler und Inkonsistenzen werden erst während des Einsatzes sichtbar und können auch dann erst eliminiert werden, d. h. die Wissensbasen müssen ständig gewartet und ausgebaut werden.

189 Obwohl zum Beispiel EXS vor allem bei der Verarbeitung sonst schwer zugänglicher Daten - etwa Steuerdaten - sehr hilfreich sein können, ersetzen sie natürlich keinen Experten vollständig. Da man damals den Managern sehr viel versprach, war die Ernüchterung natürlich um so größer, so daß man heute EXS - verkleidet als Assistenzsysteme - eher im Verborgenen baut.

190 Maschinelles Lernen Das mit der Aufnahme des Wissens klappte nicht so recht. Aber konnte man nicht den Computer dazu bringen dieses Wissen selbst aufzunehmen? Schnell hatte man eine Lösung zur Hand. Protokolliere alles was Du siehst - wie damals Aristoteles - und werte dann die Daten aus. Aus den statistisch aufgenommenen Daten generalisiert man dann verschiedene Regeln oder man trainiert ein neuronales Netz und "schon" hat der Computer das entsprechende Wissen selbst aufgenommen.  

191 Maschinelles Lernen Bezieht man hier die Möglichkeit der sich selbst erweiternden Programme - etwa durch die Programmiersprachen LISP oder PROLOG - mit ein, kann sowohl Faktenwissen wie auch Handlungswissen aufgebaut werden.  

192 Maschinelles Lernen Leider übersah man dabei, daß Menschen ein enormes Hintergrund-Wissen besitzen, das sie nicht erst aufnehmen müssen. Sie wissen was Sehen, Gehen und Greifen ist. Sie können interpretieren, was das Dunkel am Ende des Tages bedeutet, sie können fühlen und schmecken. Welches Wissen soll der Computer aber aufnehmen, was ist wichtig, was unwichtig? Wie geht man mit Worten um, die sich an den Sinnen des Menschen anlehnen, was ist klar, was ist begreifbar, was unsinnig? Wie lange ist das so aufgenommene Wissen aktuell, wann kann man es ersetzen? Was ist eine neue Information, was kann man ableiten?

193 Maschinelles Lernen Ein heftiger Streit zwischen den Forschern brach aus, der auch heute noch nicht beendet ist. So gibt es die West- und Ostküstenschule in den USA und die französische sowie schottische und jugoslawische Schule in Europa. Alle sind sich natürlich uneins wie man abbildet, wie man lernt und fragen sich, warum die jeweils anderen das eigene Konzept nicht als einzig richtiges akzeptieren wollen.

194 1.11 Lehrende Systeme 

195 Lehrende Systeme Solche Fehler der Vergangenheit wiederholen sich auch heute. Zur Zeit sind wir in der Situation, bei der ein anderes Zauberwort in aller Munde ist, das die Welt-Probleme natürlich ganz leicht löst: "Multi-Media". Eigentlich weiß niemand so genau, was das bedeutet, aber alle wollen es („Da ist alles so schön bunt."). Multi-Media zum Beispiel als Lehrsystem, ob im Netz oder über CD, beeinflußt heute ganze Generation von Kultusministern, Lehrern, Professoren und Börsenmaklern. Die multimediale Zukunft hat begonnen, obwohl niemand weiß, was "Multi-Media" eigentlich bedeutet.

196 Lehrende Systeme Die Künstlich Intelligenz hat sich mit Computer Based Training (CBT) schon vor 50 Jahren beschäftigt. Schnell war klar, daß das gewöhnliche CBT-System, bei welchem nur Fakten vermittelt wurden, für ein intelligentes Vorgehen bei der Vermittlung von Lernstoff nicht optimal aufgebaut war. Neue Komponenten, etwa das Benutzermodell, kamen hinzu. Zudem konnten andere wissensbasierte Systeme - etwa die Expertensysteme – integriert werden.

197 Lehrende Systeme Diese intelligenten tutoriellen Systeme (ITS) wurden in den letzten Jahren dann im Bereich Mensch-Maschine-Interaktion mit multimedialen Mitteln erweitert. Den heutigen Stand von lehrenden Systemen könnte man als „multimediale Lehr- und Lernsysteme“ bezeichnen, wobei der Begriff „Lehr- und Lernsystem“ darauf hinweist, daß der Schüler nicht nur passiv mit dem Lehrstoff berieselt wird, sondern sich aktiv beteiligt.

198 Funktion eines ITS Der Schüler löst eine Aufgabe oder stellt Fragen an das System via Benutzerschnittstelle. Diese wird an das Lernermodell weitergeleitet. Dieses vergleicht seine Lösung mit der Musterlösung, die ihm das Expertenmodul bereitstellt und leitet daraus den Wissenstand und die Verhaltensweisen des Schülers ab. Die Informationen werden zur Pädagogischen Komponente weitergeleitet. Diese schlägt nun die geeigneten pädagogischen Strategien ein und liefert dem Schüler entsprechendes Feedback.

199 Struktur eines ITS

200 Funktion eines ITS Der Schüler löst eine Aufgabe oder stellt Fragen an das System via Benutzerschnittstelle. Diese wird an das Lernermodell weitergeleitet. Dieses vergleicht seine Lösung mit der Musterlösung, die ihm das Expertenmodul bereitstellt und leitet daraus den Wissenstand und die Verhaltensweisen des Schülers ab. Die Informationen werden zur Pädagogischen Komponente weitergeleitet. Diese schlägt nun die geeigneten pädagogischen Strategien ein und liefert dem Schüler entsprechendes Feedback.

201 Ein weitgehend noch ungelöstes Problem ist, neben der schon angesprochenen Abbildungsproblematik, hier vor allem die Abbildung des Lerners. Im realen Leben kann der Lehrer aus dem Verhalten des Lernender Schlüsse ziehen:Entschlummert der Student während eines Vortrags sanft, so kann ihn der Dozent meist noch mal mit einer kurzen Showeinlagen reaktivieren. Sitzt er mit offenem Mund da, ist er wohl überfordert.

202 Der Computer als Dozent sieht hingegen den Studenten leider nicht, so daß die Motivation und die Anpassung des Lehrstoffes nur über die Auswertung der Reaktionen des Lernenden erfolgen kann. Hierfür gibt es zwar schon einige Ansätze, diese sind aber noch nicht sehr ausgereift und bedürfen weiterer Forschungen.

203 1.12 Wissens-darstellung Wissens-vermittlung

204 Erste Wissensdarstellung
Das Problem, welches sich der KI stellt, ist: „Eigentlich wissen wir gar nicht genau, was Wissen ist. Dennoch wollen wir es repräsentieren.“ Wie das Wissen in unseren Köpfen abgebildet ist, wird auch noch für längere Zeit Gegenstand der wissenschaftlichen Diskussion sein. Deshalb soll an den Anfang der Betrachtungen keine Definition von Wissen gestellt werden. Es gibt einfach zu viele. Stattdessen sollen einige Fragen aufgeworfen werden, die den zu untersuchenden Gegenstand – das Wissen – und dessen Darstellung aus verschiedenen Blickwinkeln betrachten.

205 Erste Wissensdarstellung
Der Mensch ist fortwährend den verschiedensten Umwelteinflüssen ausgesetzt. Ständig ändert sich um uns herum die Temperatur, der Luftdruck, das Licht, der Wind, die Wärme etc. In jeder Sekunde strömen unendliche Datenmengen auf uns ein. Informieren diese uns alle aber über irgendetwas? Um die Umweltreize als Informationen wahrzunehmen braucht man Sensoren, die diese Reize in verarbeitbare Informationen umwandeln.

206 Erste Wissensdarstellung
Sind diese Sensoren nicht vorhanden, können die Daten nicht verarbeitet werden. Ertönt ein Pfiff im Ultraschallbereich werden ihn die Hunde vielleicht als Information verstehen, die entsprechenden Sensoren sind bei ihnen vorhanden, für einen Menschen aber enthält er keine Information. Zudem kann es bei der Interpretation der Information selbst noch zu Fehlern kommen, da unrichtige Annahmen in der Denkstruktur des zu Unterrichtenden vorhanden sein können.

207 Vermitteln von Wissen

208 … und was passieren kann, wenn die Übermittlung scheitert

209 Wissenvermittelung Will man Wissen vermitteln, müssen Sender und Empfänger ein Medium besitzen, das beide verstehen und das zur Informationsübermittlung benutzt wird. Über dieses Medium hinaus wird eine gemeinsame Sprache benötigt, mit der man über den Lehr-/Lerngegenstand sprechen kann. Fehlt diese Sprache, führt das meist beim Lernenden zur Frustration, weil er das Wissen nicht in einer für ihn vertrauten Form aufnehmen kann.

210 Wissenvermittelung Nicht alles Wissen kann von uns erlebt, nachgeprüft oder erfahren werden. Wir haben uns also daran gewöhnt, Autoritäten (Lehrern, Medien) zu vertrauen und deren Erfahrungen zu übernehmen. Wissen, das durch Autoritäten vermittelt und nicht von uns selbst erfahren wurde, wird von uns leicht als Faktenwissen eingeordnet. Aber alle Fakten beruhen letztendlich auf den Erfahrungen und Erkenntnissen anderer Personen, mit allen Unsicherheiten, die dem Erfahrungswissen innewohnt.

211 Wissenvermittelung Auch das Gebäude der Wissenschaft ist nur ein Modell, mit dem man ganz gut arbeiten kann. Die Wahrheit über viele Naturphänomene ist uns aber noch bei weitem nicht bekannt. In vielen Bereichen ähneln wir immer noch dem 2D-Menschen, für den die dritte Dimension unbekannt ist. Sind wir vielleicht nur die klügste Ameise?

212 Probleme der eigenen Wissens-Struktur
Die uns eigene Wissensstruktur hat noch eine andere unangenehme Eigenschaft: sie ist voller Lücken und Fehler, die leider von uns nicht immer bemerkt werden. Meist vergessen wir, daß wir bei all unserem Wissen von der Annahme ausgehen, wir wüßten "was die Welt im Innersten zusammenhält". Leider basiert unser gesamtes Wissen auf einem Modell. Wie würden wir das perfekte Modell als solches erkennen, wenn wir es denn hätten?

213 Probleme der eigenen Wissens-Struktur
Wissen, das ins allgemein anerkannte Modell paßt, wird leicht und ohne Widerstand eingebaut. Bei Wissen aber, das in das herkömmliche Bild nicht paßt, kann es leicht passieren, daß der Bote schlechter Nachrichten (hier der Finder dieses inadäquaten Wissens) zu büßen hat. Man denke etwa an die frevelhafte Theorie, die Erde würde sich um die Sonne drehen und nicht umgekehrt.

214 Wissen ist immer unsicher
Jeder von uns sieht ein Objekt (z.B. einen Stuhl oder Tisch) anders. Jeder sieht die Farben ein klein wenig anders, eigentlich sehen wir nur die Reflexion des Lichts auf den Stuhl, jeder abstrahiert anders usw. Ja gibt es denn überhaupt kein gesichertes Wissen mehr? Vielleicht in der Mathematik? Jeder weiß schließlich, daß = 2 ist. Die Behauptung = 10 ist doch wohl lächerlich!

215 Wissen ist immer unsicher
Leider stimmt die erste Aussage aber nur, wenn man das Dezimalsystem annimmt. Innerhalb des Dualsystems ist die zweite Aussage auch richtig. Das verwendete Modell bestimmt also, ob eine als richtig anerkannte Wissenseinheit auch wirklich richtig ist. Diskutieren Sie, ob die Mathematik nicht doch gesichertes Wissen liefert! Was ist mit dem Beispiel?

216 Wissen ist immer unsicher
Was sehen Sie hier?

217 1.13 KI – heute und morgen 

218 Wo steht die Künstliche Intelligenz heute?
Viele Forschungsergebnisse der Künstlichen Intelligenz sind heute zwar in aller Munde, werden aber nicht mehr der Künstlichen Intelligenz zugeordnet. Als Beispiel sei hier die objektorientierte Programmierung genannt. Ausgangspunkte der objektorientierten Programmierung waren die framebasierten Systeme, die als Teil der wissensbasierten Systeme vor etwa 30 Jahren erfunden wurden.

219 Wo steht die Künstliche Intelligenz heute?
Aber nicht nur die Befruchtung von anderen Gebieten durch die Künstliche Intelligenz, sondern auch der umgekehrte Ansatz ist erkennbar. Die Künstliche Intelligenz wird vom Gebiet Rechnernetze zum Beispiel zur Entwicklung intelligenter Agenten angeregt, innerhalb der Datenbanken werden KI-Methoden zur Verwaltung verteilter Systeme verwendet, ebenso in unstrukturierten Daten (Information Retrieval). KI-Methoden zur Steuerung von Mikrosystemtechnik und zur Ferndiagnostik sind in der Entwicklung.

220 Und die Zukunft (technisch)?
Die KI ermöglicht in absehbarer Zukunft weniger die Lösung großer Probleme mit philosophischem Hintergrund sondern eher die intelligente Verbesserung menschlicher Lebensumstände Arm- und Beinprothesen Gehör- und Sehhilfen Einsätze in der Medizin Einsätze in Mikrosystemen Lern-Assistenten, die den Lerner unterstützen können, ohne den menschlichen Dozenten ganz überflüssig zu machen. Sprachverarbeitung

221 Und die Zukunft (technisch)?
Gedankensplitter zum intelligenten Umgang mit der KI: Technologie durch Technologie zähmen, Eigeninteresse der Firmen (sonst Produktverweigerung durch Kunden) Elektronische Partner, die sich auf die Einzelperson einstellen können (selbstlernende Programme) werden in Büros und Haushalten Verwendung finden.

222 Und die Zukunft (gesellschaftlich)?
Gedankensplitter zum intelligenten Umgang mit der KI: Schaffung von Agenten, die für den Nutzer arbeiten (eigenen Verbraucherschutz für alle, dadurch Schutz der Privatsphäre) Lernen durch Verstärkung (Belohnung für gutes Verhalten, Strafe für schlechtes) erweiterte Transparenz (Entwicklung von Erklärungskomponenten) Herausarbeiten von Subtexten

223 Und die Zukunft (gesellschaftlich)?
Gedankensplitter zum intelligenten Umgang mit der KI: Nutzung der KI zur fairen Moderation von Zielkonflikten Zielkonflikt: Teilnahme vieler unterschiedlicher Fachleute vs. zügige Planung/Umsetzung Gesellschaftsmodelle durch Multi-Agenten-Systeme simulieren Methoden der Spieltheorie anwenden Chance zu echter Demokratie ohne Ausbeutung?

224 Und die Zukunft (gesellschaftlich)?
Gedankensplitter zum intelligenten Umgang mit der KI: Aufbau intelligenter Infrastrukturen (z.B. dynamischer Netzstrukturen) mit öffentlich-privater Kooperation Netze, die ihre Form ändern und sich dynamisch wechselnden Bedarfen Bedürfnissen anpassen („smart grids“ mit integrierten Kommunikationssystemen) Heutige Infrastrukturen sind getrennt und unkoordiniert. Verkehr, Energie, Information, Verwaltung. Digitalisierung/Integration werden nötig.

225 Und die Zukunft (gesellschaftlich)?
Gedankensplitter zum intelligenten Umgang mit der KI: Künftige Informatiker/Ingenieure (Wissenschaftler allgemein) müssen vom Anfang der Ausbildung an zur Beachtung von gesellschaftlichen Folgen angehalten werden, nicht nur durch eine Alibispezialveranstaltung sondern als integraler Bestandteil aller praktischen Projekte.

226 Und die Zukunft (gesellschaftlich)?
Die gesellschaftlichen Veränderungen, die Big Data und KI gemeinsam hervorbringen, werden einer Revolution gleichkommen und jeden zutiefst betreffen. Das Nachdenken über die schon heute aktuellen politischen Konsequenzen hat bereits begonnen, muß aber intensiviert werden. Das politische Handeln sollte sich nicht in Verboten erschöpfen sondern verantwortungsvolles Denken fördern und so zu intelligentem Umgang mit der KI führen.

227 Und die Zukunft (gesellschaftlich)?
Gedankensplitter zum intelligenten Umgang mit der KI: Künftige Informatiker/Ingenieure (Wissenschaftler allgemein) müssen vom Anfang der Ausbildung an zur Beachtung von gesellschaftlichen Folgen angehalten werden, nicht nur durch eine Alibispezialveranstaltung sondern als integraler Bestandteil aller praktischen Projekte.

228 Und die Zukunft (gesellschaftlich)?
Die gesellschaftlichen Veränderungen, die Big Data und KI gemeinsam hervorbringen, werden einer Revolution gleichkommen und jeden zutiefst betreffen. Das Nachdenken über die schon heute aktuellen politischen Konsequenzen hat bereits begonnen, muß aber intensiviert werden. Das politische Handeln sollte sich nicht in Verboten erschöpfen sondern verantwortungsvolles Denken fördern und so zu intelligentem Umgang mit der KI führen.

229 Und wie steht es mit der Künstlichen Intelligenz als Wissenschaft in der Zukunft?
Wie bei allen anderen Wissenschaften auch, etwa der Informatik, stehen am Anfang einer neuen Wissenschaft ein oder mehrere Wissensgebiete, die Teildisziplinen abspalten und einem neuen Gebiet zuordnen. Im Unterschied zur Informatik, die sich in ihrem theoretischen Teil von der Mathematik und in ihrem technischen Teil von der Elektrotechnik und der Physik abtrennte, hatte die Künstliche Intelligenz schon seit der Startphase viele Mütter und Väter. Heute wird sie (vielleicht fälschlicherweise) meist der Informatik zugeordnet. Schwerpunkte der Künstlichen Intelligenz sind aber zumindest Philosophie, Informatik, Mathematik, Psychologie und Sprachwissenschaft.

230 Und die Zukunft ? Sollte die KI sich zu einem eigenständigen Studiengang weiterentwickeln?  Hindernisse: die sehr aufwendige KI-Forschung mit allen beschriebenen Problemen und der Graben zwischen Natur- und Geisteswissenschaft, manchmal auch noch Technik; aber die Künstliche Intelligenz gehört allen diesen Wissenschaften an. Die Informatik hatte am Anfang mit ähnlichen Problemen zu kämpfen wie die Künstliche Intelligenz heute. Ist die Künstliche Intelligenz der Zukunft ein eigenständiges Wissensgebiet? Dann sollte es seine Interdisziplinarität niemals verlieren.


Herunterladen ppt "Einführung in die KI - Einleitung"

Ähnliche Präsentationen


Google-Anzeigen