Projektgruppe KIMAS NN in MAS

Slides:



Advertisements
Ähnliche Präsentationen
Präsentiert von Torben Pastuch
Advertisements

Seminarankündigung für das SS04
Perceptrons and the perceptron learning rule
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
Wismar Business School
Ein Neuronales Netz könnte lernen indem es …
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
Einführung in NeuroFuzzy Technologien
Die vorgeschlagene adaptive Methode filtriert die TCP/IP Verkehr auf der Basis von dem adaptiven Lernen einer KNN mit Paketen-Headers, die verschiedenen.
Marvin Minsky und das Perceptron
Neuronale Netze Von Kay-Patrick Wittbold.
Einführung Übersicht Einsatz der Zielwertsuche Einsatz des Solvers
Genetische Algorithmen
Neuronale Netze Inhalt des Vortrags:
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
Computerkurs: Quantitative Auswertung biochemischer Experimente Guten Morgen.
Seminar parallele Programmierung SS 2003
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
in den Sportwissenschaften
Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik, Universität Rostock Programmierung eingebetteter.
Algorithmen und Komplexität
1/25 UNIVERSITY OF PADERBORN Projektgruppe KIMAS Projektgruppe KIMAS MultiAgenten-Systeme Andreas Goebels.
zur Vorlesung Neuronale Netzwerke
Künstliche I ntelligenz Intelligenz ? Bremen, den Beitrag zur Lehrveranstaltung Informatiker - Hochbezahlte Gurus oder nützliche Idioten von.
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
Neuronale Netze Romy Kuttner, Franco Haberland.
Wismar Business School
Computational Intelligence: Grundlagen Neuronaler Netze (NN)
2 5 SS 2006V_4_Fuzzy_Control_Teil2 1 Was ist CI (Computational Intelligence) Jörg Krone, Ulrich Lehmann, Hans Brenig, Oliver Drölle, Udo Reitz, Michael.
Künstlich Neuronale Netze
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Andere Paradigmen Inhalt dieses Kapitels 8.1 Induktive Logik-Programmierung.
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Neuronale Netze 2 (Mitchell Kap. 4)
Neuronale Netze Teil II.
? Was ist Informatik? Was ist Informatik? Alexander Lange
DataMining Von Daten zu Informationen und Wissen
Abschlussvortrag zur Studienarbeit
Why connectionism? Backpropagation Netzwerke
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Adaptive Systeme-2 Grundlagen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Folie 1 Kapitel IV. Matrizen Inhalt: Matrizen als eigenständige mathematische Objekte Zusammenhang zwischen Matrizen und linearen Abbildungen Produkt von.
Neuronale Netze.
Neuronale Netze Nachtrag Perzeptron
Neuronale Netze (1) Isabel Schwende
Praktische Optimierung
Künstliches Neuronales Netz nach John Hopfield
Modellbildung und Simulation
Klassifikation und Regression mittels neuronaler Netze
Leseförderung als Element von Schulentwicklung  zwei miteinander verknüpfte Probleme Implementation von Leseförderung an Schulen (PPM) Implementation.
Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Evolutionärer Entwurf neuronaler Netze
SS 2009Maschinelles Lernen und Neural Computation 133 Kapitel 7: Ensemble Methoden.
Lernen 1. Vorlesung Ralf Der Universität Leipzig Institut für Informatik
Design und Optimierung optischer Systeme durch Neuronale Netze und Genetische Algorithmen.
Programmiersprachen II Vorbesprechung Klausur Prof. Dr. Reiner Güttler Fachbereich GIS HTW.
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Kulturschock Was bedeutet der Auslandsaufenthalt für
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
PCA Principal Component Analysis. Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung.
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Prognose von Zeitreihen Hans Nübel Hans Nübel Prognose von Zeitreihen Aufbau 1.Motivation 2.Holt-Winters-Verfahren 3.Prognose.
Einführung Grundlagen Zwischenfazit Deep Learning Probleme Fazit
Emanuel Mistretta Lukas Schönbächler
Simple Recurrent Networks
 Präsentation transkript:

Projektgruppe KIMAS NN in MAS 10.09.2003 Thomas Heinen In diesem Vortrag stelle ich Neuronale Netze und ihre Möglichkeiten in Multiagentensystemen vor. Bitte beachtet, daß in der Ausarbeitung noch weitere Kapitel vorhanden sind. So werden dort weitere Lernregeln, diverse Klassen Neuronaler Netze und eine Kombination von NN und Genetischen Algorithmen tiefer erläutert. Projektgruppe KIMAS – Neuronale Netze in MAS

Motivation + Definition Geschichte Original und „Fälschung“ Inhalt Motivation + Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS

Motivation Was ist das Besondere an künstlichen neuronalen Netzen ? Natürliches Lernprinzip anpassungsfähig Was für Anwendungen ? Mustererkennung Regelung Einordnung von Text, Bildern, … (sogenanntes Clustering) usw. Mustererkennung: Schrift- und Spracherkennung sind zwei populäre Beispiele, die sehr an die natürliche Erfüllung dieser Aufgaben angelehnt sind. Regelung: Aufzugsysteme werden neuerdings nichtmehr mit Fuzzy Logic kontrolliert. Sie können sich so gut an zeitgemäßem Bedarf orientieren und die Wartezeiten auf Kabinen minimieren. Schätzen: NN ermöglichen zum Beispiel Clustering zur automatischen Textsortierung, zum Beispiel nach Themen. Populärstes Beispiel ist die automatisch generierte Nachrichtenübersicht bei http://news.google.de/ Projektgruppe KIMAS – Neuronale Netze in MAS

Definitionsversuche FAQ der comp.ai.neural-nets: “An ANN is a network of many very simple processors, each possibly having a local memory. The units are connected by unidirectional communication channels, which carry numeric data. The units operate only on their local data and on the inputs they receive via the connection” DARPA, 1988: “A neural network is a system composed of many simple processing elements operating in parallel whose function is determined by network structure, connection strengths, and the processing performed at computing elements or nodes” Eine allgemeingültige, formale Definition ist bisher nicht gelungen. Dies resultiert aus der unglaublichen Flexibilität des Themas. Es gibt unzählige Topologien, Funktionen und Lernregeln. Daher sind diese zwei Definitionen nur exemplarisch und von bekannteren Quellen. Allen gemein sind aber einige Elemente: Der Begriff eines Netzwerks, vieler „Prozessoren“ (Neuronen also), Verbindungen mit Gewichten und ein gewisser Grad an Parallelität Projektgruppe KIMAS – Neuronale Netze in MAS

Randbedingungen Neuronale Netze sind bei gewissen Randbedingungen am leistungsfähigsten: Viele Trainingsdaten Gegebenenfalls jemanden, der das Lernen überwacht Genug Zeit zum Lernen Gut ausbalancierte Trainingsdaten Man darf von NN keine Wunder erwarten. Sie sind biologisch motiviert und Kinder lernen auch über Jahre. Im Gegensatz zur natürlichen Variante sind aber künstliche NN wesentlich simpler. Sie brauchen viele gute Trainingsdaten und jemanden der sie durch die Aufgabe führt (Stichworte „supervised“ und „unsupervised learning“). Projektgruppe KIMAS – Neuronale Netze in MAS

Projekt zur Panzererkennung der DARPA (80er Jahre) Das Panzer-Problem Keine Erfolgsstory: Projekt zur Panzererkennung der DARPA (80er Jahre) Das Projekt verlief erfolgreich mit den Trainingsdaten und den Prüfdaten. Jedoch bei Photos anderer Reihen ging die Erkennung schief. Nach Forschungen stellte sich heraus, daß die Bilder mit Panzern bei gutem, die ohne bei schlechtem Wetter aufgenommen wurden – das NN hatte nur gelernt, das Wetter zu erkennen… „Panzer gefunden“ ? „kein Panzer“ !? Die volle Story unter http://neil.fraser.name/writing/tank/ Projektgruppe KIMAS – Neuronale Netze in MAS

Motivation + Definition Geschichte Original und „Fälschung“ Inhalt Motivation + Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS

Geschichte: 1942-1955 Erste Betrachtungen 1942 von McCulloch/Pitts: Untersuchung der Fähigkeiten von NN Beweis, daß NN jede arithmetische/logische Funktion lösen Donald Hebb beschreibt eine universelle Lernregel 1949 Noch immer Basis vieler moderner Ansätze Weitere psychologische und neuropsychologische Arbeiten Projektgruppe KIMAS – Neuronale Netze in MAS

Geschichte: 1955-1969 Das „Perzeptron“ als einfache Architektur eines NN wird entwickelt. Erster echter Neurocomputer 1957 (Mark I Perceptron) Gewichte mit 512 motorbetriebenen Potentiomentern Erkennung einfacher Ziffern mit 20*20 Sensoren Erste Neurocomputing-Firma „Memistor Corporation“ Glaube, universelle Lernprinzipien entdeckt zu haben Fehleinschätzung und erstes Motivationstief Projektgruppe KIMAS – Neuronale Netze in MAS

Geschichte: 1969-1984 Minsky/Papert untersuchen das „Perzeptron“ 1969 theoretisch Schock: Nicht alle Probleme lösbar („XOR-Problem“) Warum? Erläutere ich im 5. Abschnitt des Vortrags … Diese Erkenntnis lässt es fast 15 Jahre still werden um die NN Weitergehende theoretische Forschung Backpropagation Lernregel Stereosehen mit Neuronalen Netzen Hopfield-Netze, Neocognitron, ART und viele andere Projektgruppe KIMAS – Neuronale Netze in MAS

Geschichte: 1984- Schwierige Optimierungsaufgaben als praxistaugliche Beispiele Traveling Salesman Problem durch Hopfield Backpropagation wird verbessert (ab 1986) Höheres Lerntempo durch ausgefeilte Optimierungen Viele Anwendungen werden erschlossen: NN lernen das Vorlesen von Text Neurocomputer von Siemens Robotikanwendungen Projektgruppe KIMAS – Neuronale Netze in MAS

Motivation + Definition Geschichte Original und „Fälschung“ Inhalt Motivation + Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS

Das Original Neuronen im Gehirn: Abertausendfach verbunden: 2.000 – 150.000 Eingangssignale 1.000 – 10.000 Ausgangssignale Geschätzte 110 Milliarden Neuronen Elektrische Signalisierung Umfangreiche chemische Einflüsse: Neurotransmitter (Serotonin, Taurin, …) Neuropeptide (Endorphine, …) Projektgruppe KIMAS – Neuronale Netze in MAS

Die Fälschung Neuronen im Computer: Geringere Ein- und Ausgangszahlen: 10 – 100 Eingangssignale noch weniger Ausgangssignale 100 – 10.000 Neuronen insgesamt Signalisierung durch Numerische Werte Chemie meist nicht berücksichtigt Aufteilung: Eingabeschicht Verdeckte Schichten Ausgabeschicht Projektgruppe KIMAS – Neuronale Netze in MAS

Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Inhalt Motivation Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS

Komponenten: Neuronen Begriff für eine „Recheneinheit“ in einem Neuronalen Netz Nur „lokale Sicht“ auf Vorgänger im Netz und sich selbst Bekommt mehrere Eingaben, berechnet einen Ausgabewert Berechnung erfolgt durch verschiedenen Funktionen Projektgruppe KIMAS – Neuronale Netze in MAS

Komponenten: Funktionen Aggregationsfunktion Fassen Eingangssignale zusammen zu einem Wert (z.B. Summe). Gegebenenfalls wird das Ergebnis noch skaliert Aktivierungsfunktion Berechnet den Ausgabewert. Verschiedene Funktionen: binär, linear, sigmoid („s-förmig“) Aggregation: Aus vielen gewichteten Werten wird ein Eingangswert gebildet (Addition, Multiplikation, …) Aktivierung: Aus dem Eingangswert wird eine „Aktivierung“ berechnet. Die Übergangsfunktion kann zum Beispiel binär sein, linear, oder „sigmoid“ (also S-förmig). Letztere werden gerne genommen, da sie auch bei kleinen Eingabeänderungen Auswirkungen haben, aber große Änderungen nicht über Gebühr bewerten. Ausgabe: Manche Netze ermitteln aus der Aktivierung einen anderen Ausgabewert (zum Beispiel normiert auf einen Bereich von 0 bis 1). Meistens wird diese Anpassung aber direkt in der Aktivierungsfunktion durchgeführt. Aktivierungs- und Ausgabefunktion werden gemeinhin zusammengefasst und einfach wieder „Aktivierungsfunktion“ genannt. Projektgruppe KIMAS – Neuronale Netze in MAS

Komponenten: Topologie Art des Verbindungsschemas bestimmt Funktion des Netzes Verschiedenste Arten von Topologien: Vollständig verbundene Netze Jedes Neuron einer Schicht hat Verbindungen zu allen der vorherigen. Vorwärtsgerichtete Netze Es gibt immer nur Verbindungen Richtung Ausgabeschicht Rekurrente Netze Ausgaben werden auch an Vorgängerzellen zurückgegeben Projektgruppe KIMAS – Neuronale Netze in MAS

Komponenten: Gewichte Eingaben haben eine Priorität, ein sogenanntes „Gewicht“ Jeder Eingabewert wird mit seinem Gewicht multipliziert Diese Werte faßt die Aggregationsfunktion zusammen. Vorgänger können auch ignoriert werden (Nullgewicht) Selber Effekt wie eine fehlende Verbindung zum Vorgänger Meist werden die Gewichte als Adjazenzmatrix gespeichert. Berechnungsvorgang dann durch Matrizenmultiplikation Projektgruppe KIMAS – Neuronale Netze in MAS

Komponenten: Lernregel Bisherige verändert sich nichts beim NN. Woher kommt das „Lernen ?“ Fehler bei der Erkennung werden durch das Netz zurückgeleitet. Dabei werden die bestehenden Gewichte der Verbindungen geändert. Fehler werden von außen durch Trainer signalisiert: Richtig / Falsch Prozentualer Wert der Richtigkeit Komplexere Beschreibungen der Abweichung („Fehlervektor“) „Lernregeln“ berechnen die Gewichtsänderung abhängig vom signalisierten Fehler. Projektgruppe KIMAS – Neuronale Netze in MAS

Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Inhalt Motivation Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS

Hebbsche Lernregel Entwickelt schon 1949 von Donald Hebb Urvater der meisten moderneren Lernverfahren Parameter: wij Gewichtsänderung der Verbindung von Neuron i zu Neuron j n Lerngeschwindigkeit (Konstanter Wert) oi Ausgabe der Vorgängerzelle i aj Aktivierung der Nachfolgezelle j Projektgruppe KIMAS – Neuronale Netze in MAS

Perzeptron: Einstufig Eine der ersten Strukturen in der Forschung zu Neuronalen Netzen Eingabe ist mit Sensormatrix verbunden Einsatz einer binären Aktivierung (Ausgabe „ja“ und „nein“) Mathematisch formuliert: Durch den Raum der Eingaben wird eine Ebene gelegt, die die „falschen“ von den „richtigen“ Aussagen trennt Projektgruppe KIMAS – Neuronale Netze in MAS

Perzeptron: Das XOR-Problem Untersuchung des Perzeptrons war der Stolperstein der NN 1969: Erkenntnis, daß nicht alle Probleme „linear separierbar“ sind Die XOR-Funktion wird dann wahr, wenn die Eingaben gleich sind Nicht durch eine Linie aufzuteilen Die Funktion ist nicht abzubilden. Folgerung von Minsky `69: Perzeptrons können nur linear separierbare Probleme lösen Projektgruppe KIMAS – Neuronale Netze in MAS

Perzeptron: zweistufig Neuron Nr.6 bekommt die Funktion eines AND: Gewichte zum Neuron 6 sind jeweils fest auf 0.3 Das sechste Neuron wird erst bei 0.3 * 3 = 0.9 wahr Projektgruppe KIMAS – Neuronale Netze in MAS

Perzeptron: Akzeptanzbereiche Einfaches Perzeptron: Akzeptanz durch lineare Separierung Zweistufiges Perzeptron: Komplexere Akzeptanz durch logische Verknüpfungen Es gibt auch noch dreistufige Perzeptrons, die dann Schnittmengen von Polygonen repräsentieren können. Auch diese können nicht alle Probleme lösen, sind aber damit viel mächtiger als zweistufige. Perzeptrons mit mehr als drei Stufen haben laut Untersuchungen keine weiteren Eigenschaften mehr. Damit ist klar, daß die Folgerung von Minsky und Papert falsch war. Projektgruppe KIMAS – Neuronale Netze in MAS

Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Inhalt Motivation Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS

Pro Biologisch motiviert Intelligenz durch Imitation der Natur, wenngleich in abgespeckter Form (Vernachlässigung der Chemie, kleinere Dimensionen) Sehr anpassungsfähig Neuronale Netze können als sogenanntes online-Lernverfahren auch nach dem Training noch lernen. Viele andre Lernverfahren sind dagegen „offline“ (zum Beispiel Genetische Algorithmen) Projektgruppe KIMAS – Neuronale Netze in MAS

Contra Relativ hoher Trainingsaufwand In unserem Fall müßte man im Training vermutlich hunderte Spiele durchlaufen lassen. Probleme der Flexibilität Bei einer Strategieänderung des „Gegners“ wäre eine neue Trainingsphase das beste => wieder hunderte Spiele. Projektgruppe KIMAS – Neuronale Netze in MAS

Das Fazit vom Fazit Neuronale Netze sind keine generelle Lösung Wir sollten eine Kombination von Lernverfahren nutzen Beispielsweise schnelle offline-Lernverfahren für generelle Strategien Neuronale Netze für schnelle Anpassungen Projektgruppe KIMAS – Neuronale Netze in MAS

Werbung :) In der Ausarbeitung wesentlich mehr Stoff: Details zu natürlichen NN Kategorisierung von Neuronalen Netzen Zwei weitere, modernere Lernregeln Neuronale Netze und Genetische Algorithmen im Zusammenspiel Projektgruppe KIMAS – Neuronale Netze in MAS