Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Projektgruppe KIMAS NN in MAS

Ähnliche Präsentationen


Präsentation zum Thema: "Projektgruppe KIMAS NN in MAS"—  Präsentation transkript:

1 Projektgruppe KIMAS NN in MAS
Thomas Heinen In diesem Vortrag stelle ich Neuronale Netze und ihre Möglichkeiten in Multiagentensystemen vor. Bitte beachtet, daß in der Ausarbeitung noch weitere Kapitel vorhanden sind. So werden dort weitere Lernregeln, diverse Klassen Neuronaler Netze und eine Kombination von NN und Genetischen Algorithmen tiefer erläutert. Projektgruppe KIMAS – Neuronale Netze in MAS

2 Motivation + Definition Geschichte Original und „Fälschung“
Inhalt Motivation + Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS

3 Motivation Was ist das Besondere an künstlichen neuronalen Netzen ?
Natürliches Lernprinzip anpassungsfähig Was für Anwendungen ? Mustererkennung Regelung Einordnung von Text, Bildern, … (sogenanntes Clustering) usw. Mustererkennung: Schrift- und Spracherkennung sind zwei populäre Beispiele, die sehr an die natürliche Erfüllung dieser Aufgaben angelehnt sind. Regelung: Aufzugsysteme werden neuerdings nichtmehr mit Fuzzy Logic kontrolliert. Sie können sich so gut an zeitgemäßem Bedarf orientieren und die Wartezeiten auf Kabinen minimieren. Schätzen: NN ermöglichen zum Beispiel Clustering zur automatischen Textsortierung, zum Beispiel nach Themen. Populärstes Beispiel ist die automatisch generierte Nachrichtenübersicht bei Projektgruppe KIMAS – Neuronale Netze in MAS

4 Definitionsversuche FAQ der comp.ai.neural-nets:
“An ANN is a network of many very simple processors, each possibly having a local memory. The units are connected by unidirectional communication channels, which carry numeric data. The units operate only on their local data and on the inputs they receive via the connection” DARPA, 1988: “A neural network is a system composed of many simple processing elements operating in parallel whose function is determined by network structure, connection strengths, and the processing performed at computing elements or nodes” Eine allgemeingültige, formale Definition ist bisher nicht gelungen. Dies resultiert aus der unglaublichen Flexibilität des Themas. Es gibt unzählige Topologien, Funktionen und Lernregeln. Daher sind diese zwei Definitionen nur exemplarisch und von bekannteren Quellen. Allen gemein sind aber einige Elemente: Der Begriff eines Netzwerks, vieler „Prozessoren“ (Neuronen also), Verbindungen mit Gewichten und ein gewisser Grad an Parallelität Projektgruppe KIMAS – Neuronale Netze in MAS

5 Randbedingungen Neuronale Netze sind bei gewissen Randbedingungen am leistungsfähigsten: Viele Trainingsdaten Gegebenenfalls jemanden, der das Lernen überwacht Genug Zeit zum Lernen Gut ausbalancierte Trainingsdaten Man darf von NN keine Wunder erwarten. Sie sind biologisch motiviert und Kinder lernen auch über Jahre. Im Gegensatz zur natürlichen Variante sind aber künstliche NN wesentlich simpler. Sie brauchen viele gute Trainingsdaten und jemanden der sie durch die Aufgabe führt (Stichworte „supervised“ und „unsupervised learning“). Projektgruppe KIMAS – Neuronale Netze in MAS

6 Projekt zur Panzererkennung der DARPA (80er Jahre)
Das Panzer-Problem Keine Erfolgsstory: Projekt zur Panzererkennung der DARPA (80er Jahre) Das Projekt verlief erfolgreich mit den Trainingsdaten und den Prüfdaten. Jedoch bei Photos anderer Reihen ging die Erkennung schief. Nach Forschungen stellte sich heraus, daß die Bilder mit Panzern bei gutem, die ohne bei schlechtem Wetter aufgenommen wurden – das NN hatte nur gelernt, das Wetter zu erkennen… „Panzer gefunden“ ? „kein Panzer“ !? Die volle Story unter Projektgruppe KIMAS – Neuronale Netze in MAS

7 Motivation + Definition Geschichte Original und „Fälschung“
Inhalt Motivation + Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS

8 Geschichte: 1942-1955 Erste Betrachtungen 1942 von McCulloch/Pitts:
Untersuchung der Fähigkeiten von NN Beweis, daß NN jede arithmetische/logische Funktion lösen Donald Hebb beschreibt eine universelle Lernregel 1949 Noch immer Basis vieler moderner Ansätze Weitere psychologische und neuropsychologische Arbeiten Projektgruppe KIMAS – Neuronale Netze in MAS

9 Geschichte: Das „Perzeptron“ als einfache Architektur eines NN wird entwickelt. Erster echter Neurocomputer 1957 (Mark I Perceptron) Gewichte mit 512 motorbetriebenen Potentiomentern Erkennung einfacher Ziffern mit 20*20 Sensoren Erste Neurocomputing-Firma „Memistor Corporation“ Glaube, universelle Lernprinzipien entdeckt zu haben Fehleinschätzung und erstes Motivationstief Projektgruppe KIMAS – Neuronale Netze in MAS

10 Geschichte: Minsky/Papert untersuchen das „Perzeptron“ 1969 theoretisch Schock: Nicht alle Probleme lösbar („XOR-Problem“) Warum? Erläutere ich im 5. Abschnitt des Vortrags … Diese Erkenntnis lässt es fast 15 Jahre still werden um die NN Weitergehende theoretische Forschung Backpropagation Lernregel Stereosehen mit Neuronalen Netzen Hopfield-Netze, Neocognitron, ART und viele andere Projektgruppe KIMAS – Neuronale Netze in MAS

11 Geschichte: 1984- Schwierige Optimierungsaufgaben als praxistaugliche Beispiele Traveling Salesman Problem durch Hopfield Backpropagation wird verbessert (ab 1986) Höheres Lerntempo durch ausgefeilte Optimierungen Viele Anwendungen werden erschlossen: NN lernen das Vorlesen von Text Neurocomputer von Siemens Robotikanwendungen Projektgruppe KIMAS – Neuronale Netze in MAS

12 Motivation + Definition Geschichte Original und „Fälschung“
Inhalt Motivation + Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS

13 Das Original Neuronen im Gehirn: Abertausendfach verbunden:
2.000 – Eingangssignale 1.000 – Ausgangssignale Geschätzte 110 Milliarden Neuronen Elektrische Signalisierung Umfangreiche chemische Einflüsse: Neurotransmitter (Serotonin, Taurin, …) Neuropeptide (Endorphine, …) Projektgruppe KIMAS – Neuronale Netze in MAS

14 Die Fälschung Neuronen im Computer: Geringere Ein- und Ausgangszahlen:
10 – 100 Eingangssignale noch weniger Ausgangssignale 100 – Neuronen insgesamt Signalisierung durch Numerische Werte Chemie meist nicht berücksichtigt Aufteilung: Eingabeschicht Verdeckte Schichten Ausgabeschicht Projektgruppe KIMAS – Neuronale Netze in MAS

15 Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit
Inhalt Motivation Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS

16 Komponenten: Neuronen
Begriff für eine „Recheneinheit“ in einem Neuronalen Netz Nur „lokale Sicht“ auf Vorgänger im Netz und sich selbst Bekommt mehrere Eingaben, berechnet einen Ausgabewert Berechnung erfolgt durch verschiedenen Funktionen Projektgruppe KIMAS – Neuronale Netze in MAS

17 Komponenten: Funktionen
Aggregationsfunktion Fassen Eingangssignale zusammen zu einem Wert (z.B. Summe). Gegebenenfalls wird das Ergebnis noch skaliert Aktivierungsfunktion Berechnet den Ausgabewert. Verschiedene Funktionen: binär, linear, sigmoid („s-förmig“) Aggregation: Aus vielen gewichteten Werten wird ein Eingangswert gebildet (Addition, Multiplikation, …) Aktivierung: Aus dem Eingangswert wird eine „Aktivierung“ berechnet. Die Übergangsfunktion kann zum Beispiel binär sein, linear, oder „sigmoid“ (also S-förmig). Letztere werden gerne genommen, da sie auch bei kleinen Eingabeänderungen Auswirkungen haben, aber große Änderungen nicht über Gebühr bewerten. Ausgabe: Manche Netze ermitteln aus der Aktivierung einen anderen Ausgabewert (zum Beispiel normiert auf einen Bereich von 0 bis 1). Meistens wird diese Anpassung aber direkt in der Aktivierungsfunktion durchgeführt. Aktivierungs- und Ausgabefunktion werden gemeinhin zusammengefasst und einfach wieder „Aktivierungsfunktion“ genannt. Projektgruppe KIMAS – Neuronale Netze in MAS

18 Komponenten: Topologie
Art des Verbindungsschemas bestimmt Funktion des Netzes Verschiedenste Arten von Topologien: Vollständig verbundene Netze Jedes Neuron einer Schicht hat Verbindungen zu allen der vorherigen. Vorwärtsgerichtete Netze Es gibt immer nur Verbindungen Richtung Ausgabeschicht Rekurrente Netze Ausgaben werden auch an Vorgängerzellen zurückgegeben Projektgruppe KIMAS – Neuronale Netze in MAS

19 Komponenten: Gewichte
Eingaben haben eine Priorität, ein sogenanntes „Gewicht“ Jeder Eingabewert wird mit seinem Gewicht multipliziert Diese Werte faßt die Aggregationsfunktion zusammen. Vorgänger können auch ignoriert werden (Nullgewicht) Selber Effekt wie eine fehlende Verbindung zum Vorgänger Meist werden die Gewichte als Adjazenzmatrix gespeichert. Berechnungsvorgang dann durch Matrizenmultiplikation Projektgruppe KIMAS – Neuronale Netze in MAS

20 Komponenten: Lernregel
Bisherige verändert sich nichts beim NN. Woher kommt das „Lernen ?“ Fehler bei der Erkennung werden durch das Netz zurückgeleitet. Dabei werden die bestehenden Gewichte der Verbindungen geändert. Fehler werden von außen durch Trainer signalisiert: Richtig / Falsch Prozentualer Wert der Richtigkeit Komplexere Beschreibungen der Abweichung („Fehlervektor“) „Lernregeln“ berechnen die Gewichtsänderung abhängig vom signalisierten Fehler. Projektgruppe KIMAS – Neuronale Netze in MAS

21 Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit
Inhalt Motivation Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS

22 Hebbsche Lernregel Entwickelt schon 1949 von Donald Hebb
Urvater der meisten moderneren Lernverfahren Parameter: wij Gewichtsänderung der Verbindung von Neuron i zu Neuron j n Lerngeschwindigkeit (Konstanter Wert) oi Ausgabe der Vorgängerzelle i aj Aktivierung der Nachfolgezelle j Projektgruppe KIMAS – Neuronale Netze in MAS

23 Perzeptron: Einstufig
Eine der ersten Strukturen in der Forschung zu Neuronalen Netzen Eingabe ist mit Sensormatrix verbunden Einsatz einer binären Aktivierung (Ausgabe „ja“ und „nein“) Mathematisch formuliert: Durch den Raum der Eingaben wird eine Ebene gelegt, die die „falschen“ von den „richtigen“ Aussagen trennt Projektgruppe KIMAS – Neuronale Netze in MAS

24 Perzeptron: Das XOR-Problem
Untersuchung des Perzeptrons war der Stolperstein der NN 1969: Erkenntnis, daß nicht alle Probleme „linear separierbar“ sind Die XOR-Funktion wird dann wahr, wenn die Eingaben gleich sind Nicht durch eine Linie aufzuteilen Die Funktion ist nicht abzubilden. Folgerung von Minsky `69: Perzeptrons können nur linear separierbare Probleme lösen Projektgruppe KIMAS – Neuronale Netze in MAS

25 Perzeptron: zweistufig
Neuron Nr.6 bekommt die Funktion eines AND: Gewichte zum Neuron 6 sind jeweils fest auf 0.3 Das sechste Neuron wird erst bei 0.3 * 3 = 0.9 wahr Projektgruppe KIMAS – Neuronale Netze in MAS

26 Perzeptron: Akzeptanzbereiche
Einfaches Perzeptron: Akzeptanz durch lineare Separierung Zweistufiges Perzeptron: Komplexere Akzeptanz durch logische Verknüpfungen Es gibt auch noch dreistufige Perzeptrons, die dann Schnittmengen von Polygonen repräsentieren können. Auch diese können nicht alle Probleme lösen, sind aber damit viel mächtiger als zweistufige. Perzeptrons mit mehr als drei Stufen haben laut Untersuchungen keine weiteren Eigenschaften mehr. Damit ist klar, daß die Folgerung von Minsky und Papert falsch war. Projektgruppe KIMAS – Neuronale Netze in MAS

27 Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit
Inhalt Motivation Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS

28 Pro Biologisch motiviert
Intelligenz durch Imitation der Natur, wenngleich in abgespeckter Form (Vernachlässigung der Chemie, kleinere Dimensionen) Sehr anpassungsfähig Neuronale Netze können als sogenanntes online-Lernverfahren auch nach dem Training noch lernen. Viele andre Lernverfahren sind dagegen „offline“ (zum Beispiel Genetische Algorithmen) Projektgruppe KIMAS – Neuronale Netze in MAS

29 Contra Relativ hoher Trainingsaufwand
In unserem Fall müßte man im Training vermutlich hunderte Spiele durchlaufen lassen. Probleme der Flexibilität Bei einer Strategieänderung des „Gegners“ wäre eine neue Trainingsphase das beste => wieder hunderte Spiele. Projektgruppe KIMAS – Neuronale Netze in MAS

30 Das Fazit vom Fazit Neuronale Netze sind keine generelle Lösung
Wir sollten eine Kombination von Lernverfahren nutzen Beispielsweise schnelle offline-Lernverfahren für generelle Strategien Neuronale Netze für schnelle Anpassungen Projektgruppe KIMAS – Neuronale Netze in MAS

31 Werbung :) In der Ausarbeitung wesentlich mehr Stoff:
Details zu natürlichen NN Kategorisierung von Neuronalen Netzen Zwei weitere, modernere Lernregeln Neuronale Netze und Genetische Algorithmen im Zusammenspiel Projektgruppe KIMAS – Neuronale Netze in MAS


Herunterladen ppt "Projektgruppe KIMAS NN in MAS"

Ähnliche Präsentationen


Google-Anzeigen