Ingo Rechenberg PowerPoint-Folien zur 8. Vorlesung Biosensorik / Bionik II Organisches Rechnen (Organic Computing) Struktur und Arbeitsweise neuronaler.

Slides:



Advertisements
Ähnliche Präsentationen
Selbstorganisation und Lernen
Advertisements

Seminarankündigung für das SS04
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
PowerPoint-Folien zur 2. Vorlesung „Bionik I“
Übersicht zu Verfahren des Soft Computing
Einführung in NeuroFuzzy Technologien
Die vorgeschlagene adaptive Methode filtriert die TCP/IP Verkehr auf der Basis von dem adaptiven Lernen einer KNN mit Paketen-Headers, die verschiedenen.
Neuronen, Modelle, Anwendungen Florian Kaiser
Neuronale Netze Von Kay-Patrick Wittbold.
Prof. Dr. Holger Schlingloff
Neuronale Netze Inhalt des Vortrags:
Berechnen Sie den Output Vektor wenn der Input Vektor (1,1,-1,-1) ist.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
PowerPoint-Folien zur 10. Vorlesung „Bionik I“
PowerPoint-Folien zur 5. Vorlesung „Evolutionsstrategie II“
PowerPoint-Folien zur 6. Vorlesung „Bionik II / Biosensorik“
Ingo Rechenberg PowerPoint-Folien zur 6. Vorlesung Evolutionsstrategie II Theorie: Vom Kugelmodell zum Gratmodell Nachgerechnet: Von der Urbakterie zum.
Ingo Rechenberg PowerPoint-Folien zur 6. Vorlesung Evolutionsstrategie I Handlungsregeln, die aus der nichtlinearen Theorie der (1 + 1) - ES folgen.
PowerPoint-Folien zur 4. Vorlesung „Evolutionsstrategie II“
6. Vorlesung Evolutionsstrategie I
PowerPoint-Folien zur 3. Vorlesung „Bionik I“
Ingo Rechenberg PowerPoint-Folien zur 2. Vorlesung Evolutionsstrategie I Logik des Experimentierens und Optimierens - Starke und Schwache Kausalität.
PowerPoint-Folien zur 7. Vorlesung „Evolutionsstrategie II“
Algorithmus der (1 + 1) – ES mit 1/5-Erfolgsregel in der Minimalform { {
Ingo Rechenberg PowerPoint-Folien zur 8. Vorlesung Evolutionsstrategie I Von der (1 + 1) - ES mit 1/5-Erfolgsregel zur (1, ) - ES mit mutativer Schrittweitenregelung.
PowerPoint-Folien zur 7. Vorlesung „Evolutionsstrategie II“
Ingo Rechenberg PowerPoint-Folien zur 6. Vorlesung Evolutionsstrategie II Theorie: Vom Kugelmodell zum Gratmodell Nachgerechnet: Von der Urbakterie zum.
PowerPoint-Folien zur 7. Vorlesung „Evolutionsstrategie I“
PowerPoint-Folien zur 5. Vorlesung „Evolutionsstrategie I“
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
Wie eine Nervenzelle funktioniert
Ingo Rechenberg PowerPoint-Folien zur 7. Vorlesung Evolutionsstrategie II Die goldene Regel der Evolution, das größte kleine Sechseck und das Maximum-Minimum-Distanz-Problem.
PowerPoint-Folien zur 6. Vorlesung „Bionik II / Biosensorik“
PowerPoint-Folien zur 10. Vorlesung „Evolutionsstrategie I“
Organisches Rechnen (Organic Computing)
Wie eine Nervenzelle funktioniert
PowerPoint-Folien zur 3. Vorlesung „Bionik I“
Ingo Rechenberg PowerPoint-Folien zur 5. Vorlesung Evolutionsstrategie I Finale der Theorie der zweigliedrigen Evolutionsstrategie Handlungsregeln als.
Ingo Rechenberg PowerPoint-Folien zur 4. Vorlesung Evolutionsstrategie II Das Wunder der sexuellen Fortpflanzung - Theorie der rekombinativen ES.
PowerPoint-Folien zur 3. Vorlesung „Bionik I“
Evolutionsstrategie II Praktikum SS10 Anmeldung mit Name und Matrikelnummer an: Termin des Praktikums wird nach Absprache mit.
Ingo Rechenberg PowerPoint-Folien zur 6. Vorlesung Evolutionsstrategie II Theorie: Vom Kugelmodell zum Gratmodell Nachgerechnet: Von der Urbakterie zum.
PowerPoint-Folien zur 2. Vorlesung „Evolutionsstrategie II“
Ingo Rechenberg PowerPoint-Folien zur 7. Vorlesung Evolutionsstrategie I Von der (1 + 1) - ES mit 1/5 - Erfolgsregel zur (1, ) - ES mit mutativer Schrittweitenregelung.
Ingo Rechenberg PowerPoint-Folien zur 2. Vorlesung Evolutionsstrategie II Der ES-Fortschritt im Quadrikgebirge und Kalkül der geschachtelten Evolutionsstrategien.
Kennlinie Lichtregelung in JavaNNS Version 1.1
2 5 SS 2006V_4_Fuzzy_Control_Teil2 1 Was ist CI (Computational Intelligence) Jörg Krone, Ulrich Lehmann, Hans Brenig, Oliver Drölle, Udo Reitz, Michael.
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
I. Determinismus oder Indeterminismus
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Informationstechnologie
Ingo Rechenberg PowerPoint-Folien zur 2. Vorlesung Evolutionsstrategie II Auf dem Weg zu einer ES-Algebra - Kalkül der geschachtelten Evolutionsstrategien.
Neuronale Netze Teil II.
? Was ist Informatik? Was ist Informatik? Alexander Lange
Why connectionism? Backpropagation Netzwerke
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Adaptive Systeme-2 Grundlagen
Neuronale Netze.
Neuronale Netze (1) Isabel Schwende
Ingo Rechenberg PowerPoint-Folien zur 5. Vorlesung „Evolutionsstrategie I“ Finale der Theorie der zweigliedrigen Evolutionsstrategie Handlungsregeln als.
PowerPoint-Folien zur 7. Vorlesung „Evolutionsstrategie II“
PowerPoint-Folien zur 8. Vorlesung „Evolutionsstrategie I“
PowerPoint-Folien zur 4. Vorlesung „Evolutionsstrategie II“
PowerPoint-Folien zur 7. Vorlesung „Evolutionsstrategie I“
PowerPoint-Folien zur 10. Vorlesung „Evolutionsstrategie I“
Organisches Rechnen (Organic Computing)
Ingo Rechenberg PowerPoint-Folien zur 7. Vorlesung „Evolutionsstrategie I“ Von der (1 + 1) - ES mit 1/5 - Erfolgsregel zur (1,  ) - ES mit mutativer Schrittweitenregelung.
Emanuel Mistretta Lukas Schönbächler
 Präsentation transkript:

Ingo Rechenberg PowerPoint-Folien zur 8. Vorlesung Biosensorik / Bionik II Organisches Rechnen (Organic Computing) Struktur und Arbeitsweise neuronaler Netzwerke Weiterverwendung nur unter Angabe der Quelle gestattet

Ein organischer Computer" (OC) ist definiert als ein selbst-organisierendes System, das sich den jeweiligen Umgebungsbedürfnissen dynamisch anpasst. Organische Computersysteme haben sog. Self-x-Eigenschaften": Sie sind selbst-konfigurierend, selbst-optimierend, selbst-heilend, selbst- erklärend und selbst-schützend. Organische Computersysteme verhalten sich eher wie intelligente Assistenten als starre Befehlsempfänger. Sie sind flexibel, robust gegenüber (Teil)ausfällen und in der Lage, sich selbst zu optimieren. Der Entwurfsaufwand sinkt, da nicht jede Variante im Voraus programmiert werden muss. Gesellschaft für Informatik e.V.

Entwicklung Neuronaler Netze Ein Meilenstein der Bionik

Anwendung neuronaler Netze: Mustererkennung, Bildverarbeitung, Robotik, Prozessautomatisierung, Diagnose, Medizin, Betriebswirtschaft, Finanzdienstleistungen Wissensverarbeitung

Neuronales Netz

Eingangsneuronen Zwischenneuronen Ausgangsneuron Künstliches Neuronales Netz KNN Neuronales Netz NN

Eigenheiten einer Nervenzelle Schwellverhalten des Encoders Impulsfortleitung Zeitverhalten der Synapse

Soma Encoder Axon Dendrit PSP PSP > 50mV Arbeitsweise einer (biologischen) Nervenzelle

Streichung des Schwellverhaltens des Encoders Neuron 0. Ordnung Spannungshöhe statt Impulse Streichung des Zeitverhaltens der Synapse

Neuron 0. Ordnung (Technische Realisierung)

Neuron 1. Ordnung Spannungshöhe statt Impulse Streichung des Zeitverhaltens der Synapse Streichung des Schwellverhaltens des Encoders aufgehoben !

(Technischen Realisierung) Neuron 1. Ordnung (a) UeUe UaUa UeUe UaUa

(Technischen Realisierung) Neuron 1. Ordnung (b) UeUe UaUa UaUa UeUe

Neuron 2. Ordnung Impulsfortleitung Spannungs- Frequenzwandler mit Schwelle Verzögerungs- glied 1. Ordnung

Neuron 2. Ordnung (Technische Realisierung) Berliner Bionik-Neuron U U F F VZ1

Zurück zum Neuron 0. Ordnung

Eingangsneuronen Zwischenneuronen Ausgangsneuron Netz mit Neuronen 0. Ordnung

Reduktionsgesetz für eine Neuronales Netz 0. Ordnung

Belehren statt programmieren eines NN

Donald O. Hebb ( ) H EBB -Regel Häufiger Gebrauch einer Synapse macht diese stärker leitfähig !

Frank R OSENBLATT s Perceptron Neuronales Netz 1. Ordnung (a) 2-schichtig mit springendem U e -U a -Verhalten (Schwell- wertelement) und diskreter Verstellung der Gewichte UeUe UaUa

Regel 1: Wenn die Reaktion falsch als 0 klassifiziert wird, dann Gewichte der aktiven Eingänge um +1 erhöhen. Regel 2: Wenn die Reaktion falsch als 1 klassifiziert wird, dann Gewichte der aktiven Eingänge um -1 erniedrigen statt 1 1 statt 0 Die Perceptron Lernregel

Lernregel: Back Propagation Evolutionsstrategie UeUe UaUa Heute Neuronales Netz 1. Ordnung (b) 3-schichtig mit sigmoidem U e -U a -Verhalten (weiches Schwellwertelement) und kontinuierlicher Verstellbarkeit der Gewichte

Die sigmoide Kennlinie wird durch die Fermi-Funktion beschrieben: x y Sie zeichnet sich durch die besondere mathematische Eigenschaft aus: UeUe UaUa

Belehrung (Training) mit Backpropagation

Neuron 1: Neuron 3: Neuron 2: Neuron i : Fermi net i awawnet awawnet awawnet w 46 a5a5 w 24 w 35 a2a2 a3a3 a1a1 w 13 w 14 w 23 w 45 w a4a4 a6a6 Einfachstes 3-schichtiges Neuronales Netz j = nummerierte Eingänge Durchrechnung des gesamten Netzes

Fehler: Soll Ist Angenommen, die 8 Gewichte können über Zahnräder eines Getriebes verstellt werden. Dann gibt es eine Übersetzung für jedes Zahnrad, bei der sich F maximal schnell ver- mindern würde, wenn wir an der Hauptwelle drehen. Die Übersetzungen sind gleich den Ableitungen von F nach den Gewichten w. w 46 a5a5 w 24 w 35 a2a2 a3a3 a1a1 w 13 w 14 w 23 w 45 w a4a4 a6a6 Getriebeübersetzung für 13 w Δ w F w Getriebeübersetzung für 35 w Δ w F w = Schrittweite

Bei den richtigen Getriebeübersetzungen folgt man dem Gradientenweg zum Minimum. Getriebefaktor (Gewichtsänderung) für Fermi:

Weg der Rechnung 1. Vorwärtsrechnung zur Bestimmung von und Fehler w 46 a5a5 w 24 w 35 a2a2 a3a3 a1a1 w 13 w 14 w 23 w 45 w a4a4 a6a6

w 45 w 46 w 35 w 14 w 23 w 24 2 w 13 Weg der Rechnung 1. Vorwärtsrechnung zur Bestimmung von und Fehler 2. Rückwärtsrechnung zur Bestimmung von bis 13 Δ w 24 Δ w 14 Δ w 23 Δ w 35 Δ w 46 Δ w 36 Δ w 45 Δ w a2a2 a1a Δ w 46 Δ w

Weg der Rechnung 1. Vorwärtsrechnung zur Bestimmung von und Fehler 2. Rückwärtsrechnung zur Bestimmung von bis 3. Einstellung der neuen Gewichte bis w 46 w 24 w 35 a2a2 a1a1 w3w3 w 14 w 23 w 45 w Δ w 46 Δ w 13 w 46 w z. B. 35)( )( Δ www altneu Text

Belehrung (Training) mit der Evolutionsstrategie

w 46 a5a5 w 24 w 35 a2a2 a3a3 w 13 w 14 w 23 w 45 w a4a4 a6a6 a1a1 Mutieren der Gewichte bis 1 Bestimmung des Fehlers 3 Durchlaufen des Netzes zur Bestimmung von und 2 Die Operation wird -mal durchgeführt (= 1 Generation). Dann wird das Netz mit dem kleinsten Fehler zum Ausgang einer neuen Generation.

Es sei w ein Vektor mit den Komponenten

Algorithmus der (1, ) – Evolutionsstrategie mit MSR -Würfel z -Würfel

Mutation der Mutabilität und Vererbbarkeit der Mutabilität Knackpunkt der Evolutionsstrategie DNA-Kopierer DNA -Mutation z -Mutation

w zizi 0 1 w i Zur Erzeugung der Mutationen z und Interpretetion der Kurve: Eine Zufallszahl zwischen 1/2 und 1/3 ist genau so häufig wie zwischen 2 und 3 logarithmisch normalverteilt (Dichte ) normalverteilt (Dichte z )

ES-Theorie: 20% Erfolgswahscheinlichkeit Von-Neumann-Computer versus Neuronencomputer Mutation Verbesserung unwahrscheinlich

Kausalität Schwache Kausalität Starke Kausalität Gleiche Ursache Gleiche Wirkung Ähnliche Ursache Andere Wirkung Ähnliche Ursache Ähnliche Wirkung

Schwach kausales Verhalten Stark kausales Verhalten Klassischer Computer Neuronencomputer Nicht evolutionsfähig Evolutionsfähig

Exemplarische Anwendungsgebiete Neuronaler Netze Signalverarbeitung: Spracherkennung, Bilderkennung, Bildanalyse, Biometrie Robotik: Motorische Steuerung, Handlungsentscheidungen, Autonome Systeme Wirtschaft: Kreditwürdigkeitsbeurteilungen, Börsenkurs- und Wirtschaftsprognosen Psychologie: Modellierung kognitiver Vorgänge, Simulation neuronaler Strukturen Medizin: Elektronische Nasen, Diagnose, Protein Design, EEG-Auswertung

Ende

Bei den richtigen Getriebeübersetzungen folgt man dem Gradientenweg zum Minimum. Getriebefaktor (Gewichtsänderung) für Deshalb Rückwärtrechnung