Präsentation herunterladen
Die Präsentation wird geladen. Bitte warten
Veröffentlicht von:Fulco Muckle Geändert vor über 10 Jahren
1
Ingo Rechenberg PowerPoint-Folien zur 8. Vorlesung Biosensorik / Bionik II Organisches Rechnen (Organic Computing) Struktur und Arbeitsweise neuronaler Netzwerke Weiterverwendung nur unter Angabe der Quelle gestattet
2
Ein organischer Computer" (OC) ist definiert als ein selbst-organisierendes System, das sich den jeweiligen Umgebungsbedürfnissen dynamisch anpasst. Organische Computersysteme haben sog. Self-x-Eigenschaften": Sie sind selbst-konfigurierend, selbst-optimierend, selbst-heilend, selbst- erklärend und selbst-schützend. Organische Computersysteme verhalten sich eher wie intelligente Assistenten als starre Befehlsempfänger. Sie sind flexibel, robust gegenüber (Teil)ausfällen und in der Lage, sich selbst zu optimieren. Der Entwurfsaufwand sinkt, da nicht jede Variante im Voraus programmiert werden muss. Gesellschaft für Informatik e.V.
3
Entwicklung Neuronaler Netze Ein Meilenstein der Bionik
4
Anwendung neuronaler Netze: Mustererkennung, Bildverarbeitung, Robotik, Prozessautomatisierung, Diagnose, Medizin, Betriebswirtschaft, Finanzdienstleistungen Wissensverarbeitung
5
Neuronales Netz
6
Eingangsneuronen Zwischenneuronen Ausgangsneuron Künstliches Neuronales Netz KNN Neuronales Netz NN
7
Eigenheiten einer Nervenzelle Schwellverhalten des Encoders Impulsfortleitung Zeitverhalten der Synapse
8
Soma Encoder Axon Dendrit PSP PSP > 50mV Arbeitsweise einer (biologischen) Nervenzelle
9
Streichung des Schwellverhaltens des Encoders Neuron 0. Ordnung Spannungshöhe statt Impulse Streichung des Zeitverhaltens der Synapse
10
Neuron 0. Ordnung (Technische Realisierung)
11
Neuron 1. Ordnung Spannungshöhe statt Impulse Streichung des Zeitverhaltens der Synapse Streichung des Schwellverhaltens des Encoders aufgehoben !
12
(Technischen Realisierung) Neuron 1. Ordnung (a) UeUe UaUa UeUe UaUa
13
(Technischen Realisierung) Neuron 1. Ordnung (b) UeUe UaUa UaUa UeUe
14
Neuron 2. Ordnung Impulsfortleitung Spannungs- Frequenzwandler mit Schwelle Verzögerungs- glied 1. Ordnung
15
Neuron 2. Ordnung (Technische Realisierung) Berliner Bionik-Neuron U U F F VZ1
16
Zurück zum Neuron 0. Ordnung
17
Eingangsneuronen Zwischenneuronen Ausgangsneuron Netz mit Neuronen 0. Ordnung
18
Reduktionsgesetz für eine Neuronales Netz 0. Ordnung
19
Belehren statt programmieren eines NN
20
Donald O. Hebb (1904-1985) H EBB -Regel Häufiger Gebrauch einer Synapse macht diese stärker leitfähig !
21
Frank R OSENBLATT s Perceptron Neuronales Netz 1. Ordnung (a) 2-schichtig mit springendem U e -U a -Verhalten (Schwell- wertelement) und diskreter Verstellung der Gewichte UeUe UaUa
22
Regel 1: Wenn die Reaktion falsch als 0 klassifiziert wird, dann Gewichte der aktiven Eingänge um +1 erhöhen. Regel 2: Wenn die Reaktion falsch als 1 klassifiziert wird, dann Gewichte der aktiven Eingänge um -1 erniedrigen. +1 1 1 0 statt 1 1 statt 0 Die Perceptron Lernregel
23
Lernregel: Back Propagation Evolutionsstrategie UeUe UaUa Heute Neuronales Netz 1. Ordnung (b) 3-schichtig mit sigmoidem U e -U a -Verhalten (weiches Schwellwertelement) und kontinuierlicher Verstellbarkeit der Gewichte
24
Die sigmoide Kennlinie wird durch die Fermi-Funktion beschrieben: x y Sie zeichnet sich durch die besondere mathematische Eigenschaft aus: UeUe UaUa
25
Belehrung (Training) mit Backpropagation
26
Neuron 1: Neuron 3: Neuron 2: Neuron i : Fermi net i 414313 1 awawnet 424323 2 awawnet 636535 3 awawnet w 46 a5a5 w 24 w 35 a2a2 a3a3 a1a1 w 13 w 14 w 23 w 45 w 36 1 2 3 4 56 a4a4 a6a6 Einfachstes 3-schichtiges Neuronales Netz j = nummerierte Eingänge Durchrechnung des gesamten Netzes
27
Fehler: Soll Ist Angenommen, die 8 Gewichte können über Zahnräder eines Getriebes verstellt werden. Dann gibt es eine Übersetzung für jedes Zahnrad, bei der sich F maximal schnell ver- mindern würde, wenn wir an der Hauptwelle drehen. Die Übersetzungen sind gleich den Ableitungen von F nach den Gewichten w. w 46 a5a5 w 24 w 35 a2a2 a3a3 a1a1 w 13 w 14 w 23 w 45 w 36 1 2 3 4 56 a4a4 a6a6 Getriebeübersetzung für 13 w Δ w F w Getriebeübersetzung für 35 w Δ w F w = Schrittweite
28
Bei den richtigen Getriebeübersetzungen folgt man dem Gradientenweg zum Minimum. Getriebefaktor (Gewichtsänderung) für Fermi:
29
Weg der Rechnung 1. Vorwärtsrechnung zur Bestimmung von und Fehler w 46 a5a5 w 24 w 35 a2a2 a3a3 a1a1 w 13 w 14 w 23 w 45 w 36 1 2 3 4 56 a4a4 a6a6
30
w 45 w 46 w 35 w 14 w 23 w 24 2 w 13 Weg der Rechnung 1. Vorwärtsrechnung zur Bestimmung von und Fehler 2. Rückwärtsrechnung zur Bestimmung von bis 13 Δ w 24 Δ w 14 Δ w 23 Δ w 35 Δ w 46 Δ w 36 Δ w 45 Δ w a2a2 a1a1 1 3 4 56 13 Δ w 46 Δ w
31
Weg der Rechnung 1. Vorwärtsrechnung zur Bestimmung von und Fehler 2. Rückwärtsrechnung zur Bestimmung von bis 3. Einstellung der neuen Gewichte bis w 46 w 24 w 35 a2a2 a1a1 w3w3 w 14 w 23 w 45 w 36 1 2 3 4 56 13 Δ w 46 Δ w 13 w 46 w z. B. 35)( )( Δ www altneu Text
32
Belehrung (Training) mit der Evolutionsstrategie
33
w 46 a5a5 w 24 w 35 a2a2 a3a3 w 13 w 14 w 23 w 45 w 36 1 2 3 4 56 a4a4 a6a6 a1a1 Mutieren der Gewichte bis 1 Bestimmung des Fehlers 3 Durchlaufen des Netzes zur Bestimmung von und 2 Die Operation wird -mal durchgeführt (= 1 Generation). Dann wird das Netz mit dem kleinsten Fehler zum Ausgang einer neuen Generation.
34
Es sei w ein Vektor mit den Komponenten
35
Algorithmus der (1, ) – Evolutionsstrategie mit MSR -Würfel z -Würfel
36
Mutation der Mutabilität und Vererbbarkeit der Mutabilität Knackpunkt der Evolutionsstrategie DNA-Kopierer DNA -Mutation z -Mutation
37
w 0 2 + zizi 0 1 w i Zur Erzeugung der Mutationen z und 23 4 1 2 1 3 Interpretetion der Kurve: Eine Zufallszahl zwischen 1/2 und 1/3 ist genau so häufig wie zwischen 2 und 3 logarithmisch normalverteilt (Dichte ) normalverteilt (Dichte z )
38
ES-Theorie: 20% Erfolgswahscheinlichkeit Von-Neumann-Computer versus Neuronencomputer Mutation Verbesserung unwahrscheinlich
39
Kausalität Schwache Kausalität Starke Kausalität Gleiche Ursache Gleiche Wirkung Ähnliche Ursache Andere Wirkung Ähnliche Ursache Ähnliche Wirkung
40
Schwach kausales Verhalten Stark kausales Verhalten Klassischer Computer Neuronencomputer Nicht evolutionsfähig Evolutionsfähig
41
Exemplarische Anwendungsgebiete Neuronaler Netze Signalverarbeitung: Spracherkennung, Bilderkennung, Bildanalyse, Biometrie Robotik: Motorische Steuerung, Handlungsentscheidungen, Autonome Systeme Wirtschaft: Kreditwürdigkeitsbeurteilungen, Börsenkurs- und Wirtschaftsprognosen Psychologie: Modellierung kognitiver Vorgänge, Simulation neuronaler Strukturen Medizin: Elektronische Nasen, Diagnose, Protein Design, EEG-Auswertung
42
Ende
43
Bei den richtigen Getriebeübersetzungen folgt man dem Gradientenweg zum Minimum. Getriebefaktor (Gewichtsänderung) für Deshalb Rückwärtrechnung
Ähnliche Präsentationen
© 2024 SlidePlayer.org Inc.
All rights reserved.