Organisches Rechnen (Organic Computing)

Slides:



Advertisements
Ähnliche Präsentationen
Seminarankündigung für das SS04
Advertisements

Perceptrons and the perceptron learning rule
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
PowerPoint-Folien zur 2. Vorlesung „Bionik I“
PG 487 Methoden der Computational Intelligence in der Bioinformatik
Eingebettete Systeme Qualität und Produktivität
Einführung in NeuroFuzzy Technologien
Die vorgeschlagene adaptive Methode filtriert die TCP/IP Verkehr auf der Basis von dem adaptiven Lernen einer KNN mit Paketen-Headers, die verschiedenen.
Neuronen, Modelle, Anwendungen Florian Kaiser
Neuronale Netze Von Kay-Patrick Wittbold.
Prof. Dr. Holger Schlingloff
Neuronale Netze Inhalt des Vortrags:
Computerkurs: Quantitative Auswertung biochemischer Experimente Tag 8 Einführung in die numerische Integration Aufgabe 18: Simulation einer Assoziationskinetik.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
Zeitreihenanalyse WS 2004/2005 Michael Hauhs / Gunnar Lischeid
-LABORPRAKTIKUM- SOMMERSEMESTER 2005
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
PowerPoint-Folien zur 5. Vorlesung „Evolutionsstrategie II“
PowerPoint-Folien zur 6. Vorlesung „Bionik II / Biosensorik“
PowerPoint-Folien zur 7. Vorlesung „Bionik II / Biosensorik“
Ingo Rechenberg PowerPoint-Folien zur 6. Vorlesung Evolutionsstrategie I Handlungsregeln, die aus der nichtlinearen Theorie der (1 + 1) - ES folgen.
6. Vorlesung Evolutionsstrategie I
PowerPoint-Folien zur 7. Vorlesung „Evolutionsstrategie II“
Algorithmus der (1 + 1) – ES mit 1/5-Erfolgsregel in der Minimalform { {
Ingo Rechenberg PowerPoint-Folien zur 8. Vorlesung Evolutionsstrategie I Von der (1 + 1) - ES mit 1/5-Erfolgsregel zur (1, ) - ES mit mutativer Schrittweitenregelung.
PowerPoint-Folien zur 7. Vorlesung „Evolutionsstrategie II“
PowerPoint-Folien zur 7. Vorlesung „Evolutionsstrategie I“
PowerPoint-Folien zur 5. Vorlesung „Evolutionsstrategie I“
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
Wie eine Nervenzelle funktioniert
Ingo Rechenberg PowerPoint-Folien zur 7. Vorlesung Evolutionsstrategie II Die goldene Regel der Evolution, das größte kleine Sechseck und das Maximum-Minimum-Distanz-Problem.
PowerPoint-Folien zur 6. Vorlesung „Bionik II / Biosensorik“
PowerPoint-Folien zur 10. Vorlesung „Evolutionsstrategie I“
Organisches Rechnen (Organic Computing)
Wie eine Nervenzelle funktioniert
Ingo Rechenberg PowerPoint-Folien zur 8. Vorlesung Biosensorik / Bionik II Organisches Rechnen (Organic Computing) Struktur und Arbeitsweise neuronaler.
PowerPoint-Folien zur 3. Vorlesung „Bionik I“
Ingo Rechenberg PowerPoint-Folien zur 5. Vorlesung Evolutionsstrategie I Finale der Theorie der zweigliedrigen Evolutionsstrategie Handlungsregeln als.
PowerPoint-Folien zur 3. Vorlesung „Bionik I“
Evolutionsstrategie II Praktikum SS10 Anmeldung mit Name und Matrikelnummer an: Termin des Praktikums wird nach Absprache mit.
PowerPoint-Folien zur 3. Vorlesung „Bionik I“
PowerPoint-Folien zur 2. Vorlesung „Evolutionsstrategie II“
Ingo Rechenberg PowerPoint-Folien zur 7. Vorlesung Evolutionsstrategie I Von der (1 + 1) - ES mit 1/5 - Erfolgsregel zur (1, ) - ES mit mutativer Schrittweitenregelung.
Ingo Rechenberg PowerPoint-Folien zur 2. Vorlesung Evolutionsstrategie II Der ES-Fortschritt im Quadrikgebirge und Kalkül der geschachtelten Evolutionsstrategien.
Kennlinie Lichtregelung in JavaNNS Version 1.1
2 5 SS 2006V_4_Fuzzy_Control_Teil2 1 Was ist CI (Computational Intelligence) Jörg Krone, Ulrich Lehmann, Hans Brenig, Oliver Drölle, Udo Reitz, Michael.
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Neuronale Netze (Mitchell Kap. 4)
Wahrscheinlichkeitsrechnung
Histogramm/empirische Verteilung Verteilungen
Stochastische Prozesse I
? Was ist Informatik? Was ist Informatik? Alexander Lange
Digitale Regelungstechnik für Dummies
Why connectionism? Backpropagation Netzwerke
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Neuronale Netze.
Neuronale Netze (1) Isabel Schwende

1 Dr. Carlheinrich Heiland Universität Hamburg - Die Computersimulation verändert als Schlüsseltechnologie die Arbeitsweise in Planung.
Modellbildung und Simulation
Ingo Rechenberg PowerPoint-Folien zur 5. Vorlesung „Evolutionsstrategie I“ Finale der Theorie der zweigliedrigen Evolutionsstrategie Handlungsregeln als.
PowerPoint-Folien zur 7. Vorlesung „Evolutionsstrategie II“
PowerPoint-Folien zur 8. Vorlesung „Evolutionsstrategie I“
PowerPoint-Folien zur 4. Vorlesung „Evolutionsstrategie II“
PowerPoint-Folien zur 7. Vorlesung „Evolutionsstrategie I“
PowerPoint-Folien zur 10. Vorlesung „Evolutionsstrategie I“
Ingo Rechenberg PowerPoint-Folien zur 7. Vorlesung „Evolutionsstrategie I“ Von der (1 + 1) - ES mit 1/5 - Erfolgsregel zur (1,  ) - ES mit mutativer Schrittweitenregelung.
 Präsentation transkript:

Organisches Rechnen (Organic Computing) Ingo Rechenberg PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik, Bioinformatik“ Organisches Rechnen (Organic Computing) Struktur und Arbeitsweise neuronaler Netzwerke

Ein „organischer Computer" (OC) ist definiert als ein selbst-organisierendes System, das sich den jeweiligen Umgebungsbedürfnissen dynamisch anpasst. Organische Computersysteme haben sog. „Self-x-Eigenschaften": Sie sind selbst-konfigurierend, selbst-optimierend, selbst-heilend, selbst-erklärend und selbst-schützend. Organische Computersysteme verhalten sich eher wie intelligente Assistenten als starre Befehlsempfänger. Sie sind flexibel, robust gegenüber (Teil)ausfällen und in der Lage, sich selbst zu optimieren. Der Entwurfsaufwand sinkt, da nicht jede Variante im Voraus programmiert werden muss. Gesellschaft für Informatik e.V.

Entwicklung Neuronaler Netze Ein Meilenstein der Bionik

Anwendung neuronaler Netze: Mustererkennung, Bildverarbeitung, Robotik, Prozessautomatisierung, Diagnose, Medizin, Betriebswirtschaft, Finanzdienstleistungen Wissensverarbeitung

Natürliches Neuronales Netz

Künstliches Neuronales Netz Eingangsneuronen Zwischenneuronen Ausgangsneuron Künstliches Neuronales Netz KNN Neuronales Netz NN

S Eigenheiten einer Nervenzelle Impulsfortleitung im Axon Summiereigenschaft des Zellsomas S Schwellverhalten des Encoders Zeitverhalten der Synapse Signalgewichtung durch Länge des Dendriten

Arbeitsweise einer (biologischen) Nervenzelle  PSP > 50mV Axon  PSP Soma Encoder Dendrit Arbeitsweise einer (biologischen) Nervenzelle

S Neuron 0. Ordnung Spannungshöhe statt Impulse Summiereigenschaft des Zellsomas Streichung des Schwellverhaltens des Encoders S Streichung des Zeitverhaltens der Synapse Signalgewichtung durch Länge des Dendriten

Neuron 0. Ordnung (Technische Realisierung) S

S S Neuron 1. Ordnung Spannungshöhe statt Impulse Summiereigenschaft des Zellsomas Streichung des Schwellverhaltens des Encoders S S aufgehoben ! Streichung des Zeitverhaltens der Synapse Signalgewichtung durch Länge des Dendriten

Neuron 1. Ordnung (a) (Technischen Realisierung) S Ue Ua Ua Ue

Neuron 1. Ordnung (b) (Technischen Realisierung) S Ue Ua Ua Ue

S Neuron 2. Ordnung Impulsfortleitung Summiereigenschaft des Zellsomas Spannungs-Frequenzwandler mit Schwelle S Verzögerungs-glied 1. Ordnung Signalgewichtung durch Länge des Dendriten

S Neuron 2. Ordnung Berliner Bionik-Neuron U F F U (Technische Realisierung) Berliner Bionik-Neuron VZ1 VZ1 S U F VZ1 F Spannungs-Frequenzwandler mit Schwellwert U

Zurück zum Neuron 0. Ordnung

Netz mit Neuronen 0. Ordnung Eingangsneuronen Zwischenneuronen Ausgangsneuron Netz mit Neuronen 0. Ordnung

Reduktionsgesetz für eine Neuronales Netz 0. Ordnung

Belehren statt programmieren eines NN

Häufiger Gebrauch einer Synapse macht diese stärker leitfähig ! Donald O. Hebb (1904-1985) HEBB-Regel Häufiger Gebrauch einer Synapse macht diese stärker leitfähig !

S Frank ROSENBLATTs Perceptron Neuronales Netz 1. Ordnung (a) Ue Ua 2-schichtig mit springendem Ue-Ua-Verhalten (Schwell-wertelement) und diskreter Verstellung der Gewichte

Die Perceptron Lernregel Wenn die Reaktion falsch als 0 klassifiziert wird, dann Gewichte der aktiven Eingänge um +1 erhöhen. +1 0 statt 1 +1 Regel 2: Wenn die Reaktion falsch als 1 klassifiziert wird, dann Gewichte der aktiven Eingänge um -1 erniedrigen. 1 1 statt 0 1

S Heute Neuronales Netz 1. Ordnung (b) Lernregel: Back Propagation Ue Ua Neuronales Netz 1. Ordnung (b) Lernregel: Back Propagation Evolutionsstrategie 3-schichtig mit sigmoidem Ue-Ua-Verhalten (weiches Schwellwertelement) und kontinuierlicher Verstellbarkeit der Gewichte

y S Ue Ua x Die sigmoide Kennlinie wird durch die Fermi-Funktion beschrieben: Sie zeichnet sich durch die besondere mathematische Eigenschaft aus:

Belehrung (Training) mit Backpropagation

net i a1 a2 Neuron i: Fermi 1 2 Weiches Schwellwertelement j = nummerierte Eingänge w13 w24 w23 w14 a3 a4 Neuron 1: 3 4 4 14 3 13 1 a w net + = w35 w46 w45 w36 Neuron 2: a5 a6 4 24 3 23 2 a w net + = 5 6 Neuron 3: Einfachstes 3-schichtiges Neuronales Netz 6 36 5 35 3 a w net + = Durchrechnung des gesamten Netzes

Soll Ist Fehler: a1 a2 1 2 w13 w24 w23 w14 Es gilt, die Gewichte w so zu verstellen, dass F zu einem Minimum (möglichst Null) wird. a3 a4 3 4 w35 w46 w45 w36 a5 a6 5 6 e1 e2

Gradientenfortschritts Dh sei = 2 Dh sei = 1 Experimentator grad Unsichtbare geneigte Ebene 2 Elementarschritte in die x-Richtung 1 Elementarschritt in die y-Richtung Die Idee des Gradientenfortschritts

begrenzt durch Ebenenstückchen a1 a2 Approximation als Ebenenstückchen Soll Ist Fehler: 1 2 w13 w24 w23 w14 Angenommen, die 8 Gewichte können über Zahnräder eines Getriebes verstellt werden. Dann gibt es eine Übersetzung für jedes Zahnrad, bei der sich F maximal schnell ver-mindern würde, wenn wir an der Hauptwelle drehen. Die Übersetzungen sind gleich den Ableitungen von F nach den Gewichten w. a3 a4 Oder nach der Gradientenidee: Jedes Gewicht muss so geändert werden wie sich der Fehler mit einer Änderung des Gewichts ändert ! 3 4 w35 w45 w46 w36 a5 a6 5 6 Getriebeübersetzung für 13 w Δ F d ¶ - = Getriebeübersetzung für 35 w Δ F d ¶ - = d = Schrittweite begrenzt durch Ebenenstückchen Der Gradientenfortschritt Gewichtsänderungen

Vorteil der Fermi-Funktion (weiches Schwellwertelement) Bei den richtigen Getriebeübersetzungen folgt man dem Gradientenweg zum Minimum. Getriebefaktor (Gewichtsänderung) für Getriebefaktor (Gewichtsänderung) für Vorteil der Fermi-Funktion (weiches Schwellwertelement) Fermi: 4 14 3 13 1 a w net + =

a1 a2 Weg der Rechnung 1 2 w13 w24 w23 w14 a3 a4 3 4 w35 w46 w45 w36 1. Vorwärtsrechnung zur Bestimmung von w13 w24 w23 w14 und Anfangsgewichte vorgegeben a3 a4 Fehler 3 4 w35 w46 w45 w36 a5 a6 5 6

a1 a2 Weg der Rechnung 1 2 w13 w23 w24 w14 3 4 w35 w46 w45 w36 5 6 Δ w 1. Vorwärtsrechnung zur Bestimmung von w23 w24 13 Δ w 23 Δ w 14 Δ w w14 24 Δ w und 3 4 Fehler w35 w46 w45 35 Δ w 45 Δ w 36 Δ w w36 46 Δ w 2. Rückwärtsrechnung zur Bestimmung von 13 Δ w bis 46 Δ w 5 6

a1 a2 Weg der Rechnung 1 2 w3 w24 w23 w14 3 4 w35 w46 w45 w36 5 6 Δ w 1. Vorwärtsrechnung zur Bestimmung von w3 w24 w23 w14 und Fehler 3 4 w35 w46 w45 w36 2. Rückwärtsrechnung zur Bestimmung von 13 Δ w bis 46 Δ w 5 6 3. Einstellung der neuen Gewichte 13 w bis 46 w z. B. 35 ) ( Δ w alt neu + = Text

Belehrung (Training) mit der Evolutionsstrategie

Universelles Naturgesetz Fortschreiten entlang des steilsten Anstiegs im Fall der Existenz eines „Berges“ Universelles Naturgesetz „Starke Kausalität“ bei kleinen Schritten j

Durchlaufen des Netzes zur Bestimmung von Mutieren der Gewichte bis 1 1 2 w13 w24 w23 w14 Durchlaufen des Netzes zur Bestimmung von und 2 a3 a4 3 4 w35 w46 w45 w36 Bestimmung des Fehlers 3 a5 a6 5 6 Die Operation wird l-mal durchgeführt (= 1 Generation). Dann wird das Netz mit dem kleinsten Fehler zum Ausgang einer neuen „Generation“. Text

Es sei w ein Vektor mit den Komponenten

Algorithmus der (1, l ) – Evolutionsstrategie mit MSR Streuung s x-Würfel z-Würfel

Mutation der Mutabilität und Vererbbarkeit der Mutabilität DNA-Kopierer DNA x-Mutation Mutation der Mutabilität und Vererbbarkeit der Mutabilität „Knackpunkt“ der Evolutionsstrategie z-Mutation

Zur Erzeugung der Mutationen z und x w normalverteilt (Dichte z) 2s + zi w logarithmisch normalverteilt (Dichte x ) 1 2 3 4 xi 1 3 1 2 Interpretation der Kurve: Eine Zufallszahl zwischen 1/2 und 1/3 ist genau so häufig wie zwischen 2 und 3 Zur Erzeugung der Mutationen z und x

Von-Neumann-Computer versus Neuronencomputer 0111111111 = 511 1111111111 = 1023 Von-Neumann-Computer versus Neuronencomputer Kleine Mutation ES-Theorie: 10 - 20% optimale Erfolgswahscheinlichkeit Verbesserung unwahrscheinlich

Kausalität Schwache Kausalität Starke Kausalität Gleiche Ursache → Gleiche Wirkung Schwache Kausalität Ähnliche Ursache → Andere Wirkung Starke Kausalität Ähnliche Ursache → Ähnliche Wirkung Text

Ausgang: Stärke des Kaffeestroms Eingang: Neigung der Kaffeekanne Starke Kausalität Normalverhalten der Welt

Schwach kausales Verhalten Stark kausales Verhalten Klassischer Computer Neuronencomputer Nicht evolutionsfähig Evolutionsfähig

Exemplarische Anwendungsgebiete Neuronaler Netze Signalverarbeitung: Spracherkennung, Bilderkennung, Bildanalyse, Biometrie Robotik: Motorische Steuerung, Handlungsentscheidungen, Autonome Systeme Wirtschaft: Kreditwürdigkeitsbeurteilungen, Börsenkurs- und Wirtschaftsprognosen Psychologie: Modellierung kognitiver Vorgänge, Simulation neuronaler Strukturen Medizin: Elektronische Nasen, Diagnose, Protein Design, EEG-Auswertung

? Die Entscheidungshilfe für Aktienanleger Was ist Stock NeuroMaster? Stock NeuroMaster wurde entwickelt, um Vorhersagen aus bestimmten Marktsituationen zu treffen, die Ihnen bei der Bestimmung des richtigen Kauf- und Verkaufszeitpunktes helfen.                                                                                                                                            Jetzt verdienen Sie an der Börse endlich Geld! Modernste neuronale Netzwerktechnologie ("künstliche Intelligenz") hat es jetzt ermöglicht mit einem Standard-PC Vorhersagen ungeahnter Genauigkeit zu treffen. Der Stock NeuroMaster nutzt neuronale Netze als Instrument, um die historischen Börsen-kurse interessanter Aktien zu analysieren. Basierend auf den Ergebnissen dieser Analyse spricht die Software konkrete Kauf- oder Verkaufsempfehlungen aus. ?

Vorschläge für eine Übungs-/Praktikums-Ausarbeitung zur Vorlesung Bionik II Zur Wanderwellentheorie von Georg von Békésy: Aufbau eines mechanischen Modells, das eine frequenzabhängige Wanderwelle erzeugt. Zur Navigation von Nachttieren: Ist das Licht des Nachthimmels polarisiert?. Experimente mit Polarisationsfiltern in der Nacht. Aufbau eines mechanischen Enzyms: Funktioniert das in der Vorlesung vorgestellte Winkelmolekül? Experimente mit dem Fensteroperator von Lohmann. Welches Ausgangssignal ergeben verschieden konstruierte Figuren und Figurenmengen. Eigenschaften von Fensteroperatoren: Versuche mit eigens entworfenen neuen Fensteroperatoren. Suche im Internet nach neuen exotischen Biosensoren, die in der Vorlesung nicht behandelt wurden. MP3-Player und laterale Inhibition. Kompression digital gespeicherter Audiodateien durch Kenntnis der seitlichen Hemmung der Haarzellen in der Cochlea. Laterale Inhibition der Riechsinneszellen in der Riechschleimhaut. Welche Vorteile könnte hier die Inhibition aufweisen? Entwicklungen und Trends des Organic Computing; Was leisten Neuronale Netze heute: Recherche im Internet. Bionik ist Bionik: Statt eines Themas aus der Vorlesung Bionik II können Sie auch ein Thema aus der Vorlesung Bionik I oder ein Thema aus dem gesamten Bereich der Bionik als Hausaufgabe bearbeiten.

Ende

Getriebefaktor (Gewichtsänderung) für Bei den richtigen Getriebeübersetzungen folgt man dem Gradientenweg zum Minimum. Getriebefaktor (Gewichtsänderung) für Deshalb Rückwärtrechnung Getriebefaktor (Gewichtsänderung) für

Man mache sich klar: Bei idealer starker Kausalität (Funktionsstetigkeit) ist bei kleinen Mutationen die Erfolgswahrscheinlichkeit gleich 50%. Es trifft also nicht zu (wie oft behauptet wird), dass eine erfolgreiche Mutation in der Evolution ein extrem seltenes Ereignis darstellt. Nur große erfolg-reiche Mutationen sind sehr selten! Die 50% Erfolgswahrscheinlichkeit (differentiell) kleiner Mutationen ergibt sich aus der Tatsache, dass eine Berglandschaft in der unmittelbaren Nähe durch ein geneigtes Ebenenstückchen approximiert werden kann (Prinzip der Linearisierung).

Vorteil der evolutionsstrategischen Trainingsmethode: Die Fehler an den Ausgängen müssen nicht explizit bekannt sein. Die Ausgänge des Neuronalen Netzes können z. B. die Bewegung eines Roboters steuern, dessen Ist-Trajektorie mit der Soll-Trajektorie verglichen wird und den zu minimierenden Fehler darstellt.