Neuronale Netze.

Slides:



Advertisements
Ähnliche Präsentationen
Seminarankündigung für das SS04
Advertisements

Bildverarbeitung in der Netzhaut
Perceptrons and the perceptron learning rule
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
Einführung in NeuroFuzzy Technologien
Neuronen, Modelle, Anwendungen Florian Kaiser
Grundlagen der Neurobiologie
Statistische Methoden in der Hochenergiephysik
Marvin Minsky und das Perceptron
Neuronale Netze Von Kay-Patrick Wittbold.
Name des Vortragenden Klasse Ort / tt.mm.jjjj Beschreibung Zentraleinheit CPU, Motherbord, RAM.
Name des Vortragenden Klasse Ort / tt.mm.jjjj Beschreibung Zentraleinheit CPU, Motherbord, RAM.
Agenda Die Hardwearkomponenten und ihre Funktionen - Mikroprozessor
Adaptive Systeme Prof. Rüdiger Brause WS 2009.
Konkurrentes Lernen AS-1
TFT - Flachbildschirme
Neuronale Netze Inhalt des Vortrags:
Neurobiologische Grundlagen der visuellen Wahrnehmung
Neuronale Grundlagen der Gestaltwahrnehmung
Was ist ein kognitives System?
Wolf Singer Max Planck Institut für Hirnforschung Frankfurt
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
in den Sportwissenschaften
Patrick Drude High Level Cognition
Uebung 03 Netzdateien.
Biologisches Vorbild Grundlagen
zur Vorlesung Neuronale Netzwerke
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
PowerPoint-Folien zur 6. Vorlesung „Bionik II / Biosensorik“
PowerPoint-Folien zur 6. Vorlesung „Bionik II / Biosensorik“
Ingo Rechenberg PowerPoint-Folien zur 8. Vorlesung Biosensorik / Bionik II Organisches Rechnen (Organic Computing) Struktur und Arbeitsweise neuronaler.
Neuronale Netze Romy Kuttner, Franco Haberland.
Addierwerke.
Wismar Business School
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Neuronale Netze (Mitchell Kap. 4)
Lernen im Netzwerk Eine Präsentation von Menno Baumann.
Neuronale Netze Teil II.
Name des Vortragenden Klasse Ort / tt.mm.jjjj Beschreibung Zentraleinheit CPU, Motherbord, RAM.
Viktoria Wentzel und Sina Range
Why connectionism? Backpropagation Netzwerke
Alpha - Synapsen - Programmierung
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Adaptive Systeme-2 Grundlagen
Adaptive Systeme-2 Prof. Rüdiger Brause WS 2011 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags Uhr, SR9 Übungen.
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Neuronale Netze Nachtrag Perzeptron
Neuronale Netze (1) Isabel Schwende
Kapitel 4 Annahmen des linearen Regressionsmodells
Künstliches Neuronales Netz nach John Hopfield
Das menschliche Gehirn - eine Einführung in die Neuropsychologie
Entwurf einer neurologischen Theorie der Sprache
Multivariate Statistische Verfahren
Verteilte Systeme Marcel Waldvogel. Marcel Waldvogel, IBM Zurich Research Laboratory, Universität Konstanz, , 2 Verteilte Systeme Entwicklung.
Petrinetze 1. Einführung Informatik : wesentlich Modellierung von
Information Retrieval, Vektorraummodell
Anatomie des Gedächtnisses
Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Kopf und Computer Gerhard Vollmer
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
PCA Principal Component Analysis. Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung.
Konnektionismus: Pattern Association Simulationsumgebung tlearn Projektseminar Konnektionistische Sprachverarbeitung WS 2009/2010.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
Emanuel Mistretta Lukas Schönbächler
Deep Learning Simon Fankhauser, Donato Villani - AAI HS 17.
Neuronale Netze und Parallelrechner
Ich brauche eine Web-Seite vom Server im Internet
 Präsentation transkript:

Neuronale Netze

Inhalt Einführung Das menschliche Gehirn Das Neuron Gehirn vs. Computer Eigenschaften Neuronaler Netze Modelle Neuronaler Netze

Das menschliche Gehirn Golgi und Ramon y Cayal Neocortex (Hirnrinde) 0,2m² groß 2-3mm dick Besteht aus einem Netz von Nervenzellen – den Neuronen – welche miteinander Signale austauschen

Das Neuron Dendritenbaum Zellkern (Soma) Axon Synapsen Neuronenklassen (Exitatorisch und Inhibitorisch) Neuronenklassen

Gehirn vs Computer Gehirn Rechner # Verarbeitungselemente ca. 1011 Neuronen ca. 109 Transistoren Art massiv parallel im allg. seriell Speicherung assoziativ adressbezogen Schaltzeit eines Elements ca. 1 ms (10-3 s) ca. 1 ns (10-9 s) „Schaltvorgänge“ /s ca. 103/s ca. 109/s #“Schaltvorgänge“ theor. ca. 1013/s ca. 1018/s #“Schaltvorgänge“ tats. ca. 1012/s ca. 1010/s

Eigenschaften Neuronaler Netze Vorteile Lernfähigkeit Parallelität Globales Wissen höhere Fehlertoleranz Assoziative Speicherung von Information Entrauschen von Daten Default-Werte aktive Repräsentation

Eigenschaften Neuronaler Netze Nachteile kaum programmierbares Wissen keine Introspektion möglich Logisches sequenzielles Schließen ist schwer Lernen dauert lange

Modelle Neuronaler Netze McCulloch und Pitts: „Logisches Schwellwertelement“ Hebb: „Lernen durch plastische Synapsenstärken“ Rosenblatt: „Lernen durch Musterklassen“ Willshaw, Bunemann und Longuet-Higgins: „Matrixmodelle assoziativer Speicher“ Hopfield: „Autoassoziation durch Hopfield-Netze“

McCulloch und Pitts logisches Schwellwertelement mit L Eingangsleitungen und einer Ausgangsleitung Überschreitet die Summe der Eingangswerte einen Schwellwert, so feuert das Neuron Durch Kombination lässt sich jede logische Funktion aufbauen Aber kein Lernen und keine Fehlertoleranz möglich

Hebb Eine durch eine Synapse bewirkte Verschaltung zwischen zwei Neuronen ist plastisch und ändert sich proportional zur korrelierten Aktivität vor und hinter der Synapse Wenn Zelle j eine Eingabe von Zelle i erhält und beide gleichzeitig stark aktiviert sind, dann erhöht sich das Gewicht wij (die Stärke der Verbindung von i nach j)

Rosenblatt Perzepton Lernalgorythmus Perzepton besteht aus N Elementen denen über L Leitungen Eingabe- muster zugeführt werden Die Zuordnung der Muster zu Klassen wird trainiert, so dass sich auch neue Muster klassifizieren lassen Wenn eine Aufgabe eine Lösung besitzt, so findet der Lernalgorythmus eine Lösung nach endlich vielen Schritten

Willshaw et al. Matrixmodell assoziativen Speichers x (Eingabemuster) und y (Ausgabemuster) werden als binäre Vektoren dargestellt N McCulloch-Pitts-Neuronen berechnen aus L Eingabemustern x die Komponenten yr des Ausgabemusters y Die Informationsspeicherung geschieht in der Matrix der L x N „Synapsenstärken“ wir Dadurch wird die Information über das System verteilt, und Teile davon dürfen ausfallen, ohne das für die richtigen Muster das Erreichen der Schwelle gefährdet wird

Hopfield Eingabemuster ist gleich dem Ausgabemuster (Autoassoziation) Abruf des vollen Musters aus unvollständigen Eingabefragmenten Es lassen sich aber nur schlecht korrelierte Muster speichern Ähnlichkeit wird nur nach Anzahl der übereinstimmenden Pixel erkannt, also kein Erkennen bei z.B. Translation des Musters

Ende