Neuronale Netze Von Kay-Patrick Wittbold.

Slides:



Advertisements
Ähnliche Präsentationen
Teil 3 Theorie und Technik
Advertisements

Selbstorganisation und Lernen
Seminarankündigung für das SS04
Perceptrons and the perceptron learning rule
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
Wismar Business School
Ein Neuronales Netz könnte lernen indem es …
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
Einführung in NeuroFuzzy Technologien
Die vorgeschlagene adaptive Methode filtriert die TCP/IP Verkehr auf der Basis von dem adaptiven Lernen einer KNN mit Paketen-Headers, die verschiedenen.
Neuronen, Modelle, Anwendungen Florian Kaiser
Grundlagen der Neurobiologie
Marvin Minsky und das Perceptron
Adaptive Systeme Prof. Rüdiger Brause WS 2009.
Neuronale Netze Inhalt des Vortrags:
Neurobiologische Grundlagen der visuellen Wahrnehmung
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
in den Sportwissenschaften
Katja Losemann Chris Schwiegelshohn
Biologisches Vorbild Grundlagen
zur Vorlesung Neuronale Netzwerke
Selbstorganisierende Neuronale Netze
PowerPoint-Folien zur 6. Vorlesung „Bionik II / Biosensorik“
Wie eine Nervenzelle funktioniert
PowerPoint-Folien zur 6. Vorlesung „Bionik II / Biosensorik“
Neuronale Netze Romy Kuttner, Franco Haberland.
Wismar Business School
Künstlich Neuronale Netze
Kennlinie Lichtregelung in JavaNNS Version 1.1
Künstlich Neuronale Netze
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Machine Learning KNN und andere (Kap. 8).
Neuronale Netze 2 (Mitchell Kap. 4)
Neuronale Netze Teil II.
Der Uranus Der 7. Planet im Sonnensystem
Tipps und Tricks für den bedachten Umgang mit IKT Christoph & Tanja mail:
Neurowissenschaften -
Why connectionism? Backpropagation Netzwerke
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Adaptive Systeme-2 Grundlagen
Adaptive Systeme-2 Prof. Rüdiger Brause WS 2011 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags Uhr, SR9 Übungen.
Neuronale Netze.
Neuronale Netze (1) Isabel Schwende
Praktische Optimierung
Künstliches Neuronales Netz nach John Hopfield
Das Internet Von Stefan Pfleger Stefan Pfleger.
Weiter mit Klick! Was ist Erfolg?.
Graphen und Bäume.
Semantic Web - ein Thema für Bibliotheksverbünde SWIB 2010, Köln Dr. Silke Schomburg.
LHCb - Experiment  Alle 25ns ein Event  40 MHz  Trigger sortiert aus  Gibt Anstoß zur Weiterverarbeitung  Immer mehr Events aussortiert  ca.
Sprachen Auf dieser Karte sieht man verschiedene Sprachfamilien. Das sind verwandte Sprachen. Rot sind die germanischen Sprachen, also zum Beispiel Englisch,
ANN - Simulator Rainer Trummer Ferdinand Schober Christian Spielberger.
Eine kurze Geschichte der Graphentheorie
Polenfahrt Baindt Unser Ziel: Ludźmier z Wo fahren wir eigentlich hin? Kartenquelle:
Neuronale Netze - Anwendungen in Chemie und Verfahrenstechnik
Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Evolutionärer Entwurf neuronaler Netze
Projektgruppe KIMAS NN in MAS
Design und Optimierung optischer Systeme durch Neuronale Netze und Genetische Algorithmen.
Bewege den Mauszeiger über die Zahlen der Abbildung um Erläuterungen zu den Teilen des Neurons zu erhalten.
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Konnektionismus: Pattern Association Simulationsumgebung tlearn Projektseminar Konnektionistische Sprachverarbeitung WS 2009/2010.
Projektseminar WS 09/10 Lars Konieczny Daniel Müller Helmut Weldle Konnektionistische Sprachverarbeitung Konnektionismus die zweite November.
Einführung Grundlagen Zwischenfazit Deep Learning Probleme Fazit
Rechen- und Kommunikationszentrum (RZ) Datamining-Methoden zur Analyse von Messdaten Immanuel Zumbruch.
Emanuel Mistretta Lukas Schönbächler
Deep Learning Simon Fankhauser, Donato Villani - AAI HS 17.
 Präsentation transkript:

Neuronale Netze Von Kay-Patrick Wittbold

Bestandteile

Natürliches Neuron Zellkörper bis 0,25mm Größe Bilden Ausläufer mit dicken Enden, die sogenannten Synapsen Dendriten: Eingangssignal Axone: Ausgangssignal Synapsen sorgen für die Weiterleitung von Reizen Arbeitet mit Ionen zur Steuerung des Signals (Schwellenwert muss überschritten werden damit Neuron „feuert“) Im Gehirn zwischen 100 Milliarden und 1 Billionen

100µm

Künstliches Neuron Eingabevektor x Gewichtsvektor w Aktivierungsfunktion gibt an wie sich ein neuer Aktivierungszustand aus Eingabe, Netzeingabe und Schwellenwert ergibt Ausgabefunktion bestimmt aus der Aktivierung die Ausgabe des Neurons In künstlichen Neuronalen Netzen zwischen 10² und 104

Gewichtung wij=0 bedeutet keine Verbindung von Neuron i zu Neuron j wij<0 bedeutet hemmende Verbindung von Neuron i zu Neuron j wij>0 bedeutet anregende Verbindung von Neuron i zu Neuron j

Schwellenwert S-förmige Funktionen (Sigmoide Funktionen) Häufig verwendet: Aber auch binäre Schwellenwertfunktion

Neuronale Netze

Künstliche Neuronale Netze (KNN) Besteht aus künstlichen Neuronen Verbindungsnetzwerk der Zellen (gerichteter, gewichteter Graph) Propagierungsfunktion: gewichtete Summe der Ausgaben der Vorgängerzelle Lernregel: Algorithmus, nach dem das Netz lernt, für eine vorgegebene Eingabe eine gewünschte Ausgabe zu produzieren

Exkurs Graphentheorie

Gerichteter Graph

Gewichteter Graph

Gerichteter, gewichteter Graph

Künstliches Neuronales Netz Gerichteter, gewichteter Graph mit Neuronen als Knoten, Verbindungen als Kanten Neuronen haben beliebig viele Verbindungen untereinander Neuronen können nur eine Ausgabe senden, beliebig viele Eingaben erhalten

Arten Neuronaler Netze Netze ohne Rückkopplung Ebenenweise verbunden Allgemein Netze mit Rückkopplung Direkte Rückkopplung Indirekte Rückkopplung innerhalb einer Schicht Vollständig verbundene

Abstraktes Beispiel

Abstraktes Beispiel 1 2 3 4 5 6 7 -0,8 0,3 0,1 0,7 0,2 -0,3 -0,4 0,5 0,6

Konkretes Beispiel AND

Konkretes Beispiel AND Eingabe: binär (1 oder 0) Gewichtungsvektor (1,1) Schwellenwert 2 Ausgabe: 1, falls Eingabe1*Gewichtung1+Eingabe2*Gewichtung2 >=2; sonst 0

Konkretes Beispiel OR

Konkretes Beispiel OR Eingabe: binär (1 oder 0) Gewichtungsvektor (1,1) Schwellenwert 1 Ausgabe: 1, falls Eingabe1*Gewichtung1+Eingabe2*Gewichtung2 >=1; sonst 0

Modellierung des Lernens Entwicklung neuer Verbindungen Löschen existierender Verbindungen Modifikation der Verbindungsstärke (Veränderung der Gewichte) Modifikation des Schwellenwertes Modifikation der Aktivierungs- bzw. Ausgabefunktion Entwicklung neuer Zellen Löschen bestehender Zellen

Modellierung des Lernens Überwachtes Lernen (Backpropagation) Bestärkendes Lernen Unüberwachtes Lernen

Nachteile Neuronaler Netze Training Trainingsdaten Vermeidung von auswendig lernen von Daten Präsentation der Trainingsdaten muss problemangepasst sein

Quellen http://wwwmath.uni-muenster.de/num/Vorlesungen/MedizinUndMathematik/ http://de.wikipedia.org/w/index.php?title=Datei:PLoSBiol4.e126.Fig6fNeuron.jpg&filetimestamp=20080131213023 http://www.greenspine.ca/en/mGFP_neuron2.html http://de.wikipedia.org/wiki/Datei:ArtificialNeuronModel_deutsch.png