Entscheidungsunterstützungssysteme IWI Frankfurt 2003

Slides:



Advertisements
Ähnliche Präsentationen
Neuronale Netze & Genetische Algorithmen
Advertisements

Präsentiert von Torben Pastuch
Selbstorganisation und Lernen
Seminarankündigung für das SS04
Agent Based Supply Chain Management1 ABSCM-Vorlesung im WS 2001/2002.
Freie Universität Berlin Institut für Informatik
Perceptrons and the perceptron learning rule
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
Neuronale Netze Folien, Aufgaben sind unter zu finden.
Ein Neuronales Netz könnte lernen indem es …
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
Denavit u. Hartenberg - Beschreibung
Software-Engineering II Eingebettete Systeme, Softwarequalität, Projektmanagement Prof. Dr. Holger Schlingloff Institut für Informatik der Humboldt.
Übersicht zu Verfahren des Soft Computing
Einführung in NeuroFuzzy Technologien
Die vorgeschlagene adaptive Methode filtriert die TCP/IP Verkehr auf der Basis von dem adaptiven Lernen einer KNN mit Paketen-Headers, die verschiedenen.
Wie lernt FUSC# mit TD( )? Marco Block... X1X1 X2X2 XNXN x1x1 x2x2 pd[i] =w1f1(x) + w2f2(x) + w3f3(x) wnfn(x)... w1f1(x) + w2f2(x) + w3f3(x) +...
Marvin Minsky und das Perceptron
Neuronale Netze Von Kay-Patrick Wittbold.
Neuronale Netze Inhalt des Vortrags:
© 2006 W. Oberschelp, G. Vossen Rechneraufbau & Rechnerstrukturen, Folie 4.1.
Wolf Singer Max Planck Institut für Hirnforschung Frankfurt
Berechnen Sie den Output Vektor wenn der Input Vektor (1,1,-1,-1) ist.
in den Sportwissenschaften
Integration von maschineller Intelligenz in Automatisierungslösungen
UNIVERSITY OF PADERBORN Projektgruppe KIMAS Projektgruppe KIMAS Organisatorisches Andreas Goebels.
Biologisches Vorbild Grundlagen
RBF-Netze, Learning Vector Quantisation, Kohonen-Karten
Uebung 01 ANN mit MATLAB.
Uebung 03 Perceptron Training INPUTINPUT b OUTPUTOUTPUT w1w1 w2w2.
Datenstrom (Propagation) Fehlerstrom (Backpropagation)
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
Organisches Rechnen (Organic Computing)
Ingo Rechenberg PowerPoint-Folien zur 8. Vorlesung Biosensorik / Bionik II Organisches Rechnen (Organic Computing) Struktur und Arbeitsweise neuronaler.
Neuronale Netze Romy Kuttner, Franco Haberland.
Wismar Business School
Kennlinie Lichtregelung in JavaNNS Version 1.1
2 5 SS 2006V_4_Fuzzy_Control_Teil2 1 Was ist CI (Computational Intelligence) Jörg Krone, Ulrich Lehmann, Hans Brenig, Oliver Drölle, Udo Reitz, Michael.
Künstlich Neuronale Netze
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Gesichtserkennung mit Hilfe eines Neuronalen Netzes (SNNS)
Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Andere Paradigmen Inhalt dieses Kapitels 8.1 Induktive Logik-Programmierung.
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Machine Learning KNN und andere (Kap. 8).
Neuronale Netze 2 (Mitchell Kap. 4)
Maschinelles Lernen und automatische Textklassifikation
Betrügern auf der Spur WIN-Treffen 2010 Falko Meyer 04 BW.
Neuronale Netze Teil II.
Universität Münster, Institut für industriewirtschaftliche Forschung Stefan Kooths Eric Ringhut KI-gestützte Konjunkturprognosen mit GENEFER Adaptive Fuzzy.
Clustered Neuronal Network A C#.NET project for Compute Cluster Server 2003.
Why connectionism? Backpropagation Netzwerke
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Adaptive Systeme-2 Grundlagen
Neuronale Netze.
Neuronale Netze (1) Isabel Schwende
Praktische Optimierung
Künstliche Intelligenz
Rafael, Florian, Patrick
Neuronale Netze - Anwendungen in Chemie und Verfahrenstechnik
Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Lernen 1. Vorlesung Ralf Der Universität Leipzig Institut für Informatik
Maschinelles Lernen und Neural Computation
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Konnektionismus: Pattern Association Simulationsumgebung tlearn Projektseminar Konnektionistische Sprachverarbeitung WS 2009/2010.
Einführung Grundlagen Zwischenfazit Deep Learning Probleme Fazit
Emanuel Mistretta Lukas Schönbächler
Deep Learning Simon Fankhauser, Donato Villani - AAI HS 17.
 Präsentation transkript:

Entscheidungsunterstützungssysteme IWI Frankfurt 2003 Praktikumsplatz im Bereich Sales IT bei Procter & Gamble Voraussetzungen sind: sehr gute Deutsch- und Englischkenntnisse abgeschlossenes Vordiplom Erfahrungen im Bereich Internet- oder Intranet-Anwendungen (Programmierkenntnisse nicht unbedingt erforderlich) sehr gute kommunikative Fähigkeiten Vergütung: ca. €1.500 p.M. Dauer: 3-4 Monate Beginn: frühestens 07.07.2003, spätestens 11.08.2003 Entscheidungsunterstützungssysteme IWI Frankfurt 2003

Entscheidungsunterstützungssysteme IWI Frankfurt 2003 Künstliche Neuronale Netze Entscheidungsunterstützungssysteme IWI Frankfurt 2003

Entscheidungsunterstützungssysteme IWI Frankfurt 2003 Eigenschaften der KNN Lernfähigkeit Verallgemeinerungsfähigkeit Assoziationsfähigkeit Robustheit Massiv parallele Informationsverarbeitung Entscheidungsunterstützungssysteme IWI Frankfurt 2003

Anwendungsgebiete der KNN Mustererkennung Spracherkennung Signalverarbeitung Maschinelles Lernen, Expertensysteme Diagnose Vorhersage Optimierung Steuerung, Regelung Entscheidungsunterstützungssysteme IWI Frankfurt 2003

Bedeutung von “Lernen” in KNN die Gewichte der Verbindungen zwischen den Neuronen modifizieren ein neues Neuron kreieren ein Neuron zerstören Entscheidungsunterstützungssysteme IWI Frankfurt 2003

Entscheidungsunterstützungssysteme IWI Frankfurt 2003 Lernmethoden in KNN Supervised Learning (Überwachtes Lernen) Das vom KNN gelieferte Output wird mit dem gewünschten Output verglichen; das KNN wird anhand von diesem Unterschied trainiert. Reinforcement Learning (Kritiker Lernen) Das vom KNN gelieferte Output erhält eine Bewertung; das KNN wird anhand von dieser Bewertung trainiert. Unsupervised Learning Dem Netz werden nur Inputs präsentiert. Während der Trainingsphase werden die Gewichte der Neuronen so geändert, dass die Trainingsbeispiele in korrelierten Kategorien (Cluster) organisiert werden. Entscheidungsunterstützungssysteme IWI Frankfurt 2003

Entscheidungsunterstützungssysteme IWI Frankfurt 2003 Perceptron x1 Neuron Synapsen Output x2 Axon Entscheidungsunterstützungssysteme IWI Frankfurt 2003

Entscheidungsunterstützungssysteme IWI Frankfurt 2003 Perceptron y1 = f (w1x1+w2x2+b1) x1 w1 y1 Input Output w2 x2 Entscheidungsunterstützungssysteme IWI Frankfurt 2003

Entscheidungsunterstützungssysteme IWI Frankfurt 2003 Multi-Layered-Perceptron w11 y1 x1 w‘1 w12 z1 w21 Output w‘2 y2 x2 w22 w11 w12 w21 w22 Entscheidungsunterstützungssysteme IWI Frankfurt 2003

Entscheidungsunterstützungssysteme IWI Frankfurt 2003 Diskrete Ergebnisse y1 = F (w1x1+w2x2 +b1)  { -1, 1} w11 y1 x1 w‘1 w12 w21 Output d ( x1, x2 ) w‘2 y2 x2 w22 Entscheidungsunterstützungssysteme IWI Frankfurt 2003

Entscheidungsunterstützungssysteme IWI Frankfurt 2003 Sigmoid Funktion yj = arctan (  wijxi ) Entscheidungsunterstützungssysteme IWI Frankfurt 2003

Entscheidungsunterstützungssysteme IWI Frankfurt 2003 Lernregeln Entscheidungsunterstützungssysteme IWI Frankfurt 2003