Seminarankündigung für das SS04

Slides:



Advertisements
Ähnliche Präsentationen
Signale & Systeme 6. Große Datenbestände (Prinzipien & Anwendungen)
Advertisements

Präsentiert von Torben Pastuch
Selbstorganisation und Lernen
Perceptrons and the perceptron learning rule
Kohonennetze für Information Retrieval mit User Feedback
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
(Zweistufige) Logiksynthese
Johannes-Kepler-Gymnasium
Ein Neuronales Netz könnte lernen indem es …
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
Arbeiten mit Mittelwert- und Kovarianzstrukturmodellen
Übersicht zu Verfahren des Soft Computing
Die vorgeschlagene adaptive Methode filtriert die TCP/IP Verkehr auf der Basis von dem adaptiven Lernen einer KNN mit Paketen-Headers, die verschiedenen.
Grundlagen der Neurobiologie
Marco Barz Seminar über Algorithmen SoSe2007
Marvin Minsky und das Perceptron
Neuronale Netze Von Kay-Patrick Wittbold.
Adaptive Systeme Prof. Rüdiger Brause WS 2009.
Konkurrentes Lernen AS-1
IIW Erläuterungen zum Masterprogramm. IIW-MS Allgemeine Fachmodule (60) – Studienarbeit + Seminar (18) – Betrieb und Management (6) Nichttechnische Ergänzungsfächer.
Neuronale Netze Inhalt des Vortrags:
© 2006 W. Oberschelp, G. Vossen Rechneraufbau & Rechnerstrukturen, Folie 4.1.
Berechnen Sie den Output Vektor wenn der Input Vektor (1,1,-1,-1) ist.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
in den Sportwissenschaften
Integration von maschineller Intelligenz in Automatisierungslösungen
Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik, Universität Rostock Programmierung eingebetteter.
1/25 UNIVERSITY OF PADERBORN Projektgruppe KIMAS Projektgruppe KIMAS MultiAgenten-Systeme Andreas Goebels.
Uebung 03 Netzdateien.
Biologisches Vorbild Grundlagen
Uebung 02 NN Properties b1b1 b2b2 b3b3 b4b4 b INPUTINPUT OUTPUTOUTPUT w 1o w 2o w 3o w 4o w 11 w 12 w 13 w 14 w 21 w 22 w 23 w 24.
Uebung 01 ANN mit MATLAB.
Datenstrom (Propagation) Fehlerstrom (Backpropagation)
zur Vorlesung Neuronale Netzwerke
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
Ingo Rechenberg PowerPoint-Folien zur 8. Vorlesung Biosensorik / Bionik II Organisches Rechnen (Organic Computing) Struktur und Arbeitsweise neuronaler.
Ingo Rechenberg PowerPoint-Folien zur 4. Vorlesung Evolutionsstrategie II Das Wunder der sexuellen Fortpflanzung - Theorie der rekombinativen ES.
Neuronale Netze Romy Kuttner, Franco Haberland.
Wismar Business School
Kennlinie Lichtregelung in JavaNNS Version 1.1
2 5 SS 2006V_4_Fuzzy_Control_Teil2 1 Was ist CI (Computational Intelligence) Jörg Krone, Ulrich Lehmann, Hans Brenig, Oliver Drölle, Udo Reitz, Michael.
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Gesichtserkennung mit Hilfe eines Neuronalen Netzes (SNNS)
Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Andere Paradigmen Inhalt dieses Kapitels 8.1 Induktive Logik-Programmierung.
Rechneraufbau & Rechnerstrukturen, Folie 12.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 12.
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Neuronale Netze 2 (Mitchell Kap. 4)
Maschinelles Lernen und automatische Textklassifikation
Neuronale Netze Teil II.
Universität Münster, Institut für industriewirtschaftliche Forschung Stefan Kooths Eric Ringhut KI-gestützte Konjunkturprognosen mit GENEFER Adaptive Fuzzy.
Why connectionism? Backpropagation Netzwerke
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Adaptive Systeme-2 Grundlagen
Adaptive Systeme-2 Prof. Rüdiger Brause WS 2011 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags Uhr, SR9 Übungen.
Neuronale Netze.
Neuronale Netze (1) Isabel Schwende
Praktische Optimierung

Künstliches Neuronales Netz nach John Hopfield
Elman-Netzwerke Wintersemester 2004/05 Seminar Kindlicher Spracherwerb C. Friedrich & R. Assadollahi vorgestellt von Christian Scharinger & Guido Heinecke.
Der Weg und das Ziel Algorithmische Zusammenhänge finden
Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Lernen 1. Vorlesung Ralf Der Universität Leipzig Institut für Informatik
Bewege den Mauszeiger über die Zahlen der Abbildung um Erläuterungen zu den Teilen des Neurons zu erhalten.
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
Emanuel Mistretta Lukas Schönbächler
Simple Recurrent Networks
 Präsentation transkript:

Seminarankündigung für das SS04 Empfehlungssysteme in E-Commerce und E-Business: Methoden und Herausforderungen PD Dr. Oliver Wendt Blockseminar 25.+26. Juni 2004 Status quo der Verwendung von Recommender Systems und Einordnung in die Marketing-Theorie Darstellung der verwendeten Methoden: content based filtering, collaborative filtering, data mining, social network analysis etc. Architekturen für die Gestaltung von Datenschutz- und Anreiz-problemen Themenvorschläge und Anmeldung (bis zum 30.4.) unter www.is-frankfurt.de Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Künstliche Neuronale Netze Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Künstliche Neuronale Netze Selbständige Entwicklung von („subsymbolischen“) IV-Fähigkeiten als adaptive Reaktion auf eine Informationsumgebung parallel verteilt Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Definition Ein neuronales Netz ist ein gerichteter Graph mit folgenden Eigenschaften: Jedem Punkt ist ein Speicher zugeordnet. Jede Kante fungiert als unidirektionaler Signalpfad. Die von einem Punkt ausgehenden Signale sind auf allen Kanten identisch. Jedem Punkt ist eine Transferfunktion zugeordnet. Diese ordnet den Ausgangsknoten, abhängig vom Speicherinhalt und den eingehenden Signalen, ein Ausgangssignal zu. In der Lernphase kann eine Subfunktion einem Speicher, abhängig vom bisherigen Inhalt, abhängig von einem Präsentationswert sowie abhängig von den eingehenden Signalen, einen neuen Wert zuweisen. Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Das Neuron Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Eigenschaften der KNN Lernfähigkeit Verallgemeinerungsfähigkeit Assoziationsfähigkeit Robustheit Massiv parallele Informationsverarbeitung Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Anwendungsgebiete der KNN Mustererkennung Spracherkennung Signalverarbeitung Maschinelles Lernen, Expertensysteme Diagnose Vorhersage Optimierung Steuerung, Regelung Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Bedeutung von “Lernen” in KNN die Gewichte der Verbindungen zwischen den Neuronen modifizieren ein neues Neuron kreieren ein Neuron zerstören Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Lernmethoden in KNN Supervised Learning (Überwachtes Lernen) Das vom KNN gelieferte Output wird mit dem gewünschten Output verglichen; das KNN wird anhand von diesem Unterschied trainiert. Reinforcement Learning (Kritiker Lernen) Das vom KNN gelieferte Output erhält eine Bewertung; das KNN wird anhand von dieser Bewertung trainiert. Unsupervised Learning Dem Netz werden nur Inputs präsentiert. Während der Trainingsphase werden die Gewichte der Neuronen so geändert, dass die Trainingsbeispiele in korrelierten Kategorien (Cluster) organisiert werden. Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Das Neuron (Begriffe) Biologisches neuronales Netz := miteinander verbundene Nervenzellen (Neuronen) der Hirnrinde (Neocortex) kommunizieren per elektrischer Impulse Dendriten: Eingabeeinheit, Empfang der Signalimpulse Zellkörper: Verarbeitungseinheit wird aktiviert, wenn Summe aller Dendritensignale eine Schwelle überschreitet Axon: Ausgabeeinheit - leitet Aktivierungsimpuls zu anderen Neuronen Synapse: Kontaktpunkt zwischen Axon und Dendrit des nächsten Neurons Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Künstliches Neuronales Netz (schematisches Neuron) y1 = f (w1x1+w2x2+b1) x1 w1 y1 Input Output w2 x2 Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Neuronales Netz (Multi-Layered-Perceptron) w11 y1 x1 w‘1 w12 z1 w21 Output w‘2 y2 x2 w22 w11 w12 w21 w22 Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Neuronales Netz (Feed Forward) Diskrete Ergebnisse: y1 = F (w1x1+w2x2 +b1)  { -1, 1} w11 y1 x1 w‘1 w12 w21 Output d ( x1, x2 ) w‘2 y2 x2 w22 Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Neuronales Netz (Feed Forward) Sigmoid Funktion yj = arctan (  wijxi ) Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Neuronales Netz (Feed Forward) Lernregeln Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Neuronales Netz (Feed Forward) x1 x5 x2 x3 x4 x10 x7 x6 x9 x8 input layer weight matrix 1 hidden layer weight matrix 2 output layer Ausgangssignal Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Lerntheorie Neuron-Wichtungsvektor: Netzwerk-Wichtungsvektor: Netzwerk-Funktion: Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Lerntheorie Um eine Funktion A(x) zu approximieren, muß der quadratische Fehler F(w) auf dem von allen Inputparametern aufgespannten „Volumen“ V (also dem u.U. hochdimensionalen Parameterraum) unter Berücksichtigung der Dichte p minimiert werden: Unter Berücksichtigung dieses allgemeinen Lerngesetzes lassen sich topologie-spezifische Lernregeln aufstellen. Man unterscheidet: Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Lerntheorie supervised learning Netzwerk funktioniert als Input/Output-System (ggf. interpolierend) entweder: beim Lernen werden die korrekten (gewünschten) Input/Output-Paare verwendet oder: die Anpassung des Gewichtungsvektors orientiert sich an einem Bewertungsmaß competitive learning (self organization, keine separate Lernphase) bei jedem Lernschritt kommt es zu einem "Wettbewerb“ zwischen den Neuronen des Netzwerks der "Gewinner" darf seinen Gewichtungsvektor anpassen Entscheidungsunterstützungssysteme IWI Frankfurt 2004

Entscheidungsunterstützungssysteme IWI Frankfurt 2004 Anwendungen Assoziative Netze Assoziativspeicher Klassifikator (z.B. Kreditwürdigkeitsprüfung) Abbildungsnetze Transformation Nicht-lineare Regression (KNN mit 1 hidden layer können jeden funktionalen Zusammenhang abbilden!) Selbstorganisierende Netze zur Optimierung Entscheidungsunterstützungssysteme IWI Frankfurt 2004