Computational Intelligence: Grundlagen Neuronaler Netze (NN)

Slides:



Advertisements
Ähnliche Präsentationen
Präsentiert von Torben Pastuch
Advertisements

Powerpoint-Präsentation
Seminarankündigung für das SS04
Matrixmultiplikation
Perceptrons and the perceptron learning rule
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
Das Studium der Informatik
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
On the Criteria to Be Used in Decomposing Systems into Modules
Zugehörigkeitsfunktion (Wahrheitsfunktion) m
Vom Steinzeitmonitor bis
Übersicht zu Verfahren des Soft Computing
Einführung in NeuroFuzzy Technologien
Präsentation der Fakultät Informatik Fakultät Informatik - Dekanat Dresden,
Arbeitsbereich Technische Aspekte Multimodaler Systeme Universität Hamburg Fachbereich Informatik Oberseminar TAMS Grundlagen omnidirektionaler Sichtsysteme.
Marvin Minsky und das Perceptron
Universität des Saarlandes Fachbereich Informatik Lehrstuhl Prof. Dr
Anwendungsverteilung und räumliche Ausdehnung
Neuronale Netze Von Kay-Patrick Wittbold.
Neuronale Netze Inhalt des Vortrags:
Rechneraufbau & Rechnerstrukturen, Folie 6.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 6.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
Das Netz der Netze Eine Einführung. 49 Kurssystem des DVZ.
Integration von maschineller Intelligenz in Automatisierungslösungen
PG 487 Methoden der Computational Intelligence in der Bioinformatik
High Performance = Innovative Computer Systems + Efficient Algorithms Friedhelm Meyer auf der Heide 1 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen.
1/25 UNIVERSITY OF PADERBORN Projektgruppe KIMAS Projektgruppe KIMAS MultiAgenten-Systeme Andreas Goebels.
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
OptiVaNeS Boubker Zaaimi, Reinhard Grebe, Fabrice Wallois, Aleksander Lodwich, Jörg Krone, Ulrich Lehmann Optimierung der Vagusnervstimulationsparameter.
Fuzzy-Klima-Regelung Simulink für Fuzzy Control
Künstlich Neuronale Netze
Kennlinie Lichtregelung in JavaNNS Version 1.1
2 5 SS 2006V_4_Fuzzy_Control_Teil2 1 Was ist CI (Computational Intelligence) Jörg Krone, Ulrich Lehmann, Hans Brenig, Oliver Drölle, Udo Reitz, Michael.
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
11. Neuro-Fuzzy-Regler und -Klassifikation
Grundlagen der Künstlichen Intelligenz
Qualifikation und Arbeitslosigkeit im internationalen Vergleich 1993 und 1997.
Computergenerationen
Simulation komplexer technischer Anlagen
Neuronale Netze Die Lernmatrix nach Karl Steinbuch
Neuronale Netze Teil II.
Universität Münster, Institut für industriewirtschaftliche Forschung Stefan Kooths Eric Ringhut KI-gestützte Konjunkturprognosen mit GENEFER Adaptive Fuzzy.
? Was ist Informatik? Was ist Informatik? Alexander Lange
Internet - Grundkurs - Einführung1 Inhalte Einführung in das Internet Zugang zum Internet Wie funktioniert das Internet? Das Programmpaket Internet Explorer.
F.Ladstätter und R.Elsässer VP Wissenschaftliches Arbeiten und Präsentation 13. Dezember 2001.
Das Internet.
Die Geschichte des Computers
Why connectionism? Backpropagation Netzwerke
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Adaptive Systeme-2 Grundlagen
Polynome und schnelle Fourier-Transformation
Neuronale Netze.
Neuronale Netze (1) Isabel Schwende
1 CeBIT 2008 Knowledge Management 2.0 Ulrich Kampffmeyer PROJECT CONSULT Unternehmensberatung Dr. Ulrich Kampffmeyer GmbH Breitenfelder Straße
Gekonnt visualisieren!
Analyse von Ablaufdiagrammen
Kompetenz -, Lern - und Prüfungsbereiche Anforderungsbereiche
CEF 2001, New Haven Genetic Neural Fuzzy Explorer GENEFER Konzeption, Technologien und Einsatzmöglichkeiten Eric Ringhut Muenster Institute for Computational.
Informatik: Zwischen Wissenschaft und Zehnfingersystem
Ein Überblick über verschiedene Verfahren
Euro Bundeswertpapiere
FuzzyControl++ und NeuroSystems
Vorlage für PPT-Präsentationen {Hier den Titel einsetzen}
Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Projektgruppe KIMAS NN in MAS
Design und Optimierung optischer Systeme durch Neuronale Netze und Genetische Algorithmen.
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Prognose von Zeitreihen Hans Nübel Hans Nübel Prognose von Zeitreihen Aufbau 1.Motivation 2.Holt-Winters-Verfahren 3.Prognose.
Emanuel Mistretta Lukas Schönbächler
 Präsentation transkript:

Computational Intelligence: Grundlagen Neuronaler Netze (NN) 27.03.2017 Computational Intelligence: Grundlagen Neuronaler Netze (NN) Jörg Krone, Ulrich Lehmann, Johannes Brenig, Oliver Drölle, Michael Schneider 27.03.2017 20:29 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

1. Einführung Künstlich Neuronale Netze (KNN) R1.5 Inhalt Was sind Neuronale Netze (NN)? Beteiligte Wissensgebiete an der NN-Forschung Vergleich neuronales Modell gegen Gehirn 100 Schritt-Regel Eigenschaften Neuronaler Netze Geschichte der Entwicklung von Modellen für Neuronale Netze (KNN) seit 1942 Geschichte der Entwicklung von KNN 1955 Geschichte der Entwicklung von KNN 1969 Geschichte der Entwicklung von KNN 1981 Geschichte der Entwicklung von KNN 1985 Geschichte der Entwicklung von KNN 1991 Geschichte der Entwicklung von KNN 1996 Anwendungen Neuronaler Netze 1997 bis 1999 CI an der FH SWF von 2000 bis heute 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Was sind Neuronale Netze (NN)? 27.03.2017 Was sind Neuronale Netze (NN)? NN (Neuronale Netze) KNN (Künstlich Neuronale Netze) ANN (artificial neuronal networks) sind informationsverarbeitende Systeme, die aus einer großen Anzahl einfacher Einheiten (Zellen, Neuronen) bestehen, die sich Informationen in Form der Aktivierung der Zellen über gerichtete Verbindungen (connenctions, links) zusenden.   27.03.2017 20:29 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Wie arbeiten Neuronale Netze (NN) und womit sind sie vergleichbar? 27.03.2017 Wie arbeiten Neuronale Netze (NN) und womit sind sie vergleichbar? KNN haben eine grobe Analogie zu den Gehirnen von Säugetieren: Informationsverarbeitung durch sehr viele Nervenzellen, die im Verhältnis zum Gesamtsystem sehr einfach sind und die den Grad ihrer Erregung über Nervenfasern an andere Nervenzellen weiterleiten. Hiebei handelt es sich um massiv parallele, lernfähige Systeme, die in vielen Anwendungsfeldern einsetzbar sind. 27.03.2017 20:29 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Wissenschaften mit Verbindungen zum Gebiet der neuronalen Netze (NN) Computational Intelligence Fuzzy-Logik, NN, Evolutionäre Algorithmen 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Vergleich zwischen Gehirn und Rechner 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

1. Einführung Künstlich Neuronale Netze (KNN) R1.5 Die 100-Schritt-Regel Ein bekanntes Argument für die massive Parallelverarbeitung im menschlichen Gehirn: Sie können das Bild einer bekannten Person in ca. 0,1 s erkennen! Bei einer Schaltzeit von 1 ms für Neuronen also in max. 100 sequentiellen Zeitschritten oder 100 Ebenen von Neuronen. 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Eigenschaften Neuronaler Netze ++ Vorteile ++ Lernfähigkeit Parallelität verteilte Wissensrepräsentation höhere Fehlertoleranz assoziative Speicherung von Informationen Robustheit gegen Störungen spontane Generalisierung von Eingabemustern aktive Repräsentation des Wissens. 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Eigenschaften Neuronaler Netze -- Nachteile -- Wissenserwerb ist nur durch Lernen möglich (kein Basiswissen im NN ablegbar) NN können keine Analyse ihres eigenen Wissens oder Problemlösungsvorgangs durchführen sequentielles logisches Schließen (wie die Inferenz bei Fuzzy-Logik) ist mit NN nur sehr schwer durchführbar Lernvorgang ist relativ langsam. 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Geschichte Neuronaler Netze 1942 Frühe Anfänge 1942 bis 1955 1943 McCulloch und Pitts beschreiben neurologische Netzwerke basierend auf dem McCulloch-Pitts-Neuron und zeigen, das auch einfache NN prinzipiell jede arithmetische oder logische Funktion berechnen können   1949 Hebb beschreibt die mittlerweile klassische Hebb’sche Lernregel 1950 Lashley, ein Neurologe, zeigt durch Tierversuche, dass die Information im Gehirn in einer verteilten Repräsentation gespeichert sein muss. 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Geschichte Neuronaler Netze 1955 Erste Blütezeit 1955 bis 1969 1957      Erster erfolgreicher Neurocomputer (Mark I Perceptron) von Rosenblatt und Wightman am MIT. Erkennung von Ziffern mit 20 x 20 Pixel Bildsensor und 512 motorgetriebenen Potentiometern (!) als Gewichte   1958      Selfridge stellt ersten Morse-Code-Übersetzer auf Basis eines „Pandemonium“ (Neuro-Computer) vor   1959      Einfache technische Realisierung von technischen Assoziativspeichern mit der „Lernmatrix“ von Steinbuch   1960      Entwicklung eines adaptiven Systems „Adaline“, das genau und schnell lernen kann von Widrow und Marcian 1963      Memistoren von Widrow. Transistor-ähnliche Elemente, mit den die einstellbaren Gewichte eines KNN (Künstlich Neuronales Netz) elektronisch realisiert werden können. Memistor Corporation, die erste Neurocomputing-Firma wird von Widrow gegründet.   1964      Durch Überschätzung in den Medien Einbruch des Interesses an NN (besonders vom Departement of Defense in USA) als die Grenzen der damals verwendeten Modelle und Lernverfahren bekannt werden.   1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Geschichte Neuronaler Netze 1969 Die stillen Jahre 1969 bis 1984  1969 Genaue mathematische Analyse des XOR-Problems und der Nichtlösbarkeit in einschichtigen KNN von Minsky und Papert. Von da an konzentrierten sich viele Forscher auf die Künstliche Intelligenz   1972 Kohonen stellte mit „Correlation matrix memories“ ein Modell eines speziellen Assoziativspeichers mit linearen Aktivierungsfunktionen und kontinuierliche Werte für Gewichte, Aktivierungen und Ausgaben  1973 Ein komplexeres, biologisch besser motiviertes nichtlineares Neuronenmodell von C. von der Malsburg, Uni Dortmund  1974 Entwicklung des Backpropagation-Verfahren von Werbos, Dissertation an der Harvard-Universität 1976 Sigmoide Aktivierungsfunktion für Neuronen und nichtlineare laterale Hemmungen von Grossberg;   Neuronaler Algorithmus zum Stereo-Sehen (Präsentation der Bildtiefe) von Marr und Poggio  1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Geschichte Neuronaler Netze 1981 Die stillen Jahre ... bis 1984  1981 Binäre Hopfield-Netze als neuronales Äquivalent der Ising-Modelle der Physik von Hopfield  1982 Selbstorganisierende Karten (Speicher) von Kohonen  1983 Neocognitron: ein neuronales Modell zur positions- und skalierungsinvarianten Erkennung handgeschriebener Zeichen aus einer schichtweisen Folge einfacher und komplexer Zellen, wie sie auch im biologischen visuellen System von Katzen vorkommen; Neuronales Modell zur adaptiven Regelung für das Balancieren eines senkrechten Stabes Lösung von schwierigen Optimierungsaufgaben wie Chip-Plazierung auf der Leiterplatte, Verdrahtung der Chips, 1984 Boltzmann-Maschine zur Wiedergewinnung scharfer Bilder aus unscharfen Bildern von Geman 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Geschichte Neuronaler Netze 1985 Die Renaissance neuronaler Netze 1985 bis heute  1985 Hopfield beschreibt in einem Artikel, wie KNN schwierige Optimierungsaufgaben (Traveling Salesman Problem) lösen können und kann viele Forscher von der Wichtigkeit des Forschungsgebietes NN überzeugen  1986 Publikation des Lernverfahrens Backpropagation durch Rumelhart, Hinton und Williams Vorstellung von Nettalk, ein mit Backpropagation trainiertes vorwärtsgerichtetes NN, das die Aussprache geschriebener Einzelwörter aus dem Englischen selbständig lernt und dabei innerhalb von wenigen Wochen (Aufwand für das Gesamtprojekt) eine beachtliche Leistung erreicht (nahezu wie DECtalk: wissensbasierte Maschine, viele Mannjahre Entwicklungszeit)  Explosionsartige Entwicklung des Fachgebietes NN seit 1986 o eigene Fachzeitschriften: Neural Networks, Neural Computation, Neurocomputing, IEEE Trans. on Neural Networks, ...  o Gründung großer wissenschaftlicher Gesellschaften: INNS (International Neural Network Society), ENNS (European Neural Network Society), IEEE Fachgruppe über KNN, GI-Fachgruppen, VDI-GMA-Fachgruppen über NN Entwicklungsumgebungen für Entwicklung, Training, Simulation und Code-Generation für KNN kommen auf den Markt Analoge VLSI-Chips für NN werden von den Firmen AT&T, Bellcore, und Intel entwickelt (Abb. 33.1 pdf mit Nachbearbeitung) 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Geschichte Neuronaler Netze 1991 1991 Kohonen-Netze für Robotik-Anwendungen werden erfolgreich in der Grundlagenforschung eingesetzt von Ritter, Uni Bielefeld   1992 Gute Lehrbücher über KNN kommen auf den Markt   Digitale VLSI-Chips für NN werden von den Firmen Hitachi, Adaptive Solutions, Siemens, Intel, Torrent und NeuraLogix entwickelt (Abb. 33.10 pdf mit Nachbearbeitung)   1993 Siemens entwickelt einen VLSI-Neurocomputer SYNAPSE-1 basierend auf dem selbstentwickelten VLSI-Chip MA 16 (Abb. 33.4 pdf mit Nachbearbeitung)   1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Geschichte Neuronaler Netze 1996 1996 Forschungsverbund Neuronale Fuzzy-Logik (NFL) von 6 Fachhochschulen in NRW wird unter der Leitung der FH Südwestfalen Abt. Iserlohn gegründet und vom MWF finanziert. Ziel: Anwendungsorientierte Forschung für kleine und mittlere Unternehmen (KMU) (Abb. NFL-Flyer.pdf)   Gemeinsame Tagungen von großen wissenschaftlichen Gesellschaften: GI mit VDI. Die Fachgebiete Fuzzy-Logik, Evolutionäre Algorithmen und Neuronale Netze verzahnen sich stärker. Es tauchen übergeordnete Begriffe für die genannten Fachgebiete auf (L. Zadeh: Softcomputing oder vom IEEE: Computational Intelligence)   Performance der PCs wird groß genug, um KNN für die Lösung von technischen Problemen zu entwickeln, zu trainieren und zu handhaben. Leistungsfähige KNN-Entwicklungsumgebungen für PC werden verfügbar. 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Anwendungen Neuronaler Netze 1997 bis 1999 1997 Analyse eines Umformprozesses mit KNN und Entwurf einer prädiktiven Regelung für die Industrie an der FH SW in Iserlohn von Brenig, Hohage, Lehmann, Reitz, Wöstmann (Abb. DA-Poster.pdf)   1998 Die Fachgebiete Fuzzy-Logik, Neuronale Netze und Evolutionäre Algorithmen wachsen unter der Überschrift CI (Computational Intelligence) und/oder Softcomputing stärker zusammen. Häufigkeit der Begriffe im Internet Stand 10/2003: CI: Softcomputing: Fuzzy Logic: NN: Evolutionäre Algorithmen: Evolutionary Computing:    1999 Der Forschungsverbund NFL präsentiert auf der INTERKAMA in Düsseldorf vielbeachtete technische Lösungen für Neuro-Regler und Neuro-Fuzzy-Regler (Bild Interkama.jpg)    1. Einführung Künstlich Neuronale Netze (KNN) R1.5

CI an der FH SWF von 2000 bis heute 2000 Arbeitskreis COIN wird von 4 Fachhochschulen in NRW mit Beteiligung der FH SWF gegründet: Ziel: Entwicklung von CI-Reglern und Lösung von Automatisierungsproblemen mit CI-Systemen für die Industrie 2003 Der Arbeitskreis COIN (Computational Intelligence for Industry) zeigt unter Beteiligung der FH SW Iserlohn einen CI-Regler für Belichtungs-regelungen auf der Hannover Messe Industrie 2003 Gründung des CIC.Lab an der FH Südwestfalen in Iserlohn Einrichtung einer Kompetenzplattform Computer Vision based on Computational Intelligence an der FH Südwestfalen durch das Land NRW Einrichtung eines Masterstudienganges CV&CI (Computer Vision and Computational Intelligence) an der FH Südwestfalen Präsentation eines SPAM-Filter auf CI-Basis mit KNN und Bayes-Filter auf der CeBIT 2006 im März in Hannover 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

1. Einführung Künstlich Neuronale Netze (KNN) R1.5 Fragen ? Fragen Sie bitte! 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Neurocomputer Beispiel 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Neurocomputer von Siemens 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Forschungsverbund Neuronale Fuzzy-Logik 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

CI-Konferenz in Baden-Baden 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

1. Einführung Künstlich Neuronale Netze (KNN) R1.5 Gründung CIC.Lab 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Neuronale Netze für die Systemanalyse 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Anwendung Neuro-PID-Regler 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

1. Einführung Künstlich Neuronale Netze (KNN) R1.5 Anwendung CI-Regler 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

1. Einführung Künstlich Neuronale Netze (KNN) R1.5 Kompetenzplattform Computer Vision based on Computational Intelligence KOPF CV&CI 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

Masterstudiengang Computer Vision and Computational Intelligence In Kooperation mit: FH Gelsenkirchen FH Köln, Gummersbach FH Bochum FH Aachen FH Bielefeld Hochschule Wallis, CH Université Amiens, F Politechnico Setubal, PT Staffordshire University, GB Foshan University, VR FH Köln Campus Gummersbach , Hagen Meschede, Soest 1. Einführung Künstlich Neuronale Netze (KNN) R1.5

SPAM-Filter auf CI-Basis auf der CeBIT 2006 in Hannover E-Mail SPAM 1. Einführung Künstlich Neuronale Netze (KNN) R1.5