Einführung Grundlagen Zwischenfazit Deep Learning Probleme Fazit

Slides:



Advertisements
Ähnliche Präsentationen
Selbstorganisation und Lernen
Advertisements

Seminarankündigung für das SS04
Perceptrons and the perceptron learning rule
Pop Jazz C B A Jazz C A Lehrstuhl für Künstliche Intelligenz
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
Wismar Business School
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
Die vorgeschlagene adaptive Methode filtriert die TCP/IP Verkehr auf der Basis von dem adaptiven Lernen einer KNN mit Paketen-Headers, die verschiedenen.
Marvin Minsky und das Perceptron
Neuronale Netze Von Kay-Patrick Wittbold.
Lernen und Klassifizieren AS-2
Fragetechnik statt Sagetechnik
Neuronale Netze Inhalt des Vortrags:
Benutzerprofil: Erfahrener Fachmann Konzeptuelle Eingabe, Überprüfung auf Richtigkeit, Admin Funktion Recht zur Eingabe.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
Visuelle Aufmerksamkeit
Uebung 03 Perceptron Training INPUTINPUT b OUTPUTOUTPUT w1w1 w2w2.
Neuronale Netze Romy Kuttner, Franco Haberland.
Wismar Business School
Kennlinie Lichtregelung in JavaNNS Version 1.1
Künstlich Neuronale Netze
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Gesichtserkennung mit Hilfe eines Neuronalen Netzes (SNNS)
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Neuronale Netze 2 (Mitchell Kap. 4)
Externe Bewertung in IB-Biologie
Clustered Neuronal Network A C#.NET project for Compute Cluster Server 2003.
Why connectionism? Backpropagation Netzwerke
Entstehung & Einflüsse Ideen, Wünsche, eigene Überlegungen bisheriges Dateisystem Einschrän- kungen: - technisch - zeitlich - fachlich Literatur, ältere.
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Adaptive Systeme-2 Grundlagen
Neuronale Netze.
Neuronale Netze (1) Isabel Schwende
Praktische Optimierung
Wunsch Werkzeug Aufgabe & Modell Vorgehen Resultat Zukunft Machine Learning zur Steigerung der Usability Steigerung der Usability.
Vernetzung von Rechnern
Klassifikation und Regression mittels neuronaler Netze
EÜ Literatur 12. Einheit.
ANN - Simulator Rainer Trummer Ferdinand Schober Christian Spielberger.
Gesichtsdetektion in digitalen Einzelbilder
Neuronale Netze - Anwendungen in Chemie und Verfahrenstechnik
Evolutionärer Entwurf neuronaler Netze
Projektgruppe KIMAS NN in MAS
SS 2009Maschinelles Lernen und Neural Computation 133 Kapitel 7: Ensemble Methoden.
Using Reflexive Behaviors of the Medicinal Leech to Study Information Processing William B. Kristan Jr., Sawn R. Lockery und John E. Lewis.
Lernen 1. Vorlesung Ralf Der Universität Leipzig Institut für Informatik
Design und Optimierung optischer Systeme durch Neuronale Netze und Genetische Algorithmen.
EIN NEUES ENSEMBLE- KLASSIFIKATIONSVERFAHREN Tim Schneider Rotation Forest.
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Vorlesung Pädagogische Psychologie - Renkl 1 Lernziele Vorlesungs“ergänzung“ am I. Glogger Konkrete Studie kennenlernen Ausblick: In welche.
PCA Principal Component Analysis. Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung.
Rechen- und Kommunikationszentrum (RZ) Datamining-Methoden zur Analyse von Messdaten Immanuel Zumbruch.
O N L I N E – M A R K E T I N G ncm.at – Net Communication Management Gmbh Aigner Straße 55a I 5026 Salzburg I Österreich I I T:
Android Apps selbst gemacht
SOCIAL MEDIA MONITORING
Die Facharbeit am Gymnasium Gartenstraße
Emanuel Mistretta Lukas Schönbächler
Simple Recurrent Networks
Veränderungen der betrieblichen Ausbildungsanforderungen
Projektabschluss
Deep Learning Simon Fankhauser, Donato Villani - AAI HS 17.
Methoden der Datengewinnung
Grundlagen der Rechnerarchitektur [CS ]
Am Beispiel von Handschrifterkennung mit Neuronalen Netzen
Titel des Wissenschaftsprojekts
Ulrich Lehmann, Johannes Brenig, Michael Schneider
Service-Design in SEPA
Hochschule für Agrar- und Umweltpädagogik
 Präsentation transkript:

Mario Neises Aktuelle Entwicklung und Probleme bei künstlichen neuronalen Netzen in Bezug auf Deep Learning 28.04.2017

Einführung Grundlagen Zwischenfazit Deep Learning Probleme Fazit Inhalt Einführung Grundlagen Zwischenfazit Deep Learning Probleme Fazit 28.04.2017

Einführung: führende Forscher Geoffrey E. Hinton (Google) Yann LeCun (Facebook) Yoshua Bengio Bildquellen: http://www.cs.toronto.edu/~hinton/, http://yann.lecun.com/, http://www.iro.umontreal.ca/~bengioy/yoshua_en/ 28.04.2017

Einführung: Klassifizierung Anforderungen an (künstliche) neuronale Netze: Generalisierung Lernfähigkeit Fehlertoleranz Parallelisierbarkeit Merkmalsextraktion Bildquelle: H. Lee et al., “Convolutional deep belief networks for scalable unsupervised learning of hierarchical representations”, 2009, Abbildung 3 28.04.2017

Einführung: Klassifizierbarkeit Lineare Separierbarkeit Bsp.: AND 28.04.2017

Grundlagen: Bausteine Neuron mit Aktiverungsfunktion 28.04.2017

Einführung: Klassifizierbarkeit Lineare Separierbarkeit Bsp.: AND Nicht l. Separierbarkeit Bsp.: XOR 28.04.2017

Grundlagen: Netze Quelle: David Kriesel, Ein kleiner Überblick über Neuronale Netze, 2007, S. 43 28.04.2017

Lernen: Anpassen der Gewichte Grundlagen: Lernen Lernen: Anpassen der Gewichte Training: Bekannte Ausgabe zur Eingabe Fehler = AusgabeBekannt - AusgabeBerechnet 28.04.2017

Grundlagen: Selbstständiges Lernen Gradientenabstieg Quelle: David Kriesel, Ein kleiner Überblick über Neuronale Netze, 2007, S. 64 28.04.2017

Zwischenfazit 28.04.2017

Deep Learning 28.04.2017

Deep Learning: Anwendungen Deep Belief Nets: http://www.cs.toronto.edu/~hinton/adi/index.htm ConvNetJS MNIST: http://cs.stanford.edu/people/karpathy/convnetjs/demo/mnist.html

Probleme spezifische Probleme generelle Probleme

Probleme: Spezifischer Natur Beispiele: Stabilitäts-Plastizitäts-Dilemma Overfitting verschlechtert Erkennung spezifisch je nach Problem und Topologie vermeidbar / reduzierbar 28.04.2017

Probleme: Genereller Natur keine Erkennung oder falsche Sicherheit generell bei Topologien und Daten: übertragbar x gehört zu K1 x gehört nicht zu K1 x ist K zugeordnet richtig positiv falsch positiv x ist K nicht zugeordnet falsch negativ richtig negativ 1 Verifikation „x gehört zu K“ wird vom Menschen getroffen 28.04.2017

Probleme: falsch negative Klassifikation Bildquelle: C. Szegedy et al., “Intriguing properties of neural networks”, Februar 2014, S. 6 28.04.2017

Probleme: falsch positive Klassifikation Bildquelle: A. Nguyen, J. Yosinski, and J. Clune, Deep neural networks are easily fooled: High confidence predictions for unrecognizable images, Dezember 2014, S. 1 28.04.2017

Falsifizierung der bisherigen Arbeiten und Ergebnisse Fazit Falsifizierung der bisherigen Arbeiten und Ergebnisse Extrahierte Merkmale ≠ logische Struktur Fehler leicht zu produzieren und provozieren Praxiseinsatz von KNN schwierig, wenn verhindern der Erkennung (falsch negativ) falsche Sicherheit (falsch positiv) gegeben 28.04.2017

Vielen Dank für Ihre Aufmerksamkeit!