Emanuel Mistretta Lukas Schönbächler

Slides:



Advertisements
Ähnliche Präsentationen
Selbstorganisation und Lernen
Advertisements

Seminarankündigung für das SS04
Perceptrons and the perceptron learning rule
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
Ein Neuronales Netz könnte lernen indem es …
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
Einführung in NeuroFuzzy Technologien
Seminar Textmining WS 06/07 Themen Übung 11 unsupervised vs. supervised Symbolfolgen, Kunstsprachen Page Rank.
Neuronale Netze Von Kay-Patrick Wittbold.
Lisa Gorkin, Barbara Herzgen, Fabian Küpper, Ailar Tehrani HG13 Köln / Steckkarten / Schnittstellen Hardwareprojekt.
Parser generieren Yet Another Compiler – Compiler YACC.
Neuronale Netze Inhalt des Vortrags:
Computerkurs: Quantitative Auswertung biochemischer Experimente Tag 8 Einführung in die numerische Integration Aufgabe 18: Simulation einer Assoziationskinetik.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
in den Sportwissenschaften
Reinforcement Learning
Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik, Universität Rostock Programmierung eingebetteter.
Uebung 03 Netzdateien.
Biologisches Vorbild Grundlagen
Uebung 01 ANN mit MATLAB.
Uebung 03 Perceptron Training INPUTINPUT b OUTPUTOUTPUT w1w1 w2w2.
zur Vorlesung Neuronale Netzwerke
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
Neuronale Netze Romy Kuttner, Franco Haberland.
Wismar Business School
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Gesichtserkennung mit Hilfe eines Neuronalen Netzes (SNNS)
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Neuronale Netze 2 (Mitchell Kap. 4)
Machine Learning Was wir alles nicht behandelt haben.
Neuronale Netze Teil II.
Universität Münster, Institut für industriewirtschaftliche Forschung Stefan Kooths Eric Ringhut KI-gestützte Konjunkturprognosen mit GENEFER Adaptive Fuzzy.
Clustered Neuronal Network A C#.NET project for Compute Cluster Server 2003.
Clustered Neuronal Network A C#.NET project for Compute Cluster Server 2003.
DataMining Von Daten zu Informationen und Wissen
Why connectionism? Backpropagation Netzwerke
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Effiziente Algorithmen
Neuronale Netze.
Layered Learning Kapitel 4. Voraussetzungen 1. Komplexe Domain realtime noisy limited communications viele bewegt Objekte (Ball, Mitspieler, Gegner) direktes.

Künstliches Neuronales Netz nach John Hopfield
Das menschliche Gehirn - eine Einführung in die Neuropsychologie
A. Gebert / A. Henke Ant colony simulation.
DAS HERON-VERFAHREN Heron erkannte, dass man die Quadratwurzel einer Zahl bestimmen kann, indem man verschiedene Mittelwerte berechnet. Solche Nährerungsverfahren.
Wunsch Werkzeug Aufgabe & Modell Vorgehen Resultat Zukunft Machine Learning zur Steigerung der Usability Steigerung der Usability.
Elman-Netzwerke Wintersemester 2004/05 Seminar Kindlicher Spracherwerb C. Friedrich & R. Assadollahi vorgestellt von Christian Scharinger & Guido Heinecke.
ANN - Simulator Rainer Trummer Ferdinand Schober Christian Spielberger.
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken VIII Christian Schindelhauer
Artificial Intelligience
Computer Algebra für Brüche --- angepasst an Ausbildungszwecke
Kopf und Computer Gerhard Vollmer
SS 2009Maschinelles Lernen und Neural Computation 133 Kapitel 7: Ensemble Methoden.
Using Reflexive Behaviors of the Medicinal Leech to Study Information Processing William B. Kristan Jr., Sawn R. Lockery und John E. Lewis.
Lernen 1. Vorlesung Ralf Der Universität Leipzig Institut für Informatik
Maschinelles Lernen und Neural Computation
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Multiprocessing mit OpenMPI Marius Albath. Vorlesung Betriebssysteme, Was ist OpenMPI Was ist OpenMPI OpenMPI Standard Setup OpenMPI Standard.
Einführung Grundlagen Zwischenfazit Deep Learning Probleme Fazit
HCS Übung 3 Von: Patrick Denk Oleg Arenz
Simple Recurrent Networks
Die Suche nach dem Stop-Quark
Maschinelles Lernen und Neural Computation
Die Numerische Differentiation
Deep Learning Simon Fankhauser, Donato Villani - AAI HS 17.
Neuronale Netze und Parallelrechner
Ich brauche eine Web-Seite vom Server im Internet
Routing … … die Suche nach dem Weg..
 Präsentation transkript:

Emanuel Mistretta Lukas Schönbächler Neuronale Netze & OCR Emanuel Mistretta Lukas Schönbächler

Agenda Was sind neuronale Netze? Modelle für ANN Lernverfahren Neuronales Netz - Schritt für Schritt Neuronales Netz Veranschaulicht Anwendungsgebiete Anwendungsgebiet Schrifterkennung / OCR Demo OCR

Was sind neuronale Netze? Model unseres Gehirnes und Nervensystem Gebilde aus verknüpften Knotenpunkten Stark parallelisiertes Gebilde. Nicht wie Computer -> Seriell Kann wie das menschliche Gehirn “Lernen” Simples Prinzip -> Komplexes Verhalten Verschiedene Modelle, Angehensweisen

Was sind neuronale Netze? Neuronen zeigen Synapsen zeigen Input zeigen nur ganz kurz anschneiden

Modelle für Neuronale Netze Feedforward Unidirektionaler Datenfluss 1- Mehrschichtige Node-Layer

Modelle für Neuronale Netze Recurrent Bidirektionaler Datenfluss 1- Mehrschichtige Node-Layer Zyklisch Kann dadurch Gedächtnis simulieren

Verschiedene Lernverfahren Überwachtes Lernen (Supervised Learning) “Lehrer” kennt für jeden Input richtigen Output Unüberwachtes Lernen (Unsupervised Learning) Es gibt kein richtig oder falsch für Outputs. Daten werde z.B zu einem Cluster gefasst. Netz erkennt “Ähnlichkeiten”. Bestärkendes Lernen (Reinforcement Learning) System lern z.B selbst ein Spiel zu spielen. Es kennt lediglich den Score und Game Over. Es führt nun Aktionen aus und optimiert diese um den Score zu erhöhen.

Neuronales Netz - Schritt für Schritt Jede Synapse /Verbindung hat eine Gewichtung. ABER Wie entscheidet C was es als Input nehmen soll? A oder B?

Neuronales Netz - Schritt für Schritt Jede Node hat Funktion um “wichtigkeits” Wert von Input zu rechnen. Normalerweise nimmt Node den Durschnitt der Inputs als Wert f(x) wird Transfer-Funktion genannt

Neuronales Netz - Schritt für Schritt ? ? Wie wird aber das Gewicht ermittelt?

Neuronales Netz - Schritt für Schritt Gewichte werden randomisiert verteilt 0.5 0.5 0.4 0.8 0.2 0.6 0.2 Jede Node hat Funktion um “wichtigkeits” Wert von Input zu rechnen. Normalerweise nimmt Node den Durschnitt der Inputs als Wert f(x) wird Transfer-Funktion genannt

Neuronales Netz - Schritt für Schritt Backpropagation

Neuronales Netz - Schritt für Schritt Für den Input wird jeweil der erwartete Output (Node E) berechnet

Neuronales Netz - Schritt für Schritt Nun werden die berechneten Werte dem erwarteten Wert abgezogen. Diese Differenz heisst Fehler.

Neuronales Netz - Schritt für Schritt Nun werden die berechneten Werte dem erwarteten Wert abgezogen. Diese Differenz heisst Fehler. Zur Veranschaulichung wurden Zahlen verwendet. 35 23 12

Neuronales Netz - Schritt für Schritt Über die Funktion f(x)* werden die neuen Gewichtungen berechnet. *f(x) basiert auf: Alte Gewichtung, Node Input, Error und Lern-Rate

Neuronales Netz - Schritt für Schritt Nun wird nochmals mit den neuen Gewichten berechnet. Der Error wird evaluiert und die Backpropagation findet wieder statt. Dieser Prozess wird wiederholt bis die Fehlerquote minimal ist bzw. der berechnete Wert dem erwarteten Wert gleicht.

Neuronales Netz - Schritt für Schritt Dieses Verfahren benötigt viel Zeit. Lösung: Mehr Nodes Lern-Rate anpassen

Neuronales Netzwerk Veranschaulicht

Anwendungsgebiete Texterkennung Bilderkennung Klassifizierung Schrifterkennung (Optical Character Recognition / OCR) Bilderkennung Klassifizierung Stimmerkennung KI für Spiele Medizinische Diagnostik Sprachübersetzung (Google Translate)

Anwendungsgebiet Bilderkennung

Anwendungsgebiet Bilderkennung

Anwendungsgebiet Bilderkennung

Anwendungsgebiet Bilderkennung

Anwendungsgebiet Bilderkennung

Anwendungsgebiet Bilderkennung

Anwendungsgebiet Bilderkennung

Demo OCR (Optical Character Recognition) Kurze Erklärung wie das Funktioniert -> evtl. an Tafel

Fazit Daten müssen entsprechend vorbereitet sein Netzwerk kann je nach Algorithmus nur erkennen was trainiert wurde Kann sehr langsam sein Interessante Projekte Braucht viel Rechenpower In kommenden Jahren mehr und mehr im medizinischen und finanziellen Umfeld Riesiges Themengebiet mit einem grossen Anwendungspektrum

Quellen http://ischlag.github.io/2015/12/28/a-simple-backprop-explanation/ https://en.wikipedia.org/wiki/Artificial_neural_network http://playground.tensorflow.org https://www.youtube.com/watch?v=5_h13nDa6_E https://www.codeproject.com/Articles/11285/Neural-Network-OCR http://www.aosabook.org/en/500L/optical-character-recognition-ocr.html https://www.youtube.com/watch?v=5_h13nDa6_E&t=152s https://www.youtube.com/watch?v=qv6UVOQ0F44 https://www.cnet.com/news/google-translate-machine-learning-neural-networks/