Georg Dorffner / Achim Lewandowski

Slides:



Advertisements
Ähnliche Präsentationen
Algorithmen für das Erfüllbarkeitsproblem SAT
Advertisements

Seminarankündigung für das SS04
Imperative Programmierung
Perceptrons and the perceptron learning rule
Präsentation PS: Klasse File von Janko Lange, Thomas Lung, Dennis Förster, Martin Hiller, Björn Schöbel.
PC-Senioren Ludwigsburg
13. Transformationen mit Matrizen
Objekt – Relationales – Modell Tomasz Makowski IN
Übung zur Numerische Geologie
8. Formale Sprachen und Grammatiken
Matlab Einführung Tobias Wunner 16. Oktober 2006.
Einführung in MATLAB Grundlagen für die Übungen begleitend zur Vorlesung „Neuroinformatik I” Stefan Scherer David Bouchain.
Objektorientierte Programmierung
der Universität Oldenburg
Objektorientierung mit VBA
Java2D Richard Göbel.
Java: Dynamische Datentypen
Dynamischer Speicher. In einer Funktion wird z.B. mit der Deklaration int i; Speicher auf dem sogenannten Stack reserviert. Wenn die Funktion verlassen.
Dynamische Programmierung (2) Matrixkettenprodukt
WS Algorithmentheorie 08 – Dynamische Programmierung (2) Matrixkettenprodukt Prof. Dr. Th. Ottmann.
Processing: Arrays & Laden von Dateien Aufbauend auf dem Beispiel: File I/O LoadFile1.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
2D-Visualisierung von Daten
Abstrakter Datentyp in C++ I - Klasse -
Strukturgleichungsmodelle
Uebung 02 NN Properties b1b1 b2b2 b3b3 b4b4 b INPUTINPUT OUTPUTOUTPUT w 1o w 2o w 3o w 4o w 11 w 12 w 13 w 14 w 21 w 22 w 23 w 24.
Uebung 01 ANN mit MATLAB.
Uebung 03 Perceptron Training INPUTINPUT b OUTPUTOUTPUT w1w1 w2w2.
Uebung 00 Einführung in Matlab. SS 2011H. Werner : DatenalyseÜbung 1 : 2 Matlab - help Wir starten mit dem Help Menuepunkt in Matlab Es öffnet sich ein.
Wismar Business School
Einführung MySQL mit PHP
Kennlinie Lichtregelung in JavaNNS Version 1.1
FH-Hof Algorithmen und Datenstrukturen - Einführung Richard Göbel.
Rechneraufbau & Rechnerstrukturen, Folie 12.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 12.
Neuronale Netzwerke am Beispiel eines MLP
Matlab Praktikum Dipl.-Math. Zülfü Taskesen.
Einführung in die Programmiersprache C 3.Tag Institut für Mathematische Optimierung - Technische Universität Braunschweig.
HORIZONT 1 XINFO ® Das IT - Informationssystem Java Scanner HORIZONT Software für Rechenzentren Garmischer Str. 8 D München Tel ++49(0)89 / 540.
Von der Planung bis zum Hauptmenü Seminar: Softwaretechnologie II Dozent: Prof. Manfred Thaller Referent: Jan Bigalke.
Präsentation C Tutorium von Daniel J. Nowak Folie 1 C Tutorium.
§23 Basiswechsel und allgemeine lineare Gruppe
Seminar Internet Technologien
Wo finde ich Meta-Tags…? Was sind Metatags…? Welche Meta-Tags sind am beliebtesten…? Sprachen von Meta-Tags…? Was ist eine Profildatei…? VTAB-09 Fenster.
FORTRAN 77.
Institut für Wirtschaftsinformatik – Software Engineering, JKU Linz 1 Algorithmen und Datenstrukturen SS 2005 Mag.Th. Hilpold u. Dr. A.Stritzinger Institut.
Technische Informatik Reihungen – Felder - Arrays.

Aufgaben Version 1: Es soll eine Wetterstation mit folgenden zwei Anzeigen implementiert werden: Aktuelle Wetterbedingungen mit Temperatur und.
Hilfe Dokumente.
Arrays / Felder Themen: Arrays / Felder / Vektoren Was soll das eigentlich? Erstellen von Arrays Arrays auslesen. Wie sie verwaltet werden.
Variablen in Programmiersprachen
 exx1.fit in IRIS laden. 167 Bilder  Dies sind Bilder, die bereits gestacked sind.
Backup der FTP-Daten mit BYSU (Back Your Space Up von George Ruinelli) Eine mögliche Variante, um FTP- Daten bei dem Provider „All-Inkl“ zu sichern.
Übung 2 - MdMT Methoden der Medizintechnik Übung zur Vorlesung Folge 2 – Basics Vom ersten Befehl zum Plot.
Anna Steinke‌ WG13 ‌‌‌ Köln, Wie sichere ich meine Daten? Wie mache ich meinen PC sicher?
Übung 4 - MdMT Methoden der Medizintechnik Übung zur Vorlesung Folge 4 – Signale verarbeiten I Audiodaten einlesen.
7. Formale Sprachen und Grammatiken
Verbindung zwischen Praat und EMU Tina John. Etikettierungen: Praat zu EMU labeller 1. Praat Etikettierung4. EMU Etikettierung 2. labConvert: Konvertiert.
Diskrete Mathematik I Vorlesung 2 Arrays.

Java-Kurs Übung Besprechung der Hausaufgabe
SS 2009Maschinelles Lernen und Neural Computation 107 Kapitel 6: Unüberwachtes Lernen.
6. Thema: Arbeiten mit Feldern
SS 2009Maschinelles Lernen und Neural Computation 133 Kapitel 7: Ensemble Methoden.
Maschinelles Lernen und Neural Computation
Pool Informatik, Sj 11/12 GZG FN W.Seyboldt 1 Pool Informatik 5 GZG FN Sj. 11/12 Kopieren, Daten, Programme.
Pointer, Arrays und verkettete Listen. Mehrdimensionale Arrays  Pointer auf ein Array von Pointern  int32 **matrix = new int32*[3];  matrix: Zeiger.
Klausur „Diskrete Mathematik II“
Kapitel 2: Klassifikation
Schleifen Datenfelder (Arrays) Verzweigungen
 Präsentation transkript:

Georg Dorffner / Achim Lewandowski Maschinelles Lernen und Neural Computation Übung: Grundlagen von Matlab und Netlab Georg Dorffner / Achim Lewandowski SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Matlab – Nützliches I Zugriff auf die Daten: Per Hand eingeben: >> a=4 %Skalar >> Vektor=[3; 5; 7] >> bmat=[2 3 4 5; 3 4 5 6; 11 1 2 1] Aus Ascii-Datei: >> load beispiel.dat Variable (oder Array) heißt nun beispiel Aus Matlab-Datei (Endung .mat): >> load class.mat class.mat kann mehrere Variablen, arrays,… auch mit anderen Namen enthalten SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Matlab – Nützliches II Welche Daten sind im Arbeitsspeicher? >> whos Name Size Bytes Class Vektor 3x1 24 double array a 1x1 8 double array bmat 3x4 96 double array Daten abspeichern, alles löschen, neu laden >>save daten Ve* bmat %legt daten.mat an >>clear %loescht alles >>load daten %Vektor und bmat sind wieder geladen SS 2008 Maschinelles Lernen und Neural Computation

Matlab – Nützliches III >>a*bmat %Multiplikation ans = 8 12 16 20 12 16 20 24 44 4 8 4 >>c=bmat' %Transponierte c = 2 3 11 3 4 1 4 5 2 5 6 1 SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Matlab – Nützliches IV >>d=a*bmat d = 8 12 16 20 12 16 20 24 44 4 8 4 >>d=a*bmat; %ruhiger Modus ohne Bildschirmausgabe >> help befehl %Hilfe zu befehl >> c=zeros(1,3) ergibt c=[0 0 0] (1x3) >> d=ones(3,1) ergibt d=[1;1;1] (3x1) SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Matlab – Nützliches V Matrizen zusammenfügen: >>a=[2 3 4] >>b=[5 6 7] >>c=[a b] c = 2 3 4 5 6 7 >>c=[a;b] 2 3 4 5 6 7 SS 2008 Maschinelles Lernen und Neural Computation

Netlab – Grundsätzliches http://www.ncrg.aston.ac.uk/netlab/ netlab.zip, nethelp.zip und foptions.m (ab Matlab 7.0) entpackt und dann in den Pfad aufgenommen: Menupunkt: File – SetPath – Add with Subfolders Verzeichnisse mit Netlab und den Daten aufnehmen Netlab-Befehle stehen nun zur Verfügung Daten werden gefunden SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Netlab – GLM glm (General Linear Model) Initialisieren: net=glm(nin,nout,outfunc) Brauche also nin: Dimension der Inputs nout: Dimension der Outputs outfunc: Ausgabefunktion, die eins von den folgenden sein kann: 'linear', 'logistic' oder 'softmax' Brauche (noch) nicht die Daten z.B. net=glm(5,3, 'linear') SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Netlab – GLM II net= type: 'glm' nin: 5 nout: 3 nwts: 18 outfn: 'linear' w1: [5x3 double] b1: [0.6909 0.2414 -0.2627] SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Netlab – GLM III Modell an Daten anpassen: [netneu, options] = netopt(net, options, x, t, alg) net eben definiert options=foptions erzeugt den Optionenvektor (1x18) options(1)=1 %Fehler anzeigen options(14)=30 %Anzahl der Iterationen Daten bestehen aus n Beobachtungen (jeweils Input- und Outputvektor), bspw. n=300 x 300x5-Matrix, t 300x3-Matrix alg= 'scg'‚ (Scaled Conjugate Gradient) netneu=netopt(net, options, x, t, ‚scg') netneu = type: 'glm' nin: 5 nout: 3 nwts: 18 outfn: 'linear' w1: [5x3 double] b1: [0.4566 0.3357 0.5434] SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Netlab – GLM IV Outputvektor für neue Daten vorhersagen: tvor = glmfwd(netneu,xneu) netneu eben angepasst bspw. xneu 2x5-Matrix xneu=[1 1 1 1 1; -1 -1 -1 -1 -1] tvor = 2.1326 0.2828 1.1488 -0.8870 1.4671 -1.7579 SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Netlab – MLP I Multilayer-Perceptron: 1. Initialisieren: net=mlp(nin,nhidden,nout,outfunc) z.B. net=mlp(1,4,1, 'linear') type: 'mlp' nin: 1 nhidden: 4 nout: 1 nwts: 13 %number of weights outfn: 'linear' w1: [0.2400 -0.0927 0.3431 0.4234] b1: [-0.0608 0.2300 -0.2370 -0.2280] w2: [4x1 double] b2: -0.2587 SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Netlab – MLP II Multilayer-Perceptron: 2. Trainieren mit x Inputmatrix und t Targetmatrix: bspw. x=5*rand(100,1); t=sin(x)+0.1*rand(100,1); netneu=netopt(net, options, x, t,'scg') 3. Vorhersagen auf Trainingsinput: tfitted=mlpfwd(netneu,x) tfitinitial=mlpfwd(net,x) %ohne Training plot(x,[t tfitted tfitinitial],'.') SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Netlab – GMM I Gauss‘sches Mischmodell: 1. Initialisieren: mix = gmm(dim, ncentres,covartype) covartype: 'spherical', 'full', 'diag', z.B. mix=gmm(3,10,'diag') 2. Vortrainieren (k-means) mix2 = gmminit(mix, x,options) 3. Parameter anpassen: mix3=gmmem(mix2, x,options) SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Netlab – GMM II Gauss‘sches Mischmodell Beispiel x1=randn(100,1); x2=randn(50,1)*2+4; x3=randn(50,1)*2+12; x=[x1;x2;x3] 1.Initialisieren: mix = gmm(1, 3, 'diag') 2. Vortrainieren (k-means) mix2 = gmminit(mix, x,options) 3. Parameter anpassen: mix3=gmmem(mix2, x,options) SS 2008 Maschinelles Lernen und Neural Computation

und Neural Computation Netlab – GMM III Gauss‘sches Mischmodell Beispiel angepasste Dichte anzeigen lassen: xv=[-2:0.1:15]' yv=gmmprob(mix3,xv) yv2=gmmprob(mix2,xv) plot(xv,[yv yv2]) SS 2008 Maschinelles Lernen und Neural Computation