Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Uebung 04 Discriminatoren t(x,y,z) = (x=y)?x;z d(x,y,z) = (x=y)?z;x 000 111 001101 110 010 100 011 000 111 001 101 110 010 100 011 xyz t d 000 0 0 001.

Ähnliche Präsentationen


Präsentation zum Thema: "Uebung 04 Discriminatoren t(x,y,z) = (x=y)?x;z d(x,y,z) = (x=y)?z;x 000 111 001101 110 010 100 011 000 111 001 101 110 010 100 011 xyz t d 000 0 0 001."—  Präsentation transkript:

1 Uebung 04 Discriminatoren t(x,y,z) = (x=y)?x;z d(x,y,z) = (x=y)?z;x 000 111 001101 110 010 100 011 000 111 001 101 110 010 100 011 xyz t d 000 0 0 001 0 1 010 0 0 011 1 0 100 0 1 101 1 1 110 1 0 111 1 1

2 SS 2011H. Werner : DatenalyseÜbung 1 : 2 Perceptron Untersuche, welche von den beiden drei-stelligen Diskriminatoren mit einem Perceptron mit sigmoid Funktion darstellbar ist. net = newp([0 1; 0 1 ; 0 1],1) net.layers{1}.transferFcn = 'logsig'; % die diff.-bare sigmoide Transfer-Fcn

3 SS 2011H. Werner : Datenalyse Initialisierung Zuerst müssen wir die gewünschte Initialisierung einstellen. net.inputWeights{1,1}.initFcn='rands'; % sorgt im layer 1 für zufällige % Initialisierung von Gewichten net.biasess{1}.initFcn='rands'; % sorgt im layer 1 für zufällige % Initialisierung des Bias net = init(net); % sorgt dann dafür dass das Layer (mit random % Gewichten und Bias) initialisiert wird

4 SS 2011H. Werner : Datenalyse Training Wir richten nun das Training traingd ein: gradient descent backpropagation. net.trainFcn = 'traingd'; Voreinstellungen: net.trainParam.epochs0Epochenzahl net.trainParam.goal0Lernziel net.trainParam.lr0.01 Lernrate [net,tr]=train(net,p,t); Training durchführen mit trtraining record (wird erzeugt) pinput ttarget output


Herunterladen ppt "Uebung 04 Discriminatoren t(x,y,z) = (x=y)?x;z d(x,y,z) = (x=y)?z;x 000 111 001101 110 010 100 011 000 111 001 101 110 010 100 011 xyz t d 000 0 0 001."

Ähnliche Präsentationen


Google-Anzeigen