Kennlinie Lichtregelung in JavaNNS Version 1.1

Slides:



Advertisements
Ähnliche Präsentationen
Excel – Kurs Philip Clasen
Advertisements

Die Schulkonsole für Lehrerinnen und Lehrer
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil3.
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Vorteile der Online-Produkte
CPCP Institute of Clinical Pharmacology AGAH Annual Meeting, 29. Februar 2004, Berlin, Praktischer Umgang mit den Genehmigungsanträgen gemäß 12. AMG Novelle.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
= = = = 47 = 47 = 48 = =
Scratch Der Einstieg in das Programmieren. Scatch: Entwicklungsumgebung Prof. Dr. Haftendorn, Leuphana Universität Lüneburg,
WS Algorithmentheorie 02 - Polynomprodukt und Fast Fourier Transformation Prof. Dr. Th. Ottmann.
© 2006 W. Oberschelp, G. Vossen Rechneraufbau & Rechnerstrukturen, Folie 2.1.
Grundkurs Theoretische Informatik, Folie 2.1 © 2006 G. Vossen,K.-U. Witt Grundkurs Theoretische Informatik Kapitel 2 Gottfried Vossen Kurt-Ulrich Witt.
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil2.
PKJ 2005/1 Stefan Dissmann Rückblick auf 2005 Was zuletzt in 2005 vorgestellt wurde: Klassen mit Attributen, Methoden und Konstruktoren Referenzen auf.
Differentieller Stromverstärker
Deckblatt: Begrüßung Vortragsdauer
Uebung 03 Perceptron Training INPUTINPUT b OUTPUTOUTPUT w1w1 w2w2.
zur Vorlesung Neuronale Netzwerke
Inhalte und Maßnahmen eingegeben haben,
Wismar Business School
Fuzzy-Klima-Regelung Simulink für Fuzzy Control
Künstlich Neuronale Netze
Künstlich Neuronale Netze
Grundschutztools
Ralf KüstersDagstuhl 2008/11/30 2 Ralf KüstersDagstuhl 2008/11/30 3.
Grundkurs Theoretische Informatik
Bild 1.1 Copyright © Alfred Mertins | Signaltheorie, 2. Auflage Vieweg+Teubner PLUS Zusatzmaterialien Vieweg+Teubner Verlag | Wiesbaden.
20:00.
Selbsttest zum Modul 2 Informationstechnik
PowerPoint.
SK / , , in Hochkössen und der Wildschönau flow Ski- und Snowboardschule Intersport Menzel.
TWS/Graph HORIZONT Produkt-Präsentation Software für Rechenzentren
Vergleich PPT 2002 / 2003 zu PPT 2007 Zunächst erscheint PPT 2002 / 03 - durch klicken auf kann dann der Vergleich zur Version 2007 aufgerufen werden.
Auslegung eines Vorschubantriebes
NEU! 1 2. Wo kommt diese Art von Rezeptor im Körper vor?
1 DMS EXPO 2009 Keynote Angst und Gier Dr. Ulrich Kampffmeyer PROJECT CONSULT Unternehmensberatung Dr. Ulrich Kampffmeyer GmbH Breitenfelder Straße 17.
Sichern und Retten bei Arbeiten in Höhen und Tiefen
Analyse von Ablaufdiagrammen
HORIZONT 1 XINFO ® Das IT - Informationssystem HORIZONT Software für Rechenzentren Garmischer Str. 8 D München Tel ++49(0)89 /
HORIZONT 1 XINFO ® Das IT - Informationssystem PL/1 Scanner HORIZONT Software für Rechenzentren Garmischer Str. 8 D München Tel ++49(0)89 / 540.
Publikation auf Knopfdruck Judith Riegelnig Michael Grüebler 19. Oktober 2010 / Statistiktage Neuenburg.
Ganzheitliches Projekt-, Ressourcen- und Qualitätsmanagement 1 Reports und AddOns Auf den folgenden Seiten wird Ihnen die Funktionsweise der Reports und.
PROCAM Score Alter (Jahre)
NIN-Arbeitsblätter Paul-Emile Müller
Symmetrische Blockchiffren DES – der Data Encryption Standard
SK / – in Hochkössen, St. Johann i.Tirol und Hochfügen flow Ski- und Snowboardschule Intersport Menzel.
Managemententscheidungsunterstützungssysteme (Ausgewählte Methoden und Fallstudien) ( Die Thesen zur Vorlesung 3) Thema der Vorlesung Lösung der linearen.
PARTENARIAT ÉDUCATIF GRUNDTVIG PARTENARIAT ÉDUCATIF GRUNDTVIG REPERES KULTURELLER ZUSAMMENHALT UND AUSDEHNUNG DER IDEEN AUF EUROPÄISCHEM.
Das IT - Informationssystem
Großer Altersunterschied bei Paaren fällt nicht auf!
1 (C)2006, Hermann Knoll, HTW Chur, FHO Quadratische Reste Definitionen: Quadratischer Rest Quadratwurzel Anwendungen.
Analyseprodukte numerischer Modelle
+21 Konjunkturerwartung Europa Dezember 2013 Indikator > +20 Indikator 0 bis +20 Indikator 0 bis -20 Indikator < -20 Europäische Union gesamt: +14 Indikator.
Pigmentierte Läsionen der Haut
Schutzvermerk nach DIN 34 beachten 20/05/14 Seite 1 Grundlagen XSoft Lösung :Logische Grundschaltung IEC-Grundlagen und logische Verknüpfungen.
Vortrag von Rechtsanwältin Verena Nedden, Fachanwältin für Steuerrecht zur Veranstaltung Wege zum bedingungslosen Grundeinkommen der Piratenpartei Rhein-Hessen.
Ertragsteuern, 5. Auflage Christiana Djanani, Gernot Brähler, Christian Lösel, Andreas Krenzin © UVK Verlagsgesellschaft mbH, Konstanz und München 2012.
Der Erotik Kalender 2005.
Bildergalerie PRESEASON CAMP Juni 2014 Romanshorn Get ready for the Season!
 exx1.fit in IRIS laden. 167 Bilder  Dies sind Bilder, die bereits gestacked sind.
Kompetenztraining Jura Martin Zwickel / Eva Julia Lohse / Matthias Schmid ISBN: © 2014 Walter de Gruyter GmbH, Berlin/Boston Abbildungsübersicht.
Wesensmerkmale Gottes UNABHÄNGIG
Das IT - Informationssystem
SAP Seminar 2007 Organisationsobjekte anlegen
1 Medienpädagogischer Forschungsverbund Südwest KIM-Studie 2014 Landesanstalt für Kommunikation Baden-Württemberg (LFK) Landeszentrale für Medien und Kommunikation.
Monatsbericht Ausgleichsenergiemarkt Gas – Oktober
Monatsbericht Ausgleichsenergiemarkt Gas – November
Wer ist der Herr? Apostelgeschichte 2,22-36
 Präsentation transkript:

Kennlinie Lichtregelung in JavaNNS Version 1.1 27.03.2017 Kennlinie Lichtregelung in JavaNNS Version 1.1 Ulrich Lehmann, Johannes Brenig, Michael Schneider SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Inhalt Messaufbau Messwerte Netz erzeugen Pattern erzeugen und laden Control Panel Error Graph Weights Training des Netzes Darstellung in Excel Quellen SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 Messaufbau 27.03.2017 Ue = Eingangsspannung Glühbirne Solarzelle Ue Ua Usmax = 12V Auf dieser Folie ist der Verschsaufbau schematisch zusehen. Im linken Stromkreislauf wird eine Glühbirne betrieben. Das Licht der Gühbirne wird von einer Solarzelle aufgenommen. So wird der rechte Stromkreislauf betrieben. Am Eingang des linken Stromkreislaufs wird die Eingangsspannung Ue gemessen und am Ausgang des rechten Stromkreislauf wird die Ausgangsspannung Ua gemessen. Ua = Ausgangsspannung SS2007 Einführung in JavaNNS Version 1.1

Messwerte der Kennlinie 27.03.2017 Messwerte der Kennlinie Diese nichtlineare Kennlinie soll von einem KNN gelernt werden. Aus Ausarbeitung_KNN_Lichtregelstrecke SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Messwerte - normiert Diese Messwerte müssen für die Verwendung in JNNS normiert werden. -> sigmoide Aktivierungsfunktion -> Normierung auf ein Intervall von [0,05 0,95] Zunächst müssen alle Messwerte normiert werden. Die Messwerte sollen auf das Intervall von 0,05 bis 0,95 normiert werden. An den Badgrenzen soll eine Sicherheit von jeweils 5% berücksichtigt sein, damit das KNN den ganzen vorhandenen Wertebereich besser verteilt lernt und noch etwas Raum für Extrapolation ist bei werten die etwas größer als die bisher bekannten sind. Als Aktivierungsfunktion wird die sigmoide gewählt, da die zu lernende Kennlinie selbst sigmoid ist. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Messwerte - normiert Normierung für Ua: Min[Ua] = 0,1  Minimum der Spalte für Ua Max[Ua] = 4,2  Maximum der Spalte für Ua Min[normUa] = 0,05  Minimum des Intervalles in welches normiert werden soll Max[normUa] = 0,95  Maximum des Intervalles in welches normiert werden soll x = jeder unnormierte Wert der Tabelle Ue wird ebenfalls nach diesem Schema normiert. SS2007 Einführung in JavaNNS Version 1.1

Aufteilung in Trainings- Validierung- und Testdaten 27.03.2017 Aufteilung in Trainings- Validierung- und Testdaten 14 Trainingsdatensätze 4 Validierungsdatensätze 2 Testdatensätze Hier sehen Sie die normierten Messwerte in Tabellenform und in graphischer Form. Die Datensätze müssen jetzt in Trainings-, Validierungs-, Testdatensätze aufgeteilt werden. Die farbliche Unterscheidung soll nur besser visualisieren, welche Werte ich für Training, Validierung und Test ausgewählt habe. Bitte machen Sie jetzt in Ihrer Datenbasis die Traings-, Validierungs- und Testdatensätze kenntlich. Die Aufteilung der Datenbasis erfolgt nach folgendem Schema: Training 70-85% aller Datensätze Validierung 10-20% aller Datensätze Test 5-10% aller Datensätze Gesamt 100% Trainingsdaten Testdaten Validierungsdaten SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Netz erzeugen Jetzt soll von Ihnen ein geeignetes KNN in JNNS entwickelt werden, welches die Kennlinie sehr gut lernt. Starten Sie JNNS. Über Tools->Create->Layers können Sie die Eingabe-, Hidden- und Outputlayer erstellen und individuell konfigurieren. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Netz erzeugen Ausdehnung des Layer in x-Achse Ausdehnung des Layer in y-Achse Layertyp auswählen Aktivierungsfunktion auswählen Jetzt können Sie Breite und die Höhe eines Layers angeben. Wir verwenden üblicherweise einen einspaltigen Layer, d.h. Width = 1 und Höhe (height) ist die Anzahl der Neuronen im Layer. Unit type = Input-, Hidden- oder Outputlayer Activation funciton = Aktivierungsfunktion auswählen für Input- und Outputlayer üblicherweise Identität (Act-identity), für den Hiddenlayer logsig oder act_tanh Output function = die Ausgangsaktivierung des Neurons ist die Identität (Out_identitiy) Die Layer werden üblicherweise von links anch rechts angeordnet, d.h. links Inputlayer, rechts Outputlayer und dazwischen Hiddenlayer Ausgabefunktion auswählen Layer mit der gewählten Konfiguration erstellen (hier: Input-Layer) SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Netz erzeugen Koordinaten der Units im Raum (automatisch fortlaufend) erzeugter Input-Layer Layer 2: Width 1 Height 4 Unit detail: - Hidden - Act_Logistic - Out_Identity Der Inputlayer mit einem Neuron ist erstellt. Nun folgen die weiteren Layer: Hiddenlayer und Outputlayer. In den meisten Anwendungen gibt es einen Hiddenlayer! Mehrere Hiddenlayer sind auch möglich. Die Größe des KNN wird in Abhängigkeit von der Anzahl der Trainingsdatensätze abgeschätzt. Faustformel: Die Anzahl der Verbindungen in einem KNN ist ungefähr ein Drittel der Anzahl der Trainingsdatensätze. fortlaufende Nummerierung der Layer (automatisch) SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Netz erzeugen Layer 3: Width 1 Height 2 Unit detail: - hidden - Act_Logistic - Out_Identity Layer 4: Width 1 Height 1 Unit detail: - Output - Act_Identity - Out_Identity Erzeugen Sie bitte alle Layer! SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Netz erzeugen Hier in diesem Beispiel ist ein MLP 1-4-2-1 erstellt worden. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Netz erzeugen Die Neuronen müssen jetzt noch Layer zu Layer feedforward verbunden werden. Das geschieht über Tools->Create->Connections. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Netz erzeugen Jetzt sind alle Verbindungen erstellt worden. Die Aktivierungen der Neuronen und der Gewichte sind noch 0. Speichern Sie Ihr KNN auf einem geeigneten Medium und unter einem präzisen Namen ab. Der Nam sollte die Nameskürzel des Autors einthalten und die Aufgabenstellung, evtl. bei wiederholtem Training auch die Architektur oder Trainingsverfahren oder Lernrate, etc. Speichern des Netzes unter File> Save as Network name: z. B. Kennlinie.net SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Pattern erzeugen Pattern-Datei kann mit Text-Editor bearbeitet werden Aufbau der Kopfzeile ist zwingend einzuhalten Bereitstellung der Datensätze gemäß diesem Muster (hier: Trainingspattern) Anzahl der Eingabeneuronen Die Pattern müssen einem vorgegebenen Format entsprechen. - Kopfzeile Datensätze Anzahl der Eingabe- und Ausgabeneuronen im Kopf Anzahl der Ausgabeneuronen SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Pattern erzeugen Patterndatei mit vier Validierungsdatensätzen Patterndatei für Validierung SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Pattern erzeugen Patterndatei mit zwei Testdaten (nur Eingabewerte und keine Ausgabewerte!) Patterdatei für den Test. Anmerkung: Beim Testpattern gibt es keine Outputvorgaben! SS2007 Einführung in JavaNNS Version 1.1

Pattern-Dateien laden 27.03.2017 Pattern-Dateien laden Laden Sie alle Patterdateien über File->Open SS2007 Einführung in JavaNNS Version 1.1

Pattern-Dateien laden 27.03.2017 Pattern-Dateien laden Markieren Sie die Trainings-, Validirungs- und Testpatterndateien und öffnen diese. Alle drei erzeugten Patterndateien auswählen und öffnen SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Control Panel Zur graphischen Darstellung von Trainings- und Validierungsfehler öffnen Sie bitte den Error Graph unter View. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Control Panel Ordnen Sie die Patterndateien dem Training und der Validierung zu. Trainingspattern und Validierungspattern auswählen SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Control Panel zufällige Belegung der Gewichte zu Beginn des Trainings, um keine Symmetrie in den Gewichten zu erlangen Bevor ein KNN trainiert wird, muss es initialisiert werden. Dazu sollen die Gewichte mit zufälligen Werten aus dem angegebenen Intervall belegt werden. Festlegung des Intervalls, aus dem die zufälligen Werte für die Anfangsbelegung der Gewichte ausgewählt werden sollen SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Control Panel Maximaler zulässiger Fehler Auswahl des Trainingsverfahrens Anzahl der Schritte nach denen validiert werden soll Lernrate 0,1 bis 0,9 Zufällige Wahl der Trainingsdatensätze Anzahl der Lernschritte Vor dem Lernen müssen die Gewichte initialisiert werden, d. h. mit zufälligen Startwerten belegt werden Unter Learning können die spezifischen Parameter eines Trainingsverfahrens eingestellt werden. Mit „Learn All“ werden alle Trainingsdatensätze zum Training herangezogen. Es sind noch weitere Einstellungen vor dem Training notwendig! SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Error Graph Graphische Darstellung von Trainings- und Validierungsfehler Die Achsen können skaliert werden. Außerdem können über die Button unten links Gitternetzlinien eingefügt werden und auch der Graph gelöscht werden. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Weights Graphische Darstellung der Verbindungsgewichte Entsprechend der Aktivierung Unter View können Sie sich die Aktivierung der Verbindungsgewichte in Matrizenform graphisch anzeigen lassen. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Weights Zielneuron Aktivierung des Vebindungsgewichtes z. B. von Neuron 5 zu Neuron 6 Die Gewichte sind noch nicht aktiviert. Hier werden die Aktivierungen der Gewichte in Matrizenform farblich dargestellt. Die Farbe entsprciht dem Wert der Aktivierung. Die Gewichte sind noch nicht aktiviert, da die Farbe hellgrau ist. Quellneuron SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Training Die Gewichte werden über Init initialisiert. Initialisieren der Gewichte SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Training Jetzt kann das Training des KNN zu Lösung des XOR-Problems mit learn All beginnen. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Training Nach dem Training kann das Ergebnis in über Save Data gespeichert werden. Lassen Sie sich in der Ergebnisdatei alle Werte (Input, Target, Output) ausgeben, dann können Sie die Ergebnisse direkt mit dem Tagetwert (=Sollwert) vergleichen. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Excel Excel starten und Datei „kennlinie.xls“ laden Die Auswertung der Trianingsergebnisse soll über Excel erfolgen. Starten Sie Excel und laden die Datei „kennlinie.xls“. Das ist eine vorbereitete Datei zru Auswertung des KNN. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Excel Aktualisieren der Daten in Excel Übertragen Sie die Daten aus dem Result-File in Excel in das Tabellenblatt „Kennlinie 100“, indem Sie zuerst die Eigenschaften für den Import überprüfen. Insbesondere soll das Feld „Beim Aktualisieren Dateinamen überprüfen“ aktiviert sein! Wenn dieses Feld aktiviert ist mit OK bestätigen und über den Button mit dem roten Ausrufezeichen (!) die Daten aus JNNS in Excel importieren. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Excel Die Input-Werte aus dem Trainingsdatensatz Die Output-Werte aus dem Trainingsdatensatz. Die vom Netz erzeugten Output-Werte nach 100 Cyclen Aufbau des Excel-Tabellenblatts wie der Result-File aus JNNS. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Excel Nach 100 Trainingsepochen wurde die Kennlinie schon ansatzweise gut gelernt. Lassen Sie sich den Graphen nach 200, 500, 1000 und 2000 Epochen ausgeben und bewerten Sie das Ergebnis. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Training Sie können direkt 100 Epochen weitertrainieren und erhalten dann das Ergebnis für das Training nach 200 Epochen. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Training Nach 200 Trainingsepochen hat sich die Kennlinie der Sollkennlinie wieder etwas angenähert. Trainieren Sie jetzt weitere 300 Epochen, insgesamt also 500 Epochen und lassen sich das Ergebnis anzeigen. Verfahren Sie auch für insgesamt 1000 und 2000 Epochen. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Training Nach 2000 Trainingsepochen wird das Ergebnis in Kennlinie2000 gespeichert. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Training Nach 2000 Trainingsepochen ist die Kennlinie kaum von der Sollkennlinie zu unterscheiden. SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Aufgabe Reduzieren Sie die Anzahl der Neuronen des bestehenden Beispiels soweit wie möglich und visualisieren Sie die Ergebnisse in Excel. Verwenden Sie unterschiedliche Parametereinstellungen (z.B. Lernrate, …) Trainingsverfahren „extreme“ Architekturen Zum besseren Umgang mit KNN und der Visualisierung sollen Sie jetzt die Anzahl der Neuronen so weit wie möglich reduzieren, damit noch ein gutes Ergebnis erzielt wird. Ändern Sie auch Die Paramtrierung des Trainingsverfahrens das Trainingsverfahren testen Sie auch „extreme“ Architekturen, wie z.b. MLP 1-1-1 Und bewerten Sie all Ihre Ergebnisse! SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Quellen Software „JNNS incl. Handbuch“: http://www-ra.informatik.uni-tuebingen.de/software/ Software „Java“: http://www.java.com/de „Simulation neuronaler Netze“ von Andreas Zell Vorlesungsskript Prof. Lehmann SS2007 Einführung in JavaNNS Version 1.1

Einführung in JavaNNS Version 1.1 27.03.2017 Vielen Dank für Ihre Aufmerksamkeit ! SS2007 Einführung in JavaNNS Version 1.1