WS 2010 /11H.Werner : Datenanalyse§0 : 1 §0 Datenanalyse Prozesse, Einflußgrößen, Prozessdaten, Modellierung, Adaption.

Slides:



Advertisements
Ähnliche Präsentationen
Perceptrons and the perceptron learning rule
Advertisements

Adaptive Systeme Prof. Rüdiger Brause WS 2011.
Simulation komplexer technischer Anlagen
Algebraische Zahlen: Exaktes Rechnen mit Wurzeln
Vom graphischen Differenzieren
Seminar Textmining WS 06/07 Themen Übung 11 unsupervised vs. supervised Symbolfolgen, Kunstsprachen Page Rank.
Genetische Algorithmen für die Variogrammanpassung
Kapitel 4 Datenstrukturen
Physikalische Messgrößen
Numerik partieller Differentialgleichungen
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (02 – Funktionenklassen) Prof. Dr. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (19 - Analyse natürlicher Bäume) Prof. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (02 – Funktionenklassen) Tobias Lauer.
Computerkurs: Quantitative Auswertung biochemischer Experimente
Computerkurs: Quantitative Auswertung biochemischer Experimente Guten Morgen.
Kapitel 6 Differenzierbarkeit. Kapitel 6: Differenzierbarkeit © Beutelspacher Juni 2005 Seite 2 Inhalt 6.1 Die Definition 6.2 Die Eigenschaften 6.3 Extremwerte.
Konfidenzintervalle für Parameter
Modellvergleich.
Computerkurs: Quantitative Auswertung biochemischer Experimente Tag 8 Einführung in die numerische Integration Aufgabe 18: Simulation einer Assoziationskinetik.
Texturwahrnehmung von Bela Julesz
Theorie soziotechnischer Systeme – 11 Thomas Herrmann Informatik und Gesellschaft FB Informatik Universität Dortmund iundg.cs.uni-dortmund.de.
K. Desch - Statistik und Datenanalyse SS05
Modellbildung in der Geoökologie (G5, 103) SS 2004
AC Analyse.
AC Analyse. 2Ausgewählte Themen des analogen Schaltungsentwurfs Sprungantwort.
Access 2000 Datenbanken.
Normalformen Normalisieren Schlüssel
6 Normalformen Normalisieren Schlüssel
Theorie soziotechnischer Systeme – 12 Thomas Herrmann Informatik und Gesellschaft FB Informatik Universität Dortmund iundg.cs.uni-dortmund.de.
Künstliche I ntelligenz Intelligenz ? Bremen, den Beitrag zur Lehrveranstaltung Informatiker - Hochbezahlte Gurus oder nützliche Idioten von.
Datentabelle für 2 Merkmale
Simulation komplexer technischer Anlagen
Spezifikation von Anforderungen
Self Organizing Tree Algorithm
? Was ist Informatik? Was ist Informatik? Alexander Lange
Ausgleichungsrechnung I
Ausgleichungsrechnung II
Beschreibung der energetischen Zustände der Elektronen
DataMining Von Daten zu Informationen und Wissen
Globale Interpolations- und Prädiktionsverfahren
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Gleichungen und Gleichungssysteme
STATISIK LV Nr.: 1375 SS März 2005.
Statistik: Mehr zur Regression.
Kapitel 16 Ökonometrische Modelle
Anfang Präsentation 20. Oktober, 2004 Elektrische Schaltungen I Diese Vorlesung diskutiert die mathematische Modellierung einfacher elektrischer linearer.
CEF 2001, New Haven Genetic Neural Fuzzy Explorer GENEFER Konzeption, Technologien und Einsatzmöglichkeiten Eric Ringhut Muenster Institute for Computational.
Wahrscheinlichkeitsrechnung
Übersicht - Methodik Studien zur Imitation von Interpretationen klassischer Klavier-Musik durch neuronale Netze.
Modellbildung und Simulation
Berechenbares Chaos - unvorhersehbare Wirklichkeit
Statistik – Regression - Korrelation
Analyse der Laufzeit von Algorithmen
Messergebnis Das Messergebnis ist der Näherungswert für den wahren Wert der Messgröße, der durch Auswertung der mit einer Messeinrichtung gewonnenen Messwerte.
Vom graphischen Differenzieren
10. KFKI-Seminar • • Bremerhaven
Gegenstand der Psychologie
setzt Linearität des Zusammenhangs voraus
Testtheorie (Vorlesung 13: ) Wiederholung: Richtigstellung
Geoinformationssysteme
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Prognose von Zeitreihen Hans Nübel Hans Nübel Prognose von Zeitreihen Aufbau 1.Motivation 2.Holt-Winters-Verfahren 3.Prognose.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
Institut für Verkehrssystemtechnik Dipl.-Psych. David Käthner Telefon:0531 / Ein kognitives Fahrermodell:
Emanuel Mistretta Lukas Schönbächler
 Präsentation transkript:

WS 2010 /11H.Werner : Datenanalyse§0 : 1 §0 Datenanalyse Prozesse, Einflußgrößen, Prozessdaten, Modellierung, Adaption

WS 2010 /11H.Werner : Datenanalyse§0 : 2 begleitende Literatur –T.Kohonen: Associative Memory: A system theoretic approach. New York, Springer 1977 –D.E.Rumelhart, J.L.McLelland: Parallel Distributed Processing Explorations in the microstructure of cognition. Vol.1 : Foundations. Cambridge, MIT-Press, 1986 –M.A.Arbib: Brains, Machines, and Mathematics. 2nd edition. New York, Springer, 1987 –T.Khanna:Foundations of Neural Networks. Reading/Mass., Addison-Wesley, 1990 –H.Ritter, T.Martinez, K.Schulten : Neuronale Netzwerke: Eine Einführung in die Neuroinformatik selbstorganisierter Netzwerke Bonn/München, Addison-Wesley, 1990 –A.Zell: Simulation Neuronaler Netze Bonn/München, Addison-Wesley, 1994 –KI.P.Kratzer: Neuronale Netze: Grundlagen und Anwendungen München, Hanser, 1991 –R.Brause: Neuronale Netze Stuttgart, Teubner

WS 2010 /11H.Werner : Datenanalyse§0 : 3 Prozesse Unter einem Prozess versteht man einen natürlichen oder maschinellen Vorgang, der von physikalischen Größen abhängt bzw. sie beeinflusst. Diese Größen heißen die Parameter oder Einflussgrößen des Prozesses.

WS 2010 /11H.Werner : Datenanalyse§0 : 4 Beispiele Schlafforschung: Schlaf-EEG Medikamenten Respons Medizinische Dispositionsanalyse Börsenkursprognose Beschichtungen von Materialien (Papier, Metall,..) Optische Strukturerkennung Wasserqualität bestimmen Windleistungsprognose Wetterklassifikationetc. …

WS 2010 /11H.Werner : Datenanalyse§0 : 5 Prozessdaten Zur Analyse eines Prozesses werden zu verschiedenen Zeitpunkten bzw. in verschiedenen Situationen die Parameter (Datensätze) bestimmt, genannt die Prozessdaten, und in einer Datei gesammelt und abgelegt.

WS 2010 /11H.Werner : Datenanalyse§0 : 6 Einflussgrößen Die in einem Datensatz vorkommenden Parameter sind entweder - unabhängig oder - abhängig und können ° zugänglich oder ° verborgen sein.

WS 2010 /11H.Werner : Datenanalyse§0 : 7 unabhängig / abhängig Unabhängig sind die Parameter, die von dem Prozessbetreiber direkt auf gewünschte Werte eingestellt werden können (Eingabe). Abhängig sind die Parameter, deren Werte sich aus dem Prozess aus den anderen Parametern einstellen (Ausgabe).

WS 2010 /11H.Werner : Datenanalyse§0 : 8 zugänglich/verborgen Zugänglich sind alle Parameter, deren Werte direkt am Prozess gemessen werden können. Als verborgene Parameter bezeichnet man alle übrigen Einflussgrößen, deren Werte nur indirekt erschlossen werden können oder ganz unbekannt sind.

WS 2010 /11H.Werner : Datenanalyse§0 : 9 Beispiel: Windkraft Der Betrieb einer Windkraftanlage wandelt die Windenergie (unabhängig) in elektrische Energie (abhängig) um. Die Windenergie selbst kann nicht unmittelbar gemessen werden, sondern muß aus einem komplexen Wetter- Prognose-Modell abgeschätzt werden (verborgener Parameter).

WS 2010 /11H.Werner : Datenanalyse§0 : 10 Modellierung Es gibt viele Gründe, warum in Wissenschaft und Technik immer wieder die Frage aufkommt: was wäre, wenn… Mathematische und informatische Modelle haben die Aufgabe, diese Frage fundiert zu beantworten. Beispiel: Belastungsproben werden nicht am konkreten Objekt (z.B. Brücke) durchgeführt (zu teuer), sondern an einem Modell.

WS 2010 /11H.Werner : Datenanalyse§0 : 11 Maßstabgerechte Modelle In der Technik werden gerne maßstabgerechte Modelle gebaut, deren Nutzen aber mehr in der Visualisierung liegt. Das Problem eines Modells (z.B. 1:10) ist, daß zwar die Längenverhältnisse 1:10 sind, die Flächenverhältnisse (etwa für Winddruck,…) jedoch 1:100 und gar die Raumverhältnisse (etwa für Masse,…) sogar 1:1000. Die Festigkeit der Materialien bleibt aber unverändert. Ein solches Modell ist also nicht ohne weiteres für Belastungsuntersuchungen geeignet. Dafür benötigt man eher oder zusätzlich mathematisch/informatische Modelle, insbesondere, wenn es um Fragen der Haltbarkeit (Zerstörung) geht.

WS 2010 /11H.Werner : Datenanalyse§0 : 12 Funktionale Modelle Ein funktionales Modell von Prozessdaten ist eine Sequenz mathematischer Funktionen, die als Eingaben die unabhängigen Parameter und als Ausgabe je eine der abhängigen Parameter haben, d.h. jede Funktion modelliert das Verhalten eines Parameters.

WS 2010 /11H.Werner : Datenanalyse§0 : 13 Klassifizierende Modelle Wenn das Verhalten von Ausgabeparameteren nicht funktional ist (d.h. gleiche Eingaben können sehr unterschiedliche Ausgaben produzieren), kann alternativ eine Klassifikation der Datensätze nach der größten Ähnlichkeit als Modell ermittelt werden. Aus jeder Klasse wird ein Repräsentant als typisches Verhaltensmuster des Prozesses ausgewählt (Prototyp)

WS 2010 /11H.Werner : Datenanalyse§0 : 14 Daten-Modelle Zu modellierende Daten Mittelwert Linear Quadratisch Höher Klassifikation

WS 2010 /11H.Werner : Datenanalyse§0 : 15 Ungenauigkeiten Physikalisch gemessene Größen unterliegen immer gewissen Meßun- genauigkeiten. Eine Rolle der Modellierung ist, solche Ungenauigkeiten abzuschätzen

WS 2010 /11H.Werner : Datenanalyse§0 : 16 Modellierungsmethoden Einige Methoden zur Modellierung sind: Funktionenapproximation Differentialgleichungen Statistische Modelle Adaptive Methoden

WS 2010 /11H.Werner : Datenanalyse§0 : 17 Approximation Diese Methode setzt ein funktionales Verhalten der Ausgabeparameter voraus und eine Vorgabe der Funktionenform (Linear, Polynom, periodisch, exponentiell..). Die spezifischen Funktionenparameter (Nullstellen, Steigungen etc.) werden nun schrittweise so angepasst, daß sich die Abstände der Messpunkte von den Funktionengraphen verkleinern.

WS 2010 /11H.Werner : Datenanalyse§0 : 18 Differentialgleichungen In physikalischen Prozessen mit wenigen Variablen lassen sich oft die Wirkungen von Parameteränderungen durch Differentialgleichungen beschreiben. Dies kann man dann auch auf Zusammensetzungen solcher Prozesse ausdehnen (dynamische Systeme)

WS 2010 /11H.Werner : Datenanalyse§0 : 19 Statistische Modelle Diese Modelle legen als Ursachen von Ungenauigkeiten zufällige Prozesse zugrunde. Sie erfordern ein mathematisches Modell und liefern als Ergebnis Wahrscheinlichkeiten, wie stark die Abweichungen der Messungen vom Modell ausfallen

WS 2010 /11H.Werner : Datenanalyse§0 : 20 Fluch der Dimension All diese klassischen Methoden haben den gravierenden Nachteil, daß sie bei hoher Variablenzahl (z.B. mehr als 100) sehr schwer handhabbar sind bis zum völligen Versagen. Zudem setzen diese Verfahren ein a priori Modell voraus, das approximativ verbessert werden soll.

WS 2010 /11H.Werner : Datenanalyse§0 : 21 Adaptive Modelle In diesen Fällen bieten sich adaptive Methoden an, von denen neuronale Netzwerke prominente Beispiele bilden. Grundidee sind Systeme mit einer großen Zahl an eigenen Modell- Parametern, die durch systematische Veränderungen dazu gebracht werden, das System den vorliegenden Prozess- daten immer genauer anzupassen.

WS 2010 /11H.Werner : Datenanalyse§0 : 22 Adaptionsmethoden Statistische Suche –Die Parameter werden zufällig verändert, bis eine zufriedenstellende Adaption erreicht ist. Abstiegsmethoden –Die Parameter werden so verändert, daß sich die Abweichung zwischen Messung und Modell verringert (Abstieg des Fehlers).

WS 2010 /11H.Werner : Datenanalyse§0 : 23 Korrektheit Die Adaption wird auch Lernen oder Training genannt. das adaptive System muss auf den Daten, mit denen es adaptiert wird (Trainingsset, Lektion), das gewünschte Verhalten zeigen: Geringe Abweichung zwischen Modellverhalten und Prozessverhalten

WS 2010 /11H.Werner : Datenanalyse§0 : 24 Generalisierung das adaptiveSystem muß auf neue Daten, auf denen es nicht trainiert ist (Test-Set), sinnvolle Antworten geben können. nur für solche Daten vernünftig, die nah(?) an den Trainingsdaten liegen. "sinnvoll" kann für Prozess und System sehr verschiedene Bedeutung haben (das System modelliert die Wirklichkeit evtl. nicht korrekt)

WS 2010 /11H.Werner : Datenanalyse§0 : 25 Lern-Paradigmen Lernen aus Fehlern überwacht (supervised) –Ein Lehrer kontrolliert den Trainingsvorgang und gibt ein, wo und wie stark sich der Output vom gewünschten Output unterscheidet. Lernen durch Gewöhnung selbstorganisiert (self organized) –Das System entwickelt frei von äußeren Einflüssen ein internes Beurteilungssystem für die Eingabedaten, indem es Inputs nach Ähnlichkeit zu schon gelernten Daten einteilt.

WS 2010 /11H.Werner : Datenanalyse§0 : 26 Lernerfolg Zu einem Lernerfolg gehört sowohl die Korrektheit (genügend genaue Anpassung an die Lerndaten) wie auch die Generalisierung (geringe Abweichung von den Testdaten). Es kann nicht von vornherein garantiert werden, daß korrektes oder gar generali- sierendes Lernen überhaupt möglich ist. Gründe für einen mangelnden Lernerfolg könnten sein: zu hohe Komplexität der Prozessdaten, widersprüchliche Daten oder auch eine unzureichende Modellstruktur.

WS 2010 /11H.Werner : Datenanalyse§0 : 27 Ziel der Vorlesung Verstehen der Methoden der Künstlichen Neuronalen Netzwerke. Beurteilung der Einsatzszenarien für diese Methoden Entwicklung eines Tools für den Einsatz dieser Methoden

WS 2010 /11H.Werner : Datenanalyse§0 : 28 Standardanwendung Windpowerprognose Aus den Wetterprognosen verschie- dener Anbieter soll möglichst exakt vorhergesagt werden, wieviel Strom ein Windpark im Laufe des nächsten Tages bzw. der nächsten Stunde liefern wird. Das Problem ist: die Wetterprognosen liegen nur in grobem räumlichen und zeitlichen Raster vor und sind nur bedingt zuverlässig.