Präsentation herunterladen
Die Präsentation wird geladen. Bitte warten
Veröffentlicht von:Herbert Ritter Geändert vor über 6 Jahren
1
Einführung in die KI - Maschinelles Lernen
Michael Schenke | Einführung in die KI - Maschinelles Lernen 17/09/18 | Seite 1
2
7.1 Maschinelles Lernen (Vorbemer-kungen)
3
Was ist Maschinelles Lernen?
Beim ML geht es zunächst darum, in großen Datenmengen Muster (im weitesten Sinne) zu erkennen, zu deuten, zu verallgemeinern. Dabei sollen Computer so programmiert werden, daß ein bestimmtes Leistungskriterium an Hand von Erfahrungswerten oder Daten aus der Vergangenheit optimiert wird.
4
Was ist Maschinelles Lernen?
Thomas Mitchell (1998) Well-posed Learning Problem: A computer program is said to learn from experience E with respect to some task T and some performance measure P, if its performance on T, as measured by P, improves with experience E.
5
Was ist Maschinelles Lernen?
Die zu Grunde liegenden Modelle sind parametrisiert. Die Verfahren sollen bezüglich dieser Parameter durch „Trainingswerte“ optimiert werden. deskriptives Modell, prädiktives Modell.
6
Anwendungen Bearbeitung großer Datenmengen:
Internet, medizinische Daten, Industrie 4.0 nicht programmierbare Anwendungen: autonomes Auto Handschriftenerkennung natural language processing Computer Vision
7
Quellen Statistik, Mustererkennung, Signalverarbeitung, Steuerung,
Data Mining, Neuronale Netze, ….
8
Methoden Mathematische Methoden: Assoziationsregeln,
Bayes-Theorie, Clusteranalyse, Hidden-Markov-Modelle, … Assoziationsregeln, Entscheidungsbäume, Klassifikationsalgorithmen, Dimensionalitätsreduktion, Data Mining …
9
Beispiele Assoziationsregeln
70% aller Kunden, die Bier kaufen, kaufen auch Chips. Klassifikation IF Einkommen > x1 AND Vermögen > x2 THEN kreditwürdig Mustererkennung (physisch) Erkenne ein geschriebenes „a“ automatisch! Ausreißer / Meßfehler erkennen
10
7.2 Lernstrategien
11
Lernstrategien Lernen durch direkte Eingabe,
Lernen durch Anweisung (Instruktion), Lernen durch Deduktion (analytisches Lernen), Lernen durch Analogie, Lernen aus Beispielen (induktives Lernen), Lernen durch Beobachtung und Entdeckung.
12
Lernstrategien Lernen durch direkte Eingabe (direkte Implantation neuen Wissens): Bei dieser Methode werden vom Lernenden weder Schlußfolgerungen noch Transformation des Wissens verlangt. Das Wissen muß lediglich abgespeichert werden.
13
Lernstrategien Mensch:
Pures Auswendiglernen, ohne daß Schlußfolgerungen gezogen werden. Maschine: Das System wird ohne eine Schlußfolgerungskomponente programmiert, konstruiert oder modifiziert.
14
Lernstrategien Lernen durch Anweisung (Instruktion):
Das Wissen wird mit Hilfe einer Quelle erworben. Der Lernende wandelt das Wissen aus der Eingabedarstellung in eine interne, verwendbare Darstellung um. Die neuen Informationen werden für einen späteren, effektiveren Einsatz in bereits vorhandenes Wissen integriert. Fehlende Detailinformationen werden entweder durch Hypothesenbildung oder von einer externen Wissensquelle angefordert.
15
Lernstrategien Beispiel (Mensch und Karte):
Der Mensch erhält aus der Karte (Quelle) grobe, strukturierte Information über die Umgebung. Der Mensch orientiert sich an der Karte (Eingabedarstellung wird in eine interne, verwendbare Darstellung umgewandelt). Der Mensch entscheidet sich nun für einen Weg zum Ziel (Detailinformationen durch Hypothesenbildung). Oder er fragt einen Einheimischen nach den Weg (Detailinformationen von externer Wissensquelle).
16
Lernstrategien Beispiel (Kasse und Kassierer):
Durch den Scanner wird der Barcode(Quelle) gelesen. Diesen wandelt die Maschine in eine interne Darstellung um. Die Maschine gleicht diese Darstellung mit der Datenbank ab und erhält einen Preis (Detailinformationen durch Hypothesenbildung). Oder der Barcode kann nicht gelesen werden bzw. es gibt keinen Eintrag in der Datenbank. Dann fordert die Maschine die Eingabe des Preises von einem Mitarbeiter. (Detailinformationen von externer Wissensquelle).
17
Lernstrategien Lernen durch Deduktion (analytisches Lernen):
Der Lernende führt deduktive (wahrheitserhaltende) Schlüsse auf bereits vorhandenem oder speziell zur Verfügung gestelltem Wissen aus. Dies geschieht mit dem Ziel der Restrukturierung des gegebenen Wissens in nützlichere, effektivere Formen oder zur Ableitung wichtiger Konsequenzen.
18
Lernstrategien Lernen durch Deduktion (analytisches Lernen):
Gegeben sind die Definition eines Konzeptes und möglichst vollständiges Hintergrundwissen. Gesucht ist eine Spezialisierung dieses Konzeptes, die sowohl im vorliegenden Einzelfall effektiver als auch operationalisierbar ist.
19
Lernstrategien Beispiel:
Der Übergang von der abstrakten Beschreibung eines Stuhls zu einer Definition, die ein wirkliches (effektives) Erkennen eines Stuhls mit Hilfe der dem System zur Verfügung stehenden Sensorik ermöglicht(Operationalität).
20
Lernstrategien Lernen durch Analogie:
Beim Lernen durch Analogie werden neue Fakten oder Fähigkeiten durch Transfer und Erweiterung bestehenden Wissens abgeleitet.
21
Lernstrategien Beispiel:
Stift liegt auf meiner Hand. Nehme ich die Hand weg, fällt der Stift auf den Boden. Analogie: Eine Münze liegt auf meiner Hand. Nehme ich die Hand weg, fällt die Münze auf den Boden. Ich schlußfolgere induktiv daraus, daß alles, was auf meiner Hand liegt, zu Boden fallen wird, wenn ich die Hand wegnehme. Durch induktives Lernen erkennt ich also, daß alles nach unten fällt, oder zum Massenzentrum.
22
Lernstrategien Lernen aus Beispielen (induktives Lernen):
Bei dieser Methode betrachtet man eine Menge von vorklassifizierten Beispielen („Trainingsbeispiele“) eines Konzeptes. Dabei ist die Bewertung der einzelnen Beispiele vorgegeben (positiv oder negativ). Aus den Beispielen soll ein mögliches Konzept entwickelt werden.
23
Lernstrategien Durch positive Beispiele wird das Konzept genereller / allgemeiner. Durch Gegenbeispiele wird das Konzept spezieller. Lernen aus Beispielen besteht entweder aus einem Versuch oder ist inkrementell. Bei einem Versuch müssen alle Beispiele auf einmal präsent sein.
24
Lernstrategien Der inkrementelle Ansatz entspricht eher dem menschlichen Lernen. Er erlaubt den Lernenden, teilweise gelernte Konzepte einzusetzen. Beim Lernen aus Beispielen kann der Lernende durch schlecht gewählte Trainingsbeispiele in die Irre geführt werden. (Problem des „overfitting“)
25
Lernstrategien Lernen durch Beobachtung und Entdeckung:
Bei dieser Methode gibt es keinen externen Lehrer und keine vorgegebenen Bewertungen. Es ist die anspruchsvollste und am schwersten zu realisierende Lernstrategie.
26
Lernstrategien Lernen durch Beobachtung und Entdeckung:
Die Aufgabe besteht darin, allgemeine Beschreibungen (Gesetzte oder Theorien) zu bestimmen, die eine Ansammlung von Beobachtungen charakterisieren. Durch die Auswertung der Beobachtungen werden Beschreibungen erzeugt, die Eigenschaften von Objekten spezifizieren, die eine bestimmte Klasse (ein Konzept) repräsentieren.
27
Lernstrategien Beim Lernen durch Beobachtung und Entdeckung gibt es zwei extreme Situationen: Passives Beobachten: Der Lernende klassifiziert und ordnet die Beobachtungen. Aktives Experimentieren: Hierbei stört der Lernende seine Umwelt und beobachtet die Ergebnisse dieser Störungen.
28
Überwachtes/Unüberwachtes Lernen
Beim überwachten Lernen sind Definitions- und Wertebereich bekannt. Es gilt nur, eine Funktion zwischen ihnen zu lernen. „Richtige Werte“ sind bekannt. Beim unüberwachten Lernen stehen nur die Eingabedaten zur Verfügung. Es sollen dort Regelmäßigkeiten / Strukturen gefunden werden. („Dichteschätzung“)
29
Überwachtes Lernen Regression: Vorhersage kontinuierlicher Werte
Klassifikation: Vorhersage diskreter Werte
30
Überwachtes Lernen Regression oder Klassifikation?
Lagerhaltung mit Tausenden von Artikeln. Vorhersage: Wieviel davon wird in 3 Monaten verkauft? Automatische Feststellung, ob Kundenkonten gehackt worden sind.
31
Unüberwachtes Lernen (Beispiele)
Finde im Netz alles zu einem Thema Klassifiziere Individuen nach Genen Computercluster soziale Netzwerkanalyse Marktsegmentierung astronomische Daten
33
Genes Individuals
34
Organize computing clusters Social network analysis
Image credit: NASA/JPL-Caltech/E. Churchwell (Univ. of Wisconsin, Madison) Astronomical data analysis image obtained from NASA website. RCW 79 is seen in the southern Milky Way, 17,200 light-years from Earth in the constellation Centaurus. The bubble is 70-light years in diameter, and probably took about one million years to form from the radiation and winds of hot young stars. The balloon of gas and dust is an example of stimulated star formation. Such stars are born when the hot bubble expands into the interstellar gas and dust around it. RCW 79 has spawned at least two groups of new stars along the edge of the large bubble. Some are visible inside the small bubble in the lower left corner. Another group of baby stars appears near the opening at the top. NASA's Spitzer Space Telescope easily detects infrared light from the dust particles in RCW 79. The young stars within RCW79 radiate ultraviolet light that excites molecules of dust within the bubble. This causes the dust grains to emit infrared light that is detected by Spitzer and seen here as the extended red features. Image credit: NASA/JPL-Caltech/E. Churchwell (Univ. of Wisconsin, Madison) From NASA use guidelines: Using NASA Imagery and Linking to NASA Web Sites Still Images, Audio Files and Video NASA still images, audio files and video generally are not copyrighted. You may use NASA imagery, video and audio material for educational or informational purposes, including photo collections, textbooks, public exhibits and Internet Web pages. This general permission extends to personal Web pages. This general permission does not extend to use of the NASA insignia logo (the blue "meatball" insignia), the retired NASA logotype (the red "worm" logo) and the NASA seal. These images may not be used by persons who are not NASA employees or on products (including Web pages) that are not NASA sponsored. If the NASA material is to be used for commercial purposes, especially including advertisements, it must not explicitly or implicitly convey NASA's endorsement of commercial goods or services. If a NASA image includes an identifiable person, using the image for commercial purposes may infringe that person's right of privacy or publicity, and permission should be obtained from the person. Any questions regarding application of any NASA image or emblem should be directed to: Photo Department NASA Headquarters 300 E St. SW Washington, DC Tel: (202) Fax: (202) Linking to NASA Web Sites NASA Web sites are not copyrighted, and may be linked to from other Web sites, including individuals' personal Web sites, without explicit permission from NASA. However, such links may not explicitly or implicitly convey NASA's endorsement of commercial goods or services. NASA images may be used as graphic "hot links" to NASA Web sites, provided they are used within the guidelines above. This permission does not extend to use of the NASA insignia, the retired NASA logotype or the NASA seal. Restrictions Please be advised that: 1) NASA does not endorse or sponsor any commercial product, service, or activity. 2) The use of the NASA name, initials, any NASA emblems (including the NASA insignia, the NASA logo and the NASA seal) which would express or imply such endorsement or sponsorship is strictly prohibited. 3) Use of the NASA name or initials as an identifying symbol by organizations other than NASA (such as on foods, packaging, containers, signs, or any promotional material) is prohibited. 4) NASA does permit the use of the NASA logo and insignia on novelty and souvenir-type items. However, such items may be sold and manufactured only after a proposal has been submitted to and approved by a Visual Identity representative from the Public Outreach Division (Phone: 202/ ) in accordance with 14 CFR (Code of Federal Regulations) Part Permission is granted on a nonexclusive basis as it is not NASA's policy to grant exclusive rights to use any of the agency identities. 5) No approval for use is authorized by NASA when the use can be construed as an endorsement by NASA of a product, service or activity. 6) NASA emblems should be reproduced only from original reproduction proofs, transparencies, or computer files available from NASA Headquarters. Please be advised that approval must be granted by a Visual Identity representative from the Public Outreach Division ( Tel: 202/ ) before any reproduction materials can be obtained. Market segmentation Astronomical data analysis
35
Lernstrategien Welche der folgenden Methoden sind überwacht/unüberwacht? Regressionsanalyse Clusteranalyse Klassifikation
36
überwacht/unüberwacht Übung
Aufbau eines Spam-Filters Gegeben: Menge von Internet-Artikeln. gruppieren in Mengen von Artikeln über die gleiche Geschichte Gegeben: Kundendaten. typisieren von Kundenklassen Gegeben: Patientendaten. klassifizieren nach Diabetes/keine Diabetes
37
Problem des overfitting
Price Price Price Size Size Size under fitting “paßt” overfitting
38
7.3 Entscheidungs bäume
39
Entscheidungsbäume Gegeben:
eine Menge von Attributen eine Menge von Beispielen aus Werten für die Attribute und dem Verhalten in diesem Fall („Trainingsbeispielen“) Gesucht: ein allgemeines Verhalten, aus dem die Trainingsbeispiele resultieren könnten. Dieses allgemeine Verhalten sollte möglichst einfach beschreibbar sein.
40
Entscheidungsbäume Größe Nationalität Familienstand Entscheidung/
Klassifikation klein deutsch ledig + groß französisch italienisch - verheiratet
41
Entscheidungsbäume
42
Entscheidungsbäume Funktion DT wird aufgerufen und als Parameter werden Beispielmenge, Attributmenge und Default-Wert übergeben. Als erstes wird geprüft, ob überhaupt Beispiele übergeben wurden. Ist die Beispielmenge leer, soll der Default-Wert zurückgegeben werden. Sind Beispiele vorhanden, wird geprüft, ob alle Beispiele die gleiche Klassifikation haben. Wenn alle Beispiele die gleiche Klassifikation haben, ist eine weitere Unterteilung nicht notwendig. In diesem Falle wird hier ein Blatt mit dieser gemeinsamen Klassifikation angehängt.
43
Entscheidungsbäume Wir haben jetzt Beispiele mit unterschiedlichen Klassifikationen. Nun müssen wir sie nach Attributen unterteilen. Dies setzt voraus, daß überhaupt noch Attribute vorhanden sind. Sind zu einem Zeitpunkt keine Attribute mehr vorhanden, liegen widersprüchliche Daten vor. Jetzt muß ein Attribut ausgewählt werden (Hier liegt die Intelligenz des Verfahrens). Schließlich wird induktiv für jeden Wert des gewählten Attributs ein Entscheidungsbaum generiert und dieser an den gerade bearbeiteten Knoten angehängt.
44
Entscheidungsbäume Größe Nationalität Familienstand Entscheidung/
Klassifikation klein deutsch ledig + groß französisch italienisch - verheiratet
45
Entscheidungsbäume Größe Nationalität Familienstand Entscheidung/
Klassifikation groß französisch ledig + deutsch verheiratet - italienisch
46
Entscheidungsbäume Nationalität Familienstand Entscheidung/
Klassifikation französisch ledig + deutsch verheiratet - italienisch
47
Entscheidungsbäume Nationalität Familienstand Entscheidung/
Klassifikation deutsch ledig + italienisch - verheiratet
48
Entscheidungsbäume Wie sieht der ganze Entscheidungsbaum aus?
Welches Attribut hätten Sie für die Entscheidung genommen? Wie sähe der Entscheidungsbaum dann aus?
49
7.4 Bayessches Lernen
50
Bayessches Lernen Gegeben: Klassen c1,…,cn, Objekt obj
In welcher Klasse ist obj? Aufgabe: Maxmiere P(ci|obj) über alle Klassen.
51
Bayessches Lernen Bayes-Formel: P(obj|ci) * P(ci) = P(ci|obj) * P(obj) P(ci|obj) = P(obj|ci) * P(ci)/ P(obj) Maximiere also P(obj|ci) *P(ci) Relative Häufigkeiten statt Wahrscheinlichkeiten
52
Dok Wörter Klasse Training 1 China Peking China c 2 China China Schanghai 3 China Hongkong 4 Tokio Japan China j Test 5 China China China Tokio Japan ?
53
Bayessches Lernen Bestimmung von P(obj|ci): P(China China China Tokio Japan|Land) 1. Annahme: Unabhängigkeit P(China|Land)*P(China|Land)*P(China|Land)* P(Tokio|Land)*P(Japan|Land)
54
Bayessches Lernen 2. Annahme: Laplace-Glättung P(China|Land)= #(China|Land)/ Σ w #(w|Land) stattdessen: (#(China|Land)+1)/ Σ w (#(w|Land) +1) = (#(China|Land)+1)/ Σ w #(w|Land) +|V|
55
Bayessches Lernen P(c) = 3/4 P(j) = 1/4
P(China|c) = (5+1) / (8+6) = 6/14 P(Tokio|c) =(0+1) / (8+6) = 1/14 P(Japan|c) =(0+1) / (8+6) = 1/14 P(China|j) =(1+1) / (3+6) = 2/9 P(Tokio|j) =(1+1) / (3+6) = 2/9 P(Japan|j) = (1+1) / (3+6) = 2/9 P(c|d5) 3/4 * (3/7)3 * 1/14 * 1/14 ≈ P(j|d5) 1/4 * (2/9)3 * 2/9 * 2/9 ≈
56
7.5 Clusteranalyse
57
Clusteranalyse Verfahren aus der deskriptiven Statistik, welches genutzt wird, wenn sehr wenig über die Daten bekannt ist. Ziel: Bildung von Klassen von Elementen mit ähnlichen Eigenschaften. Ähnlichkeit der Elemente wird über einen zu definierenden Abstand oder eine Ähnlichkeitsmatrix festgelegt.
58
Clusteranalyse Anwendungsbeispiele der Clusteranalyse:
Bilderkennung, Gesichtserkennung, Barcode scannen, Kreditwürdigkeit eines Kunden einer Bank einschätzen, Textklassifikation (z.B. Herausfiltern von Spam-Mails), Erkennen von Krankheiten, …
59
Clusteranalyse Grundlegendes Modell
Gegeben Beobachtungen Y 1 ,Y 2 ,…,Y n . Eine Gruppierung G, bestehend aus r Clustern, ist eine Partition der Beobachtungsmenge aus r Äquivalenzklassen. Die Anzahl der Dimensionen soll in allen Y 𝑖 gleich sein. (Eigenschaften, Features)
60
Clusteranalyse Gewicht . . . . . . . . . . . . . . . . . .
Geschwindigkeit Dipl.-Inform.
61
Clusteranalyse Für vorgegebenes r suchen wir eine Gruppierung G*={G1*,G2*,…,Gr*}, so daß die Summe der Distanzen Σ 𝑘 Σ 𝑖,𝑗𝐺𝑘 𝑑 𝑖,𝑗 in den Clustern minimal wird. Bei großen Datenmengen ist die Suche nach einem globalen Minimum nicht realisierbar. Man begnügt sich mit einem lokalen Minimum.
62
Clusteranalyse Die Anzahl der Dimensionen soll in allen Y 𝑖 gleich sein. (Eigenschaften, Features) Das sind hier 𝑡 und 𝑘𝑚/ℎ.
63
Clusteranalyse Definition: Sei M eine Menge. Eine Abbildung d: MxM R 0 + heißt Metrik (Abstand) auf M wenn gilt: d m 1 ,m 2 =0,genau dann, wenn m 1 = m 2 , d m 1 ,m 2 = d m 2 ,m 1 , Dreiecksungleichung: d m 1 ,m 2 ≤ d m 1 ,m 3 +d m 3 ,m 2 . Auf einer endlichen Menge können die Distanzen in einer Distanzmatrix D angegeben werden.
64
Clusteranalyse Beispiele für Metriken: Euklidisch, Manhattan,
Tschebytschew, chaotisch.
65
Clusteranalyse Klassen von Algorithmen der Clusteranalyse:
agglomerativ, partitionierend, k-means dbscan.
66
Clusteranalyse Im folgenden Algorithmus zur Clustrung einer Menge M wird ein Cluster {𝑚 1 ,…, 𝑚 𝑛 } repräsentiert durch Centroide Σ 𝑚 𝑖 /n, falls auf M eine Summe, Division definiert sind.
67
Clusteranalyse Beispiel: Hierarchische Clusteranalyse Gegeben sei D.
Initialisiere I = 1,2,…n , G 1 = 1 , …, G n = n und u i =1 für alle i∈I. Suche nach dem minimalen Wert der Distanzmatrix D∈R n,n , also: Suche nach einem Paar l,m , so daß d lm =min {d ij |i,j∈I,i<j}.
68
Clusteranalyse Fusion der Cluster l und m zum Cluster l, Löschen des Clusters m: G l =G l G m , I = I\{m} Neuberechnung der Abstände d lj für alle j∈I. Formel für d 𝑙j in Abhängigkeit von d lj , d mj ,d lm ,u l ,u 𝑚 entsprechend dem konkreten Verfahren Neuberechnung des Gewichtes des Clusters l: u l =u l + u m
69
Clusteranalyse Falls I =r, dann beende das Verfahren, andernfalls gehe wieder zur Suche nach der minimalen Distanz. Der gesamte Verlauf der Clusterkonstruktion kann in einem Dendrogramm abgebildet werden.
70
Clusteranalyse Formeln zur Neuberechnung der Abstände
Nächster-Nachbar-Methode (Simple Linkage) d lj ∗ =min d lj ,d mj neigt zur Kontraktion von Clustern Entferntester-Nachbar-Methode (Complete Linkage) d lj ∗ =max d lj ,d mj neigt zur Dilatation (zum Auseinanderziehen) von Clustern
71
Clusteranalyse Mittelwertmethode (Average Linkage)
d lj ∗ = d lj +d mj Methode des gewichteten Mittelwerts (Weighted Average Linkage) d lj ∗ = u l ∗d lj + u m ∗ d mj u l +u m Median-Verfahren, Centroid-Verfahren, Minimalvarianzmethode, …
72
7.6 Regressions-analyse
73
Hauspreise Preise (in TEuro) Größe (qm) überwachtes Lernen
Gegeben ist der “richtige” für jedes Beispiel. Regressionsproblem Vorhersage eines reellen Wertes
74
Hypothese: Parameter: Kostenunktion: Ziel: Minimiere J
76
Gegeben: Ziel: Idee: Starte mit beliebigem Verändere solange, bis ein Wert möglichst nahe am Minimum erreicht ist.
77
J(0,1) 1 0
78
J(0,1) 1 0
79
Algorithmus: Gradienten Abstieg
80
Algorithmus: Gradienten Abstieg
81
Logistische Regression
Um Klassifikationsprobleme anzugehen, kann man ebenfalls die Regressionsanalyse benutzen. Die folgende Sigmoid-Funktion hat die Eigenschaften einer statistischen Verteilungsfunktion. Sie definiert die Entscheidungsgrenze zwischen den einzelnen Klassen.
82
Logistische Regression:
Die Sigmoide
83
Logistische Regression
“Sigmoide” für für
84
Entscheidungsgrenze x2 3 2 1 1 2 3 x1 Vorhersage: falls
85
Nicht-lineare Entscheidungsgrenze
x2 1 x1 -1 1 -1 Vorhersage: falls
86
Trainings- menge (m Wertepaare):
neues Beispiel
87
Logistische Regression und Kostenfunktion
Idee: Sind y=1 und h(x)=1, sind die Kosten 0. Aber für h(x) -> 0 gehen die Kosten gegen unendlich, entsprechend in der zweiten Zeile. Cost(h(x) = -y log(h(x)) – (1-y) log(1-h(x))
88
Logistische Regression und Kostenfunktion
Die Funktion J soll minimiert werden. Die Ausgabe ist dann
89
Gradienten Abstieg Repeat
90
Gradienten Abstieg Repeat
91
7.7 Neuronale Netze
92
Neuronale Netze Es gibt sehr viele Funktionen, die zur nicht-linearen Regressionsanalyse benutzt werden können. Eine Kombination könnte sein: Aber welche Attributkombinationen sollten verwendet werden? Alle auszuprobieren geht nicht (exponentielles Wachstum).
93
Neuronale Netze Man kam auf die auf die Idee, die Maschine selber lernen zu lassen, welche Kombinationen sinnvoll sind. Das Ergebnis war ein mehrstufiger Lernprozeß, bei dem die letzte Stufe die eigentliche Regressionsanalyse ist. In den vorausgehenden Stufen werden die sinnvollen Attributkombinationen bestimmt.
94
Neuronale Netze Es entstand ein Modell, das schon etwas früher als Abstraktion des Gehirns konzipiert worden war. Es war groß in Mode in den 80ern und frühen 90ern, verlor seine Popularität in den späten 90ern und erlebte einen Wiederaufstieg in vielen Anwendungen. Dabei geht es nicht um prinzipielle Fähigkeiten des Hirns sondern um praktische Anwendung.
95
Neuronale Netze In Biologie und Medizin war es zu ganz erstaunlichen Umprogrammierungen von Hirnteilen gekommen. Beispielsweise konnte sowohl dem auditorischen wie dem somatosensorischen Cortex die Fähigkeit zum (sehr begrenzten) Sehen antrainiert werden. Man schloß daraus, daß im Hirn einen Allzwecklernalgorithmus gibt. Der sollte nachempfunden werden.
96
Die “one learning algorithm” Hypothese
Auditorischer Cortex Der auditorische Cortex lernt zu sehen. [Roe et al., 1992] [Roe et al., 1992]
97
Die “one learning algorithm” Hypothese
Somatosensorischer Cortex Der somatosensorische Cortex lernt zu sehen. [Metin & Frost, 1989]
98
Sensorische Programmierungen im Hirn
Sehen mit der Zunge Menschliches Sonar Haptischer Gürtel: Richtungssinn Drittes Auge [BrainPort; Welsh & Blasch, 1997; Nagel et al., 2005; Constantine-Paton & Law, 2009]
99
Neuronen im Gehirn
100
Neuronen im Gehirn [Credit: US National Institutes of Health, National Institute on Aging]
101
Das Neuron als grundlegende Einheit
Die Sigmoide dient als Aktivierungsfunktion.
102
Neuronales Netzwerk Layer 1 Layer 2 Layer 3
103
Neuronales Network “Aktivierung” von Einheit i in layer j
Gewichtsmatrix für die Funktion von layer j nach layer j+1 In einem Netzwerk mit Einheiten in layer j und Einheiten in layer j+1 hat die Dimension .
104
Werte vorwärts propagieren (Vektorisiert)
105
Andere Netzwerk Architekturen
Layer 1 Layer 2 Layer 3 Layer 4
106
Nichtlineares Klassifikationsbeispiel: XOR/XNOR
seien binär (0 or 1). x2 x2 x1 x1
107
Erinnerung: Die Sigmoide
Einige Werte der Sigmoiden: g(0) = 0,5 g(10) = 0,999955 g(-10) = 0,000045
108
1 Modellierung von AND Wie sind die Kantengewichte
θ0 θ1 θ2 zu wählen, damit die AND-Funktion entsteht? hθ(x) = g(θ0x0 + θ1x1 + θ2x2 ) 1
109
Wir wählen die Kantengewichte θ0 = -30 θ1 = 20 θ2 = 20 also:
Modellierung von AND Wir wählen die Kantengewichte θ0 = -30 θ1 = 20 θ2 = 20 also: hθ(x) = g( x1 + 20x2 ) 9,35762×10-14 1
110
Modellierung von OR 1 1,000000 -10 20 20 hθ(x) = g( x1 + 20x2 )
111
Modellierung der Negation:
1
112
-30 10 -10 20 -20 20 20 -20 20 Das Endergebnis ist ein Netz, das x1, x2 als Eingabe hat. Der innere (verborgene) layer wird durch das rote und das blaue Oval gebildet. Diese sind dann die Eingabe für das grüne Oval. Sie spielen dort, also im Ausgabe-layer, die Rolle von x1, x2.
113
Training Neuronaler Netze
Das Training der Netzwerke kann im Prinzip mit Hilfe der bekannten Kostenfunktion und dem Gradientenabstiegsverfahren durchgeführt werden. Allerdings müssen die Werte für jeden layer (rekursiv) durchgereicht werden. Dabei wird sowohl forward als auch backward propagation eingesetzt.
114
Training Neuronaler Netze
Dadurch, daß die Übergabefunktionen im Kern linear sind, bestimmt durch die Matrizen , kann die Anfangsmatrix nicht die Nullmatrix sein. Dadurch würden sich im Verlauf der forward propagation lineare Abhängigkeiten ergeben (unerwünschte Gleichheiten von Werten), die man nie wieder los wird. Deshalb empfiehlt es sich, Zufallsinitialisierungen vorzunehmen oder ausgefeiltere Verfahren.
115
Debuggen Neuronaler Netze
Angenommen, ein Netz sei mit Hilfe einer Beispielmenge trainiert, es macht aber unakzeptabel große Fehler in der Praxis. Was ist zu tun?
116
Debuggen Neuronaler Netze
mehr Trainingsbeispiele kleinere Attributmengen größere Attributmengen zusätzliche polynomielle Attribute Datennormalisierung verbessern Es ist üblich, nicht alle vorhandenen Daten zum Training zu verwenden. Aufteilen (Verhältnis 70:30) in Trainings- und Testmenge
117
Crossvalidierung Angenommen, wir haben 10 Hypothesen getestet Angenommen, wir wählen
118
Wie gut verallgemeinert sich das Modell in der Praxis?
Crossvalidierung Wie gut verallgemeinert sich das Modell in der Praxis? Das Problem ist, daß ein zu guter Schätzer für den allgemeinen Fehler ist. Z.B. ist der zusätzliche Parameter “Grad des Polynoms” auf die Testmenge zugeschnitten. Als Lösung hat es sich bewährt, daß die Datenmenge in drei Teilmengen (60:20:20) zerlegt wird: Trainingsmenge, Crossvalidierungsmenge Testmenge
119
Crossvalidierung Mit Hilfe der Trainingsmenge werden für vorgegebene Hypothesen die besten Parameter bestimmt. Die Crossvalidierungsmenge sucht die beste Hypothese aus und die Testmenge bestimmt, wie gut die “Siegerhypothese” wirklich ist. Die Formeln für Trainings-, Validierungs- und Testfehler sind praktisch gleich.
120
Es gibt in der Praxis folgende Beobachtung bei der Crossvalidierung:
Bei niedrigem Grad des Polynoms ist der CV-Fehler hoch, wird zunächst mit wachsendem Grad niedriger, steigt dann mit weiter wachsendem Grad aber wieder an. Der Grund dafür ist das overfitting. Das führt zu einer Möglichkeit, zu erkennen, ob ein underfitting- oder ein overfitting-Problem vorliegt.
121
underfit vs. overfit underfit: ~ overfit: >>
Polynomgrad Fehler (Cross validation Fehler) overfit: >> (Trainingsfehler) Merksatz: Im Falle des underfitting helfen zusätzliche Daten normalerweise nicht weiter.
122
Debuggen Neuronaler Netze
mehr Trainingsbeispiele gegen overfitting kleinere Attributmengen gegen overfitting größere Attributmengen gegen underfitting zusätzliche polynomielle Attribute gegen underfitting Datennormalisierung verbessern hilft gegen beides (sehr komplexes Thema) Merksatz: Je größer das Netzwerk ist, desto anfälliger ist es für overfitting.
123
(genetische Algorithmen)
7.8 Evolutionäres Lernen (genetische Algorithmen)
124
Evolutionäres Lernen „Man muß mit dem Unterrichten einer Maschine herumexperimentieren und schauen, wie gut sie lernt. […] Es gibt einen offensichtlichen Zusammenhang zwischen diesem Prozeß und der Evolution […] Man darf allerdings hoffen, daß dieser Prozess schneller abläuft.“ Alan Turing (1950): Computing Machinery and Intelligence
125
Evolutionäres Lernen Evolutionäre Algorithmen (EA) sind eine Klasse von stochastischen Optimierungsverfahren, deren Funktionsweise von der Evolution natürlicher Lebewesen inspiriert ist. In Anlehnung an die Natur werden Lösungskandidaten für ein bestimmtes Problem künstlich evolviert, EA sind also naturanaloge Optimierungsverfahren.
126
Evolutionäres Lernen Da es sich um stochastische Algorithmen handelt, finden EA meist nicht die beste Lösung für ein Problem, aber bei Erfolg eine hinreichend gute Näherung, was in der Praxis vor allem bei NP-vollständigen Problemen bereits wünschenswert ist. Die Verfahren verschiedener EA unterscheiden sich untereinander in erster Linie durch die genutzten Selektions-, Rekombinations- und Mutationsoperatoren, das Genotyp-Phänotyp-Mapping, sowie die Problemrepräsentation.
127
Evolutionäres Lernen Durch die Problemstellung als Optimierungsproblem sind eine Zielfunktion sowie der Problemraum mit den potentiellen Lösungen gegeben. Der Unterschied zwischen dem Problemraum der Anwendung und dem Suchraum des Algorithmus besteht darin, daß ein EA eine Lösung anders darstellen kann, um sie besser zu verarbeiten und später wieder in ursprünglicher Form auszugeben (Genotyp-Phänotyp-Mapping).
128
Strukturen beim Evolutionären Lernen
Suchraum (z. B. Binärzahlen, reelle Zahlen, Baumstrukturen) Suchoperatoren (z. B. Mutation und Rekombination) Fitnesszuweisung und Selektion auf Basis der Zielfunktion Art und Weise, in der vorherige Generationen in die Selektion mit einbezogen werden Beziehung zwischen dem Suchraum und dem Problemraum (Genotyp-Phänotyp-Mapping)
129
Evolutionäre Algorithmen zur Optimierung oder Suche
Evolutionäres Lernen Evolutionäre Algorithmen zur Optimierung oder Suche Evolution als ein Suchproblem betrachten: Tiere konkurrieren miteinander (z.B. Konkurrenz um Resourcen oder Räuber-Beute-Modelle) Lösungswege finden zum optimalen Überleben Reproduktion: Vater Mutter
130
Gene sind natürlichen Mutationen ausgesetzt
Evolutionäres Lernen Gene sind natürlichen Mutationen ausgesetzt Mutationen können positiv, negativ oder sich gar nicht auf Erben auswirken Durch Rekombination können sich Arten an den Selektionsdruck anpassen z.B. Klimaveränderungen, Erschließung neuer Lebensräume
131
Evolutionärer Algorithmus
Evolutionäres Lernen Diese vereinfachte Vorstellung wird in der Informatik idealisiert (abstrahiert). Die Güte eines Lösungskandidaten wird über eine Fitnessfunktion berechnet. Verschiedene Kandidaten sind vergleichbar miteinander z.B. Form einer Autotür optimieren Natürliches Vorbild Evolutionärer Algorithmus Beispiel Organismus Lösungskandidat Autotür Fortpflanzungs-erfolg Wert der Fitnessfunktion Strömungs-widerstand Natürliche Mutation Mutation Änderung der Form
132
Genetischer Algorithmus
Implementierung im Programm: Probleme werden als Chromosomen dargestellt. Fitnessberechnung Selektion innerhalb der Population Funktion zur Erzeugung der Nachkommen Bsp.: Rucksackproblem Rucksack packen mit Dingen verschiedener Größe Entscheidung was verpackt wird (optimal)
133
Genetischer Algorithmus
Darstellung der Chromosomen: Repräsentation der Eigenschaften Definition eines Alphabets zur Kennzeichnung der Eigenschaften Beispiel: Jedes Element zum Einpacken ist 1 Bit (1 = mitnehmen, 0 = nicht mitnehmen). Chromosom ist eine Kette von Bits (Länge = Anzahl Elemente). (0,1,1,0) Element 2 und 3 werden eingepackt.
134
Genetischer Algorithmus
Implementierung der Fitnessfunktion: beste Verkettung höchster Fitnesswert Fitnessreduzierung bei schlechten Ergebnissen Positive Funktion (Minimum 0) In der Natur ist die Fitness dynamisch. Im Programm ist sie statisch. Bewertung durch Fitnessfunktion am Beispiel: Rucksack soll so voll wie möglich sei. Reduzierung der Fitness von jedem Element, wenn die Verkettung nicht paßt Einfache Lösung „Greedy Algorithmus“
135
Genetischer Algorithmus
Erzeugung der Population erste Generation zufällig erzeugt Algorithmus erzeugt Nachkommen mit höherer Fitness Reproduktion durch „Eltern“ mit relativ hohem Fitnessgrad neue Generation mit neuer Fitnessbewertung auch Ausnahmen bei der Reproduktion zulassen (schwacher Fitnessgrad)
136
Gentische Operatoren Crossover Mutation
Welche Elemente werden von den Eltern weiter gegeben? Single point, Multi point, Uniform Mutation zufällige Manipulation eines Bits (Individuen als Bitkette) Invertierung Verdopplung Löschung Bei reellen Eigenschaften wird ein Wert 1/Länge addiert/subtrahiert.
137
Tournament: Eltern und Kinder treten gegeneinander an.
Gentische Operatoren Crossover Welche Elemente werden von den Eltern weiter gegeben? Single point, Multi point, Uniform Mutation zufällige Drehung eines Bits (binäre Eigenschaften) Bei reellen Eigenschaften wird ein Wert 1/Länge addiert/subtrahiert. Elitism: Die besten Verkettungen gehen direkt in die nächste Population Tournament: Eltern und Kinder treten gegeneinander an.
138
Zusammenfassung Initialisierung Lernen Zufallsverkettungen generieren
Erzeuge neue Population Wähle 2 Verkettungen nach Fitness Rekombination der beiden Auswahl über elitism/ tournament beste Verkettung auswählen Wiederholung bis zur Erfüllung der Endebedingung (Genauigkeit oder Abstand zur Lösung)
139
Schemasatz Der Schemasatz nach John H. Holland ( ) behandelt das Konvergenzverhalten genetischer Algorithmen. Der Satz beweist, daß sich Individuen mit überdurchschnittlicher Fitness mit höherer Wahrscheinlichkeit durchsetzen. Individuen = Bitketten Schemata = Individuen mit wildcards
Ähnliche Präsentationen
© 2025 SlidePlayer.org Inc.
All rights reserved.