Biraveenmaks Ponnu Benjamin Zumbrunn

Slides:



Advertisements
Ähnliche Präsentationen
Techniken des Maschinellen Lernens für Data Mining Norbert Fuhr.
Advertisements

FH-Hof Der B-Baum Richard Göbel. FH-Hof Wahl des Verzweigungsgrad Verzweigungsgrad kann größer als 2 sein v Nachfolger für einen Knoten v-1 Werte in einem.
TECHNISCHE UNIVERSITÄT DARMSTADT Naive Bayes for Ranking
B-Bäume.
FH-Hof Analyse des R-Baums Richard Göbel. FH-Hof Ansatz Annahme: Die Bearbeitungszeit für eine Anfrage wird dominiert von der Ladezeit der Knoten von.
Baumstrukturen Richard Göbel.
Datenbankdesign und Normalisierung
Genetische Algorithmen
Wie wird eine XML DB eingabeintuitiv? Nachteile einer XML-Struktur: leicht entstehende Syntaxfehler mangelnde Übersicht.
XML Standardisierungen und Abfragesprachen
Hypothesen testen: Grundidee
Übung Datenbanksysteme WS 2002/ Übung Datenbanksysteme ER-Modellierung
Ontologische Visualisierung von Genexpressionsdaten aus Makroarray-Experimenten Bioinformatik Praktikum David Rudolph, Michael Tauer Thema 6.
Erhard Künzel für Info 9. Klasse: Digitale Schule Bayern© Erhard Künzel.
Quality Cost Deployment
CRM Editor auf der Basis von Qt (Beispiel von Ubi erat Lupa)
Was versteht man unter XML Schema?
Konzeption und Realisierung von DSS
Machine Learning Decision Trees (2).
Christian Schulz, Marc Thielbeer, Sebastian Boldt
7.1 Externes Suchen Bisherige Algorithmen: geeignet, wenn alle Daten im Hauptspeicher. Große Datenmengen: oft auf externen Speichermedien, z.B. Festplatte.
Ishikawa Diagramm.
Ch. Turnheer/ M. Vilanova 2002
1.2 Trennung von Struktur und Inhalt
Prädiktion und Klassifikation mit Random Forest
Was ist Facebook? Was sind seine Gefahren? Wer hat Facebook erfunden?
cs108 Programmier-Projekt Präsentation Meilenstein 3
Erstellen einer Arff-Datei
Die Kopierarten im BIC Design
Datenbanken Eine Einführung.
Německy s úsměvem Lektion 3 – Teil X EL Mag. Renata Kapeller
Methoden der Sozialwissenschaften
DICKE DEUTSCHE.
Vor- und Nachteile der beiden „Superflieger“
CL Tree MW 31.1 Business Intelligence Wintersemester 2015 / 2016 Stanislav Prokupetz.
Lernfeld 4.
Lernen in der Schule der Zukunft. Wer ist besser und wer wird gewinnen ? Elektronik ( Samsung Tablet) Papier (das Heft) Vertreter der Elektronik: Sam.
EINKOMMEN IN ÖSTERREICH GLEICHBEHANDLUNG - GLEICHSTELLUNG.
Clusteranalyse Wege und Arten Entstanden im Rahmen der Seminararbeit für WS09/10 Betreuer: Prof. Jobst Hoffmann Dr. Tim Hiddemann Aachen, Januar 2010.
Shitstorms Name Fach Lehrkraft: Am. Gliederung Definition „Shitstorm“ Geschichte und Entstehung Die sechs Stufen eines Shitstorms Wer veranstaltet einen.
DOAG SID Data Warehouse
MLDM Übung 8 – IBL 2 Musterlösung.
datengetriebene Marketing-Entscheidungen zu treffen
Die Quantifizierung des Langlebigkeitstrendrisikos unter Solvency II
Schnittstellen.
Meine Zahlen.
Musterlösung zur Klausur "Diskrete Mathematik" vom
Wie werden Banken und Versicherungen in Zukunft genutzt?
Diskrete Mathematik II
Dies ist ein Beispieltext für eine zweizeilige Überschrift
“Die Eisenbahn hat Stiefel an”, von Waldemar Spender
Marie – Reinders – Realschule
11 Gründe, warum Männer Fussball besser finden als Sex:
Dies ist ein Beispieltext für eine zweizeilige Überschrift
Waldorfschule.
Dies ist ein Beispieltext für eine zweizeilige Überschrift
Grundwortschatz Klasse 1 Wörter mit einer Silbe
Raphael Fischer Informatik II - Übung 03 Raphael Fischer
Bedingte Wahrscheinlichkeiten
Übersicht und Benutzung von Sphinx
Am Beispiel Bevölkerungsentwicklung 1991–2045 Tinu Schneider
Gymnasium Neustadt a.d.Waldnaab
Gliederung Einführung Binary Tree Binary Search Tree Binary Heap
Von Diana Braun und Daria Bures
Dies ist ein Beispieltext für eine zweizeilige Überschrift
Die probleme der heUtigen jugend
Dies ist ein Beispieltext für eine zweizeilige Überschrift
DB2 – SS 2019 von Baum allgemein bis B*-Baum
DB2 – SS 2019 von Baum allgemein bis B*-Baum
GLEICH..
 Präsentation transkript:

Biraveenmaks Ponnu Benjamin Zumbrunn decision tree Biraveenmaks Ponnu Benjamin Zumbrunn

Inhalt Was ist ein decision tree? Beispiel & Mathematik Demo ID3 Vorteile und Nachteile Einsatzgebiete Fragen

Was ist ein decision tree? → decision tree ist eine Baumstruktur → Node, Root Node, Leaf Node → Root/Node ist ein Einflusswert → Leaf Node ist die Endgültige Entscheidung

Beispiel & Mathematik (Golf spielen) → Daten aus der Vergangenheit → 3 Einflusswerte, 1 Entscheidung → Outlook: Rainy, Sunny, Overcast → Temp: Hot, Mild , Cool → Humidity: High, Normal → Windy: True, False

Beispiel & Mathematik Die Entropy beschreibt, wie homogen etwas ist. 0 = sehr homogen 1 = sehr inhomogen Entropy für Entscheidung (Target) berechnen

Beispiel & Mathematik 2. Entropy für alle Einflusswerte (Predictors) berechnen. (Häufigkeitstabelle von zwei Attributen)

Beispiel & Mathematik 3. Wichtigste Entscheidung Bestimmen. (höchste Informationsgewinn)

Beispiel & Mathematik 4. Root Node bestimmen. Entscheidung mit der Grössten Gain ist der Root Node.

Beispiel & Mathematik 5. Branches bilden. (Zweig mit Entropie von 0 ist ein Blattknoten)

Beispiel & Mathematik 6. Kinder Nodes und Kinder Branches berechnen. Ein Zweig mit einer Entropie von mehr als 0 muss weiter aufgeteilt werden. Dafür den ganzen Prozess wiederholen.

Beispiel & Mathematik 7. Kompletter Baum

Beispiel & Mathematik Ein Entscheidungsbaum kann leicht in ein Regelwerk transformiert werden, indem man vom Wurzelknoten auf die Blattknoten eins nach dem anderen abbildet.

Beispiel Titanic → Demo Wer hatte die grössten Überlebenschancen? Entscheidungswert: überlebt Passagierklasse: first, second, third, crew Alter: Erwachsen, Kind Geschlecht: männlich, weiblich → Demo

Resultate Titanic Wer hatte die grössten Überlebenschancen? Männliche Kinder der ersten Klasse: 100% Frauen der ersten Klasse: 97.2% Weibliche Kinder der zweiten Klasse: 100%

Voraussagen mit Decision Tree Neue Daten, ohne Information, wer überlebt hat

Entstehung Decision Tree “Wer bin ich?” Person? Männlich? Vorname Stefanie? … → Grösster Informationsgewinn Titanic: Geschlecht

ID3 → grösster Informationsgewinn Loop: Weise A das geeignetste Attribut zu, also wo der grösste Informationsgewinn liegt Bestimme A als das Entscheidungsattribut für einen Knoten Für jeden Wert, der A annehmen kann, erstelle einen Kindsknoten Teile die Werte auf die Blätter auf Falls Werte perfekt klassifiziert sind: anhalten (oder: falls keine Attribute mehr vorhanden sind) Sonst: gleicher Durchgang auf Kindsknoten

Vorteile → Einfache Regeln, klar ableitbar → Interpretierbarkeit und Verständlichkeit → Übersichtlich

Nachteile und Probleme → Baum kann bei vielen Klassen sehr komplex werden → Endlose Attribute: Alter < 50, < 45, < 44, < 44,5 … → Wann halten wir ID3 an? Bsp: gleiche Werte der Attribute, aber anderes Resultat (2 Männer erster Klasse, nur einer überlebte)

Einsatzgebiete Versicherungen: Bestimmen von Risikogruppen und Risikofaktoren Banken: Bewertung und Analyse von Aktien Marketing: Kundenanalyse und Produktanalyse Biologie: automatisches Bestimmen von Arten Medizin: Risikofaktoren für eine Krankheit bestimmen, Patienten-Analyse und Prophylaxe

Fragen

Quellen http://www.saedsayad.com/decision_tree.htm http://www.onlamp.com/pub/a/python/2006/02/09/ai_decision_trees.html https://intelligentjava.wordpress.com/2015/04/28/machine-learning-decision-tree/ https://orange.biolab.si (Tool)