6. Tagung Mobilitätsmanagement von Morgen

Slides:



Advertisements
Ähnliche Präsentationen
Algorithmen und Datenstrukturen
Advertisements

Wissensanalyse von Aufgaben mit TKS Eine Methode zur Problemlösung
V-Modell XT - Ein Überblick
1 Hermann Maurer, TU Graz Vortrag für die e-Learning Conference Konferenz Eisenstadt, 1. Oktober 2013 Wir brauchen mehr zitierbares Material im Web … die.
Genetische Algorithmen für die Variogrammanpassung
„Wissenschaftliches Arbeiten“ Was soll denn das sein?
Dienste- und Mobilitäts-modellierung für Mobilfunknetze
Heute Prüfung der Produkt-Moment Korrelation
Klassische Testtheorie
Der Binomialtest Man habe einen wahren Anteil P.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (15 Hashverfahren: Verkettung der Überläufer) Prof. Th. Ottmann.
Optimale Kombination mehrerer Datenquellen durch Kriging
Partikel-Anzahl- und CO 2 -Flüsse über dem Stadtgebiet von Münster, NW Deutschland F. Dahlkötter 1*, F. Griessbaum 1, A. Schmidt 2, and O. Klemm 1 1 AG.
10.Gravitationstheoretischer Ansatz
Erkennung von Gesichtsausdrücken anhand von Bildbewegungen (Irfan Essa & Alex Pentland) Hauptseminar Smart Environments Joachim Biggel
Institut für Kartographie und Geoinformation Prof. Dr. Lutz Plümer Geoinformation II Vorlesung In welcher Masche liegt der Punkt p?
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Lohnentwicklung im Lebenszyklus
Sportwissenschaftliche Forschungsmethoden SS Statistischer Test.
Tutorium
Untersuchung von Transport von Luftschadstoffen und Geruchsstoffen im deutsch-tschechischen Grenzgebiet mittels Trajektorien - Winterhalbjahr 2001/02 Geruchsdaten.
Wiederholung und Beispiele
Einführung in die Metaanalyse
Eigenschaften der OLS-Schätzer
Probleme der Modellspezifikation
Daten auswerten Boxplots
Christian Schulz, Marc Thielbeer, Sebastian Boldt
Ausgleichungsrechnung I
Ausgleichungsrechnung II
Ausgleichungsrechnung I
Framework for Integrated Test (FIT)
Institutionelles Asset Management
Seminar: Datenerhebung
Die Poisson-Verteilung: Mittelwert und Standardabweichung
Messwerte, Verteilung, Histogramm, Mittelwert und Standardabweichung
Mittelwert und Standardabweichung
Die Gaußverteilung.
IT-Projektmanagement SS 2013 Prof. Dr. Herrad Schmidt
Statistik: Mehr zur Regression.
STATISIK LV Nr.: 1375 SS März 2005.
Grundlagen der Messtechnik
Der Zentralwert.
Lernen durch Vergleiche
Verkehrsverbund Steiermark August Entwicklung Start des Verkehrsverbundes am im Großraum Graz Rund 60 Verkehrsunternehmen Verbundpartner.
Untersuchung des Komfortempfindens von Passagieren im realen Flugversuch: Einfluss von Lärm in der Kabine Sibylle Pennig, Daniel Rooney, Martin Vejvoda.
Statistik – Regression - Korrelation
Positioning in mobile Ad-Hoc Networks Analysis of Quantization-Effects in Distributed Positioning-Algorithms in Mobile Ad-Hoc Networks Semester Arbeit.
Stochastik ganz kurz Beispiel diskret Würfelwurf Beispiel stetig
Variogramme und Kriging
Seminar Zur Geoinformation
setzt Linearität des Zusammenhangs voraus
2.5.2 Multivariate Monte Carlo-Simulation
VERWENDETE DATENQUELLEN
K. Desch - Statistik und Datenanalyse SS05
K. Desch - Statistik und Datenanalyse SS05
K. Desch - Statistik und Datenanalyse SS05
Der Wiener Prozess und seltene Ereignisse
Deskriptive Statistik, Korrelationen, Mittelwertvergleiche, Graphiken
RDA-Schulungen im OBV Erscheinungsdatum AG RDA Schulungsunterlagen – Modul 5 B: Erscheinungsdatum| Stand: Aleph-Version | CC BY-NC-SA2.
Folie 1> Vortrag > Autor Dokumentname > Datum segmentation Changepoint detection Structural breaks Break points Regime switching Detecting disorder.
Folie 1 Reiner Buzin, BfS + Marcus Briesen, disy, DOAG „Spatial Day“, Montag, 30. Mai 2016 GISterm Integration von disy GISterm in IMIS.
- Seite 1 TIME INTELLIGENCE ® by Zeichenrand – Löschen! Titel.
Heureka Consult Projektergebnisse in Berlin: Ortung und Indoor-Navigation Dr. Matthias Schmidt (Fraunhofer FOKUS) Berlin, 28. April 2016.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
- Seite 1 TIME INTELLIGENCE ® by Titel.
Testtheorie (Vorlesung 14: ) Testtheorie allgemein:  Ziele und Inhalte der Testtheorie:  Beurteilung der Eigenschaften von Tests  Speziell: Güte.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
Eagle Airline Frei wie ein Vogel.
3 Gesamtbeschreibung empirischer Verteilungen.
OpenStreetMap und die Wikipedia
 Präsentation transkript:

6. Tagung Mobilitätsmanagement von Morgen > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion 6. Tagung Mobilitätsmanagement von Morgen

Übersicht Ein Exkurs in 4 Folien: Portfolio-Optimierung(!) > Vortrag > Autor • Dokumentname > Datum Übersicht Ein Exkurs in 4 Folien: Portfolio-Optimierung(!) Eine Analogie zur Fusion von Verkehrsinformationen Behandlung von systematischem Bias Erprobung des Ansatzes im FP7 EU-Projekt SimpleFleet Ergebnisse Zusammenfassung

Exkurs: Portfolio-Optimierung nach Harry Markowitz (1) > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Exkurs: Portfolio-Optimierung nach Harry Markowitz (1) Ausgangspunkt: 𝑛 Anlagen (z.B. Aktien, Anleihen o. sonst. Wertpapiere) mit ihren erwarteten Renditen 𝜇 𝑖 ,i=1,…,𝑛 (z.B. aus historischen Kursschwankungen errechnet) Weitere Notation: Ein Portfolio ist ein Vektor 𝑤 𝑇 = 𝑤 1 𝑤 2 … 𝑤 𝑛 der Anteile der 𝑛 Anlagen Rendite der 𝑖ten Anlage: 𝑋 𝑖 , Rendite des Portfolios: 𝑋 = 𝑖=1 𝑛 𝑤 𝑖 𝑋 𝑖 mit 𝑖 𝑤 𝑖 =1 (Symmetrische) (𝑛×𝑛)-Matrix der Kovarianzen der Renditen: 𝐶

Portfolio-Optimierung nach Harry Markowitz (2) > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Portfolio-Optimierung nach Harry Markowitz (2) Risiko durch Kursschwankungen bzw. Streuung des Kurses Maß: Varianz, also Var 𝑋 Ziel (d. Optimierung): Portfolio minimaler Varianz, mit oder ohne vorgegebene (gewünschte) Portfolienrendite Ohne vorgegebene Portfolienrendite: Optimierungsproblem mit Randbedingung 𝑖 𝑤 𝑖 =1 : Var 𝑋 = 𝑤 𝑇 𝐶 𝑤 ⟶ min! 𝑤 ∈ ℝ 𝑛

Portfolio-Optimierung nach Harry Markowitz (3) > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Portfolio-Optimierung nach Harry Markowitz (3) Lösung des Optimierungsproblems (nach etwas längerer Rechnung, z.B. mit Lagrange-Multiplikatoren): 𝑤 ∗ ≔ 𝐶 −1 1 1 𝑇 𝐶 −1 1 Lösung des Optimierungsproblems mit vorgegebene Portfolienrendite: zusätzliche Randbedingung, ansonsten aber relativ ähnlich Das sparen wir uns hier, siehe aber Effizienzlinie bzw. „effizienter Rand“ auf nächster Folie

Risiko-Rendite-Diagramm für 2 riskante Anlagen > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Risiko-Rendite-Diagramm für 2 riskante Anlagen Quelle: Wikipedia „2 riskante WP Markowitz“ von Common Licence mattyballaballa.

> Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Der Grund für den Exkurs: Eine Analogie zur Fusion v. Verkehrsdaten (1) Korrelation von Datenquellen Analogien Datenquellen korrelieren miteinander aufgrund der sie gemeinsam umgebenden Verkehrsbedingungen Portfolio-Optimierung Fusion v. Verkehrs-informationen 𝑛 Anlagen 𝑛 Datenquellen Aktuelle Anlagenrendite Verkehrsdaten-Messung Anlagenrisiko Varianz als Risiko stark vom Erwartungswert abweichender Messungen Portfolienrendite Datenfusions-Ergebnis Korrelation der Renditen Korrelation der Datenquellen Minimum-Varianz-Portfolio ‚Ergebnis der Weighted-Mean‘ o. Minimum-Varianz-Datenfusion

Analogie zur Fusion v. Verkehrsdaten (2) > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Analogie zur Fusion v. Verkehrsdaten (2) Das Problem der Wahl der optimalen Gewichte einer statistischen ‚Weighted-Mean‘-Datenfusion 𝑋 = 𝑖=1 𝑛 𝑤 𝑖 𝑋 𝑖 𝑖 𝑤 𝑖 =1 Var 𝑋 = 𝑤 𝑇 𝐶 𝑤 ⟶ min! 𝑤 ∈ ℝ 𝑛 kann also mit genau derselben Notation und demselben mathematischen Apparat wie bei der Portfolio-Optimierung angegangen werden!

Behandlung von systematischem Bias (1) > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Behandlung von systematischem Bias (1) Bisherige Annahme: Fusionsergebnis und Datenquellen sind „unverzerrte“ bzw. erwartungstreue Schätzer, d.h. Erwartungswerte entsprechen dem wahren Fusions- bzw. Messergebnis In der Praxis: Auftreten v. Bias Wünschenswert: Bias-Korrektur, nur wie? Erste Idee: Bias für jedes Straßensegment und jede betrachtete diskrete Zeitscheibe aus historischen Messungen absolut quantifizieren und geeignete Ausgleichsrechnung durchführen Nachteil: Viel zu hoher Aufwand!

Behandlung von systematischem Bias (2): Korrekturfaktoren > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Behandlung von systematischem Bias (2): Korrekturfaktoren Zweite Idee: Stattdessen nur *relative* Verzerrungen für jede der 𝑛 Datenquellen schätzen, und dies jeweils (nur) für Klassen von baulich ähnlichen Straßensegmenten, und für jede betrachtete Zeitscheibe: 𝑝 𝑖 = 𝜐 𝜇 𝑖 ,𝑖=1,…,𝑛 wobei 𝜐 die „wahre“ Verkehrsinformation (in der betreffenden Klasse u. Zeitscheibe) ist, und 𝜇 𝑖 der Erwartungswert der 𝑖ten Datenquelle Dann ist 𝔼 𝑝 𝑖 𝑋 𝑖 = 𝜐 𝜇 𝑖 𝔼( 𝑋 𝑖 )= 𝜐

> Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Behandlung von systematischem Bias (3): Schätzung der Korrekturfaktoren Wie schätzt man nun die 𝑝 𝑖 , 𝑖=1,…,𝑛? Ansatz: 𝑝 𝑖 ≈ 𝑝 𝑖 ∗ = 1 𝑚 𝑘=1 𝑚 𝑟 𝑖 (𝑘) 1 𝑚 𝑘=1 𝑚 𝑚 𝑖 (𝑘) also Schätzung als relative Abweichung(en) einer „mittleren“ gemessenen Verkehrslage von einer „mittleren“ Referenz-Verkehrslage. Dies wird für jede Klasse von baulich ähnlichen Straßensegmenten und jede Zeitscheibe gesondert berechnet (Vereinfachende) Annahme hierbei ist, dass die relativen Verzerrungen innerhalb dieser Klassen im Wesentlichen konstant bleiben

Behandlung von systematischem Bias (4): Bias-Korrektur für FCD > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Behandlung von systematischem Bias (4): Bias-Korrektur für FCD FCD-Quellen „Selbst-Evaluierungsansatz“ Referenzdaten: tatsächliche Trajektorien-Reisezeiten Gemessene Daten: von der FCD-Prozessierung für genau dieselben Trajektorien zur selben Zeit berechneten Reisezeiten Berechnete Trajektorien-Reisezeit: Summe der berechneten mittleren Link-Reisezeiten für die Links der jeweiligen Trajektorie

> Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Behandlung von systematischem Bias (5): Zeitscheiben und „historische Kovarianzen“ Kovarianz aus 𝑛 Verkehrs-informationen „Time Of Day“ u. „Day Of Week“-Schema

> Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Behandlung von systematischem Bias (6): Klassen von baulich ähnlichen Straßensegmenten Functional Road Class (FRC) Form of Way (FOW)

Erprobung im EU-Projekt SimpleFleet > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Erprobung im EU-Projekt SimpleFleet Steckbrief: Demo-Cities: Athen, Berlin, Wien Rahmenprogramm: FP7 24 Monate (Mai 2012 – April 2014) Koordinator: DLR Budget: EUR 1,909,815.00 4 Partner aus 3 Ländern: Griechenland Deutschland Österreich 2 Forschungseinrichtungen, 2 KMUs

Erprobung im EU-Projekt SimpleFleet > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Erprobung im EU-Projekt SimpleFleet Eigenschaften „TrafficStore“: Live-Datenströme (FCD) Räumlich-zeitliche Fahrzeug-Bewegungen Algorithmische Toolbox Mapping der Datenströme auf die Karte (“Map-Matching”) Routing von Fahrzeugen Flottenstatistik Daten + Dienste API, SDK Application Framework Business Intelligence

Erprobung im EU-Projekt SimpleFleet: Testszenario > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Erprobung im EU-Projekt SimpleFleet: Testszenario 2 „Low Frequency“ FCD-Systeme in Athen BK Telematics Zelitron Unterschiedliche Charakteristiken Meldefrequenz BK Telematics: im Mittel 0,22 Meldungen pro min Zelitron: im Mittel 1,08 Meldungen pro Minute Flottengröße BK Telematics: ca. 1.500 Fzg. Zelitron: ca. 600 Fzg. Mittlere Anzahl meldender Fzg. In jedem 5-Minuten-Intervall: BK Telematics: 424 Fzg. Zelitron: 399 Fzg. 9.471m langer Abschnitt der griechischen Autobahn A1 in Athen

2 Tests: Offline vs. Online-Usecase > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 2 Tests: Offline vs. Online-Usecase Offline-Usecase: Offline-Berechnung der Fusionsgewichte 𝑤 𝑖 ∗ ,𝑖=1,…,𝑛 für Verkehrsinformationen (hier: Reisezeiten) von 3 Monaten (Dez. 2012 bis Feb. 2013) Offline-Fusion der 𝑛 Datenquellen mit diesen Gewichten für dieselben Verkehrsdaten Online-Usecase: Zunächst wieder Offline-Berechnung der Fusionsgewichte 𝑤 𝑖 ∗ ,𝑖=1,…,𝑛 für Verkehrsinformationen von 3 Monaten Online-Fusion der 𝑛 Datenquellen mit diesen Gewichten für Verkehrsdaten aus einer neuen, aktuellen Periode (hier: korrespondierende 3 Monate des Folgejahres, also Dez. 2013 bis Feb. 2014) Vorgehen entspricht i.W. der Theorie Heuristisches Vorgehen 𝑋 = 𝑖=1 𝑛 𝑤 𝑖 𝑋 𝑖

Ergebnisse (1): Mittlere Standardabweichung auf den Links > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Ergebnisse (1): Mittlere Standardabweichung auf den Links Offline-Usecase Online-Usecase

Ergebnisse (2): Kumulierte Wahrscheinlichkeiten (CDF) > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Ergebnisse (2): Kumulierte Wahrscheinlichkeiten (CDF) Offline-Usecase Online-Usecase

Ergebnisse (3): Mittlere Reduktion der Standardabweichung > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Ergebnisse (3): Mittlere Reduktion der Standardabweichung Offline Usecase Online Usecase Optimal Naiv Reduktion f. Quelle 1 (%) 32,3 7,0 11,3 9,8 Reduktion f. Quelle 2 (%) 36,5 12,8 13,5 12,0

Ergebnisse (4): Systematischer Bias („Vorher Nachher“) > Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Ergebnisse (4): Systematischer Bias („Vorher Nachher“) Offline Usecase Online Usecase Bias f. Quelle 1 (%) 2,32 0,11 Bias f. Quelle 2 (%) 4,28 6,90 Bias f. Fusions-Ergebnis (%) -0,73 2,83

> Verbesserung der Qualität von Verkehrsdaten durch ‚Weighted-Mean‘-Datenfusion > R. Ebendt > 21. Oktober 2015 Zusammenfassung Statistischer Ansatz zur Fusion von Verkehrsinformationen „Minimum-Varianz-Fusion“ analog zur Portfolio-Optimierung Integrierte (heuristische) Korrektur von systematischen Fehlern (Bias) Prototypisch im FP7 EU-Projekt SimpleFleet implementiert und erprobt f. Offline-Usecase Online-Usecase Ergebnisse: Deutliche Varianzreduktion des Fusions-Ergebnisses im Offline-Usecase Auch im heuristisch behandelten Online-Usecase ist die Varianzreduktion noch signifikant höher als bei einer naiven Fusion (d.h. als bei 𝑤 𝑖 ≔ 1 𝑛 ) Etwaige systematische Fehler werden auch durch die Fusion nicht weiter erhöht

Das war es auch schon… Vielen Dank! Noch Fragen? > Vortrag > Autor • Dokumentname > Datum Das war es auch schon… Vielen Dank! Noch Fragen?