Real Time Analysis in Real Time

Slides:



Advertisements
Ähnliche Präsentationen
Grundlagen des A*-Algorithmus und Anwendung in der Routenplanung
Advertisements

Informatik II: Algorithmen und Datenstrukturen SS 2013
Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Rekursion: Rekurrenz: Algorithmen rufen sich selbst (rekursiv) auf.
Falls Algorithmen sich selbst rekursiv aufrufen, so kann ihr Laufzeitverhalten bzw. ihr Speicherplatzbedarf in der Regel durch eine Rekursionsformel (recurrence,
Christian Schindelhauer
Algorithmen und Komplexität Teil 1: Grundlegende Algorithmen
Dr. Brigitte Mathiak Kapitel 10 Physische Datenorganisation.
SST - Sequence Search Tree
3. Kapitel: Komplexität und Komplexitätsklassen
2. Kapitel: Komplexität und Komplexitätsklassen
Wie lösen wir ILPs exakt?
Simulated Annealing Marco Block & Miguel Domingo Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken X Christian Schindelhauer
Genetische Algorithmen
Sortierverfahren Richard Göbel.
FH-Hof Deadlocks Richard Göbel. FH-Hof Deadlock - Definition Menge von Prozessen ist an einem Deadlock beteiligt: wenn jeder Prozess in dieser Menge auf.
Sortierverfahren Richard Göbel.
Spektrale Analysen in EMU-R: eine Einführung
Übung 6.1Turing-Maschine 1.Machen Sie sich mit der Funktionsweise des Busy Beaver-Programms vertraut Vollziehen sie die 11 Schritte der ersten Turing-Tabelle.
Heuristiken Automatic Problem Solving Institut für Informatik
Algorithmentheorie 6 – Greedy-Verfahren
Prof.Dr.S. Albers Prof. Dr. Th. Ottmann
Algorithmen und Datenstrukturen
Friedhelm Meyer auf der Heide 1 HEINZ NIXDORF INSTITUTE University of Paderborn Algorithms and Complexity Algorithmen und Komplexität Teil 1: Grundlegende.
Fehlerstrategien bei Addition
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Materialien zu Übung 9 Bälle in Körbe Ranged.
FH-Hof Analyse des R-Baums - Teil 1 Richard Göbel.
Entwicklung verteilter eingebetteter Systeme - Einführung
Gisela Kubon-Gilke EH Darmstadt Mastermodul 3 Soziale Arbeit SoSe 2013
Effiziente Algorithmen
Powerpoints bestellen-Mail an Mit diesem Programm können Sie die Anzahl der Tage Ihres Resturlaubs berechnen. Hier klicken!
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Abschlussvortrag zur Studienarbeit
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Fundamente der Computational Intelligence (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering Wintersemester.
Die Information Bottleneck Methode
Fundamente der Computational Intelligence (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering Wintersemester.
Komplexität von Algorithmen
Parallelisierung für Multiprozessor-Maschinen
Fourier-Analyse und technologische Anwendungen
Statistik – Regression - Korrelation
Entscheidungstheorie für Unentschlossene Indecision Theory.
Institut für Informationssysteme Technische Universität Braunschweig Institut für Informationssysteme Technische Universität Braunschweig Verdrängung von.
Mit diesem Programm können Sie die Anzahl der Tage Ihres Resturlaubs berechnen. Hier klicken! Hinweis.
6./ DGfZ/GfT-Gemeinschaftstagung, Weihenstephan Einfluss der genetischen Architektur auf die empirische Genauigkeit der genomischen Zuchtwertschätzung.
Algorithmen und Datenstrukturen Prof. Dr. Ralf Möller Universität zu Lübeck Institut für Informationssysteme Stefan Werner (Übungen) sowie viele Tutoren.
LocoMotif Professor Dr. Katharina Zweig Wolfgang Schlauch Mareike Bockholt TU Kaiserslautern.
Die klassischen Methoden der historisch-vergleichenden Forschung Universität Zürich Soziologisches Institut Seminar: Methoden des internationalen Vergleichs.
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
Prognose von Zeitreihen Hans Nübel Hans Nübel Prognose von Zeitreihen Aufbau 1.Motivation 2.Holt-Winters-Verfahren 3.Prognose.
Lineare Optimierung Nakkiye Günay, Jennifer Kalywas & Corina Unger Jetzt erkläre ich euch die einzelnen Schritte und gebe Tipps!
 Präsentation transkript:

Real Time Analysis in Real Time Schedulability Real Time Analysis in Real Time

Problembeschreibung Performanzanalyse in beschränkter Zeit Iteratives Verfahren mit Schedulability Analysen Hier: SPP Schedulability Analyse in beschränkter Zeit Wie die Zeit beschränken? Welche Faktoren Beeinflussen die Laufzeit? Optimierungen und ihr Einfluss auf die Laufzeit Möglichkeiten der Einflussnahme auf die Laufzeit Ableitung einer Analysestrategie

Anatomie Busy-Window Algorithmen Betrachte Aktivierung N=0 Wähle N = letzter vom Burst Untere Schranke für Busy Window als Initialwert Busy-Window = Initialwert (0) Große Bursts Preemption von höher prioren Tasks Beschränke Anzahl Durchläufe Berechne Busy-Window Mehr Preemptions? ja Weitere Aktivierungen im Busy Window? N+=1 ja

Einfluss von Last und Jitter Konstante WCET Jitter = 0 Periode T0 -> WCET T0 Viele Preemptionsschwierig Konstante WCET Konstante Periode Jitter 0->1000*P Großer Jitter nur schwierig für zu Analysierenden Task

Empirische Analyse - Ansatz Generiere Taskset: Anzahl Tasks gleichverteilt [2..MAX_Tasks] WCET gleichverteilt [1..MAX_WCET] Periode gleichverteilt [1..MAX_PER] Jitter gleichverteilt [0..MAX_JIT] Analysiere WCRT des niedrig priorsten Tasks Metriken: Maximale Anzahl Busy-window Vergrößerungen (pro Aktivierung) Anzahl zu Analysierender Aktivierungen Gesamtzahl Busy-Window Vergrößerungen

Analysedauer zufällig generierter Tasksets Kein Jitter Analyse meist einfach Großer Jitter Analyse schwierig Großer Jitter mit Optimierungen Gibt Hoffnung Aber: nicht Anwendbar, wenn minD

Minimalabstand als Parameter Genauere (= kleinere) WCET Größerer Akzeptanzfaktor Beeinflussbar per Shaper im System Zerstört Burst-Optimierung Längere Analysen

MinD Verwenden Generisches Beispiel – Gain Exploriert über minD 0Periode Analysedauer in Iterationen für obiges Beispiel

Minimalabstand als Parameter Genauere (= kleinere) WCET Größerer Akzeptanzfaktor Beeinflussbar per Shaper im System Zerstört Burst-Optimierung Längere Analysen Verkürzt Analysedauer! (?)

Analysedauer, empirisch Viele Versuche mit verschiedenen minD Setze minD zu x%Periode Exploriert über x Durchschnitt, Standardabweichung Betrachtung von minD nur komplex für minD < 0,2 * P

Komplexe minD Probleme Abschätzen Betrachte Aktivierung N=0 Busy-Window = Initialwert Berechne Busy-Window Mehr Preemptions? ja Weitere Aktivierungen im Busy Window? N+=1 ja

Komplexe minD Probleme Abschätzen Betrachte Aktivierung N=0 Busy-Window = Initialwert N = maxBurst Dmin = 0 Berechne Busy-Window N>K? Mehr Preemptions? ja Weitere Aktivierungen im Busy Window? N+=1 ja

Exploration über verschiedene K Versuch wie oben Nur Average K maximale Anzahl mit minD Rot: ohne minD zu beachten Keine Aussage: Genauigkeit Noch Möglich: Genauigkeit der einzelnen Analysen plotten – irgendwie: WCRT1-WCRT2 = Ungenauigkeitsfaktor.

Genauigkeit Versuch wie oben Nur Average K maximale Anzahl mit minD Ohne MinD = 0

Erkenntnisse bis jetzt Schwierige Probleme Große Last mit hochfrequentem höherpriorem Task Großer Burst mit minD << P und K groß Fragen: Wie K wählen? Wie viele Iterationen rechnen? Was für Ergebnisse geben schwierige Probleme?

WCRT/WCET zu # Zyklen MaxTotalCycles = 50 fängt bei K< 20 die meisten Fälle mit WCRT/WCET < 500 WCRT/WCET = 500 (will man nicht) K=10: Shortcut-Effekt?  Selbst für große K kann maxTotalCycles <150 gewählt werden

Abstrakt gesehen Infeasible wg. Latenz-Constraints Existierende Probleme WCRT / WCET Tighter Constraints K -> 0 Oder auch nicht: 2 Tasks, Hochpriorer: kurze WCET, hohe frequenz, niederpriorer: lange wcet – niedrige frequenz: Wird durch initialWindow gekillt. Beweis: TBD – Ist an sich nicht so, da lange Analysedauer nur bei vielen Preemptions -> WCRT >> WCET Ansonsten lange analysedauer bei großem Backlog und minimum Distance -> über K regelbar, aber auch immer WCRT >> WCET (mindestens Faktor # Backlog) eher Multiplikativ mit Number Preemptions. K -> ¥ 500 Nicht Existierende Probleme Analysedauer 200

Abbruch für WCRT > Pfadlatenz Infeasible wg. Latenz-Constraints Existierende Probleme WCRT / WCET K -> 0 K -> ¥ Nicht Existierende Probleme Tradeoff: Analysedauer – Genauigkeit über K Analysedauer Analysen können relativ früh abgebrochen werden

Strategie für die lokale Analyse Schedulability Analyse in O(n) -> siehe Literatur WCRT Analyse nur für Tasks, die Latenz-Constrained sind Wenn WCRT > Gesamtlatenz abbrechen Alle Abkürzungen von oben, K wählbar. (für schnelle Analysen wähle K=0) Gedanken: Bei Latenz-Beschränkungen kann schnell abgebrochen werden Andere, evtl. schwierige Probleme durch schedulability Analyse erschlagen -> Schwierig zu analysierende Tasks wahrscheinlich nicht Latenz-Kritisch.

Conclusion Goal: Perform SPP Analysis in bounded number of iterations Use Optimizations of Sjödin/Hanson Esp. Init Burst Top-Down Analysis of tasks (not further investigated) Use minD shortcut Shaper will help in Analysis complexity Tradeoff – Accuracy vs # of analyzable problems possible Hard Problems will produce very large WCRTs Only analyse Tasks that have a latency constraint WCRT > constraint is abort-condition for analysis