Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Quality of Service in ATM

Ähnliche Präsentationen


Präsentation zum Thema: "Quality of Service in ATM"—  Präsentation transkript:

1 Quality of Service in ATM
Prof. Dr. W. Riggert

2 Inhalt Das Tutorial ist in vier Abschnitte gegliedert.
Abschnitt 1-3 behandeln die prinzipielle Aspekte, der verbleibende Abschnitt widmet sich Anwendungsapekten. Ein weiteres Tutorial wird sich mit Queuing und Pufferung beschäftigen. Was versteht man unter Quality of Service ? Wie wichtig ist es ? Wie mißt man sie ? Wann implementiert man sie ? Prof. Dr. W. Riggert

3 Neue Herausforderungen
Geschäftskritische Anwendungen Informationsverteilung (Multicast) Intranet und Groupware PictureTel Datenmengen Verfügbarkeit und Antwortzeit Unvorhersehbarer Datenfluß Prof. Dr. W. Riggert

4 anwendungstransparent
QoS: Beschreibung Rechner nutzen ein Netzwerk um miteinander zu kommunizieren. Die Anwendungen benötigen dafür einen gewissen Anteil verfügbarer Bandbreite. In Abhängigkeit vom Typus der Applikation kann der Datenverkehr Zeitschranken unterliegen, deren Einhaltung durch die Konkurrenz mit anderen Rechnern erschwert wird. Nur im falle exklusiver Punkt-zu-Punkt Verbindungen lassen sich spezifische Übertragungsparameter gewährleisten Rechner A Netz : nutzer- und anwendungstransparent Rechner B Prof. Dr. W. Riggert

5 QoS: Bedeutung Die Netze der Vergangenheit berücksichtigten keine Einhaltung spezifischer Parameter wie Bandbreite, Verzögerung oder Varianz der Verzögerung. Das IP-basierte Internet sichert z.B. nur best-effort-Dienste zu. Bisher spielten temporäre Restriktionen keine Rolle, allein die Zuverlässigkeit stand im Vordergrund. Internetnutzer in Europa kennen den Effekt, daß die Geschwindigkeit des Netzes nachmittags sinkt, wenn in den USA die Arbeitszeit beginnt. ? Prof. Dr. W. Riggert

6 QoS : Anwendungssicht Die Frage nach QoS tritt auf, wenn mehrere Applikationen um die Ressource Bandbreite konkurrieren. Ein Filetransfer oder ein Web-Browser benötigt zwar hohe Übertragungskapazitäten, sein Ablauf ist aber nicht zeitsensitiv. Eine Sprachverbindung hingegen basiert auf geringer Bandbreite aber hohen Qualitätsmerkmalen. Verschärft wird diese Situation, wenn beide Anwendungen auf den gleichen Rechner laufen. Anwendung Anwendung 2 Anwendung Anwendung 2 geringe Bandbreite, zeitsensitiv hohe Bandbreite verzögerungstolerant Prof. Dr. W. Riggert

7 QoS : Serviceebenen Priorisierte Anwendungen mit garantierter Bandbreite Konventionelle Anwendungen nach dem Best-Effort-Schema Anwendungen mit Dienstgüteanforderungen Prof. Dr. W. Riggert

8 QoS : Vorzüge von ATM Selbst hartnäckige Gegner von ATM müssen einräumen, daß es die einzige Technologie ist, die von Grund auf für QoS-Merkmale konzipiert ist : Das Switchingkonzept erlaubt die Zuweisung expliziter Bandbreite an die Rechner. Die feste Zellgröße gewährleistet die Einhaltung von Verzögerungsvorgaben. Der verbindungsorientierte Charakter gestattet die Festlegung von Übertragungsparametern auf dem Weg durch das Netz und ermöglicht die Überprüfung deren Einhaltung Switching-Technologie Übertragungseinheit fester Größe Verbindungsorientiertheit Standardimplementation von QoS-Parametern Prof. Dr. W. Riggert

9 QoS : Eigenschaften Um die Diensgüte einer Übertragung zu beschreiben, dienen vier Parameter : Bandbreite Verzögerung Zuverlässigkeit Kosten die eine sehr spezifische Abbildung in die ATM-Metrik besitzen. Bandbreite Peak Cell Rate (PCR) Sustained Cell Rate (SCR) Minimum Cell Rate (MCR) Verzögerung Cell Transfer Delay (CTD) Cell Delay Variation (CDV) Zuverlässigkeit Cell Loss Ratio (CLR) Kosten pro virtuellem Kanal Prof. Dr. W. Riggert

10 ATM-Verkehrsvertrag Um eine Verbindung über das Netz aufzubauen, die eine bestimmte Dienstgüte gewährleistet, müssen alle beteiligten Rechner der Einhaltung der daran geknüpften Merkmale zustimmen. Diese Art des Vertrages wird zwischen den ATM-Endstationen ausgehandelt. Im Falle der Beteiligung von Ethernet/Token Ring-Stationen sieht der Ablauf anders aus. ATM definiert vier Basisverträge, die eine allgemeine Einordnung der Anforderungen einer Verbindung erlauben. Dennoch könnte eine Verbindung keiner dieser Kategorien angehören und seine eigenen QoS-Parameter festlegen. Prof. Dr. W. Riggert

11 Constant Bit Rate (CBR)
Eine CBR-Verbindung unterstützt Anwendungen mit konstantem Bandbreitenbedarf. Hierunter fällt unkomprimierte Sprache mit 64 Kbit/s. Der CBR-Typ wird auch für WAN-Strecken verwendet, wenn E1 oder T3 Übertragungswege über einen ATM-Backbone geführt werden. Der Bandbreitenbedarf wird durch einen Parameter, die Peak Cell Rate, beschrieben. ABR UBR VBR CBR Prof. Dr. W. Riggert

12 Variable Bit Rate (VBR)
Diese Verbindungsart ist speziell für variable Bandbreitenanforderungen konzipiert, die sich durch drei Parameter charakterisieren lassen : Peak Cell Rate Sustained Cell Rate Maximum Burst Size Damit eignet sich dieses Konzept besonders für Sprach- und Videoübertragungen. Für Realtime-Anwendungen wie Videokonferenzing kommt als weiterer Parameter die Cell Delay Variation hinzu. ABR UBR VBR CBR Für unvorhergesehenen Verkehr, der ein bestimmtes Maximum und eine bestimmte Dauer nicht über- schreiten darf. Prof. Dr. W. Riggert

13 Unspecified Bit Rate (UBR)
VBR bildet die Erfordernisse des normalen LAN-Verkehrs nicht ausreichend ab, da das Bandbreitenausmaß nicht vorhersagbar ist und die Gefahr besteht, die Maximale Burst Size zu verletzen. UBR versucht diese Gefahr zu bannen, indem es den Bandbreitenrest in „best-effort“-Art nutzt. Werden UBR-Verbindungen überlastet, führt dies zu steigenden Puferzeiten der Zellen. Bei Pufferüberlauf werden einfach Zellen verworfen ABR UBR VBR CBR Prof. Dr. W. Riggert

14 Available Bit Rate Das ABR-Verfahren wurde entwickelt, um UBR-Verbindungen mit einer Datenflußkontrolle zu versehen. Anstelle des Auftretens von Überlast, versuchen die ATM-Switches proaktiv zu reagieren und reduzieren die Übertragungsrate analog zum Window-Mechanismus in TCP. ABR UBR VBR CBR Prof. Dr. W. Riggert

15 ATM-Queuing Zur Abwicklung von Verbindungen mit unterschiedlichen Verkehrstypen benötigt ATM eine Prioritäts-Queuing. CBR genießt höchste Priorität, da die Daten sensitiv hinsichtlich der Variation der Zellverzögerung sind, daran schließt sich der VBR-Verkehr aufgrund seiner möglichen Realtime-Anforderungen an. ABR und UBR sind für diesen Gesichtspunkt als unkritisch einzustufen. Prof. Dr. W. Riggert

16 ATM-Verkehrsparameter
ATM spezifiziert für jeden Verbindungstyp die den zugehörigen Zellfluß charakterisierenden Parameter Prof. Dr. W. Riggert

17 Verkehrsmanagement ATM als verbindungsorientierte Technologie ist gezwungen, Funktionen für das Akzeptieren oder Verweigern einer Verbindung bereitzustellen. Dabei darf eine neue Verbindung nur zugelassen werden, wenn jeder betroffene Netzknoten über ausreichend Ressourcen verfügt und keine Dienstgütevereinbarungen anderer Verbindungen verletzt. Prof. Dr. W. Riggert

18 Dienstklassen und Managementfunktionen
Eine Verbindung zwischen den einzelnen Dienstkategorie und die sie unterstützenden Verkehrsmanagementfunktionen stellt folgende Tabelle her : Prof. Dr. W. Riggert

19 Traffic Shaping Traffic Shaping in Form einer Verstetigung des Verkehrsmusters ist nützlich, weil der normale Datenstrom weitgehend unvorhersehbar ist. Burst Traffic ist aber gerade die Ursache für Pufferüberläufe, Paketverlust und variierende Verzögerung der Paketweiterleitung. Das Ziel besteht daher darin, den Datenstrom zu glätten. Aktueller Datenstrom Shaper Geglätteter Datenstrom Traffic shaping: Um dieses Muster einzuhalten dient der ‘Leaky bucket algorithm’, der die Spitzen-Durchschnitsrate und die Burstgröße begrenzt Prof. Dr. W. Riggert

20 Leaky Bucket Konzept (leckender Trichter)
Zur Durchführung der im Verkehrsvertrag hinterlegten Dienstgüten bedient sich ATM einer Menge von Algorithmen, die innerhalb jeden Knotens ausgeführt werden und die die Korrektheit des Datenstromes überprüfen. Für CBR, VBR-rt, VBR-nrt und UBR-Verbindungen wird eine Übereinstimmung des aktuellen mit dem ausgehandelten Verkehrsfluss durch einen Generic Cell Rate-Algorithmus (GCRA) sichergestellt. Zellen Zelldurchlass nach GCRA, z.B. Token Bucket Trichter Zellen, die dem Verkehrsvertrag entsprechen Prof. Dr. W. Riggert

21 GCRA - Generic Cell Rate Algorithmus
TAT = Theoretische Ankunftszeit ta = Tatsächliche Ankunftszeit der Zelle I = Increment Parameter L = Limit Parameter (Obergrenze für „Klumpen- bildung) TAT:=ta Start Warten auf Zellankunft Y Konforme Zelle TAT < ta ? N Y TAT ’ := ta+I TAT > ta+L ? Nicht-konforme Zelle N TAT’ := TAT Konforme Zelle TAT’ := TAT+I TAT := TAT’ Prof. Dr. W. Riggert

22 Token Bucket : Beispiel eines GCRA
B—Burstgröße p—Token Ankunftsrate Überlauf- ende Token B Zuordnung Token - Zelle Zellankunft Konforme Zellen Prof. Dr. W. Riggert Verkehrsvertrag verletzende Zellen

23 Beispiel Die Zellen erreichen den Trichter in gleichen Zeitabständen. Der Zustand des Trichters unmittelbar vor Eintreffen der Zellen ist mit t- bezeichnet, nach der Zellverarbeitung tritt der Zustand t+ ein. Der Parameter I=1,5 zeigt an, dass die Durchflussgeschwindigkeit geringer als die Ankunftsrate ist und die Trichtergröße zwei Zelleinheiten umfasst. Im Beispiel gilt, dass die Ankunftsrate um die Hälfte über der Abfertigungrate liegt. Prof. Dr. W. Riggert

24 Queue-Management Mehrere Verfahren zur Verwaltung der Ressourcen Bandbreite und Puffer und zur Abbildung von Prioritäten haben sich herauskristallisiert. Dazu zählen in erster Linie Konzepte für ein ausgefeiltes Queuing und Vorschläge zur Vermeidung von Überlast. Paketankunft und Ordnung gemäß zugesicherter Übertragungsmerkmale Prof. Dr. W. Riggert

25 FIFO-Queuing Gemäß dieses Verfahrens werden die einlaufenden Pakete bei Überlast in ihrer Reihenfolge zwischengespeichert und in der gleichen Sequenz an den Folgeknoten weitergeleitet, sobald die Überlastungssituation sich entspannt hat. FIFO macht damit keinen Gebrauch von Prioritäten, einzig die Reihenfolge bestimmt die Bandbreite und Pufferallokation. Quelle 1 1 2 Quelle 2 Sequentialisierung nach zeitlicher Reihenfolge Quelle 3 3 Prof. Dr. W. Riggert

26  des FIFO-Queuing  einfaches Verfahren mit geringem Overhead 
Alle Datenflüsse werden ohne Unterscheidung nach garantierten Merkmale, Burstverkehr oder Best-Effort in die gleiche Schlange eingeordnet. Ohne eine Trennung des Verkehrsflusses kann die Verzögerung nicht wirksam kontrolliert werden. Burstverkehr erzeugt zusätzliche Verzögerungen für die konkurrierenden Übertragungen. Prof. Dr. W. Riggert

27 Prioritäts-Queuing 1 Prioritäts-Queuing versucht, Verkehrsströme durch die Zuweisung von Prioritäten zu differenzieren. Die Differenzierung geschieht über das Netzwerkprotokoll, die empfangenen Interfaces, die Paketgröße oder die Adressen. Jedem Paket wird einer separate Warteschlange zugeordnet, die mit einer bestimmten Priorität verbunden ist. Während der Übertragung räumt der Algorithmus den Schlangen mit der höchsten Priorität absoluten Vorrang ein. Quelle 1 Zellübertragung nach Priorität Quelle 2 Klassifikation in prioritätsabhängige Warteschlangen Quelle 3 Prof. Dr. W. Riggert

28 Prioritäts-Queuing 2 Hoch Mittel Normal Gering Einlaufende Zellen
Übertragungs-Queue Klassifikation nach Priorität Normal Gering Absolutes Prioritäts- Scheduling Warteschlangen nach Prioritäten Prof. Dr. W. Riggert

29  des Prioritäts-Queuing
einfaches Verfahren mit geringem Overhead Verzögerungen sind darauf begrenzt, wie die Klassifikation erfolgt Datenflüsse mit garantierter Priorität werden zulasten andere Übertragungen bevorzugt Verzögerungen summieren sich beim Passieren mehrerer Netzknoten Prof. Dr. W. Riggert

30 Custom Queuing 1 Diese Form des Puffermanagements erlaubt unterschiedlichen Anwendun- gen die Netzressourcen mit einer spezifischen Bandbreite und Verzöge- rung zu nutzen. Erreicht wird dies durch die Zuweisung eines bestimmten Betrages an Warteschlangenkapazität an die einzelnen Paketklassen. Der Algorithmus bedient die einzelnen Schlangen nach dem Round-Robin-Prinzip und sendet innerhalb der Schlangen den reservierten Bandbrei- tenanteil in Form einer konfigurierbaren Bytezahl bevor er zur nächsten Schlange wechselt. Zellübertragung nach Byte Count der Warteschlange Quelle 1 Quelle 2 Klassifikation nach Warteschlange Quelle 3 Prof. Dr. W. Riggert

31 Allokation des Bandbreitenanteils
Custom Queuing 2 2/10 Einlaufende Zellen Übertragungs-Queue 3/10 2/10 Klassifikation nach Priorität 3/10 Bis zu 16 Link-Nutzungs-verhältnis Weighted Round Robin Scheduling (Byte Count-basiert) Allokation des Bandbreitenanteils Interface Puffer Prof. Dr. W. Riggert

32  des Custom-Queuing 
Das Verfahren stellt sicher, dass keine Applikation mehr als den ihr zugesicherten Teil der Bandbreite beanspruchen kann Wie das Priority Queuing ist auch dieser Ansatz statisch und reagiert nicht auf Änderungen der Netzwerkbedingungen Das FIFO-Verfahren innerhalb der Warteschlangen läßt den Verkehr nicht vorhersagbar werden. Prof. Dr. W. Riggert

33 Übertragungsreihenfolge
Fair Queuing Ankunftsreihenfolge Fair Queuing ordnet gemäß der Arbeitsweise des Time Division Multiplexing die einlaufenden Pakete separaten Schlangen zu. Dies entspricht auf dem Flughafen den getrennten Schlangen für jeden Flug. 6 4 1 5 2 3 5 4 1 6 3 2 Übertragungsreihenfolge Prof. Dr. W. Riggert

34  des Fair-Queuing Burst-Verkehr beeinflußt keine anderen Datenströme Gut geeignet für die faire Behandlung vieler Best-Effort-Übertragungen Verlangt pro Datenfluß eine Warteschlange/Klasse Erlaubt keine Differenzierung der Bandbreitenansprüche unterschiedlicher Anwendungen. Prof. Dr. W. Riggert

35 Weighted Fair Queuing 1 Weighted Fair Queuing ordnet den Datenflüssen der einzelnen Sender eine spezielle Queue zu, um Bandbreite und Verzögerungskennzeichen der ausgehandelten Multi-Media-Anwendungen zu garantieren. Die einzelnen auf diese Weise pro Quelle entstehenden Schlangen arbeitet der Router nach dem Round-Robin-Verfahren ab. Fairness leitet sich aus der Überlegung ab, daß eine adäquate Zuteilung der Dienstgüten zu den Erfordernissen der einzelnen Anwendungen erfolgt Anforderungen : “Die Verkehrsverzögerung muss vorhersagbar sein” “Reservierte Datenflüsse müssen eine gewisse Bandbreite und Latenz beanschruchen” Prof. Dr. W. Riggert

36 Weighted Fair Queuing 2 Einlaufende Zellen Übertragungs-Queue
Klassifikation Weighted Fair Scheduling Konfigurierbare Zahl von Warteschlangen Klassifikation des Datenflusses durch: Quell- und Zieladresse Protokoll Port/Anwendung Interface Puffer Gewichte bestimmt durch : Verlangte QoS (IP Precedence, RSVP) Durchsatz (weighted-fair) Prof. Dr. W. Riggert 507 NW’98 © 1998, Cisco Systems, Inc. 36

37  des Weighted Fair-Queuing
genaue Überwachung der Bandbreite genaue Kontrolle der Verzögerung sehr komplexes Verfahren verlangt mehr Einordnung und Sortierung als die anderen Ansätze Die verfügbare Bandbreite hängt aber von der Anzahl simultaner Verbindungen ab und ist damit eine Funktion des Verkehrsaufkommens. Prof. Dr. W. Riggert

38 Überlast-Management Diese Verfahren zielen auf die Vermeidung von Überlast- situationen. Dazu überwachen sie die durchschnittliche Länge der Warteschlange und veranlassen den Sender notfalls zur Reduktion der Übertragungs- leistung. Zwei Verfahren für den paketbasierten Datenverkehr werden eingesetzt : Early Packet Discard Partiel Packet Discard Eigenschaften der Überlast-Algorithmen: Überlastvermeidung Zur Zusammenarbeit mit TCP entworfen Vermeiden globale Synchronisa- tion mehrerer Verbindungen Prof. Dr. W. Riggert

39 Early Packet Discard Die Form der frühzeitigen Paketabweisung verhindert das Überschreiten der Gesamtzahl der Zellen im Output-Buffer durch einen benutzerdefinierten Schwellwert, der die Aufnahme neuer Zellen eines weiteren zugehörigen LAN-Paketes verhindert, da durch die Füllgrenze mit Zellverlusten zu rechnen ist. Der verbleibende Platz wird LAN-Paketen zugewiesen, deren Übertragung bereits begonnen hat, um ihnen die Chance einer erfolgreichen vollständigen Übertragung zu geben. Prof. Dr. W. Riggert

40 Partial Packet Discard 1
Falls trotz EPD die Puffer überlaufen und Zellen verworfen werden müssen, eliminiert PPD alle zu einem Paket gehörigen Zellen. Das Verwerfen von Zellen geschieht folglich nicht zufällig, sondern versucht, komplette Pakete und nicht einzelne Zellen unterschiedlicher Pakete zu eliminieren. Dieses Verfahren hat den Vorteil, dass der Durchsatz erheblich erhöht werden kann, da nur die Retransmission einzelner ausgewählter Pakete notwendig wird Das Verwerfen einzelner Zellen eines TCP/IP-Paketes erweist sich als ineffektiv Prof. Dr. W. Riggert

41 Partial Packet Discard 2
PPD nutzt die Vorteile der TCP Datenflußkontrolle. Bereits vor entstehen der Überlast verwirft PPD zufällig ein Paket (alle Zellen des Paketes) und zwingt auf diese Weise die Quelle, die Übertragung zu drosseln. TCP reagiert auf den Paketverlust mit einer Verkleinerung des “Windows” solange , bis alle Paket ohne Retransmission ihr Ziel erreichen. Paketan- kunft Queue Anzeige : Schlange gefüllt Folge : Paketverwerfen Prof. Dr. W. Riggert 502 NW’98 © 1998, Cisco Systems, Inc. 41


Herunterladen ppt "Quality of Service in ATM"

Ähnliche Präsentationen


Google-Anzeigen