Präsentation herunterladen
Die Präsentation wird geladen. Bitte warten
1
Quality of Service in ATM
Prof. Dr. W. Riggert
2
Inhalt Das Tutorial ist in vier Abschnitte gegliedert.
Abschnitt 1-3 behandeln die prinzipielle Aspekte, der verbleibende Abschnitt widmet sich Anwendungsapekten. Ein weiteres Tutorial wird sich mit Queuing und Pufferung beschäftigen. Was versteht man unter Quality of Service ? Wie wichtig ist es ? Wie mißt man sie ? Wann implementiert man sie ? Prof. Dr. W. Riggert
3
Neue Herausforderungen
Geschäftskritische Anwendungen Informationsverteilung (Multicast) Intranet und Groupware PictureTel Datenmengen Verfügbarkeit und Antwortzeit Unvorhersehbarer Datenfluß Prof. Dr. W. Riggert
4
anwendungstransparent
QoS: Beschreibung Rechner nutzen ein Netzwerk um miteinander zu kommunizieren. Die Anwendungen benötigen dafür einen gewissen Anteil verfügbarer Bandbreite. In Abhängigkeit vom Typus der Applikation kann der Datenverkehr Zeitschranken unterliegen, deren Einhaltung durch die Konkurrenz mit anderen Rechnern erschwert wird. Nur im falle exklusiver Punkt-zu-Punkt Verbindungen lassen sich spezifische Übertragungsparameter gewährleisten Rechner A Netz : nutzer- und anwendungstransparent Rechner B Prof. Dr. W. Riggert
5
QoS: Bedeutung Die Netze der Vergangenheit berücksichtigten keine Einhaltung spezifischer Parameter wie Bandbreite, Verzögerung oder Varianz der Verzögerung. Das IP-basierte Internet sichert z.B. nur best-effort-Dienste zu. Bisher spielten temporäre Restriktionen keine Rolle, allein die Zuverlässigkeit stand im Vordergrund. Internetnutzer in Europa kennen den Effekt, daß die Geschwindigkeit des Netzes nachmittags sinkt, wenn in den USA die Arbeitszeit beginnt. ? Prof. Dr. W. Riggert
6
QoS : Anwendungssicht Die Frage nach QoS tritt auf, wenn mehrere Applikationen um die Ressource Bandbreite konkurrieren. Ein Filetransfer oder ein Web-Browser benötigt zwar hohe Übertragungskapazitäten, sein Ablauf ist aber nicht zeitsensitiv. Eine Sprachverbindung hingegen basiert auf geringer Bandbreite aber hohen Qualitätsmerkmalen. Verschärft wird diese Situation, wenn beide Anwendungen auf den gleichen Rechner laufen. Anwendung Anwendung 2 Anwendung Anwendung 2 geringe Bandbreite, zeitsensitiv hohe Bandbreite verzögerungstolerant Prof. Dr. W. Riggert
7
QoS : Serviceebenen Priorisierte Anwendungen mit garantierter Bandbreite Konventionelle Anwendungen nach dem Best-Effort-Schema Anwendungen mit Dienstgüteanforderungen Prof. Dr. W. Riggert
8
QoS : Vorzüge von ATM Selbst hartnäckige Gegner von ATM müssen einräumen, daß es die einzige Technologie ist, die von Grund auf für QoS-Merkmale konzipiert ist : Das Switchingkonzept erlaubt die Zuweisung expliziter Bandbreite an die Rechner. Die feste Zellgröße gewährleistet die Einhaltung von Verzögerungsvorgaben. Der verbindungsorientierte Charakter gestattet die Festlegung von Übertragungsparametern auf dem Weg durch das Netz und ermöglicht die Überprüfung deren Einhaltung Switching-Technologie Übertragungseinheit fester Größe Verbindungsorientiertheit Standardimplementation von QoS-Parametern Prof. Dr. W. Riggert
9
QoS : Eigenschaften Um die Diensgüte einer Übertragung zu beschreiben, dienen vier Parameter : Bandbreite Verzögerung Zuverlässigkeit Kosten die eine sehr spezifische Abbildung in die ATM-Metrik besitzen. Bandbreite Peak Cell Rate (PCR) Sustained Cell Rate (SCR) Minimum Cell Rate (MCR) Verzögerung Cell Transfer Delay (CTD) Cell Delay Variation (CDV) Zuverlässigkeit Cell Loss Ratio (CLR) Kosten pro virtuellem Kanal Prof. Dr. W. Riggert
10
ATM-Verkehrsvertrag Um eine Verbindung über das Netz aufzubauen, die eine bestimmte Dienstgüte gewährleistet, müssen alle beteiligten Rechner der Einhaltung der daran geknüpften Merkmale zustimmen. Diese Art des Vertrages wird zwischen den ATM-Endstationen ausgehandelt. Im Falle der Beteiligung von Ethernet/Token Ring-Stationen sieht der Ablauf anders aus. ATM definiert vier Basisverträge, die eine allgemeine Einordnung der Anforderungen einer Verbindung erlauben. Dennoch könnte eine Verbindung keiner dieser Kategorien angehören und seine eigenen QoS-Parameter festlegen. Prof. Dr. W. Riggert
11
Constant Bit Rate (CBR)
Eine CBR-Verbindung unterstützt Anwendungen mit konstantem Bandbreitenbedarf. Hierunter fällt unkomprimierte Sprache mit 64 Kbit/s. Der CBR-Typ wird auch für WAN-Strecken verwendet, wenn E1 oder T3 Übertragungswege über einen ATM-Backbone geführt werden. Der Bandbreitenbedarf wird durch einen Parameter, die Peak Cell Rate, beschrieben. ABR UBR VBR CBR Prof. Dr. W. Riggert
12
Variable Bit Rate (VBR)
Diese Verbindungsart ist speziell für variable Bandbreitenanforderungen konzipiert, die sich durch drei Parameter charakterisieren lassen : Peak Cell Rate Sustained Cell Rate Maximum Burst Size Damit eignet sich dieses Konzept besonders für Sprach- und Videoübertragungen. Für Realtime-Anwendungen wie Videokonferenzing kommt als weiterer Parameter die Cell Delay Variation hinzu. ABR UBR VBR CBR Für unvorhergesehenen Verkehr, der ein bestimmtes Maximum und eine bestimmte Dauer nicht über- schreiten darf. Prof. Dr. W. Riggert
13
Unspecified Bit Rate (UBR)
VBR bildet die Erfordernisse des normalen LAN-Verkehrs nicht ausreichend ab, da das Bandbreitenausmaß nicht vorhersagbar ist und die Gefahr besteht, die Maximale Burst Size zu verletzen. UBR versucht diese Gefahr zu bannen, indem es den Bandbreitenrest in „best-effort“-Art nutzt. Werden UBR-Verbindungen überlastet, führt dies zu steigenden Puferzeiten der Zellen. Bei Pufferüberlauf werden einfach Zellen verworfen ABR UBR VBR CBR Prof. Dr. W. Riggert
14
Available Bit Rate Das ABR-Verfahren wurde entwickelt, um UBR-Verbindungen mit einer Datenflußkontrolle zu versehen. Anstelle des Auftretens von Überlast, versuchen die ATM-Switches proaktiv zu reagieren und reduzieren die Übertragungsrate analog zum Window-Mechanismus in TCP. ABR UBR VBR CBR Prof. Dr. W. Riggert
15
ATM-Queuing Zur Abwicklung von Verbindungen mit unterschiedlichen Verkehrstypen benötigt ATM eine Prioritäts-Queuing. CBR genießt höchste Priorität, da die Daten sensitiv hinsichtlich der Variation der Zellverzögerung sind, daran schließt sich der VBR-Verkehr aufgrund seiner möglichen Realtime-Anforderungen an. ABR und UBR sind für diesen Gesichtspunkt als unkritisch einzustufen. Prof. Dr. W. Riggert
16
ATM-Verkehrsparameter
ATM spezifiziert für jeden Verbindungstyp die den zugehörigen Zellfluß charakterisierenden Parameter Prof. Dr. W. Riggert
17
Verkehrsmanagement ATM als verbindungsorientierte Technologie ist gezwungen, Funktionen für das Akzeptieren oder Verweigern einer Verbindung bereitzustellen. Dabei darf eine neue Verbindung nur zugelassen werden, wenn jeder betroffene Netzknoten über ausreichend Ressourcen verfügt und keine Dienstgütevereinbarungen anderer Verbindungen verletzt. Prof. Dr. W. Riggert
18
Dienstklassen und Managementfunktionen
Eine Verbindung zwischen den einzelnen Dienstkategorie und die sie unterstützenden Verkehrsmanagementfunktionen stellt folgende Tabelle her : Prof. Dr. W. Riggert
19
Traffic Shaping Traffic Shaping in Form einer Verstetigung des Verkehrsmusters ist nützlich, weil der normale Datenstrom weitgehend unvorhersehbar ist. Burst Traffic ist aber gerade die Ursache für Pufferüberläufe, Paketverlust und variierende Verzögerung der Paketweiterleitung. Das Ziel besteht daher darin, den Datenstrom zu glätten. Aktueller Datenstrom Shaper Geglätteter Datenstrom Traffic shaping: Um dieses Muster einzuhalten dient der ‘Leaky bucket algorithm’, der die Spitzen-Durchschnitsrate und die Burstgröße begrenzt Prof. Dr. W. Riggert
20
Leaky Bucket Konzept (leckender Trichter)
Zur Durchführung der im Verkehrsvertrag hinterlegten Dienstgüten bedient sich ATM einer Menge von Algorithmen, die innerhalb jeden Knotens ausgeführt werden und die die Korrektheit des Datenstromes überprüfen. Für CBR, VBR-rt, VBR-nrt und UBR-Verbindungen wird eine Übereinstimmung des aktuellen mit dem ausgehandelten Verkehrsfluss durch einen Generic Cell Rate-Algorithmus (GCRA) sichergestellt. Zellen Zelldurchlass nach GCRA, z.B. Token Bucket Trichter Zellen, die dem Verkehrsvertrag entsprechen Prof. Dr. W. Riggert
21
GCRA - Generic Cell Rate Algorithmus
TAT = Theoretische Ankunftszeit ta = Tatsächliche Ankunftszeit der Zelle I = Increment Parameter L = Limit Parameter (Obergrenze für „Klumpen- bildung) TAT:=ta Start Warten auf Zellankunft Y Konforme Zelle TAT < ta ? N Y TAT ’ := ta+I TAT > ta+L ? Nicht-konforme Zelle N TAT’ := TAT Konforme Zelle TAT’ := TAT+I TAT := TAT’ Prof. Dr. W. Riggert
22
Token Bucket : Beispiel eines GCRA
B—Burstgröße p—Token Ankunftsrate Überlauf- ende Token B Zuordnung Token - Zelle Zellankunft Konforme Zellen Prof. Dr. W. Riggert Verkehrsvertrag verletzende Zellen
23
Beispiel Die Zellen erreichen den Trichter in gleichen Zeitabständen. Der Zustand des Trichters unmittelbar vor Eintreffen der Zellen ist mit t- bezeichnet, nach der Zellverarbeitung tritt der Zustand t+ ein. Der Parameter I=1,5 zeigt an, dass die Durchflussgeschwindigkeit geringer als die Ankunftsrate ist und die Trichtergröße zwei Zelleinheiten umfasst. Im Beispiel gilt, dass die Ankunftsrate um die Hälfte über der Abfertigungrate liegt. Prof. Dr. W. Riggert
24
Queue-Management Mehrere Verfahren zur Verwaltung der Ressourcen Bandbreite und Puffer und zur Abbildung von Prioritäten haben sich herauskristallisiert. Dazu zählen in erster Linie Konzepte für ein ausgefeiltes Queuing und Vorschläge zur Vermeidung von Überlast. Paketankunft und Ordnung gemäß zugesicherter Übertragungsmerkmale Prof. Dr. W. Riggert
25
FIFO-Queuing Gemäß dieses Verfahrens werden die einlaufenden Pakete bei Überlast in ihrer Reihenfolge zwischengespeichert und in der gleichen Sequenz an den Folgeknoten weitergeleitet, sobald die Überlastungssituation sich entspannt hat. FIFO macht damit keinen Gebrauch von Prioritäten, einzig die Reihenfolge bestimmt die Bandbreite und Pufferallokation. Quelle 1 1 2 Quelle 2 Sequentialisierung nach zeitlicher Reihenfolge Quelle 3 3 Prof. Dr. W. Riggert
26
des FIFO-Queuing einfaches Verfahren mit geringem Overhead
Alle Datenflüsse werden ohne Unterscheidung nach garantierten Merkmale, Burstverkehr oder Best-Effort in die gleiche Schlange eingeordnet. Ohne eine Trennung des Verkehrsflusses kann die Verzögerung nicht wirksam kontrolliert werden. Burstverkehr erzeugt zusätzliche Verzögerungen für die konkurrierenden Übertragungen. Prof. Dr. W. Riggert
27
Prioritäts-Queuing 1 Prioritäts-Queuing versucht, Verkehrsströme durch die Zuweisung von Prioritäten zu differenzieren. Die Differenzierung geschieht über das Netzwerkprotokoll, die empfangenen Interfaces, die Paketgröße oder die Adressen. Jedem Paket wird einer separate Warteschlange zugeordnet, die mit einer bestimmten Priorität verbunden ist. Während der Übertragung räumt der Algorithmus den Schlangen mit der höchsten Priorität absoluten Vorrang ein. Quelle 1 Zellübertragung nach Priorität Quelle 2 Klassifikation in prioritätsabhängige Warteschlangen Quelle 3 Prof. Dr. W. Riggert
28
Prioritäts-Queuing 2 Hoch Mittel Normal Gering Einlaufende Zellen
Übertragungs-Queue Klassifikation nach Priorität Normal Gering Absolutes Prioritäts- Scheduling Warteschlangen nach Prioritäten Prof. Dr. W. Riggert
29
des Prioritäts-Queuing
einfaches Verfahren mit geringem Overhead Verzögerungen sind darauf begrenzt, wie die Klassifikation erfolgt Datenflüsse mit garantierter Priorität werden zulasten andere Übertragungen bevorzugt Verzögerungen summieren sich beim Passieren mehrerer Netzknoten Prof. Dr. W. Riggert
30
Custom Queuing 1 Diese Form des Puffermanagements erlaubt unterschiedlichen Anwendun- gen die Netzressourcen mit einer spezifischen Bandbreite und Verzöge- rung zu nutzen. Erreicht wird dies durch die Zuweisung eines bestimmten Betrages an Warteschlangenkapazität an die einzelnen Paketklassen. Der Algorithmus bedient die einzelnen Schlangen nach dem Round-Robin-Prinzip und sendet innerhalb der Schlangen den reservierten Bandbrei- tenanteil in Form einer konfigurierbaren Bytezahl bevor er zur nächsten Schlange wechselt. Zellübertragung nach Byte Count der Warteschlange Quelle 1 Quelle 2 Klassifikation nach Warteschlange Quelle 3 Prof. Dr. W. Riggert
31
Allokation des Bandbreitenanteils
Custom Queuing 2 2/10 Einlaufende Zellen Übertragungs-Queue 3/10 2/10 Klassifikation nach Priorität 3/10 Bis zu 16 Link-Nutzungs-verhältnis Weighted Round Robin Scheduling (Byte Count-basiert) Allokation des Bandbreitenanteils Interface Puffer Prof. Dr. W. Riggert
32
des Custom-Queuing
Das Verfahren stellt sicher, dass keine Applikation mehr als den ihr zugesicherten Teil der Bandbreite beanspruchen kann Wie das Priority Queuing ist auch dieser Ansatz statisch und reagiert nicht auf Änderungen der Netzwerkbedingungen Das FIFO-Verfahren innerhalb der Warteschlangen läßt den Verkehr nicht vorhersagbar werden. Prof. Dr. W. Riggert
33
Übertragungsreihenfolge
Fair Queuing Ankunftsreihenfolge Fair Queuing ordnet gemäß der Arbeitsweise des Time Division Multiplexing die einlaufenden Pakete separaten Schlangen zu. Dies entspricht auf dem Flughafen den getrennten Schlangen für jeden Flug. 6 4 1 5 2 3 5 4 1 6 3 2 Übertragungsreihenfolge Prof. Dr. W. Riggert
34
des Fair-Queuing Burst-Verkehr beeinflußt keine anderen Datenströme Gut geeignet für die faire Behandlung vieler Best-Effort-Übertragungen Verlangt pro Datenfluß eine Warteschlange/Klasse Erlaubt keine Differenzierung der Bandbreitenansprüche unterschiedlicher Anwendungen. Prof. Dr. W. Riggert
35
Weighted Fair Queuing 1 Weighted Fair Queuing ordnet den Datenflüssen der einzelnen Sender eine spezielle Queue zu, um Bandbreite und Verzögerungskennzeichen der ausgehandelten Multi-Media-Anwendungen zu garantieren. Die einzelnen auf diese Weise pro Quelle entstehenden Schlangen arbeitet der Router nach dem Round-Robin-Verfahren ab. Fairness leitet sich aus der Überlegung ab, daß eine adäquate Zuteilung der Dienstgüten zu den Erfordernissen der einzelnen Anwendungen erfolgt Anforderungen : “Die Verkehrsverzögerung muss vorhersagbar sein” “Reservierte Datenflüsse müssen eine gewisse Bandbreite und Latenz beanschruchen” Prof. Dr. W. Riggert
36
Weighted Fair Queuing 2 Einlaufende Zellen Übertragungs-Queue
Klassifikation Weighted Fair Scheduling Konfigurierbare Zahl von Warteschlangen Klassifikation des Datenflusses durch: Quell- und Zieladresse Protokoll Port/Anwendung Interface Puffer Gewichte bestimmt durch : Verlangte QoS (IP Precedence, RSVP) Durchsatz (weighted-fair) Prof. Dr. W. Riggert 507 NW’98 © 1998, Cisco Systems, Inc. 36
37
des Weighted Fair-Queuing
genaue Überwachung der Bandbreite genaue Kontrolle der Verzögerung sehr komplexes Verfahren verlangt mehr Einordnung und Sortierung als die anderen Ansätze Die verfügbare Bandbreite hängt aber von der Anzahl simultaner Verbindungen ab und ist damit eine Funktion des Verkehrsaufkommens. Prof. Dr. W. Riggert
38
Überlast-Management Diese Verfahren zielen auf die Vermeidung von Überlast- situationen. Dazu überwachen sie die durchschnittliche Länge der Warteschlange und veranlassen den Sender notfalls zur Reduktion der Übertragungs- leistung. Zwei Verfahren für den paketbasierten Datenverkehr werden eingesetzt : Early Packet Discard Partiel Packet Discard Eigenschaften der Überlast-Algorithmen: Überlastvermeidung Zur Zusammenarbeit mit TCP entworfen Vermeiden globale Synchronisa- tion mehrerer Verbindungen Prof. Dr. W. Riggert
39
Early Packet Discard Die Form der frühzeitigen Paketabweisung verhindert das Überschreiten der Gesamtzahl der Zellen im Output-Buffer durch einen benutzerdefinierten Schwellwert, der die Aufnahme neuer Zellen eines weiteren zugehörigen LAN-Paketes verhindert, da durch die Füllgrenze mit Zellverlusten zu rechnen ist. Der verbleibende Platz wird LAN-Paketen zugewiesen, deren Übertragung bereits begonnen hat, um ihnen die Chance einer erfolgreichen vollständigen Übertragung zu geben. Prof. Dr. W. Riggert
40
Partial Packet Discard 1
Falls trotz EPD die Puffer überlaufen und Zellen verworfen werden müssen, eliminiert PPD alle zu einem Paket gehörigen Zellen. Das Verwerfen von Zellen geschieht folglich nicht zufällig, sondern versucht, komplette Pakete und nicht einzelne Zellen unterschiedlicher Pakete zu eliminieren. Dieses Verfahren hat den Vorteil, dass der Durchsatz erheblich erhöht werden kann, da nur die Retransmission einzelner ausgewählter Pakete notwendig wird Das Verwerfen einzelner Zellen eines TCP/IP-Paketes erweist sich als ineffektiv Prof. Dr. W. Riggert
41
Partial Packet Discard 2
PPD nutzt die Vorteile der TCP Datenflußkontrolle. Bereits vor entstehen der Überlast verwirft PPD zufällig ein Paket (alle Zellen des Paketes) und zwingt auf diese Weise die Quelle, die Übertragung zu drosseln. TCP reagiert auf den Paketverlust mit einer Verkleinerung des “Windows” solange , bis alle Paket ohne Retransmission ihr Ziel erreichen. Paketan- kunft Queue Anzeige : Schlange gefüllt Folge : Paketverwerfen Prof. Dr. W. Riggert 502 NW’98 © 1998, Cisco Systems, Inc. 41
Ähnliche Präsentationen
© 2024 SlidePlayer.org Inc.
All rights reserved.