Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Quality of Service in ATM Prof. Dr. W. Riggert. 2 Inhalt Das Tutorial ist in vier Abschnitte gegliedert. Abschnitt 1-3 behandeln die prinzipielle Aspekte,

Ähnliche Präsentationen


Präsentation zum Thema: "Quality of Service in ATM Prof. Dr. W. Riggert. 2 Inhalt Das Tutorial ist in vier Abschnitte gegliedert. Abschnitt 1-3 behandeln die prinzipielle Aspekte,"—  Präsentation transkript:

1 Quality of Service in ATM Prof. Dr. W. Riggert

2 2 Inhalt Das Tutorial ist in vier Abschnitte gegliedert. Abschnitt 1-3 behandeln die prinzipielle Aspekte, der verbleibende Abschnitt widmet sich Anwendungsapekten. Ein weiteres Tutorial wird sich mit Queuing und Pufferung beschäftigen. Was versteht man unter Quality of Service ? Wie wichtig ist es ? Wie mißt man sie ? Wann implementiert man sie ?

3 Prof. Dr. W. Riggert 3 Neue Herausforderungen Intranet und Groupware GeschäftskritischeAnwendungen Informationsverteilung (Multicast) PictureTe l Datenmengen UnvorhersehbarerDatenfluß Verfügbarkeit und Antwortzeit

4 Prof. Dr. W. Riggert 4 QoS: Beschreibung Rechner nutzen ein Netzwerk um miteinander zu kommunizieren. Die Anwendungen benötigen dafür einen gewissen Anteil verfügbarer Bandbreite. In Abhängigkeit vom Typus der Applikation kann der Datenverkehr Zeitschranken unterliegen, deren Einhaltung durch die Konkurrenz mit anderen Rechnern erschwert wird. Nur im falle exklusiver Punkt-zu-Punkt Verbindungen lassen sich spezifische Übertragungsparameter gewährleisten Rechner A Rechner B Netz : nutzer- und anwendungstransparent

5 Prof. Dr. W. Riggert 5 Die Netze der Vergangenheit berücksichtigten keine Einhaltung spezifischer Parameter wie Bandbreite, Verzögerung oder Varianz der Verzögerung. Das IP-basierte Internet sichert z.B. nur best-effort-Dienste zu. Bisher spielten temporäre Restriktionen keine Rolle, allein die Zuverlässigkeit stand im Vordergrund. Internetnutzer in Europa kennen den Effekt, daß die Geschwindigkeit des Netzes nachmittags sinkt, wenn in den USA die Arbeitszeit beginnt. QoS: Bedeutung ?

6 Prof. Dr. W. Riggert 6 QoS : Anwendungssicht Die Frage nach QoS tritt auf, wenn mehrere Applikationen um die Ressource Bandbreite konkurrieren. Ein Filetransfer oder ein Web- Browser benötigt zwar hohe Übertragungskapazitäten, sein Ablauf ist aber nicht zeitsensitiv. Eine Sprachverbindung hingegen basiert auf geringer Bandbreite aber hohen Qualitätsmerkmalen. Verschärft wird diese Situation, wenn beide Anwendungen auf den gleichen Rechner laufen. Anwendung 1 Anwendung 2 geringe Bandbreite, zeitsensitiv hohe Bandbreite verzögerungstolerant

7 Prof. Dr. W. Riggert 7 QoS : Serviceebenen Priorisierte Anwendungen mit garantierter Bandbreite Konventionelle Anwendungen nach dem Best-Effort-Schema Anwendungen mit Dienstgüteanforderungen

8 Prof. Dr. W. Riggert 8 QoS : Vorzüge von ATM Selbst hartnäckige Gegner von ATM müssen einräumen, daß es die einzige Technologie ist, die von Grund auf für QoS-Merkmale konzipiert ist : Das Switchingkonzept erlaubt die Zuweisung expliziter Bandbreite an die Rechner. Die feste Zellgröße gewährleistet die Einhaltung von Verzögerungsvorgaben. Der verbindungsorientierte Charakter gestattet die Festlegung von Übertragungsparametern auf dem Weg durch das Netz und ermöglicht die Überprüfung deren Einhaltung Switching-Technologie Übertragungseinheit fester Größe Verbindungsorientiertheit Standardimplementation von QoS-Parametern

9 Prof. Dr. W. Riggert 9 QoS : Eigenschaften Um die Diensgüte einer Übertragung zu beschreiben, dienen vier Parameter : Bandbreite Verzögerung Zuverlässigkeit Kosten die eine sehr spezifische Abbildung in die ATM-Metrik besitzen. Bandbreite Peak Cell Rate (PCR) Sustained Cell Rate (SCR) Minimum Cell Rate (MCR) Verzögerung Cell Transfer Delay (CTD) Cell Delay Variation (CDV) Zuverlässigkeit Cell Loss Ratio (CLR) Kosten pro virtuellem Kanal

10 Prof. Dr. W. Riggert 10 ATM-Verkehrsvertrag Um eine Verbindung über das Netz aufzubauen, die eine bestimmte Dienstgüte gewährleistet, müssen alle beteiligten Rechner der Einhaltung der daran geknüpften Merkmale zustimmen. Diese Art des Vertrages wird zwischen den ATM- Endstationen ausgehandelt. Im Falle der Beteiligung von Ethernet/Token Ring- Stationen sieht der Ablauf anders aus. ATM definiert vier Basisverträge, die eine allgemeine Einordnung der Anforderungen einer Verbindung erlauben. Dennoch könnte eine Verbindung keiner dieser Kategorien angehören und seine eigenen QoS- Parameter festlegen.

11 Prof. Dr. W. Riggert 11 Constant Bit Rate (CBR) Eine CBR-Verbindung unterstützt Anwendungen mit konstantem Bandbreitenbedarf. Hierunter fällt unkomprimierte Sprache mit 64 Kbit/s. Der CBR-Typ wird auch für WAN- Strecken verwendet, wenn E1 oder T3 Übertragungswege über einen ATM-Backbone geführt werden. Der Bandbreitenbedarf wird durch einen Parameter, die Peak Cell Rate, beschrieben. VBR ABR UBR CBR

12 Prof. Dr. W. Riggert 12 Variable Bit Rate (VBR) Diese Verbindungsart ist speziell für variable Bandbreitenanforderungen konzipiert, die sich durch drei Parameter charakterisieren lassen : Peak Cell Rate Sustained Cell Rate Maximum Burst Size Damit eignet sich dieses Konzept besonders für Sprach- und Videoübertragungen. Für Realtime- Anwendungen wie Videokonferenzing kommt als weiterer Parameter die Cell Delay Variation hinzu. Für unvorhergesehenen Verkehr, der ein bestimmtes Maximum und eine bestimmte Dauer nicht über- schreiten darf. VBR ABR UBR CBR

13 Prof. Dr. W. Riggert 13 Unspecified Bit Rate (UBR) VBR bildet die Erfordernisse des normalen LAN-Verkehrs nicht ausreichend ab, da das Bandbreitenausmaß nicht vorhersagbar ist und die Gefahr besteht, die Maximale Burst Size zu verletzen. UBR versucht diese Gefahr zu bannen, indem es den Bandbreitenrest in best- effort-Art nutzt. Werden UBR-Verbindungen überlastet, führt dies zu steigenden Puferzeiten der Zellen. Bei Pufferüberlauf werden einfach Zellen verworfen VBR ABR UBR CBR

14 Prof. Dr. W. Riggert 14 Available Bit Rate Das ABR-Verfahren wurde entwickelt, um UBR-Verbindungen mit einer Datenflußkontrolle zu versehen. Anstelle des Auftretens von Überlast, versuchen die ATM-Switches proaktiv zu reagieren und reduzieren die Übertragungsrate analog zum Window-Mechanismus in TCP. VBR ABR UBR CBR

15 Prof. Dr. W. Riggert 15 ATM-Queuing Zur Abwicklung von Verbindungen mit unterschiedlichen Verkehrstypen benötigt ATM eine Prioritäts-Queuing. CBR genießt höchste Priorität, da die Daten sensitiv hinsichtlich der Variation der Zellverzögerung sind, daran schließt sich der VBR-Verkehr aufgrund seiner möglichen Realtime-Anforderungen an. ABR und UBR sind für diesen Gesichtspunkt als unkritisch einzustufen.

16 Prof. Dr. W. Riggert 16 ATM-Verkehrsparameter ATM spezifiziert für jeden Verbindungstyp die den zugehörigen Zellfluß charakterisierenden Parameter

17 Prof. Dr. W. Riggert 17 Verkehrsmanagement ATM als verbindungsorientierte Technologie ist gezwungen, Funktionen für das Akzeptieren oder Verweigern einer Verbindung bereitzustellen. Dabei darf eine neue Verbindung nur zugelassen werden, wenn jeder betroffene Netzknoten über ausreichend Ressourcen verfügt und keine Dienstgütevereinbarungen anderer Verbindungen verletzt.

18 Prof. Dr. W. Riggert 18 Dienstklassen und Managementfunktionen Eine Verbindung zwischen den einzelnen Dienstkategorie und die sie unterstützenden Verkehrsmanagementfunktionen stellt folgende Tabelle her :

19 Prof. Dr. W. Riggert 19 Traffic Shaping Traffic Shaping in Form einer Verstetigung des Verkehrsmusters ist nützlich, weil der normale Datenstrom weitgehend unvorhersehbar ist. Burst Traffic ist aber gerade die Ursache für Pufferüberläufe, Paketverlust und variierende Verzögerung der Paketweiterleitung. Das Ziel besteht daher darin, den Datenstrom zu glätten. Traffic shaping: Um dieses Muster einzuhalten dient der Leaky bucket algorithm, der die Spitzen- Durchschnitsrate und die Burstgröße begrenzt Aktueller Datenstrom Geglätteter Datenstrom ShaperShaper

20 Prof. Dr. W. Riggert 20 Leaky Bucket Konzept (leckender Trichter) Zur Durchführung der im Verkehrsvertrag hinterlegten Dienstgüten bedient sich ATM einer Menge von Algorithmen, die innerhalb jeden Knotens ausgeführt werden und die die Korrektheit des Datenstromes überprüfen. Für CBR, VBR-rt, VBR-nrt und UBR-Verbindungen wird eine Übereinstimmung des aktuellen mit dem ausgehandelten Verkehrsfluss durch einen Generic Cell Rate- Algorithmus (GCRA) sichergestellt. Zellen Trichter Zellen, die dem Verkehrsvertrag entsprechen Zelldurchlass nach GCRA, z.B. Token Bucket

21 Prof. Dr. W. Riggert 21 GCRA - Generic Cell Rate Algorithmus TAT =Theoretische Ankunftszeit t a =Tatsächliche Ankunftszeit der Zelle I =Increment Parameter L =Limit Parameter (Obergrenze für Klumpen- bildung) TAT := TAT TAT:=t a Start Warten auf Zellankunft TAT < t a ? TAT > t a +L ? TAT := TAT+I Konforme Zelle Y N Y Nicht-konforme Zelle TAT := TAT TAT := t a +I N

22 Prof. Dr. W. Riggert 22 Token Bucket : Beispiel eines GCRA p Token B Überlauf- ende Token Zellankunft Konforme Zellen B BBurstgröße p pToken Ankunftsrate Verkehrsvertrag verletzende Zellen Zuordnung Token - Zelle

23 Prof. Dr. W. Riggert 23 Beispiel Die Zellen erreichen den Trichter in gleichen Zeitabständen. Der Zustand des Trichters unmittelbar vor Eintreffen der Zellen ist mit t- bezeichnet, nach der Zellverarbeitung tritt der Zustand t+ ein. Der Parameter I=1,5 zeigt an, dass die Durchflussgeschwindigkeit geringer als die Ankunftsrate ist und die Trichtergröße zwei Zelleinheiten umfasst. Im Beispiel gilt, dass die Ankunftsrate um die Hälfte über der Abfertigungrate liegt.

24 Prof. Dr. W. Riggert 24 Queue-Management Mehrere Verfahren zur Verwaltung der Ressourcen Bandbreite und Puffer und zur Abbildung von Prioritäten haben sich herauskristallisiert. Dazu zählen in erster Linie Konzepte für ein ausgefeiltes Queuing und Vorschläge zur Vermeidung von Überlast. Paketankunft und Ordnung gemäß zugesicherter Übertragungsmerkmale

25 Prof. Dr. W. Riggert 25 FIFO-Queuing Gemäß dieses Verfahrens werden die einlaufenden Pakete bei Überlast in ihrer Reihenfolge zwischengespeichert und in der gleichen Sequenz an den Folgeknoten weitergeleitet, sobald die Überlastungssituation sich entspannt hat. FIFO macht damit keinen Gebrauch von Prioritäten, einzig die Reihenfolge bestimmt die Bandbreite und Pufferallokation. Quelle 2 Quelle 1 Quelle Sequentialisierung nach zeitlicher Reihenfolge

26 Prof. Dr. W. Riggert 26 des FIFO-Queuing einfaches Verfahren mit geringem Overhead Alle Datenflüsse werden ohne Unterscheidung nach garantierten Merkmale, Burstverkehr oder Best-Effort in die gleiche Schlange eingeordnet. Ohne eine Trennung des Verkehrsflusses kann die Verzögerung nicht wirksam kontrolliert werden. Burstverkehr erzeugt zusätzliche Verzögerungen für die konkurrierenden Übertragungen.

27 Prof. Dr. W. Riggert 27 Prioritäts-Queuing 1 Prioritäts-Queuing versucht, Verkehrsströme durch die Zuweisung von Prioritäten zu differenzieren. Die Differenzierung geschieht über das Netzwerkprotokoll, die empfangenen Interfaces, die Paketgröße oder die Adressen. Jedem Paket wird einer separate Warteschlange zugeordnet, die mit einer bestimmten Priorität verbunden ist. Während der Übertragung räumt der Algorithmus den Schlangen mit der höchsten Priorität absoluten Vorrang ein. Quelle 1 Quelle 2 Quelle 3 Klassifikation in prioritätsabhängige Warteschlangen Zellübertragung nach Priorität

28 Prof. Dr. W. Riggert 28 Prioritäts-Queuing 2 Einlaufende Zellen Warteschlangen nach Prioritäten Übertragungs- Queue Hoch Mittel Normal Gering Klassifikation nach Priorität Klassifikation nach Priorität Absolutes Prioritäts- Scheduling

29 Prof. Dr. W. Riggert 29 des Prioritäts-Queuing einfaches Verfahren mit geringem Overhead Verzögerungen sind darauf begrenzt, wie die Klassifikation erfolgt Datenflüsse mit garantierter Priorität werden zulasten andere Übertragungen bevorzugt Verzögerungen summieren sich beim Passieren mehrerer Netzknoten

30 Prof. Dr. W. Riggert 30 Custom Queuing 1 Diese Form des Puffermanagements erlaubt unterschiedlichen Anwendun- gen die Netzressourcen mit einer spezifischen Bandbreite und Verzöge- rung zu nutzen. Erreicht wird dies durch die Zuweisung eines bestimmten Betrages an Warteschlangenkapazität an die einzelnen Paketklassen. Der Algorithmus bedient die einzelnen Schlangen nach dem Round-Robin- Prinzip und sendet innerhalb der Schlangen den reservierten Bandbrei- tenanteil in Form einer konfigurierbaren Bytezahl bevor er zur nächsten Schlange wechselt. Quelle 1 Quelle 2 Quelle 3 Klassifikation nach Warteschlange Zellübertragung nach Byte Count der Warteschlange

31 Prof. Dr. W. Riggert 31 Custom Queuing 2 Interface Puffer Bis zu 16 3/10 Weighted Round Robin Scheduling (Byte Count- basiert) Allokation des Bandbreitenanteil s 2/10 3/10 2/10 Link- Nutzungs- verhältnis Einlaufende Zellen Klassifikation nach Priorität Klassifikation nach Priorität Übertragungs- Queue

32 Prof. Dr. W. Riggert 32 des Custom-Queuing Das Verfahren stellt sicher, dass keine Applikation mehr als den ihr zugesicherten Teil der Bandbreite beanspruchen kann Wie das Priority Queuing ist auch dieser Ansatz statisch und reagiert nicht auf Änderungen der Netzwerkbedingungen Das FIFO-Verfahren innerhalb der Warteschlangen läßt den Verkehr nicht vorhersagbar werden.

33 Prof. Dr. W. Riggert 33 Fair Queuing Fair Queuing ordnet gemäß der Arbeitsweise des Time Division Multiplexing die einlaufenden Pakete separaten Schlangen zu. Dies entspricht auf dem Flughafen den getrennten Schlangen für jeden Flug Ankunftsreihenfolge Übertragungsreihenfolge

34 Prof. Dr. W. Riggert 34 des Fair-Queuing Burst-Verkehr beeinflußt keine anderen Datenströme Gut geeignet für die faire Behandlung vieler Best-Effort- Übertragungen Verlangt pro Datenfluß eine Warteschlange/Klasse Erlaubt keine Differenzierung der Bandbreitenansprüche unterschiedlicher Anwendungen.

35 Prof. Dr. W. Riggert 35 Weighted Fair Queuing 1 Weighted Fair Queuing ordnet den Datenflüssen der einzelnen Sender eine spezielle Queue zu, um Bandbreite und Verzögerungskennzeichen der ausgehandelten Multi-Media- Anwendungen zu garantieren. Die einzelnen auf diese Weise pro Quelle entstehenden Schlangen arbeitet der Router nach dem Round-Robin-Verfahren ab. Fairness leitet sich aus der Überlegung ab, daß eine adäquate Zuteilung der Dienstgüten zu den Erfordernissen der einzelnen Anwendungen erfolgt Anforderungen : vorhersagbar sein –Die Verkehrsverzögerung muss vorhersagbar sein Bandbreite Latenz –Reservierte Datenflüsse müssen eine gewisse Bandbreite und Latenz beanschruchen

36 Prof. Dr. W. Riggert 36 Weighted Fair Queuing 2 Interface Puffer Konfigurierbare Zahl von Warteschlangen Klassifikation des Datenflusses durch: Quell- und Zieladresse Protokoll Port/Anwendung Gewichte bestimmt durch : Verlangte QoS (IP Precedence, RSVP) Durchsatz (weighted-fair) Weighted Fair Scheduling 36 © 1998, Cisco Systems, Inc. 507 NW98 Einlaufende Zellen Klassifikation Übertragungs- Queue

37 Prof. Dr. W. Riggert 37 des Weighted Fair- Queuing genaue Überwachung der Bandbreite genaue Kontrolle der Verzögerung sehr komplexes Verfahren verlangt mehr Einordnung und Sortierung als die anderen Ansätze Die verfügbare Bandbreite hängt aber von der Anzahl simultaner Verbindungen ab und ist damit eine Funktion des Verkehrsaufkommens.

38 Prof. Dr. W. Riggert 38 Überlast-Management Diese Verfahren zielen auf die Vermeidung von Überlast- situationen. Dazu überwachen sie die durchschnittliche Länge der Warteschlange und veranlassen den Sender notfalls zur Reduktion der Übertragungs- leistung. Zwei Verfahren für den paketbasierten Datenverkehr werden eingesetzt : –Early Packet Discard –Partiel Packet Discard Eigenschaften der Überlast-Algorithmen: Überlastvermeidung Zur Zusammenarbeit mit TCP entworfen Vermeiden globale Synchronisa- tion mehrerer Verbindungen

39 Prof. Dr. W. Riggert 39 Early Packet Discard Die Form der frühzeitigen Paketabweisung verhindert das Überschreiten der Gesamtzahl der Zellen im Output-Buffer durch einen benutzerdefinierten Schwellwert, der die Aufnahme neuer Zellen eines weiteren zugehörigen LAN-Paketes verhindert, da durch die Füllgrenze mit Zellverlusten zu rechnen ist. Der verbleibende Platz wird LAN-Paketen zugewiesen, deren Übertragung bereits begonnen hat, um ihnen die Chance einer erfolgreichen vollständigen Übertragung zu geben.

40 Prof. Dr. W. Riggert 40 Partial Packet Discard 1 Falls trotz EPD die Puffer überlaufen und Zellen verworfen werden müssen, eliminiert PPD alle zu einem Paket gehörigen Zellen. Das Verwerfen von Zellen geschieht folglich nicht zufällig, sondern versucht, komplette Pakete und nicht einzelne Zellen unterschiedlicher Pakete zu eliminieren. Dieses Verfahren hat den Vorteil, dass der Durchsatz erheblich erhöht werden kann, da nur die Retransmission einzelner ausgewählter Pakete notwendig wird Das Verwerfen einzelner Zellen eines TCP/IP-Paketes erweist sich als ineffektiv

41 Prof. Dr. W. Riggert 41 Partial Packet Discard 2 PPD nutzt die Vorteile der TCP Datenflußkontrolle. Bereits vor entstehen der Überlast verwirft PPD zufällig ein Paket (alle Zellen des Paketes) und zwingt auf diese Weise die Quelle, die Übertragung zu drosseln. TCP reagiert auf den Paketverlust mit einer Verkleinerung des Windows solange, bis alle Paket ohne Retransmission ihr Ziel erreichen. Queue Anzeige : Schlange gefüllt Folge : Paketverwerfen Paketan- kunft 41 © 1998, Cisco Systems, Inc. 502 NW98


Herunterladen ppt "Quality of Service in ATM Prof. Dr. W. Riggert. 2 Inhalt Das Tutorial ist in vier Abschnitte gegliedert. Abschnitt 1-3 behandeln die prinzipielle Aspekte,"

Ähnliche Präsentationen


Google-Anzeigen