Anfang Kapitel 3 S. 150 Ende Kapitel 4 S.63
Vorlesung Rechner, Netze und Verteilte Systeme - Kapitel 3: Transportschicht (Teil 7)
Einführung
Herzlich Willkommen zur Vorlesung „Rechner, Netze und Verteilte Systeme“. Wir befinden uns im Kapitel 3 über die Transportschicht und dies ist der siebte und letzte Teil dieses Kapitels. Bis zu diesem Punkt sollten Sie ein grundlegendes Verständnis darüber haben, wie die Transportschicht funktioniert und welche Funktionen sie bietet. In diesem Teil vertiefen wir unser Wissen weiter und betrachten spezifische Aspekte der Transportschicht im Detail.
Rückblick und Fokus
In den vorherigen Teilen haben wir über die Erhöhung der Kommunikationsleistung gesprochen – wie wir höheren Durchsatz und bessere Auslastung erreichen können. Jetzt wollen wir einen genaueren Blick auf die Zuverlässigkeit werfen und untersuchen, wie Flusskontrolle und Staukontrolle (Überlastkontrolle) funktionieren. Unser Ziel ist es, eine höhere Leistung bei geringerer Fehlerrate zu erreichen.
Flusskontrolle und Staukontrolle
Flusskontrolle (Flow Control)
Flusskontrolle bezieht sich auf die Verwaltung des Senders, um zu verhindern, dass der Empfänger überlastet wird. Das Ziel ist, dass der Empfänger nur so viele Daten erhält, wie er tatsächlich verarbeiten kann. Dazu benötigen wir ein Signal vom Empfänger, ob er bereit ist, die nächste Nachricht zu empfangen.
Staukontrolle (Congestion Control)
Staukontrolle befasst sich mit Maßnahmen zur Vermeidung der Überlastung von Transit-Netzen. Im Internet nutzen viele Teilnehmer gleichzeitig dieselben Ressourcen. Wir müssen daher Strategien entwickeln, um unsere Nachrichten zu priorisieren und Verzögerungen zu minimieren, wenn andere Teilnehmer die Transit-Netze stark beanspruchen.
Vergleich mit Straßenverkehr
Ein anschauliches Beispiel ist der Straßenverkehr. Stellen Sie sich vor, die Sender sind einzelne Häuser, die Nachrichten (Fahrzeuge) verschicken. Das Ziel (der Empfänger) ist ein Parkplatz, der nur eine begrenzte Anzahl an Fahrzeugen aufnehmen kann. Die Transit-Netze sind die Straßen und Kreisverkehre, die von den Fahrzeugen genutzt werden. Ziel ist es, den Verkehrsfluss so zu steuern, dass weder die Straßen noch der Parkplatz überlastet werden.
Verkehrsmanagement im Detail
Wenn Fahrzeuge (Nachrichten) gesendet werden, müssen sie durch verschiedene Kreisverkehre (Router) navigieren, bis sie ihr Ziel erreichen. Die Ampel am Parkplatz zeigt an, ob ein Fahrzeug einfahren kann (Puffer beim Empfänger ist frei). Wenn die Ampel rot ist, muss das Fahrzeug warten (Sender muss pausieren).
Lösungsansätze zur Flusskontrolle
Stop-and-Wait-Technik
Hierbei sendet der Sender jeweils ein Paket und wartet auf die Bestätigung, bevor er das nächste Paket sendet. Diese Methode ist einfach, aber ineffizient bei langen Rundlaufzeiten (Roundtrip Delay).
Fenstertechnik
Statt nur ein Paket zu senden, wird eine feste oder dynamisch angepasste Anzahl von Paketen (Fenstergröße) gleichzeitig gesendet. Bei dynamischer Anpassung wird die Fenstergröße basierend auf der Netzwerkbelastung verändert.
Pufferreservierung
Der Sender fragt den Empfänger, ob genügend Pufferplatz verfügbar ist, bevor er eine Nachricht sendet. Dies vermeidet Überlastung, führt aber zu zusätzlicher Verzögerung durch die notwendige Kommunikation.
Kreditverfahren
Pufferplatz wird im Voraus zugewiesen und verwaltet. Dieses Verfahren kann jedoch unflexibel sein, wenn sich die Netzwerklast ändert.
Zeitrasterabhängiges Senden
Jeder Sender hat bestimmte Zeitfenster, in denen er Nachrichten senden darf. Dies vermeidet Überlastung, kann jedoch zu langen Wartezeiten führen, wenn viele Sender beteiligt sind.
Praktische Umsetzung der Flusskontrolle
Sequenznummern und Puffer
Der Sender und Empfänger arbeiten mit Sequenznummern und Puffergrößen. Der Empfänger bestätigt den Erhalt von Paketen und teilt mit, wie viel Pufferplatz noch verfügbar ist (Empfangsfenster).
Ablauf
- Der Sender sendet ein Paket mit einer Sequenznummer.
- Der Empfänger empfängt das Paket, speichert es im Puffer und bestätigt den Empfang.
- Der Empfänger teilt auch mit, wie viel Platz noch im Puffer verfügbar ist.
- Der Sender sendet weitere Pakete basierend auf der verfügbaren Puffergröße.
Weitere Details zur Flusskontrolle
Der Sender weiß, wie groß das Empfangsfenster (Receive-Window) ist, da dies mit der letzten Bestätigung vom Empfänger mitgeteilt wird. Der Sender kennt auch das letzte Byte, das er gesendet hat, und das letzte Byte, das bestätigt wurde. Daraus leitet er ab, was er als nächstes senden kann und wie viel der Empfänger verarbeiten kann.
Der Empfänger hat den gesamten Empfangspuffer (Receive-Buffer) zur Verfügung. Er unterscheidet zwischen den Bytes, die empfangen, aber noch nicht gelesen wurden, und den Bytes, die bereits vom Anwendungsprozess verarbeitet wurden. Das Empfangsfenster (Receive-Window) berechnet sich aus der Größe des Empfangspuffers minus der empfangenen, aber nicht gelesenen Daten und abzüglich des letzten Bytes, das von der Anwendung bereits verarbeitet wurde. Das Empfangsfenster hängt also davon ab, wie schnell der Anwendungsprozess die Daten verarbeitet.
Der Sender kann mehrere Segmente senden, solange der Empfangspuffer des Empfängers nicht überlastet wird. Der Empfänger kann dann Summenquittungen senden, die mehrere empfangene Segmente bestätigen. Dies ermöglicht eine effiziente Flusskontrolle und vermeidet die Überlastung des Empfängers.
Staukontrolle (Congestion Control)
Während sich die Flusskontrolle auf die Vermeidung der Überlastung des Empfängers konzentriert, befasst sich die Staukontrolle mit der Vermeidung der Überlastung der Netzwerke (insbesondere der Transit-Netze). Die Herausforderung besteht darin, dass die Überlastung auf den unteren Schichten (Vermittlungsschicht) auftritt, aber auf der Transportschicht spürbar wird.
Feststellung der Netzüberlastung
Es gibt zwei Hauptansätze zur Feststellung der Netzüberlastung:
- Explizite Rückmeldung: Ein Protokoll wie das Explicit Congestion Protocol (XCP) informiert die Transportschicht über überlastete Router.
- Indirekte Indikatoren: Verlust von Segmenten, erkennbar durch Timeouts oder fehlende Bestätigungen, deutet auf Überlastung hin.
Reaktionsstrategien bei Überlastung
- Virtuelle Kanäle: Reservierung von Netzressourcen für eine Verbindung, vergleichbar mit reservierten Fahrspuren im Straßenverkehr. Dies ist ressourcenintensiv und hat eine lange Aufbauzeit.
- Begrenzung der Verbindungen: Begrenzung der Anzahl der Verbindungen pro Host, um die Netzbelastung zu reduzieren.
- Sendezeitbeschränkungen: Begrenzung der Datenmenge, die ins Netz gesendet wird, beispielsweise durch das Leaky Bucket Verfahren, bei dem nur eine begrenzte Datenmenge kontinuierlich ins Netz fließt.
- Garantierte Abnahmeraten: Sicherstellung, dass der Empfänger eine Mindestmenge an Daten verarbeitet, um Staus im Netz zu vermeiden.
- Konstante Last: Aufrechterhaltung einer konstanten Netzlast durch Begrenzung der Anzahl der Sendungen, ähnlich dem Taxi-Verfahren in Singapur.
Implementierung der Staukontrolle im TCP
TCP verwendet eine dreistufige Strategie zur Staukontrolle:
- Slow Start: Langsames Ansteigen der Senderate zu Beginn, um die Kapazität des Netzes zu ermitteln.
- Congestion Avoidance: Lineares Wachstum der Senderate, um eine Überlastung zu vermeiden.
- Fast Recovery: Schnelle Reduktion der Senderate bei Überlastung und anschließende vorsichtige Erhöhung.
Wichtige Variablen und Mechanismen
- Congestion Window (CWND): Begrenzt die Menge an Daten, die gesendet werden können, bevor eine Bestätigung erforderlich ist.
- Threshold: Schwellwert für das Congestion Window, der den Übergang von exponentiellem zu linearem Wachstum markiert.
- Maximale Segmentgröße (MSS): Bestimmt die maximale Datenmenge pro Segment.
Die Kombination dieser Mechanismen ermöglicht es TCP, effizient auf Netzüberlastungen zu reagieren und die Netzwerkauslastung zu optimieren.
Retransmission-Timer
Ein weiterer wichtiger Mechanismus ist der Retransmission-Timer. Wenn dieser Timer abläuft und noch nicht alle gesendeten Segmente bestätigt wurden, sendet der Sender die nicht bestätigten Segmente erneut. Dies verhindert Datenverlust und stellt sicher, dass alle Pakete ihren Zielort erreichen.
TCP Tahoe und TCP Reno
TCP Tahoe
TCP Tahoe beginnt mit dem sogenannten Slow Start. Das bedeutet, dass das Überlastfenster (Congestion Window) mit einer sehr kleinen Größe startet. Für jedes empfangene Bestätigungspaket verdoppelt sich die Größe des Überlastfensters, was zu einem exponentiellen Wachstum führt. Sobald ein bestimmter Schwellwert (Threshold) erreicht ist, wechselt das Wachstum zu einem linearen Anstieg, um das Netz nicht zu überlasten. Bei einem Timeout (keine Bestätigung innerhalb einer festgelegten Zeit) wird das Überlastfenster auf die Hälfte seiner aktuellen Größe reduziert, und der Slow Start beginnt von vorne.
TCP Reno
TCP Reno optimiert das Verhalten von TCP Tahoe durch die Einführung von Fast Retransmit und Fast Recovery. Beim Empfang von drei Quittungsduplikaten (Anzeichen für ein verlorenes Segment) wird das fehlende Segment sofort neu gesendet (Fast Retransmit). Anstatt das Überlastfenster wie bei TCP Tahoe drastisch zu reduzieren und mit Slow Start neu zu beginnen, bleibt das Fenster bei TCP Reno relativ groß und wird nur auf die Hälfte der aktuellen Größe reduziert. Dadurch wird eine schnellere Erholung ermöglicht und die Netzwerkauslastung bleibt höher.
Vergleich der Algorithmen
TCP Reno zeigt eine bessere Netzwerkauslastung im Vergleich zu TCP Tahoe, da es nicht vollständig auf den Slow Start zurückfällt, sondern das Überlastfenster nur reduziert. Dies führt zu einer effizienteren Nutzung der verfügbaren Netzwerkressourcen und einer schnelleren Wiederherstellung nach Paketverlusten.
Additive Increase, Multiplicative Decrease (AIMD)
Ein weiteres Prinzip zur Stauvermeidung ist das AIMD-Prinzip. Hierbei wird die Senderate linear erhöht (Additive Increase) und bei Paketverlusten multiplicativ reduziert (Multiplicative Decrease). Dies führt zu einem zyklischen Verhalten der Senderate, die sich an der maximalen Kapazität des Netzes orientiert.
Bezug zur aktuellen Situation der Corona-Pandemie
Dieses Prinzip der Staukontrolle kann auch auf die aktuelle Situation der Corona-Pandemie übertragen werden. Hier lassen wir die Maßnahmen laufen, bis ein bestimmter Wert, der Reproduktionsfaktor 1, erreicht ist. Wenn wir sehen, dass unsere Krankenhäuser überlastet sein könnten, führen wir wieder Restriktionen ein, ähnlich wie beim Reduzieren der Senderate bei Netzwerküberlastung. Danach werden die Restriktionen schrittweise wieder gelockert, was dem linearen Anstieg bei der Staukontrolle entspricht. Wenn jedoch erneut eine Überlastung droht, werden die Maßnahmen wieder verschärft. Aktuell befinden wir uns in der Phase des linearen Anstiegs, und es bleibt abzuwarten, ob eine erneute Überlastung auftritt, die weitere Maßnahmen erfordert.
Durchsatz bei TCP
Um den Durchsatz bei TCP zu bewerten, betrachten wir das aktuelle Congestion-Window und den Wert, den es beim Paketverlust erreicht hat. Dabei berücksichtigen wir die Round-Trip-Time (RTT), also die Rundlaufzeit. Der Durchsatz pendelt zwischen dem Wert des Congestion-Window (W) geteilt durch 2*RTT und W/RTT. Dies führt zu einer typischen Sägezahnkurve, bei der der Durchsatz zwischen der Hälfte von W und W liegt, also etwa 75 % der maximalen Netzwerkauslastung erreicht. Dieser Wert kann je nach Anzahl der Verkehrsteilnehmer variieren.
Schlussfolgerung
Die Fluss- und Staukontrolle sind essenzielle Mechanismen in der Transportschicht, um die Zuverlässigkeit und Effizienz der Datenübertragung im Internet zu gewährleisten. Verschiedene Techniken wie die Stop-and-Wait-Methode, Fenstertechnik und Pufferreservierung bieten unterschiedliche Vor- und Nachteile, die je nach Anwendungsszenario abzuwägen sind. Durch die Implementierung von Strategien zur Fluss- und Staukontrolle kann eine optimale Netzwerkauslastung bei minimaler Fehlerrate erreicht werden. Der Einsatz von Retransmission-Timern, TCP Tahoe und TCP Reno zeigt, wie wichtige Optimierungen zur Effizienzsteigerung beitragen können. Auch der Vergleich zur Corona-Pandemie verdeutlicht, wie Prinzipien der Staukontrolle in verschiedenen Kontexten angewendet werden können.
Fragen und Antworten zur Netzwerktechnik
1. Welche Parameter beeinflussen die Größe des Sequenznummernraumes?
Die Größe des Sequenznummernraumes wird durch die Anzahl der Bits bestimmt, die für die Sequenznummern verwendet werden. Ein zu kleiner Sequenznummernraum führt dazu, dass Fehler passieren können, da Nachrichten unterwegs sind, die die gleiche Sequenznummer haben.
2. Wie wird die Eindeutigkeit von Sequenznummern sichergestellt?
Die Eindeutigkeit von Sequenznummern wird dadurch sichergestellt, dass Sequenznummern mit jeder neuen Übertragung inkrementiert werden und groß genug sind, um Überlappungen zu vermeiden. Dadurch werden Fehler durch wiederholte Sequenznummern verhindert.
3. Wozu wird die Fenstertechnik eingesetzt?
Die Fenstertechnik wird verwendet, um den Durchsatz zu erhöhen und den Datenfluss zu regulieren, inklusive Stau- und Flusskontrolle.
4. Wie wirken sich zu kleine Fenster aus?
Zu kleine Fenster führen dazu, dass die verfügbare Kapazität nicht vollständig genutzt wird, wodurch die Datenübertragungsrate sinkt und die Effizienz der Datenübertragung beeinträchtigt wird.
5. Wie wirken sich zu kleine Sequenznummernräume aus?
Zu kleine Sequenznummernräume können zu Fehlern führen, da Nachrichten unterwegs sind, die die gleiche Sequenznummer haben, was zu Verwirrung und möglichen Datenverlusten führt.
6. Warum ist für einen sicheren Verbindungsaufbau auf der Transportschicht ein Drei-Wege-Handschlag erforderlich?
Ein Drei-Wege-Handschlag ist erforderlich, um sicherzustellen, dass beide Seiten wissen, dass eine Verbindung aufgebaut wurde. Ohne den Drei-Wege-Handschlag besteht das Risiko, dass eine Seite nicht über den Verbindungsaufbau informiert ist. Es wird auch erwähnt, dass ein Drei-Wege-Handschlag besser ist als ein Zwei-Wege-Handschlag, weil die zusätzliche Bestätigung die Wahrscheinlichkeit verringert, dass eine Antwort verloren geht.
7. Unter welchen Voraussetzungen genügt ein Zwei-Wege-Handschlag für einen Verbindungsaufbau?
Ein Zwei-Wege-Handschlag kann ausreichen, wenn die Verbindung hundertprozentig sicher ist und keine Rückantworten verloren gehen können. Das heißt, wenn die Verbindung so sicher ist, dass garantiert ist, dass jede gesendete Nachricht ankommt, dann reicht ein Zwei-Wege-Handschlag aus.
8. Warum muss der Verbindungsabbau beidseitig geschehen?
Der Verbindungsabbau muss beidseitig geschehen, um sicherzustellen, dass beide Seiten darüber informiert sind, dass die Kommunikation beendet ist. Dies verhindert Situationen, in denen eine Seite denkt, dass die Verbindung noch aktiv ist, während die andere Seite bereits geschlossen hat. Ein Beispiel aus dem Transkript ist ein Telefonat, bei dem eine Seite möglicherweise noch spricht, während die andere Seite bereits aufgelegt hat.
9. Was ist der Unterschied zwischen Flusskontrolle und Staukontrolle?
- Flusskontrolle: Kümmert sich um die Datenübertragung zwischen Sender und Empfänger, um sicherzustellen, dass der Sender den Empfänger nicht überlastet. Ein Beispiel ist ein Supercomputer, der Daten an ein Mobiltelefon sendet und dabei darauf achten muss, dass das Mobiltelefon nicht überfordert wird.
- Staukontrolle: Kümmert sich darum, dass es im Netzwerk keine Überlastungen gibt. Sie stellt sicher, dass das Netz zwischen den Kommunikationspunkten nicht überlastet wird, indem es die Datenmenge reguliert, die ins Netzwerk eingespeist wird. Ein Stau kann auftreten, wenn an den Zwischenpunkten des Netzwerks andere Datenflüsse die Kapazität beanspruchen.
10. Welche Anforderungen einer Anwendung können den Einsatz von UDP rechtfertigen?
UDP ist unsicher, aber schnell. Anwendungen, die eine schnelle Datenübertragung benötigen und bei denen es nicht so wichtig ist, ob alle Daten sicher ankommen, setzen auf UDP. Beispiele dafür sind Video-Streaming, bei dem der Verlust einiger Datenpakete toleriert werden kann, oder regelmäßige Statusmeldungen, bei denen es nicht tragisch ist, wenn mal eine Nachricht verloren geht.
11. Wie kann man in einer Anwendung, die UDP verwendet, einen zuverlässigen Datentransfer garantieren?
Obwohl UDP keine eingebaute Zuverlässigkeit bietet, kann man in der Anwendungsebene zusätzliche Mechanismen einbauen, wie zum Beispiel Sequenznummern. Diese Sequenznummern werden in den Nutzdaten mitgesendet, und der Empfänger kann anhand dieser Nummern überprüfen, ob alle Datenpakete angekommen sind. Fehlen Pakete, können sie erneut gesendet werden.
12. Alice sendet 2 TCP-Segmente (mit Sequenznummer 90 und 110) an Bob.
Wie viele Daten enthält das erste Segment? Wie lang ist das erste Segment insgesamt?
Das erste Segment enthält 20 Bytes Daten (Sequenznummer 110 - Sequenznummer 90 = 20 Bytes). Zusätzlich zum Dateninhalt enthält jedes TCP-Segment einen Header, der bei TCP mindestens 40 Bytes lang ist. Somit ist das erste Segment insgesamt 60 Bytes lang (20 Bytes Daten + 40 Bytes Header).
Wie lautet die Quittungsnummer der Bestätigung von Bob, wenn nur das erste Segment verloren geht?
Wenn nur das erste Segment verloren geht, wird Bob die Quittungsnummer 90 zurücksenden. Diese Quittungsnummer zeigt an, dass er immer noch auf das erste Segment wartet und es erneut gesendet werden muss.
13. Welche Mechanismen verwendet TCP für eine zuverlässige Ende-zu-Ende Verbindung?
TCP verwendet mehrere Mechanismen für eine zuverlässige Ende-zu-Ende-Verbindung:
- Drei-Wege-Handschlag: Zur Bestätigung, dass beide Seiten bereit für die Kommunikation sind.
- Sequenznummern: Um die Reihenfolge der Pakete zu überwachen und sicherzustellen, dass alle Pakete korrekt und vollständig ankommen.
- Bestätigungen (ACKs): Empfänger bestätigen den Erhalt von Paketen, sodass der Sender weiß, welche Pakete erfolgreich angekommen sind.
- Wiederholungsmechanismen: Wenn keine Bestätigung empfangen wird, sendet TCP das Paket erneut.
- Flusskontrolle und Staukontrolle: Um sicherzustellen, dass das Netzwerk und der Empfänger nicht überlastet werden.
14. Wie realisiert man „Multiplexen“ von Anwendungen auf der Transportschicht?
Das Multiplexen von Anwendungen auf der Transportschicht wird durch die Verwendung von Ports realisiert. Jeder Port stellt einen Kommunikationsendpunkt für eine Anwendung dar. Durch die Verwendung verschiedener Ports können mehrere Anwendungen gleichzeitig über dasselbe Netzwerk kommunizieren, ohne dass es zu Verwechslungen kommt.
15. Wie funktioniert TCP Tahoe zur Staukontrolle?
TCP Tahoe verwendet eine Kombination aus Slow Start, Congestion Avoidance und Fast Retransmit zur Staukontrolle:
- Slow Start: Beginnt mit einer niedrigen Übertragungsrate und erhöht die Rate exponentiell, bis ein Verlust erkannt wird.
- Congestion Avoidance: Nach Erreichen eines bestimmten Schwellenwerts wird die Übertragungsrate nur noch linear erhöht, um Staus zu vermeiden.
- Fast Retransmit: Wenn drei duplizierte ACKs empfangen werden, interpretiert TCP dies als Paketverlust und sendet das vermisste Paket sofort erneut, ohne auf den Timeout zu warten.
16. Können Sende- und Empfangsfenster bei der Fenstertechnik unterschiedlich groß sein?
Ja, Sende- und Empfangsfenster können unterschiedlich groß sein. Der Grund dafür liegt in den unterschiedlichen Fähigkeiten und Speicherkapazitäten der Geräte. Ein Beispiel ist ein Supercomputer, der große Datenmengen senden kann, während ein Smartphone möglicherweise nur kleine Datenmengen empfangen kann. Die Fenstertechnik ermöglicht es, diese Unterschiede zu berücksichtigen und den Datenfluss entsprechend zu regulieren.
Kapitel 4: Die Vermittlungsschicht
Teil 1: Einführung in die Vermittlungsschicht
Einführung
Herzlich Willkommen zur Vorlesung „Rechnernetze und Verteilte Systeme“. Heute beginnen wir mit Kapitel 4, das sich mit der Vermittlungsschicht befasst. Dies ist der erste Teil des Kapitels. Wir erinnern uns, dass wir beim letzten Mal Kapitel 3 abgeschlossen haben, das sich mit der Transportschicht beschäftigte. Dabei haben wir untersucht, wie ein netzunabhängiger Transport von Nachrichten zwischen Endsystemen funktioniert. Heute gehen wir eine Schicht tiefer zur Vermittlungsschicht und beschäftigen uns damit, wie Daten von der Quelle zum Ziel gebracht werden, also wie die Daten über Zwischenknoten vermittelt werden.
Ziele der Vermittlungsschicht
Das Hauptziel der Vermittlungsschicht besteht in zwei wesentlichen Aktivitäten:
- Fahrtschaltung (Vermittlung selbst)
- Wegewahl (Routing)
Wir beginnen mit einem einfachen Beispiel: Alice sendet eine Nachricht an Bob. Bisher haben wir nur Alice und Bob betrachtet und wie Nachrichten zwischen den beiden ausgetauscht werden. Jetzt wollen wir einen Blick in das Netzwerk werfen und untersuchen, wie das Internet tatsächlich funktioniert.
Schichtenmodell und die Vermittlungsschicht
Unser Schichtenmodell zeigt, dass eine Anwendung einen Befehl an die Anwendungsschicht sendet, z.B. „SendHTTP-Request“. Diese Befehl wird an die Transportschicht weitergeleitet, die sich um Host und Port kümmert. Von dort geht es weiter zur Vermittlungsschicht, die die Adresse und die Nachricht selbst enthält.
Wenn wir das ISO/OSI-Referenzmodell betrachten, sehen wir, dass die Vermittlungsschicht (Schicht 3) sich unter der Transportschicht (Schicht 4) befindet. Während die Transportschicht eine virtuelle Verbindung zwischen den Endsystemen schafft, stellt die Vermittlungsschicht eine reale Verbindung her, indem sie Daten über verschiedene Knoten im Netzwerk überträgt.
Kommunikation über Zwischenknoten
Auf der Vermittlungsschicht wird die Nachricht nicht nur von Endsystem zu Endsystem übertragen, sondern über mehrere Zwischenknoten. Jeder Knoten muss entscheiden, ob er der Empfänger der Nachricht ist oder ob er sie weiterleiten muss. Dieses Weiterleiten erfolgt von einem Knoten zum nächsten, bis die Nachricht ihr Ziel erreicht.
Die Herausforderung besteht darin, den besten Weg durch das Netzwerk zu finden. Dies geschieht durch Routing, das zwei Aspekte umfasst:
- Vermittlung (Fahrtschaltung)
- Wegewahl (Routing)
Netzwerktopologien und Vermittlung
Es gibt verschiedene Netzwerktopologien, wie Punkt-zu-Punkt-Verbindungen, Bus-Topologien, Stern-Topologien, Ring-Topologien und vermaschte Netze. In der Praxis haben wir oft eine teilweise Vermaschung, wo bestimmte Verbindungen bestehen und andere vermieden werden müssen.
Eine höhere Abstraktionsstufe ermöglicht es uns, komplexe Netzwerke in Subnetze zu unterteilen. Jedes Subnetz kann wiederum eigene Vermittlungsverfahren haben, und die genaue Topologie innerhalb eines Subnetzes ist den Endsystemen außerhalb unbekannt.
Verbundnetze und Internetworking
Ein großes vermittelndes Netz, das aus vielen kleineren vermittelten Netzen besteht, nennt man ein Verbundnetz. Ein bekanntes Beispiel dafür ist das Internet. Gateway-Router an den Rändern dieser Netze sorgen für die Aufnahme und Weitergabe von Nachrichten. Das Zusammenführen dieser vermittelten Netze nennt man Internetworking.
Zusammenfassung und Ausblick
In diesem ersten Teil des Kapitels haben wir die grundlegende Aufgabe der Vermittlungsschicht beschrieben: die Übertragung von Daten von der Quelle zum Ziel. Im nächsten Schritt werden wir uns genauer mit den Mechanismen der Vermittlung und der Wegewahl befassen.
Teil 2: Fahrtschaltung und Vermittlungstechniken
Einführung
Herzlich Willkommen zur Vorlesung „Rechnernetze und Verteilte Systeme“. Wir befinden uns im Kapitel 4 „Vermittlung“ und dies ist der zweite Teil von Kapitel 4. Wie erwähnt haben wir uns angeschaut, wie die Übertragung von Daten von der Quelle zum Ziel über die Transitknoten geht. In diesem Teil 2 wollen wir uns anschauen, wie die Vermittlung, die Fahrtschaltung, funktioniert.
Leitungsvermittlung
Bei der Leitungsvermittlung werden Ressourcen entlang eines festen Pfades im Netz reserviert und für die Dauer der Übertragung blockiert. Ein bekanntes Beispiel ist das analoge Telefonnetz (POTS - Plain Old Telephone Service). Hier werden Verbindungen vorab aufgebaut und für die gesamte Dauer der Übertragung beibehalten.
Vorteile der Leitungsvermittlung:
- Dedizierter Kanal garantiert keine Warteschlangen.
- Dienstgüte kann einfach garantiert werden.
Nachteile der Leitungsvermittlung:
- Der gesamte Pfad muss vor der Datenübertragung eingerichtet werden.
- Bei Unterbrechung eines Teilstücks bricht die gesamte Verbindung zusammen.
- Reservierte Ressourcen können nicht von anderen verwendet werden.
Paketvermittlung
Bei der Paketvermittlung werden Nachrichten in Pakete aufgeteilt und diese einzeln übertragen. Es wird keine Ressource vorab reserviert. Pakete werden nacheinander gesendet und können unterschiedliche Wege nehmen.
Vorteile der Paketvermittlung:
- Keine Notwendigkeit eines Verbindungsaufbaus vorab.
- Ressourcen werden effizient genutzt, da ungenutzte Bandbreiten von anderen verwendet werden können.
Nachteile der Paketvermittlung:
- Notwendigkeit, Header-Informationen zu jedem Paket hinzuzufügen.
- Reihenfolge der Pakete kann variieren.
- Schwierigkeit, Dienstgüte zu garantieren.
Store-and-Forward-Verfahren
Ein spezielles Verfahren der Paketvermittlung ist das Store-and-Forward-Verfahren. Hier werden ganze Nachrichten zwischengespeichert und dann weitergeleitet. Dies erfordert große Pufferspeicher in den Transitknoten und ist sinnvoll bei verzögerungstoleranten Netzen.
Vorteile des Store-and-Forward-Verfahrens:
- Funktioniert gut in Netzen mit intermittierender Konnektivität (z.B. Satellitenkommunikation).
- E-Mails werden typischerweise auf diese Weise übertragen.
Nachteile des Store-and-Forward-Verfahrens:
- Lange Verzögerungen, da die gesamte Nachricht zwischengespeichert wird.
- Große Nachrichten können Wegstücke lange blockieren.
- Notwendigkeit großer Pufferspeicher.
Vergleich der Vermittlungsverfahren
Merkmal | Leitungsvermittlung | Paketvermittlung |
---|---|---|
Verbindungsaufbau | Notwendig | Nicht notwendig |
Pfad | Fest | Dynamisch |
Reihenfolge | Garantiert | Nicht garantiert |
Fehleranfälligkeit | Hoch | Niedrig |
Bandbreitenreservierung | Fix | Dynamisch |
Datenstau | Beim Verbindungsaufbau | Jederzeit |
Ressourcennutzung | Ineffizient | Effizient |
Zusammenfassung und Ausblick
In diesem zweiten Teil des Kapitels haben wir die beiden Hauptverfahren der Vermittlung - Leitungsvermittlung und Paketvermittlung - sowie das Store-and-Forward-Verfahren vorgestellt. Jedes dieser Verfahren hat spezifische Vor- und Nachteile, die je nach Anwendungsszenario unterschiedlich relevant sind. Im nächsten Teil werden wir uns genauer mit den Protokollen und Mechanismen der Paketvermittlung im Internet beschäftigen.
Bleiben Sie gesund und wir sehen uns dann beim Teil 3. Vielen Dank.
Teil 3: Verzögerungsarten in vermittelten Netzen
Einführung
Herzlich Willkommen zur Vorlesung „Rechnernetze und Verteilte Systeme“. Wir sind im Kapitel 4 „Vermittlung“ und das ist nun Teil 3 des Kapitels. In diesem Teil betrachten wir die Verzögerungsarten in vermittelten Netzen.
Verzögerungsarten
Es gibt mehrere Arten von Verzögerungen, die in vermittelten Netzen auftreten:
- Verarbeitungsverzögerung
- Warteschlangenverzögerung
- Übertragungsverzögerung
- Signalverzögerung (Signalausbreitung)
Zusätzlich betrachten wir die gesamte Netzverzögerung, die die Summe aller oben genannten Verzögerungen darstellt, sowie die Paketumlaufverzögerung (Roundtrip Delay, RTD).
Verarbeitungsverzögerung
Die Verarbeitungsverzögerung ist die Zeit, die ein System benötigt, um ein ankommendes Paket zu verarbeiten. Dazu gehört das Auslesen der Steuerinformationen und die Überprüfung auf Übertragungsfehler. Diese Verzögerung liegt in der Größenordnung von Mikrosekunden oder weniger.
Warteschlangenverzögerung
Die Warteschlangenverzögerung ist die Zeit, die ein Paket in der Warteschlange verbringt, bevor es weitergeleitet werden kann. Diese Verzögerung hängt von der Anzahl der Pakete in der Warteschlange und der Ankunftsrate der Pakete ab. Sie kann im Bereich von Mikro- bis Millisekunden liegen.
Übertragungsverzögerung
Die Übertragungsverzögerung (Nachrichtendauer) ist die Zeit, die benötigt wird, um alle Bits eines Pakets zu senden. Sie hängt
von der Paketlänge und der Übertragungsrate des Mediums ab und liegt ebenfalls im Bereich von Mikro- bis Millisekunden.
Signalverzögerung
Die Signalverzögerung (Signalausbreitung) ist die Zeit, die ein Bit im Übertragungsmedium vom Sender zum Empfänger benötigt. Sie hängt von der Entfernung zwischen Sender und Empfänger sowie der Ausbreitungsgeschwindigkeit im Medium ab. Auch hier liegt die Größenordnung im Bereich von Mikro- bis Millisekunden.
Gesamte Netzverzögerung
Die Netzverzögerung ist die Summe aller oben genannten Verzögerungen auf einem Ende-zu-Ende-Pfad. Wenn die Übertragungsrate auf allen Links gleich ist und die Warteschlangenverzögerung Null ist, ergibt sich die Netzverzögerung als einfache Summe der anderen Verzögerungen.
Roundtrip Delay (RTD)
Das Roundtrip Delay ist die Summe aller Verzögerungen von der Quelle zum Ziel und zurück. Dabei ist zu beachten, dass die Antwortnachrichten nicht unbedingt denselben Pfad wie die Hinwegnachrichten nehmen müssen.
Praktisches Beispiel: Traceroute
Ein nützliches Werkzeug zur Untersuchung der Paketwege und Verzögerungen in einem Netzwerk ist Traceroute
. Mit diesem Befehl können Sie den Pfad und die Verzögerungen der Pakete von Ihrem Rechner zu einem Zielserver ermitteln.
Zusammenfassung und Ausblick
In diesem dritten Teil des Kapitels haben wir die verschiedenen Verzögerungsarten in vermittelten Netzen kennengelernt und wie sie die Gesamtverzögerung beeinflussen. Im nächsten Schritt werden wir uns mit der Wegewahl beschäftigen und untersuchen, wie der beste Weg durch das Netz gefunden wird.
Teil 4: Adressierung und Wegewahl
Einführung
Herzlich Willkommen zur Vorlesung „Rechnernetze und Verteilte Systeme“. Wir befinden uns nach wie vor im Kapitel 4 mit der Vermittlungsschicht und dieses Teil 4 des Kapitels. Nachdem wir bereits die Vermittlung an sich kennengelernt haben, das heißt die Fahrtschaltung, um Daten von der Quelle zum Ziel übertragen zu können, wollen wir uns in diesem Teil mit der Wegewahl beschäftigen.
Wegewahl
Bei der Wegewahl geht es darum, wie wir den Weg durch das Netz finden. Dazu müssen wir zwei Aspekte betrachten:
- Adressierung: Wie finden wir allgemein einen Teilnehmer oder einen Endpunkt im Netz?
- Verfahren der Wegewahl: Wie kommen wir von einem beliebigen Startpunkt zu einem Zielpunkt?
Die Aufgabenstellung bleibt dieselbe: Alice möchte eine Nachricht an Bob senden. Wir wollen die Wolke namens Internet untersuchen und herausfinden, wie Alice den Teilnehmer Bob adressieren kann.
Adressierung
Die Adressierung ist vergleichbar mit der Angabe einer physischen Adresse, z.B. wenn wir von der Oettingenstraße 67 zum Leibniz Rechenzentrum fahren wollen. Wir geben beide Ziele ein und lassen das System eine Route auswählen. Im Internet benötigen wir eine Methode, um Endpunkte eindeutig zu adressieren.
Die Adressierung im Netz hat folgende Aspekte:
- Eindeutigkeit: Jede Adresse muss eindeutig sein.
- Hierarchische Struktur: Adressen können hierarchisch organisiert sein (z.B. Telefonnummern).
- Maschinelle Verarbeitung: Adressen müssen maschinell effizient verarbeitet werden können.
Verfahren der Wegewahl
Nachdem wir eine Adresse haben, müssen wir den Weg zum Ziel finden. Dies erfolgt durch Routing-Algorithmen, die den besten Pfad durch das Netzwerk bestimmen. Die Wegewahl umfasst folgende Schritte:
- Vergleich der Zieladresse: Jeder Knoten vergleicht die Zieladresse mit seiner eigenen.
- Weiterleitung: Wenn die Zieladresse nicht übereinstimmt, wird die Nachricht weitergeleitet.
Adressen und Namen
Es gibt zwei wichtige Konzepte:
- Namen: Für Menschen leicht zu merkende Bezeichnungen (z.B. Oettingenstraße 67).
- Adressen: Maschinell verarbeitbare Identifikatoren.
Namensauflösung
Die Namensauflösung ist der Prozess, bei dem ein Name in eine Adresse umgewandelt wird. Es gibt zwei Hauptmethoden:
- Separater Dienst: Nutzung des Internets, um Namen in Adressen umzuwandeln (z.B. Domain Name System, DNS).
- Ableitung aus der Namensstruktur: Direkte Zuordnung durch Hierarchie.
Das DNS ist ein zentrales Beispiel für einen separaten Dienst, der Namensauflösung durchführt. Ein Benutzer gibt eine URL ein, und das DNS wandelt diese in eine IP-Adresse um.
Beispiel DNS
Wenn ein Benutzer die Seite www.ivi.lmu.de aufruft, fragt der Browser den DNS-Server nach der zugehörigen IP-Adresse. Der DNS-Server antwortet mit der IP-Adresse, und der Browser kann die Verbindung herstellen.
Zusammenfassung und Ausblick
In diesem vierten Teil des Kapitels haben wir die Grundlagen der Adressierung und Wegewahl im Internet kennengelernt. Im nächsten Schritt werden wir uns mit den spezifischen Routingverfahren beschäftigen, die diese Wegewahl umsetzen.
Teil 5: Grundlagen der Routing-Verfahren
Einführung
Herzlich Willkommen zur Vorlesung „Rechnernetze und Verteilte Systeme“. Wir sind im Kapitel 4, „Vermittlung“ und das ist Teil 5 des Kapitels. Die Aufgabe, die wir uns angesehen haben, ist, dass Alice eine Nachricht übers Internet an Bob schickt und wir wollten, dass hier entsprechend die Vermittlung durchgeführt wird. Wir haben uns letztes Mal auch schon mit der Adressierung und der Wegewahl auseinandergesetzt. Heute wollen wir etwas mehr in die allgemeinen Grundlagen der Routing-Verfahren reinsehen.
Routing-Verfahren
Routing-Verfahren sind Algorithmen, die bestimmen, welche Wege im Netzwerk genommen werden. Diese Algorithmen basieren auf verschiedenen Strategien und Vorgaben, um den optimalen Weg zu finden. Dazu gehören:
- Routing-Strategien: Vorgaben, die festlegen, wie Wege gewählt werden sollen (z.B. schnellster Weg, günstigster Weg).
- Policies: Regeln, die bestimmte Wege bevorzugen oder vermeiden (z.B. Vermeidung von Startgebieten).
- Zielfunktionen: Kriterien zur Optimierung der Wege (z.B. minimale Kosten, minimale Übertragungszeit).
Optimierungsziele und Eigenschaften
Mögliche Optimierungsziele der Routing-Verfahren sind:
- Geringe Übertragungskosten
- Geringe Übertragungszeiten
- Gute Leitungsauslastung
- Großer Durchsatz
Wichtige allgemeine Eigenschaften der Routing-Verfahren sind:
- Einfachheit: Niedrige algorithmische Komplexität.
- Geringer Overhead: Minimale Beeinflussung des Netzwerks.
- Adaptivität: Anpassungsfähigkeit an Netzlast und Topologieänderungen.
- Robustheit: Fähigkeit, auf Fehler zu reagieren.
- Fairness: Gleichmäßige Verteilung des Netzverkehrs.
Herausforderungen
Routing-Verfahren müssen folgende Herausforderungen bewältigen:
- Zielkonflikte: Z.B. schnelle vs. kostengünstige Übertragung.
- Beschreibung der Netzwerktopologie: Erfassung dynamischer und komplexer Netzstrukturen.
- Wegbestimmung: Zentrale vs. dezentrale Wegbestimmung.
- Informationsbereitstellung: Wer liefert die notwendigen Informationen zur Wegbestimmung?
Grafentheorie
Die Grundlage der Routing-Verfahren bildet die Grafentheorie. Ein Netzwerk wird als Graph dargestellt, bestehend aus Knoten (Router) und Kanten (Links). Die Kanten sind mit Kostenattributen versehen, die die Übertragungskosten repräsentieren.
Kostenfunktion und Optimalität
Die Kostenfunktion bestimmt die Kosten eines Pfades. Ein optimaler Weg minimiert die Summe der Kosten. Eine wichtige Eigenschaft ist, dass jeder Teilweg eines optimalen Weges ebenfalls optimal sein muss.
Quellen-Senken-Baum (QSB)
Ein Quellen-Senken-Baum (QSB) stellt die Wege von einer Quelle zu mehreren Senken dar. Die Quelle ist die Wurzel des Baums, und die Ziele sind die Blätter. Mehrere QSBs sind möglich, und das Ziel des Routing-Verfahrens ist es, den QSB mit dem optimalen Weg zu wählen.
Praktisches Beispiel und Wegetafel
Nehmen wir ein Netzwerk mit fünf Knoten. Vom Knoten 2 aus können wir mehrere Wege zu anderen Knoten wählen. Die Kosten der Wege werden in einer Wegetafel dargestellt, die die Ziele, die Zwischenknoten und die Kosten enthält. Der Shortest Path First Algorithmus (SPF) oder Shortest Delay First Algorithmus (SDF) wird verwendet, um den kürzesten Weg zu bestimmen.
Implementierung: Routing Tabelle
Eine Routing Tabelle (Routing Information Base) speichert die Informationen für die Wegbestimmung. Jeder Knoten im Netzwerk führt eine eigene Routing Tabelle, die bei der Initialisierung des Systems erstellt und während des Betriebs aktualisiert wird.
Zusammenfassung und Ausblick
In diesem fünften Teil des Kapitels haben wir die Grundlagen der Routing-Verfahren und ihre Herausforderungen kennengelernt. Im nächsten Schritt werden wir uns mit konkreten Routing-Algorithmen und deren Implementierung im Detail befassen.