Netzwerk-Know-how (tecCHANNEL COMPACT) Kapitel 1: Netzwerkgrundlagen
Veröffentlicht: 16. Mrz 2005
Von PROF. DR. STEPHAN EULER
Zum wirkl
ichen Verständnis von Netzwerktechnik ist ein solides Basiswissen die Grundvoraussetzung. Diese Artikelserie verschafft Ihnen das notwendige Know-how. Der erste Teil behandelt die technischen Grundlagen.
Auf dieser Seite |
In diesem Beitrag |
---|---|
Teil1 Leistungsfähigkeit Anwendungen Teil2 Netzwerkkategorien Topologien Teil3 Protokollstapel OSI-Referenzmodell Die Schichten im Detail Literatur |
|
Teil 1: Technische Grundlagen
Lange Zeit waren die beiden wohl wichtigsten Kommunikationsnetze Post und Telefon. Diese beiden Netze sind gleichzeitig Repräsentanten für zwei Netzwerktypen.
Bei dem Postdienst werden einzelne Sendungen (Briefe, Pakete oder Ähnliches) vermittelt. Jedes Paket trägt die Zieladresse. Innerhalb des Netzes wird anhand dieser Zieladresse der Laufweg festgelegt: Briefkasten - örtliches Postamt - Postverteilzentrum - ... - Empfänger. Aber selbst wenn man mehrere Briefe gleichzeitig an den gleichen Adressaten aufgibt, ist nicht garantiert, dass die Briefe den gleichen Weg nehmen und gleichzeitig ankommen. Typischerweise wird an jedem Punkt nur über den nächsten Schritt entschieden.
Diese Art der Vermittlung nennt man "Paketvermittlung". Charakteristisch sind:
- diskrete Einheiten (Pakete)
- jedes Paket wird einzeln weitergeleitetjedes Paket trägt die Adresse
- im Allgemeinen keine Garantien bezüglich Laufweg und Laufzeit
- Robustheit gegenüber Unterbrechung einzelner Verbindungen
Leitungsvermittlung
Demgegenüber wird beim klassischen Telefonnetz eine feste Verbindung zwischen den beiden Teilnehmern aufgebaut. Der Anrufer meldet seinen Verbindungswunsch an. Daraufhin wird im System eine Leitung zu dem Ziel aufgebaut.
Wenn die Gesprächsverbindung zu Stande kommt, wird für die Dauer des Gesprächs eine feste Übertragungsrate exklusiv reserviert. Man spricht daher von "Leitungsvermittlung". Wesentliche Eigenschaften sind:
- Aufbau einer Verbindung (Leitung) zwischen Quelle (Anrufer) und Ziel (Angerufenem)
- Erreichbarkeit des Zieles wird vor Beginn der Kommunikation sichergestellt
- Kommunikation erfolgt unter exklusiver Nutzung der Verbindung
- Zum Abschluss wird die Verbindung abgemeldet (Verbindungsabbau)
- Vorteil: konstante und garantierte Qualität
- Nachteil: schlechte Ausnutzung bei variabler Übertragungsrate
- Nachteil: empfindlich gegenüber Störung im Verbindungspfad
Zum Seitenanfang
Leistungsfähigkeit
Für die Realisierung verschiedener Dienste sind unterschiedlich leistungsfähige Netzwerke erforderlich. Primäre Kriterien sind dabei Durchsatz und Verzögerung.
Durchsatz oder Bandbreite gibt an, wie viele Daten in einer Zeiteinheit übertragen werden können. Das übliche Maß ist Bit pro Sekunde beziehungsweise die daraus abgeleiteten Einheiten wie etwa Mbit/s oder Gbit/s. Die Angabe 10 Mbit/s beispielsweise bedeutet, dass das Netzwerk 10 Millionen Bit in einer Sekunde übertragen kann. Umgekehrt lässt sich aus dieser Angabe berechnen, wie viel Zeit die Übertragung eines einzelnen Bits benötigt.
Bild 1: Einzelne Bits als zeitliche Impulse.
Für das Beispiel des 10-Mbit/s-Netzwerks ergibt sich ein Wert von 0,1 ms (Mikrosekunden). Dies ist allerdings nur die Zeit, bis der Sender das nächste Bit abschicken kann. Man darf diesen Wert nicht mit der Laufzeit bis zum Empfänger verwechseln. Wenn man sich die einzelnen Datenbits als eine Folge von Impulsen auf der Zeitachse vorstellt, kann man sagen, dass ein Bit (Impuls plus Pause) 0,1 ms breit ist.
Bandbreite
Die Bandbreite wird durch die technische Realisierung der Leitung bestimmt. Eine Bandbreite von 10 Mbit/s bedeutet, dass irgendwo im System ein Takt von 10 MHz vorgegeben wird. Die Angabe von Frequenzen folgt der üblichen Konvention von Zehnerpotenzen, 10 MHz bedeutet 10^6 Hz. Daraus abgeleitet versteht man unter 10 Mbit/s auch 10^6 bit/s.
Demgegenüber erfolgt die Größenangabe von Computerspeicher in Potenzen von 2. Ein kbit umfasst 210=1024 bit. Die unterschiedliche Interpretation muss im Prinzip immer berücksichtigt werden. So dauert etwa die Übertragung einer Datenmenge von 1 kbit über eine 1-kbit/s-Verbindung nicht exakt eine Sekunde. Vielmehr berechnet sich der exakte Wert zu:
Glücklicherweise ist der Unterschied recht gering (1.024 im Vergleich zu 1.000). Da in den allermeisten Fällen nur die ungefähre Größenordnung benötigt wird, kann man diese Feinheit zunächst ignorieren und den kleinen Fehler in Kauf nehmen.
Latenz
Die zweite wichtige Charakteristik einer Verbindung ist die Verzögerung oder Latenz (von lat. lateo = verborgen, versteckt, unbekannt sein).
Latenz bezeichnet die Zeit, die eine Nachricht für den Weg vom Sender bis zum Empfänger benötigt. Die Latenz beinhaltet drei Komponenten:
- Ausbreitungsverzögerung
- Übertragungsverzögerung
- Wartezeit
Die Ausbreitungsverzögerung tA resultiert aus der endlichen Geschwindigkeit mit der sich Signale ausbreiten. Kein Signal kann schneller als mit Lichtgeschwindigkeit übertragen werden. Die Lichtgeschwindigkeit hängt vom Übertragungsmedium ab. Als Richtwert kann der Wert c = 3.0 x 10^8 m/s für die Ausbreitung im Vakuum dienen. Damit kann man näherungsweise für die Ausbreitungsverzögerung bei einer Leitungslänge l den Wert tA=l/c ansetzen. Bei der Strecke Friedberg - Berlin (ca. 500 km) erhält man eine Ausbreitungsverzögerung, wie im Bild "Berechnung" gezeigt.
Berechnung: Ausbreitungsverzögerung
Die Übertragungsverzögerung tU ist durch die bereits oben diskutierte Dauer eines Bits bestimmt. Wir haben gesehen, dass bei einer Bandbreite von B bit/s ein einzelnes Bit 1/B s an Übertragungszeit benötigt. Für ein Objekt der Größe K ergibt sich dann
Die Definition bezieht sich auf größere Objekte, da in der Regel nicht ein einzelnes Bit, sondern immer größere Datenblöcke als eine Einheit gesendet werden.
Wartezeit
Die dritte Komponente - Wartezeit tW - spielt dann eine Rolle, wenn die Übertragungsstrecke nicht nur aus einer einzelnen Leitung, sondern aus mehreren Teilstücken besteht. Dann entsteht in den dazwischen liegenden Vermittlungsknoten eine Wartezeit.
Die gesamte Wartezeit hängt von der Verarbeitungsgeschwindigkeit der einzelnen Knoten, der Größe der Datenpakete sowie der Anzahl der Knoten ab. In praktischen Fällen ist die Wartezeit oft der größte Beitrag zur Latenz. Bei Paketvermittlung wartet ein Vermittlungsknoten häufig, bis er ein Paket vollständig erhalten hat, bevor er es weiter schickt. Bei hohem Verkehrsaufkommen muss das Paket zusätzlich auf eine freie Lücke warten. Typisch für beispielsweise einen transkontinentalen Kanal ist eine Latenz in der Größenordnung von 50 ms.
Die Latenz ist die Verzögerung vom Sender zum Empfänger. Häufig findet man auch die Angabe, wie lange ein Paket vom Sender zum Empfänger und wieder zurück benötigt. Man spricht dann von Roundtrip-Zeit (Englisch: Round-Trip Time, RTT). Zur besseren Unterscheidung benutzt man in Fällen, in denen eine Verwechslung auftreten könnte, für die einfache Verzögerung den Ausdruck Einweglatenz.
Bedeutung von Bandbreite und Latenz
Prinzipiell kann man sagen, je größer die Bandbreite und je kleiner die Verzögerung desto "besser" ist die Verbindung.
Allerdings hängen die konkreten Anforderungen von der jeweiligen Anwendung ab. Bei kleinen Objekten - zum Beispiel der Übermittlung eines Tastendrucks - dominiert die Verzögerungszeit. Bei einem Kanal mit 1 Mbit/s beträgt die Übertragungsverzögerung für 1 Byte
Dieser Wert ist im Vergleich zur gesamten Latenz nahezu vernachlässigbar. Bei größeren Objekten erfolgt die Übertragung in vielen kleineren Paketen. Die gesamte Übertragungsdauer - die vom Benutzer wahrgenommene Latenz - berechnet sich dann aus der Latenz eines einzelnen Pakets und der benötigten Zeit, um entsprechend viele Pakete zu übertragen. Für die Übertragung einer Videodatei mit 20 MByte berechnete man bei dem 1 Mbit/s Kanal für die reine Übertragungsverzögerung
In diesem Fall spielt die Laufzeit eines einzelnen Pakets keine Rolle. Die Übertragung lässt sich nur durch Erhöhen der Bandbreite signifikant verbessern. In Tabelle 1 sind für verschiedene Bandbreiten und RTT-Werte die resultierenden Werte der wahrgenommenen Latenz zusammen gestellt. Die Werte zeigen, dass die höhere Bandbreite erst bei größeren Datenmengen zu spürbaren Verbesserungen führt.
Tabelle 1: Wahrgenommene Latenz in ms für verschiedene Verzögerungszeiten und Objektgrößen
Verzögerung-Bandbreite-Produkt
Während die ersten Daten auf dem Weg vom Sender zum Empfänger sind, kann der Empfänger bereits weitere Daten schicken. Ansonsten, wenn der Sender beispielsweise auf eine Empfangsbestätigung wartet, ist der Kanal nur schlecht ausgenutzt.
Die Anzahl der Daten, die gleichzeitig auf dem Weg sind wenn der Sender permanent Pakete schickt, berechnet sich als Produkt aus Latenz und Bandbreite. In Bild 2 ist das so genannte Verzögerung-Bandbreite-Produkt grafisch als Röhre beziehungsweise Pipeline dargestellt.
Bild 2: Verzögerung-Bandbreite-Produkt als Pipeline
Ein Kanal mit einer Bandbreite von 10Mbit/s und einer Latenz von 50 ms nimmt ein Volumen auf, wie im Bild "Beispiel" gezeigt.
Beispiel: Volumenberechnung
Wenn der Empfänger das erste Bit empfängt sind bereits etwa 62 kByte Daten unterwegs. Signalisiert der Empfänger dem Sender, dass er keine weiteren Daten mehr aufnehmen kann, so benötigt der Sender wiederum die Latenzzeit von 50ms um reagieren zu können. Der Empfänger muss daher ausreichend Speicher vorhalten, um die Leitung noch leeren zu können. Andernfalls - wenn die Daten verloren gehen - müssen sie später erneut gesendet werden.
Zum Seitenanfang
Anwendungen
In der Praxis sind die Anforderungen von Anwendungen an die Leistungsfähigkeit des Übertragungskanals sehr unterschiedlich. Häufig schwankt die Anforderung auch sehr stark während der Verbindungsdauer. So benötigt man während des Surfens im Internet während der meisten Zeit beim Lesen und Anschauen nur geringe Bandbreite. Demgegenüber wird beim Wechsel zu einer neuen Seite kurzfristig viel Bandbreite benötigt, um aufwendige Bilder oder Videos schnell zu laden.
Am anspruchsvollsten im Hinblick auf die Netzwerksanforderungen sind Anwendungen, die einen kontinuierlichen Datenstrom mit engen Randbedingungen für die Verzögerung erfordern. Ein klassisches Beispiel ist das Telefonnetz. Die erforderliche Datenrate ist zwar gering (64 kbit/s bei ISDN, 13 kbit/s bei GSM), aber die Daten müssen ohne große Verzögerung und für die Dauer der Verbindung ohne erkennbare Pausen übertragen werden. Aus diesem Grund werden Telefonverbindungen bis heute in großen Teilen mit leitungsvermittelnden Netzwerken realisiert. In Tabelle 2 sind für einige Anwendungen die erforderlichen Datenraten angegeben.
Tabelle 2:
Neben der absoluten Verzögerung kann auch die relative Schwankung eine Rolle spielen. Bei einer Videoanwendung ist beispielsweise die absolute Verzögerung nicht entscheidend. Ob das Video nach 50 ms oder 200 ms beginnt ist nur ein geringer Unterschied. Aber nach dem Starten des Videos müssen die einzelnen Bilder immer rechtzeitig im erforderlichen Takt (zum Beispiel 30 Bilder pro Sekunde) geliefert werden. Bei einem paketvermittelnden Netzwerk kann es zu Schwankungen der Laufzeit - so genanntem Jitter - kommen.
Im Extremfall überholt ein Paket das vor ihm gestartete Paket. Beim Empfänger kommt in solchen Fällen das Abspielen des Videos ins Stocken. Wenn die absolute Verzögerung keine große Rolle spielt, kann der Empfänger das Problem umgehen, indem er zunächst einige Bilder speichert und das Video erst mit einer entsprechenden Verzögerung abspielt. Dann können bei eventuellen Verzögerungen vermehrt Bilder aus dem Speicher wieder gegeben werden, bis der Sender neue Bilder schickt.
Zum Seitenanfang
Teil 2: Verschiedenen Netzwerktypen und -topologien
In diesem Teil der Artikelserie erklären wir die verschiedenen Netzwerktypen und -topologien anhand vieler anschaulicher Grafiken. Sie erfahren, was die Vor- und Nachteile der Topologien sind. Außerdem klären wir, anhand welcher Kriterien Netzwerktypen klassifiziert werden.
Zwei wichtige Kategorien sind lokale Netze (LAN, Local Area Network) und Fernnetze (WAN, Wide Area Network). Ein LAN ist ein geschlossenes Netz innerhalb eines Gebäudes oder Firmengeländes. Die Reichweite ist damit auf wenige Kilometer beschränkt. Die Anzahl der angeschlossenen Teilnehmer ist bekannt. Weiterhin kann der Betreiber die eingesetzte Technik festlegen. Diese Faktoren vereinfachen das Netzwerkmanagement erheblich.
Ein WAN umfasst demgegenüber einen großen Bereich - beispielsweise ein Land oder einen Kontinent. Die Signallaufzeiten können daher unter Umständen sehr groß werden. In der Regel ist das Netz offen. Ständig werden neue Teilnehmer angeschlossen oder auch vorhandene Teilnehmer wieder abgemeldet. Für die Benutzung des Netzes müssen die Teilnehmer Gebühren bezahlen. Ein öffentliches Netz ist gerade dadurch gekennzeichnet, dass jeder, der die technischen Voraussetzungen für einen Netzanschluss erfüllt und die Gebühren bezahlt, das Netz auch benutzen darf. Der Betrieb eines solchen Netzes erfordert daher eine klare Regelung der technischen und rechtlichen Fragen. Durch Standards wird sichergestellt, dass die in aller Regel sehr heterogenen Endgeräte von verschiedenen Herstellern mit dem Netz zusammen funktionieren.
Zum Seitenanfang
Netzwerkkategorien
Neben den beiden Grundtypen LAN und WAN unterscheidet man noch zwischen verschiedenen Mischformen. Häufig benutzt man die Kategorie Stadtnetz (MAN, Metropolitan Area Network).
Das weltweite Netz kann man als Netzverbund mehrerer WANs oder als ein GAN (Global Area Network) sehen. In [1] finden Sie weiterhin die Definitionen:
- PAN (Personal Area Network) oder Piconetz für die Vernetzung eines Arbeitsplatzes
- SAN (Storage / System Area Network) für die Vernetzung eines Raumes - typischerweise ein Rechenzentrum
Bezüglich der Offenheit lässt sich weiterhin unterscheiden zwischen:
- Internet: das öffentliche und für alle offene Netz.
- SAN (Storage / System Area Network) für die Vernetzung eines Raumes - typischerweise ein Rechenzentrum.
- Intranet: ein Netzwerk, basierend auf der gleichen Technik wie das Internet, aber nur für einen geschlossenen Benutzerkreis (zum Beispiel Mitarbeiter einer Firma, Angehörige einer Hochschule) zugänglich.
- Extranet: ein Intranet, das ausgewählten, externen Benutzern (zum Beispiel Kunden) einen Zugang ermöglicht.
Zum Seitenanfang
Topologien
Bei dem Entwurf eines Netzes gibt es zahlreiche Möglichkeiten, die einzelnen Rechner zu verbinden. Dies betrifft sowohl die physikalische Verkabelung als auch die logische Struktur. So kann es beispielsweise sinnvoll sein, bestimmte Teile des Netzes gegen andere abzuschirmen um etwa den Zugriff auf sensible Daten zu kontrollieren.
Für die Verkabelung spielen Fragen wie die erforderlichen Bandbreiten und einzuhaltenden Verzögerungen, aber auch wirtschaftliche Überlegungen eine Rolle. Innerhalb eines Netzwerkes gibt es einige Standardstrukturen oder Topologien für Netzwerke.
Im Folgenden stellen wir diese Standardtopologien kurz vor. In der Praxis wird man selten die reinen Formen, sondern durch Kombination verschiedener Typen Mischformen realisieren.
Punkt-zu-Punkt-Topologie
Beim Maschennetz sind je zwei Endpunkte direkt verbunden. Dadurch ist eine sehr schnelle Kommunikation zwischen Hosts möglich. Darüber hinaus können einzelne Verbindungen an betreffende Geräte angepasst werden.
Insofern wäre eine komplette Vermaschung aller Rechner innerhalb eines Netzes die leistungsfähigste Lösung. Allerdings ist dies bei wachsender Anzahl von Endgeräten nicht mehr praktikabel. Bei N Endgeräten braucht jedes Endgerät N-1 Anschlüsse und insgesamt hätte man N*(N-1) Leitungen. Daher wird meist nur eine teilweise Vermaschung durchgeführt. Nicht direkt verbundene Endgeräte kommunizieren dann über Zwischenstationen.
Bild 3: Ein (teilweise) vermaschtes Netz ist bei einer wachsenden Anzahl von Endgeräten nicht mehr praktikabel
Sterntopologie
Eine Topologie mit sehr einfacher Struktur erhält man durch sternförmige Anordnung der Endgeräte um einen zentralen Knoten. Jedes Endgerät kommuniziert dann direkt nur noch mit dem Zentralknoten.
Der Zentralknoten muss entsprechend leistungsfähig sein. Sinnvoll kann es sein, an den Zentralknoten Komponenten wie Fileserver oder Backup-Geräte anzuschließen.
Bild 4: Beim Sternnetz kommunizieren die Endgeräte über einen Zentralknoten.
Baumtopologie
Verwandt mit der Sterntopologie ist die Baumtopologie. Im Unterschied zur Sternvariante sind hierbei nicht alle Endgeräte an einen Zentralknoten angeschlossen, sondern es gibt Zwischenknoten, die jeweils mehrere Endgeräte bedienen.
Bild 5: Bei der Baumtopologie gibt es Zwischenkonten, an die jeweils mehrere Endgeräte angeschlossen werden.
Ringtopologie
Eine Topologie mit gleichmäßiger Arbeitsteilung - zumindest bezüglich der Kommunikation - ist die Ringtopologie. Dabei ist jeder Knoten nur mit zwei anderen Knoten verbunden. Jedes Datenpaket wird dabei in jedem Knoten gelesen und - falls es nicht für diesen Knoten bestimmt ist - weiter gereicht.
Da auf jeder Leitung nur jeweils ein Knoten sendet und empfängt, hat man gute Kontrolle über die Leitung und kann einen hohen Durchsatz erzielen. Nachteilig ist die hohe Abhängigkeit des Gesamtsystems von jeder einzelnen Leitung.
Bild 6: Im Ringnetz ist jeder Knoten nur mit zwei anderen Knoten verbunden.
Bustopologie
In den bisher besprochenen Topologien verbindet eine Leitung stets zwei Knoten. Eine grundsätzliche Alternative ist die Nutzung einer gemeinsamen Leitung - dann auch als Bus bezeichnet. Jeder Knoten wird direkt mit diesem Bus verbunden. Um einen anderen Knoten zu erreichen, schickt ein Knoten eine Nachricht auf den gemeinsamen Bus. Alle Knoten müssen ständig die Daten auf dem Bus beobachten und die an sie adressierten Nachrichten aufnehmen.
Eine Stärke dieser Anordnung ist die effiziente Realisierung von Broadcast-Nachrichten, das heißt Nachrichten, die an mehrere oder sogar alle Knoten im Netz gerichtet sind. Ein derartiges System stellt eine Reihe von besonderen Anforderungen. So muss man mit entsprechenden Protokollen sicherstellen, dass nicht zwei Knoten gleichzeitig senden oder ein Knoten den Bus dauerhaft belegt.
Bild 7: Bei einer Bustopologie müssen alle Knoten ständig die Leitung überwachen, um an sie adressierte Daten aufzunehmen.
Zum Seitenanfang
Teil 3: Das OSI-Referenzmodell
Zum wirklichen Verständnis von Netzwerktechnik ist ein solides Basiswissen die Grundvoraussetzung. Unsere Artikelserie verschafft Ihnen dieses Know-how. Der dritte Teil behandelt das OSI-Referenzmodell.
Zum Seitenanfang
In vielen Fällen kommunizieren Sender und Empfänger nicht direkt, sondern über Zwischenstufen. Betrachten wir folgendes Beispiel: Herr A. möchte 12 Flaschen Rotwein von Chateau Rothschild in Bordeaux kaufen. Seine Nachricht kann man wie folgt darstellen:
[Herr A.] [12 Flaschen Rotwein] [Chateau Rothschild]
Herr A. spricht weder Französisch noch kennt er die Anschrift von Chateau Rothschild. Daher wendet er sich an seinen Weinhändler als Vermittler. Der Weinhändler kennt einen Großhändler in Bordeaux, spricht selbst allerdings auch kein Französisch. Er übersetzt daher die Bestellung in Englisch und schickt folgende Nachricht an den Großhändler:
[Herr A.] [12 bottles red wine] [Chateau Rothschild] [Großhändler in Bordeaux]
Der französische Großhändler entfernt seine eigene Adresse, übersetzt in Französisch und leitet die Bestellung weiter.
[Herr A.] [12 bouteilles vin rouge] [Chateau Rothschild]
Der gesamte Ablauf der Bestellung ist in Bild 8 dargestellt. Dabei ist als zusätzliches Element noch die Übertragung der Nachricht als Brief per Post eingetragen.
Zum Seitenanfang
Protokollstapel
Das Bild zeigt, wie die eigentliche Kommunikation über mehrere Zwischenstufen abläuft. Auf diesem Weg wird die Nachricht zweimal übersetzt. Wichtig ist dabei, dass die einzelnen Schritte unabhängig voneinander erfolgen. Für die Bestellung ist es unwesentlich, ob die beiden Händler sich in Englisch oder irgendeiner anderen Sprache verständigen, solange sie sich auf eine gemeinsame Sprache verständigen können. Entsprechend brauchen die beiden Endbenutzer die Übertragungssprache nicht zu verstehen.
Bild 8: Ablauf Rotwein-Bestellung
Für jede Schnittstelle muss nur zwischen den beiden beteiligten Partnern ein Protokoll verabredet werden. Die gesamte Übertragung beinhaltet eine Kette von Protokollen - den so genannten Protokollstapel (engl. protocol stack). Auf der Sendeseite wird die Protokollkette von oben nach unten abgearbeitet bis die Nachricht physikalisch verschickt wird. Beim Empfänger durchläuft die Nachricht die Kette dann in umgekehrter Reihenfolge. Typisch ist dabei, dass auf der Sendeseite die unteren Ebenen zusätzliche Informationen anfügen (im Beispiel die Adresse des französischen Großhändlers), die dann beim Empfänger auf der gleichen Ebene wieder entfernt werden.
Diese Situation - die beiden Kommunikationspartner verständigen sich indirekt über eine Reihe von Zwischenschichten - stellt die große Herausforderung für heterogene Netzwerke dar. Ein typisches Beispiel ist die Kommunikation zwischen einem Web-Browser, der auf einem PC unter Windows2000 läuft, und einem Web-Server auf einem Großrechner mit dem Betriebssystem Linux. Trotz aller Unterschiede in Hard- und Software können die beiden Anwendungen sich verständigen.
Zum Seitenanfang
OSI-Referenzmodell
Zum Verständnis der Abläufe in Netzwerken ist eine standardisierte Darstellung der verschiedenen Protokollebenen hilfreich. Eine klare Definition funktionaler Ebenen erlaubt eine starke Kapselung. Die Schnittstelle zwischen zwei Ebenen kann dann leicht ausgetauscht werden, ohne dass es zu Rückwirkungen auf die anderen Protokolle kommt.
Bild 9: Schichtenreferenzmodell ISO/OSI 7
Eine formale Definition der verschiedenen Schichten entwickelte die ISO (International Standards Organization) ab etwa 1977. Resultat ist das Schichtenmodell ISO/ OSI 7. Bild 9 zeigt die 7 Schichten des Referenzmodells. In diesem Modell sind weiterhin die Schnittstellen zwischen den Schichten festgelegt. Man unterscheidet zwischen Protokollen und Diensten. Protokolle definieren die Schnittstelle zwischen zwei Systemen auf einer Ebene. Demgegenüber sind in der OSI-Terminologie Dienste Funktionen, die eine Schicht der nächsthöheren Schicht zur Verfügung stellt.
Zum Seitenanfang
Die Schichten im Detail
Bitübertragung
Die Bitübertragungsschicht (physical layer) stellt einen Bitstrom zwischen Sender und Empfänger bereit. Auf dieser Ebene spielt die Bedeutung der Bits keine Rolle. Vielmehr geht es darum, wie die einzelnen Bits übertragen werden. Darunter fallen Fragen wie Übertragungsmedien, Stecker, Darstellung einzelner Bits, Aufbau einer Verbindung, et cetera.
Sicherung
Bei der Bitübertragung können Fehler auftreten. Aufgabe der Sicherungsschicht (data link layer) ist es, solche Fehler zu erkennen und durch entsprechende Mechanismen zu korrigieren. Dazu werden Blöcke von Datenbits zusammen gefasst. Die so gebildeten Datenrahmen (data frames) werden mit zusätzlichen Bits zur Kennung von Anfang und Ende versehen. Weitere Kontrollbits erlauben dem Empfänger, die korrekte Übertragung des Rahmens zu überprüfen. Erkennt der Empfänger Fehler, kann er sie bis zu einer gewissen Grenze korrigieren. Ist der Rahmen so gestört, dass eine Korrektur nicht mehr möglich ist, fordert der Empfänger den Sender auf, den Rahmen erneut zu senden.
Vermittlung
Der Weg den die Daten nehmen sollen wird in der Vermittlungsschicht (network layer) festgelegt. Diese Festlegung kann beispielsweise zu Beginn einer Verbindung erfolgen. Alternativ kann auch für jedes Paket neu die gerade optimale Route bestimmt werden. Man spricht auf der Vermittlungsschicht nicht mehr von Rahmen, sondern von Paketen. Die Vermittlungsschicht enthält in der Regel auch Abrechnungsfunktionen, um die entstandenen Gebühren zu erfassen.
Wenn auf dem Weg vom Sender zum Empfänger mehrere Knoten liegen, werden in jedem der Knoten die drei untersten Schichten benötigt.
Transport
Die Transportschicht (transport layer) ist die erste Ende-zu-Ende Schicht. Das heißt, das Programm in der Transportschicht der Sendeseite kommuniziert mit einem passenden Gegenstück auf Empfängerseite. Aufgabe der Transportschicht ist, größere Datenmengen von den oberen Schichten zu übernehmen, falls notwendig in kleinere Einheiten zu zerlegen und dann an die Vermittlungsschicht weiter zu geben. Die Transportschicht ist auch zuständig für den Aufbau der Verbindung.
Sitzung
Die Sitzungsschicht (session layer) bietet eine übergeordnete Sicht der Verbindung. Eine Sitzung kann verschiedene Verbindungen beinhalten, zum Beispiel für Hin- und Rückkanal, oder in zeitlicher Folge wenn die Verbindung nicht permanent gehalten wird.
Darstellung
In der Darstellungsschicht (presentation layer) werden die von unten gelieferten Daten interpretiert und in die für das System richtige Darstellung gebracht. Beispielsweise werden für die Übertragung Standardrepräsentationen für Daten wie Zeichen, Festkommazahlen, et cetera definiert. In der Darstellungsschicht erfolgt dann die Umsetzung aus der allgemeinen Repräsentation in das maschinenspezifische Format. Zu den weiteren Aufgaben in dieser Schicht gehören Verschlüsselung und Datenkompression.
Anwendung
Die Anwendungs- oder Verarbeitungsschicht (application layer) stellt dem Benutzer bestimmte Dienste zur Verfügung. Dazu gehören der Dateitransfer, das Anmelden auf anderen Rechnern oder die Kontrolle von Prozessen.
Zum Seitenanfang
Literatur
[1] Erich Stein. Taschenbuch Rechnernetze und Internet. Fachbuchverlag Leipzig im Carl Hanser Verlag, 2001
[2] Andrew S. Tanenbaum. Computernetzwerke. Prentice Hall, 2000
Zum Seitenanfang