Start

Vergleich der Baukosten von DWDM-Netzen im Vergleich zu SDH-Netzen

Das Konstruktionsproblem des mehrschichtigen Netzwerkkonzepts für ein Hochgeschwindigkeits-Telekommunikationsnetz, das auf der Technologie der Synchronous Digital Hierarchy (SDH) und Wavelength Division Multiplex (WDM) basiert, muss eine Reihe von Anforderungen mit dem Ziel erfüllen, die Investitionen in die Ausrüstung zu minimieren.

Alles beginnt mit der Designphase - wo die effektiven Kosten von optischen SDH- oder DWDM-Netzen wettbewerbsfähig sein müssen.

Designprozess
Eine Netzwerkkonstruktionsmethode fährt fort, indem sie Zyklen erzeugt, die Wirtschaftlichkeit des Baus von Ringen auf diesen Zyklen bewertet und beliebige Wirtschaftsringe baut. Beim Erzeugen eines Zyklus werden zwei Endpunkte ausgewählt, zwischen denen zwei disjunkte Verbindungs- und Knotenpfade gewünscht werden - die beiden ausgewählten Knoten sind also Knoten auf den Kandidatenringen.

In einem Telekommunikationsnetz ist ein "Ring" eine Folge von Knoten, die in einem "Zyklus" so angeordnet sind, dass kein Knoten wiederholt wird. Die "Verbindungen" zwischen den Knoten sind Stellen, an denen Fasern platziert werden können. Knoten sind im Allgemeinen physische Orte wie Gebäude, an denen Faserbündel miteinander verbunden werden können und an denen Geräte wie Multiplexer, Verstärker, Regeneratoren, Transponder usw. platziert werden können. Das Ring-Design beinhaltet zum Teil die Entscheidung über die Ringplatzierung, d.h. welche Knoten und welche Links einbezogen werden sollen. Das Ringdesign betrifft auch die Auswahl der Geräte, d.h. welche Arten und Raten von Multiplexern, Verstärkern, Regeneratoren, Transpondern usw. und wo die Geräte platziert werden sollen. Schließlich beinhaltet das Ringdesign zwangsläufig die Entscheidung, welche Anforderungen an die Ringe gestellt werden sollen.

Die für SONET/SDH verwendeten Modelle sehen die folgenden Kosten und Parameter vor:

  • Rahmen und Installation,
  • Regenerationsverlustschwellenwerte,
  • Maximale Anzahl von SONET ADMs auf einem Ring und
  • Fasermaterial, Hülleninstallation und Strukturausdehnungskosten.

Derzeit wird das DWDM (Dense Wavelength Division Multiplexing) hauptsächlich auf Langstrecken eingesetzt. Der normalerweise verwendete DWDM-Jahrgang ist Punkt-zu-Punkt DWDM, oder mit anderen Worten, DWDM-Systeme werden als Faserkonzentratoren verwendet. Der Grund dafür, dass diese Ausrüstung bei Langstreckenbeförderern so weit verbreitet ist, ist die einfache Wirtschaftlichkeit: DWDM kann die Investitionskosten erheblich reduzieren, da es möglich ist, die Anzahl der von jeder Faser übertragenen Signale zu vervielfachen und so teure Kabel- oder Trassenaufrüstungen zu vermeiden und gleichzeitig die Kosten für mehrere Regeneratoren zu sparen.

DWDM ist eine Mehrfach-Signalübertragung über eine einzige Faser namens DWDM oder verschiedene Frequenzen (Farben/Wellenlängen/Lambdas) für verschiedene Verbindungen über die einzelne Faser. Voll ausgestattete DWDM-Geräte können die gleiche Kartenpalette wie SDH umfassen. Sie können vollständig konfigurierbare Cross-Connect-Funktionen unterstützen. Die DWDM-Technologie bietet eine sehr hohe Bandbreite an Langstreckenverbindungen. DWDM gilt als eine der besten Technologien, um die Bandbreite über eine bestehende Glasfaseranlage zu erhöhen. Es ermöglicht die Erstellung mehrerer "virtueller Fasern" über eine physikalische Faser.

Die DWDM-Schicht ist protokoll- und bitratenunabhängig, was bedeutet, dass sie ATM (Asynchronous Transfer Mode), SONET und/oder IP-Pakete gleichzeitig übertragen kann. Die WDM-Technologie kann auch in passiven optischen Netzwerken (PONs) eingesetzt werden, d.h. Zugangsnetzwerken, in denen der gesamte Transport, das Schalten und Routing im optischen Modus erfolgt.

Die Unterschiede zwischen den Nachfragetypen werden hauptsächlich durch die Designeffizienz der Interfacekarten dieser beiden Technologien in Bezug auf Dichte und Preis verursacht.

Kosten aus IP - Internet Protocol - Traffic-Ansatz
Der IP-Verkehr wächst exponentiell, da Kunden zu IP-basierten Anwendungen wechseln. Da sich diese Netzwerke zu bandbreitenintensiven IP-basierten Sprach-, Video- und Datendiensten entwickeln, müssen die Betreiber die Kapazität als Reaktion auf die Nachfrage erhöhen, da sie wissen, dass die gesammelten Einnahmen nicht im gleichen Maße steigen werden. Daher müssen die Carrier Wege finden, den Betrieb und die Kosteneffizienz von Servicenetzen zu optimieren und die Kosten pro Bit drastisch zu senken.

Traditionell wurde dies mit Hilfe des (IP) Internet Protocol over SDH-Ansatzes realisiert, der die unbequeme Umwandlung von optisch zu elektrisch zu optisch (OEO) an den aggregierten Schnittstellen aufweist. Das IP over DWDM ist praktisch als Verbindung zwischen DWDM-Router-Schnittstellen mit einer optisch geschalteten DWDM-Schicht implementiert.

Suchen Sie nicht das richtige Produkt - finden Sie es - nur hier im GBIC-SHOP. Jetzt vorbei schauen!

25G SFP28 Kabel - Ideal für die TOR Server Verbindung?

In den letzten Jahren ist die Nachfrage nach Bandbreitenbedarf für unsere Kommunikation dramatisch gestiegen.  Ob in einem Kommunikationsdienstleister oder in einem öffentlichen oder privaten Rechenzentrum, eine Entwicklung der Konnektivität, die eine höhere Geschwindigkeit und Bandbreite bietet, ist erforderlich. Aus diesem Grund wurde im Juli 2014 ein Industriekonsortium gegründet, um einen neuen Ethernet-Konnektivitätsstandard in Rechenzentren zu schaffen. Dieser Standard wurde 25 Gigabit Ethernet oder 25Bade-T genannt, entwickelt von der IEEE 802-3 Task Force P802.3by. Dieser Standard wurde aus dem 100Gbe abgeleitet, sein Betrieb funktioniert jedoch als vier 25Gbps, die auf vier Fasern oder Kupfer laufen. Im Juni 2016 wurde diese Technologie mit den neuen Schnittstellen SFP28 und QSFP28 kommerziell eingeführt. Dieser Artikel wird über das SFP28 diskutieren.

Der SFP28 wurde in vier parallelen 25Gpbs-Datenkanälen aufgebaut, die eine maximale Rate von 100Gbps ermöglichen. Diese physikalische Struktur des SPF28 ist die gleiche wie bei den beliebten SFP und SFP+. Diese Eigenschaft bietet Flexibilität, da die 100Gbps auch einzeln in vier 25Gbps-Verbindungen unterteilt werden können. SFP28 verwendet eine 28Gbps-Spur (25Gbps + Fehlerkorrektur), die speziell für den Top-or-Rack (TOR)-Switch auf Serverkonnektivität verwendet wird. Darüber hinaus ist SFP28 sowohl in Kupfer- als auch in Glasfaserkabeln erhältlich.

Die Kupferkabelversion wird in einem einzigen fest konfigurierten Modul hergestellt, d.h. die Kupferkabel werden direkt an einem SFP+-Modul befestigt. Diese Version ist ideal für den Einsatz auf kurzen Strecken von 1m bis 5m. Auf der anderen Seite funktioniert die Glasfaser-Version entweder in einem 850nm, das ein Paar Multimode-Fasern verwendet und bis zu einer maximalen Entfernung von 100m arbeitet, oder in einem 1320nm, das mit einem Paar Monomode-Fasern bis zu 20km arbeitet.

Die Entwicklung von 25G SFP28 hat eine Vielzahl von Vorteilen mit sich gebracht, insbesondere in einer webbasierten Rechenzentrumsumgebung, in der der Trend aus Kostengründen zu einem einzelnen Port-Server geht.

In erster Linie ermöglicht es eine effiziente Nutzung von Daten und Switch-Portdichte. Der Grund dafür ist, dass der vorhandene 100G-Port als 4x25G mit als QSFP zu SFP28 Break-Out-Kabel verwendet werden kann, anstatt für verschiedene Ports zu verwenden. So kann beispielsweise ein 25Gbe-Strang 2,5 mal mehr Daten liefern als die beliebte 10G-Lösung und eine höhere Portdichte bieten.

Darüber hinaus sorgte es für eine äußerst effiziente Erhöhung der Geschwindigkeit vom Server zum Top-of-Rack (TOR), insbesondere bei Verwendung der Direct Attached Copper-Baugruppe. Es vereinfacht auch die Entwicklung der Interoperabilitätsspezifikation und des Systems aufgrund der Tatsache, dass es rückwärtskompatibel ist und einen einfacheren Upgrade-Pfad von einer bestehenden 10G ToR-Serverkonfiguration bietet.

Darüber hinaus ist die Verwendung von 25G SFP28 für ToR-Server wirtschaftlicher. Dies liegt daran, dass es höhere Portdichten bieten kann, weniger ToR-Switches und Kabel benötigt werden. Es ermöglicht eine kostengünstigere alternative Top-of-Rack-Serververbindung, die Punkt-zu-Punkt-Patchkabel verwendet. Es ermöglicht End of Row (EoR) oder Middle of Row (MoR) unter Verwendung der 30 Meter langen strukturierten Verkabelung. Infolgedessen reduziert es die Investitionskosten in die Baukosten im Vergleich zu anderen Konfigurationen wie dem 40GbE.

Letztendlich bietet die 25G SFP28 Assembly eine reduzierte Leistung und einen geringeren Platzbedarf für Rechenzentren, da sie die Leistung pro Port auf unter 3W begrenzt.

Aufgrund dieser Vorteile, die die 25G SFP28 Baugruppe bietet, wird prognostiziert, dass sie in den kommenden Jahren beliebt sein wird. Es wird angenommen, dass die dominante Serververbindung der nächsten Generation in Richtung der 25Gbps Geschwindigkeit im Server geht und in naher Zukunft wird es mehr Geräte geben, die die 25G SFP28 Kabelanordnung verwenden werden.

Wie wirkt sich die Dämpfung auf mein Glasfasernetz aus?

Glasfasernetze sind Netzwerke, bei denen die Datenübertragung mit Hilfe von optischen Transceivern und optischen Kabeln erfolgt. Die optischen Sender-Empfänger übertragen ein optisches Licht über ein optisches Kabel. Wie bei Standard-Ethernet-Kupfernetzen werden auch optische Netzwerke durch äußere Belastungen und innere Eigenschaften beeinflusst, so dass ein gewisser Leistungsverlust entsteht. Diese optische Verlustleistung wird als Dämpfung bezeichnet.

Glasfaserkabel bestehen aus Glasfaserkern und -mantel, Pufferbeschichtung, Kevlar-Festigkeitskomponenten und einem schützenden Außenmaterial, dem sogenannten Mantel. Abhängig vom Typ des optischen Kabels. Diese Komponenten können in Größe und Festigkeit variieren. Im Gegensatz zu den Kupferkabeln, die Strom zur Datenübertragung verwenden, verwenden Glasfaserkabel optische Lichtimpulse für die gleiche Funktion. Ihr Kern besteht aus einem hochreinen Glas, das von einer spiegelartigen Verkleidung umgeben ist. Wenn das Licht auf das Kabel trifft, fährt es den Kern hinunter, der ständig von der Verkleidung hüpft, bis es das endgültige Ziel erreicht. Es gibt zwei Arten von optischen Kabeln, Multimode und Singlemode. Von außen sehen sie fast gleich aus, aber ihr Inneres spielt eine große Rolle bei der optischen Dämpfung. Singlemode-Fasern werden wegen ihres engeren Kerns und ihrer engeren Umhüllung für Hochgeschwindigkeitsverbindungen mit großer Reichweite verwendet, die die Lichtübertragung verbessern, indem sie das Aufprallen des Lichts auf die Umhüllung begrenzen. Multimode-Fasern haben einen größeren Kern, so dass das Licht immer mehr Energie verliert, bis es das Ziel erreicht.

Die optische Dämpfung von Glasfasern ist jedoch nicht nur die durch den Kabelkern verlorene Leistung. Eine hohe optische Dämpfung kann durch Absorption, Streuung und physikalische Belastung des Kabels wie Biegen verursacht werden. Die Signaldämpfung ist im Allgemeinen definiert als das Verhältnis der optischen Eingangsleistung zur optischen Ausgangsleistung. Wie die Namen schon andeuten, ist die optische Eingangsleistung die vom optischen Sender-Empfänger in das optische Kabel eingespeiste Leistung und die optische Ausgangsleistung die vom Sender-Empfänger am anderen Ende des Kabels empfangene Leistung. Die Dämpfungseinheit wird als dB/km bezeichnet.

Absorption ist eine der Hauptursachen für die optische Dämpfung. Dies ist definiert als die optische Verlustleistung, die durch die Umwandlung der optischen Leistung in eine andere Form entsteht. Die Absorption wird typischerweise durch einen Restwasserdampf verursacht. Im Allgemeinen wird die Absorption durch zwei Faktoren definiert:

o Unvollkommenheit in der atomaren Struktur des Fasermaterials

o Die extrinsischen und intrinsischen Fasermaterialeigenschaften, die das Vorhandensein von Verunreinigungen im Fasermaterial darstellen.

1. Die extrinsische Absorption wird durch Verunreinigungen wie Spurenmetalle, Eisen und Chrom verursacht, die während des Herstellungsprozesses in die Faser eingebracht werden. Diese Spurenmetalle verursachen während des Umwandlungsprozesses einen Leistungsverlust, wenn sie von einer Energieebene zur anderen wechseln.

2. Die intrinsische Absorption wird durch die grundlegenden Eigenschaften des Fasermaterials verursacht. Wenn das Glasfasermaterial rein ist, ohne Verunreinigungen und Unvollkommenheiten, dann wäre jede Absorption intrinsisch. Beispielsweise wird Quarzglas in Glasfasern aufgrund seiner geringen intrinsischen Absorption bei bestimmten Wellenlängen im Bereich von 700 nm bis 1600 nm verwendet.

Streuverluste werden durch die Dichteschwankungen in der Faser selbst verursacht. Diese werden während des Herstellungsprozesses produziert. Streuung tritt auf, wenn das optische Licht auf verschiedene Moleküle im Kabel trifft und umherprallt. Die Streuung ist stark abhängig von der Wellenlänge des optischen Lichts. Es gibt zwei Arten von Streuverlusten bei Glasfasern:

o Rayleigh-Streuung - diese Streuung tritt bei kommerziellen Fasern auf, die bei 700-1600 nm Wellenlängen arbeiten. Rayleigh-Streuung tritt auf, wenn die Größe der Dichtefluktuation weniger als 1/10 der Betriebswellenlänge beträgt.

o Mie-Streuung - diese Streuung tritt auf, wenn die Größe der Dichtefluktuation größer als 1/10 der Betriebswellenlänge ist.
Das Biegen des Glasfaserkabels bewirkt ebenfalls eine Dämpfung. Der Biegeverlust wird in Mikrobiegungen und Makrobiegungen unterteilt:

o Mikrobiegungen sind kleine mikroskopische Biegungen in der Faser, die am häufigsten auftreten, wenn die Faser verkabelt wird.

o Makro-Biegungen hingegen sind Biegungen, die einen großen Krümmungsradius im Verhältnis zum Kabeldurchmesser aufweisen.
Eine weitere Art der optischen Verlustleistung ist die optische Dispersion. Die optische Dispersion stellt die Verteilung des Lichtsignals über die Zeit dar. Es gibt zwei Arten der optischen Dispersion:

o Chromatische Dispersion, die die Ausbreitung des Lichtsignals aufgrund der unterschiedlichen Geschwindigkeiten der Lichtstrahlen bewirkt.

o Modale Dispersion, die die Ausbreitung des Lichtsignals bewirkt, das sich aus den verschiedenen Ausbreitungsmodi der Faser ergibt.

Die modale Dispersion begrenzt in den meisten Fällen die maximale Bitrate und Verbindungslänge in Multi-Mode-Fasern. Die chromatische Dispersion ist der Hauptverantwortliche für die Dämpfung bei Singlemode-Fasern.

Vor diesem Hintergrund sollten wir immer die mögliche Dämpfung der Fasern berücksichtigen, testen und berechnen, um ein stabiles Netzwerk für zukünftige Upgrades bereitzustellen.

Was ist MPLS?

Da das Internet ein Netzwerk ist, das in den letzten Jahrzehnten exponentiell wächst, kommt es zu einem Punkt, an dem eine bestimmte Technologie nicht in der Lage ist, die Nachfrage nach der Anzahl der Benutzer oder die Daten, die zwischen den Netzwerken wandern, zu bewältigen. Darüber hinaus gibt es auch einen dramatischen Anstieg der Verbindungsgeschwindigkeit, neuere Anwendungen wie Multimedia-, Sprach-, Video- und Echtzeit-E-Commerce-Anwendungen wurden entwickelt. Aufgrund dieser Innovationen besteht ein großer Bedarf an neuen Technologien, die nicht nur eine größere Bandbreitenkapazität bereitstellen, sondern auch eine zuverlässige Quality of Service und eine optimale Leistung garantieren, die nur minimale Netzwerkressourcen verbraucht.

Multi-Protocol Label Switching oder allgemein bekannt als MPLS ist eine Technologie, die es Dienstleistern oder Unternehmen ermöglicht, eine Vielzahl von zusätzlichen Dienstleistungen für ihre Kunden über eine einzige Infrastruktur anzubieten. Diese Technologie bietet viele Vorteile, vor allem ermöglicht sie ISPS eine bessere Kontrolle über ihr wachsendes Netzwerk durch die Traffic Engineering, die Netzwerkkonvergenz und den Fehlerschutz von MPLS.  Darüber hinaus ist es ein wirtschaftlicher Ansatz, da es verschiedene Preismodelle auf Basis von QoS anbieten kann.  Schließlich kann es nahtlos mit bestehenden Technologien wie Frame Relay, ATM (Asynchronous Transfer Mode), Ethernet oder IP überlagert werden.  Aufgrund der Effizienz, Skalierbarkeit und Sicherheit, die MPLS sowohl Kunden als auch ISPs bieten kann, ist es heute eines der weit verbreiteten Protokolle im Internet.

TECHNISCHES KNOW-HOW AUF MPLS

MPLS ist eine Netzwerktechnologie, die zwischen Layer 2 (Data Link) und Layer 3 (Network) des OSI-Modells arbeitet, weshalb sie manchmal als Layer 2.5 Networking Protocol bezeichnet wird.
Es ist eine sehr beliebte Kernnetzwerktechnologie, die es seit einigen Jahren gibt, diese Technologie verwendet Etiketten für Pakete und leitet sie über das Netzwerk weiter.

Die Weiterleitung von Paketen oder Frames unter Verwendung von Labels ist nicht neu, in der Tat wurde diese Technik von Frame Relay und ATM verwendet. Beide dieser Technologien verwenden "Label" in ihrem Header und verwenden eine Private Virtual Circuits von Endbenutzern, die durch Hubs-Sites wandern und eine Mesh-Topologie erstellen, jedoch wird jedes Label in ihrem Header in jedem Hop geändert.

Im OSI-Modell verwendet Layer 2 Protokolle wie Ethernet, VLAN, etc., die IP-Pakete nur in ein einfaches Local Area Network übertragen. Schicht 3 hingegen nutzt die internetweite Adressierung und Weiterleitung über IP-Protokolle. MPLS befindet sich zwischen diesen Schichten und bietet zusätzliche Funktionen für die Bereitstellung von Daten über ein Netzwerk. In einem traditionellen IP-Routing werden Routing-Protokolle verwendet, um Layer-3-Routinginformationen zu verteilen. Jeder Router führt grundlegende Schritte der Paketbereitstellung aus; zunächst führt er ein IP-Lookup auf seiner Routingtabelle durch, um seinen nächsten Hop zu bestimmen und die Pakete dann an den nächsten Hop weiterzuleiten. Diese Prozesse wurden für jeden Router im Netzwerk wiederholt, bis die Daten ihr endgültiges Ziel erreicht hatten. Darüber hinaus basiert die Weiterleitung nur auf der Zieladresse und die Routing-Suche wird in jedem Hop durchgeführt. So benötigt jeder Router auch eine vollständige Internet-Routing-Information und verbraucht viel Speicherplatz in seinem System.

In MPLS wird es "Label-Switching" verwenden, und das erste Gerät ist das einzige, das Routing-Lookup durchführt. Anstatt jedoch seinen nächsten Hop zu finden, findet er seinen Zielrouter und seinen vorbestimmten Weg von seinem Standort zum endgültigen Router.

Wie funktioniert MPLS?

Ein MPLS-Netzwerk besteht aus Label Switch Router (LSR), diese Router verstehen, wie ein MPLS funktioniert, daher sind sie derjenige, der beschriftete Pakete in das und aus dem MPLS-Netzwerk markiert und sendet. LSRs haben drei Arten, nämlich:

  • Ingress LSR - ein Provider Edge (PE) oder Label Edge Router (LER) ist der erste Router im MPLS-Netzwerk, der für das Einfügeetikett oder "Shim" am Kopf des Pakets verantwortlich ist und es im Netzwerk weiterleitet.  Es steht gegenüber den Customer Edge (CE) Routern, von denen die Daten stammen.

  • Egress LSR - ein Provider Edge (PE) oder Label Edge Router (LER) ist der letzte Router im MPLS-Netzwerk, der das beschriftete Paket am anderen Ende empfängt, das Label entfernt und an einen Customer Edge (CE) Router sendet.

  • Intermediate LSR - ein Provider(P) oder Intermediate Router, sind Transitrouter, die eingehende markierte Pakete empfangen, Operationen zum Wechseln von Labels durchführen und diese Pakete dann an die richtige Datenverbindung innerhalb des MPLS-Netzwerks weiterleiten.

Nachfolgend finden Sie ein einfaches MPLS-Netzwerk, das die grundlegenden Mitglieder zeigt:

Die drei Hauptfunktionen des LSR sind nachfolgend aufgeführt:

  • POP - Entfernen Sie das Label für ausgehende Pakete.
  • PUSH - wenn ein LSR unbenanntes Paket erhält, erstellt er einen Etikettenstapel und schiebt ihn in das Paket. Empfängt ein LSR dagegen ein etikettiertes Paket, drückt er ein oder mehrere Etiketten in den Etikettenstapel und schaltet das Paket aus.
  • SWAP - Ein LSR tauscht Etiketten aus, d.h. wenn er ein etikettiertes Paket erhält, ersetzt er oder tauscht einfach die Oberseite des Etikettenstapels gegen ein neues Etikett aus.

Ein weiteres wichtiges Konzept für die Funktionsweise eines MPLS ist der Label Switch Path oder LSP, technisch gesehen ist es der unidirektionale netzwerkweite Tunnel oder Pfad zwischen den LSRs innerhalb des MPLS-Netzwerks. Darüber hinaus ist dieser LSP sehr wichtig für den MPLS-Weiterleitungsmechanismus.

Darüber hinaus gibt es zwei Routing-Protokolle im MPLS-Netzwerk, die in der Industrie weit verbreitet sind. Erstens ist das Label Distribution Protocol oder LDP, es ist ein einfaches, nicht einschränkendes Protokoll, bei dem LSRs Etiketteninformationen von ihrem Nachbarn erhalten, was bedeutet, dass dies der Prozess ist, der eine schnellere Suche und Adressierung ermöglicht. Zweitens ist das Resource Reservation Protocol mit Traffic Engineering oder RSVP-TE, dieses Protokoll ist ein komplizierteres, da es Traffic Engineering unterstützt und mehr über Overhead verbraucht. Dieses Protokoll ermöglicht es MPLS jedoch, die Nutzung der Bandbreite im Netzwerk effizient zuzuweisen und zu maximieren, den Datenverkehr zu priorisieren und Staus zu vermeiden.

Damit ein MPLS-Netzwerk funktionieren kann, muss man auch die Forward Equivalence Class (FEC), Label Information Base (LIB) und die Label Forwarding Information Base (LFIB) kennen.

FEC, ist eine Gruppe oder ein Fluss von Paketen, die im gleichen LSP weitergeleitet werden und die gleiche Behandlung in Bezug auf die Weiterleitung haben, und dies bestimmt auch, wie Pakete mit dem gleichen Label zum gleichen gehören. Dies liegt daran, dass die Weiterleitungsbehandlung unterschiedlich sein kann und zu einem anderen FEC gehört. Insbesondere klassifiziert und ordnet die Ingress LSR Pakete zu, zu denen sie gehört.  Nachfolgend finden Sie einige Klassifizierungen von FECs:

  • IP-Präfix/ Host-Adresse
  • Layer-2-Schaltungen (ATM, Frame Relay, PPP, HDLC, Ethernet)
  • Gruppe von Adressen/Stellen-VPN
  • Bridge-/Switch-Instanzen-VSI
  • Tunnelschnittstelle Verkehrstechnik

LFIB, ist die Tabelle, mit der Router beschriftete Pakete weiterleiten, die aus ein- und ausgehenden Bezeichnungen für einen LSP bestehen. Diese ausgehenden und eingehenden Etiketten haben eine Bindung, die von der LIB bereitgestellt wird.  Eingehende Etiketten stammen von einer lokalen Bindung in einem bestimmten LSR, während die ausgehenden Etiketten von Remote-Bindungen stammen, die vom LSR aus allen möglichen Remote-Bindungen ausgewählt wurden.  Die LFIB wählt jedoch nur eines dieser ausgehenden Etiketten aus der gesamten Fernbindung in der LIB aus. Das gewählte Remote-Label hängt davon ab, welcher Pfad der beste ist, der in der Routingtabelle gefunden wird.

Daher müssen alle direkt verbundenen LSR eine LDP- oder Peer-Beziehung zwischen ihnen aufbauen, damit sie Label-Mapping-Meldungen über diese LDP-Sitzungen hinweg austauschen können. Ein Label-Mapping oder eine Bindung ist an FEC gebunden.  Die FEC ist ein Satz von Paketen, die auf einen bestimmten LSP abgebildet werden und über diesen LSP über das MPLS-Netzwerk weitergeleitet werden. Verschiedene Arten von Protokollen zur Verteilung von Etiketten.

Zusammenfassend lässt sich sagen, wie MPLS funktioniert, wenn alle LSRs die Labels für ein bestimmtes FEC und LDP bereits innerhalb des MPLS-Netzwerks eingerichtet oder zugeordnet wurden. Wenn ein Customer Edge (CE)-Router zunächst Daten oder ein Paket innerhalb eines MPLS-Netzwerks weiterleitet, führt der Ingress LSR eine Routing-Suche durch, ist der erste, der dem Paket ein Label zuweist, in seine Label Forwarding Information Base (LFIB) schaut und es dann entsprechend seinem begrenzten LSP, seiner Service-Klasse und seinem Ziel weiterleitet.  Zweitens, innerhalb des MPLS-Netzwerks, wenn ein Zwischen-PE dieses beschriftete Paket empfängt, führt es Label-Lookup, Label-Swapping und Weiterleitung durch. Wenn ein Paket zu mehreren Pes transportiert wird, wird das Label bei jedem Hop ausgetauscht.   Schließlich, wenn das Paket den Ausgang LSR erreicht, entfernt es das Label oder "Pop", dann wird ein Routing-Lookup verwendet, um das Paket aus dem MPLS-Netzwerk weiterzuleiten.

Siehe Abbildung unten:

  • MPLS-Etiketten können auch mehrfach gestapelt werden, wobei die Unterseite des Stapels das letzte Etikett im Stapel anzeigt, während das oberste Etikett dasjenige ist, das die Zustellung des Pakets steuert. Wenn es sein bestimmtes PE erreicht hat, wird das oberste Etikett "geknallt" und das zweite Etikett übernimmt das Paket und leitet es an das nächste Ziel.
  • In einigen Fällen ist es nicht notwendig, dass der Ingress LSR eines bestimmten LSP der erste Router ist, der einem Paket ein Label zuweist. Das Paket könnte beschriftet sein, dieser Fall wird als verschachtelter LSP bezeichnet, was bedeutet, dass es sich um einen LSP innerhalb eines LSP handelt. Somit wird es sich auch um eine Etikettenstapelung handeln.

WEIT VERBREITETE ANWENDUNGEN VON MPLS

- Verkehrstechnik
Einer der Vorteile von MPLS ist, dass es Traffic Engineering innerhalb der MPLS-Domäne ermöglicht. Verkehrstechnik ist ein Vorgang, bei dem der Datenverkehr so geroutet wird, dass die Verkehrsbelastung auf verschiedenen Verbindungen, Routern und Switches innerhalb des Netzwerks ausgeglichen wird. Durch die Zuordnung zu vordefinierten LSPs kann MPLS die Auslastung der verfügbaren Bandbreite maximieren, den Datenverkehr priorisieren, um Staus oder Engpässe zu vermeiden, schnelle Umleitungen und Kapazitätsplanung.

MPLS-Traffic Engineering arbeitet mit dem RSVP-TE, um die Bandbreite im Netzwerk zu verteilen. Wie bereits erwähnt, ist der LSP ein "Tunnel" zwischen Netzwerken und unter RSVP hat jeder LSP einen zugehörigen Bandbreitenwert. Wenn diese Bandbreite verfügbar ist, wird der LSP über eine Reihe von Links signalisiert. Dies ist wichtig für die Umleitung von Datenverkehr in einem überlasteten Netzwerk, denn bei der Verwendung eines eingeschränkten Routings nutzt RCVP-TE den kürzesten Weg mit der verfügbaren Bandbreite, um einen bestimmten LSP zu übertragen.

- Servicequalität (Qos)
Qos ist die Gesamtleistung eines Netzwerks, es ist ein garantiertes Leistungsniveau des Netzwerks, unterstützt durch ein Service Level Agreement (SLA) für verschiedene Kennzahlen wie Durchsatz, Paketverlust, Jitter und Latenz. Im Gegensatz zu IP-Netzwerken, die eine verbindungslose, aufwendigste Bereitstellung sind und den gesamten Datenverkehr, der innerhalb einer Verbindung durchläuft, unabhängig von seiner Bedeutung mit derselben Behandlung behandeln, ist MPLS ein verbindungsorientiertes Protokoll. Da sich MPLS zwischen L2 und L3 des OSI befindet, wurde das verbindungsorientierte QoS Legacy der L2-Technologien beibehalten. Dies ist ein großer Vorteil, den MPLS bieten kann, es kann Traffic Engineering mit effizienter Zuweisung der verfügbaren Bandbreite durchführen und gleichzeitig Qos bereitstellen, indem es die Bedeutung der verschiedenen Arten von Datenverkehr, die im Netzwerk durchlaufen, unterscheidet.

- Schnelle Umleitung (FRR)
Ein weiterer Vorteil der Verwendung von MPLS ist Fast Reroute, es ist ein extrem schneller Konvergenzmechanismus im Falle eines Verbindungsausfalls. FRR ermöglicht die Umleitung des Datenverkehrs auf den Backup-LSP mit einem schnellen Ausfall über die Zeit von 50 ms oder weniger. Im Vergleich zu einem normalen IP-Netzwerk, bei dem die On-Demand-Berechnung des besten Pfades nach einem Verbindungsausfall, der mehrere Sekunden dauern kann, erfolgt, erfolgt die MPLS FRR-Best Path-Berechnung, bevor ein Ausfall tatsächlich eintritt.  In einem MPLS FRR werden Backup-Routen in die Router Forward Information Base (FIB) installiert, die darauf warten, aktiviert zu werden. Außerdem treten während des Übergangs keine Routing-Schleifen auf.
    
- MPLS VPN
VPN oder Virtual Private Network, ist eine Technologie, die es ermöglicht, ein privates Netzwerk über eine öffentliche oder gemeinsame Infrastruktur zu integrieren. Es verbindet geografisch getrennte Standorte im öffentlichen Netz für die privaten Nutzer, die so kommunizieren können, als wären ihre Geräte direkt mit einem privaten Netz mit gleicher Privatsphäre und Sicherheit verbunden.
MPLS VPN wird von ISPs häufig verwendet und Unternehmen angeboten, um ihre Remote-Büros miteinander zu verbinden.  Aufgrund der eigenverantwortlichen Weiterleitung, die MPLS verwendet. MPLS VPN kann mit verschiedenen Kundengeräten sowie für den Betrieb an L@ und L# des OSI-Layers eingesetzt werden.
Auf Schicht 2 verwendet MPLS VPN Pseudodrähte oder Virtual Leases Lines (VLL), die Punkt-zu-Punkt-Schaltungen emulieren, VLL kann zur Verbindung verschiedener Medientypen wie Ethernet zu Frame Relay verwendet werden. Darüber hinaus verwendet MPLS VPN auch VPLS oder Virtual Private LAN Service, der einen Mehrpunkt-Switching-Service erstellt, mit dem eine große Anzahl von Endpunkten des Kunden zu einer einzigen Broadcast-Domäne verbunden werden kann, die die Funktion eines L2-Switch nachahmt. Diese Technologie wird auch verwendet, um eine vollmaschige L2-Schaltung zu vermeiden.

Auf Layer 3 verwendet MPLS VPN VRFs des Virtual Routing and Forwarding, die bei den Kunden-Edge-Routern etabliert sind. Diese Technologie ermöglicht es, dass mehrere geschützte Routinginstanzen einer Routingtabelle gleichzeitig mit demselben Router koexistieren.  Kunden werden innerhalb dieses VRF platziert und tauschen Routen mit dem Provider-Router in verschiedenen Routinginstanzen aus. VRFs sind für jedes VPN einzigartig, so dass andere VPNs, die das Netzwerk nutzen, für einander und andere CE-Geräte transparent sind.

Suchen Sie nicht das richtige Produkt - finden Sie es - nur hier im GBIC-SHOP. Jetzt vorbei schauen!

Übersicht über die Netzwerkprotokolle von Transceivern

Die Kommunikation zwischen zwei beliebigen Endpunkten basiert auf einer Standardsprache, die von beiden verstanden werden kann. In der Welt der Informationstechnologie werden diese Standards als Protokolle bezeichnet. Ein Protokoll ist eine Netzwerksprache, die zum Senden und Empfangen der Nachricht zwischen zwei Kommunikationsgeräten verwendet wird. Jedes Protokoll hat seine eigene Art, das Signal zu senden und zu empfangen, das als Verkapselung bezeichnet wird, aber am Ende ist es alles bis auf die Bits; 0s und 1s.
In diesem Artikel werden wir einige der am weitesten verbreiteten Netzwerkprotokolle besprechen, die zum Senden und Empfangen der Nachrichten auf Transceivern verwendet werden können. Datenraten und Anwendungen dieser Protokolle werden ebenfalls diskutiert, damit wir die grundlegenden Funktionsprinzipien der auf dem Markt erhältlichen Sender-Empfänger verstehen können.

Ethernet

Ethernet ist die am weitesten verbreitete Netzwerktechnologie. Ethernet ist ein mehrschichtiges Protokoll, das sich über die physikalische und Datenverbindungsschicht im OSI-Modell erstreckt. Ethernet findet seine Anwendung in jedem Netzwerk, unabhängig von seiner Größe und Größe. Von kleinen Büros bis hin zu großen Regierungsunternehmen ist Ethernet überall im Einsatz. Ethernet wurde erstmals 1980 eingeführt und 1983 vom IEEE (The Institute of Electrical and Electronic Engineers) standardisiert. Die ursprüngliche Version von Ethernet wurde entwickelt, um 2,94 Mbit/s Daten zu übertragen, seit der ersten Version hat Ethernet eine schnelle Entwicklung und Entwicklung erlebt. Heutzutage kann das Ethernet für 100 Gbps Datenraten genutzt werden.
Ethernet wird häufig in lokalen Netzwerken (LAN) und Metropolitan Area Networks (MAN) eingesetzt. Ungeschirmtes Twisted Pair (UTP) Kupferkabel wird für kürzere Entfernungen und Glasfaserkabel für längere Entfernungen verwendet. Ethernet ist unabhängig vom Trägermedium und die Struktur des Protokolls bleibt sowohl für Glasfaser- als auch für Kupferkabelübertragungen gleich.
Transceiver wie SFP, SFP+, GBIC, QSFP, QSFP+ und CFP etc. unterstützen den zu sendenden und zu empfangenden Ethernet-Verkehr. Eine breite Palette von ethernetunterstützten Transceivern ist bei CBO-IT erhältlich.

Fibre Channel

Fibre Channel (meist abgekürzt als FC) ist eine Technologie zur schnellen Datenübertragung. Fibre Channel findet seinen Haupteinsatz in Storage Area Networks (SAN). FC wird verwendet, um Daten zwischen Computerspeichern und Computersystemen oder Servern zu übertragen. Eingeführt im Jahr 1997, stellte FC einen Durchsatz von 200 Mega Bytes pro Sekunde (MBps) zur Verfügung, heute kann der Glasfaserkanal Datenübertragungsgeschwindigkeiten von bis zu 25600 MBps liefern. FC ist eine weit verbreitete Technologie, fast alle der High-End-Server und -Speicher, die heute verfügbar sind, haben Schnittstellen zur Unterstützung von FC.
Eine weitere Variante des Fibre Channel ist Fiber Channel over Ethernet (FCoE). FCoE verwendet Ethernet als Transportmedium, FC-Pakete werden über das Ethernet-Netzwerk gekapselt und bieten so Datenübertragungsgeschwindigkeiten, die der Geschwindigkeit des Ethernet-Netzwerks entsprechen.

Synchronous Optical Networking (SONET) und Synchronous Digital Hierarchy (SDH)

SONET und SDH sind technisch gesehen zwei Namen für eine einzige Technologie; der einzige Unterschied sind die Datenraten, die als Ersatz für die ältere Plesiochronous Digital Hierarchy (PDH) entwickelt wurde. SDH überträgt mehrere digitale Bitströme synchron über das Glasfaserkabel. SDH findet seine primäre Anwendung in optischen Fernnetzen, die zur Übertragung großer Mengen unterschiedlicher Daten verwendet werden. Mit der SDH-Technologie können Telefonate und digitale Daten über ein einziges Kabel übertragen werden, ohne dass es zu Störungen oder Synchronisationsproblemen kommt. Aufgrund dieser Eigenschaft ist SDH auch in Telekommunikationsnetzen weit verbreitet.

SONET wurde von Telcordia und dem American National Standards Institute (ANSI) als T1 standardisiert. 105 Norm. SONET bietet Datenraten im Bereich über 51,8 Mbit/s. SONET ist in Nordamerika und Kanada weit verbreitet.

SDH wurde vom European Telecommunications Standards Institute (ETSI) als Norm entwickelt und ist als Normen der International Telecommunication Union (ITU) G.707, G.783, G.784 und G.803 formalisiert. SDH ist das wichtigste Protokoll, das von der europäischen Welt verwendet wird. Die Basisdatenrate von SDH beträgt 155,52 Mbit/s.
SONET und SDH werden hauptsächlich über Glasfaser verwendet, aber für kürzere Entfernungen kann auch elektrischer Draht zur Signalübertragung verwendet werden.

InfiniBand

InfiniBand, meist abgekürzt mit IB, ist ein Kommunikationsstandard für die Computernetzwerke, der hauptsächlich im High-Performance- und High-Speed-Computing eingesetzt wird. Das Hauptmerkmal von InfiniBand ist der sehr hohe Durchsatz, die sehr geringe Latenzzeit, die sehr hohe Stabilität und die sehr hohe Zuverlässigkeit. InfiniBand kann entweder als direkte oder geschaltete Verbindung zwischen Servern und Speichersystemen sowie zur Verbindung verschiedener Speichersysteme verwendet werden, die eine besonders hohe Bandbreite erfordern. Im Direktverbindungsmodus sind zwei Endpunkte direkt miteinander verbunden und im geschalteten Verbindungsmodus befindet sich zwischen den beiden Verbindungsendpunkten ein InfiniBand-Switch. Die Datenraten, die mit der InfiniBand-Technologie erreicht werden können, können bis zu 290 Gbit/s betragen. Die Forschung und Entwicklung zur weiteren Erhöhung der Geschwindigkeiten ist im Gange.

Neben den oben genannten Protokollen und Technologien gibt es noch einige andere Protokolle, die verwendet werden. Einige sind proprietäre Protokolle, die vom Gerätehersteller entwickelt wurden, um nur in bestimmten Geräten verwendet zu werden, während andere standardisierte Protokolle für den allgemeinen Gebrauch verfügbar sind. Die Informationstechnologie-Industrie ist bestrebt, die Entwicklung von Protokollen fortzusetzen, die schnellere Datenübertragungsraten und eine hohe Zuverlässigkeit bieten.

Suchen Sie nicht das richtige Produkt - finden Sie es - nur hier im GBIC-SHOP. Jetzt vorbei schauen!

Unterkategorien

Seite 5 von 18