Start

Was ist MPLS?

Da das Internet ein Netzwerk ist, das in den letzten Jahrzehnten exponentiell wächst, kommt es zu einem Punkt, an dem eine bestimmte Technologie nicht in der Lage ist, die Nachfrage nach der Anzahl der Benutzer oder die Daten, die zwischen den Netzwerken wandern, zu bewältigen. Darüber hinaus gibt es auch einen dramatischen Anstieg der Verbindungsgeschwindigkeit, neuere Anwendungen wie Multimedia-, Sprach-, Video- und Echtzeit-E-Commerce-Anwendungen wurden entwickelt. Aufgrund dieser Innovationen besteht ein großer Bedarf an neuen Technologien, die nicht nur eine größere Bandbreitenkapazität bereitstellen, sondern auch eine zuverlässige Quality of Service und eine optimale Leistung garantieren, die nur minimale Netzwerkressourcen verbraucht.

Multi-Protocol Label Switching oder allgemein bekannt als MPLS ist eine Technologie, die es Dienstleistern oder Unternehmen ermöglicht, eine Vielzahl von zusätzlichen Dienstleistungen für ihre Kunden über eine einzige Infrastruktur anzubieten. Diese Technologie bietet viele Vorteile, vor allem ermöglicht sie ISPS eine bessere Kontrolle über ihr wachsendes Netzwerk durch die Traffic Engineering, die Netzwerkkonvergenz und den Fehlerschutz von MPLS.  Darüber hinaus ist es ein wirtschaftlicher Ansatz, da es verschiedene Preismodelle auf Basis von QoS anbieten kann.  Schließlich kann es nahtlos mit bestehenden Technologien wie Frame Relay, ATM (Asynchronous Transfer Mode), Ethernet oder IP überlagert werden.  Aufgrund der Effizienz, Skalierbarkeit und Sicherheit, die MPLS sowohl Kunden als auch ISPs bieten kann, ist es heute eines der weit verbreiteten Protokolle im Internet.

TECHNISCHES KNOW-HOW AUF MPLS

MPLS ist eine Netzwerktechnologie, die zwischen Layer 2 (Data Link) und Layer 3 (Network) des OSI-Modells arbeitet, weshalb sie manchmal als Layer 2.5 Networking Protocol bezeichnet wird.
Es ist eine sehr beliebte Kernnetzwerktechnologie, die es seit einigen Jahren gibt, diese Technologie verwendet Etiketten für Pakete und leitet sie über das Netzwerk weiter.

Die Weiterleitung von Paketen oder Frames unter Verwendung von Labels ist nicht neu, in der Tat wurde diese Technik von Frame Relay und ATM verwendet. Beide dieser Technologien verwenden "Label" in ihrem Header und verwenden eine Private Virtual Circuits von Endbenutzern, die durch Hubs-Sites wandern und eine Mesh-Topologie erstellen, jedoch wird jedes Label in ihrem Header in jedem Hop geändert.

Im OSI-Modell verwendet Layer 2 Protokolle wie Ethernet, VLAN, etc., die IP-Pakete nur in ein einfaches Local Area Network übertragen. Schicht 3 hingegen nutzt die internetweite Adressierung und Weiterleitung über IP-Protokolle. MPLS befindet sich zwischen diesen Schichten und bietet zusätzliche Funktionen für die Bereitstellung von Daten über ein Netzwerk. In einem traditionellen IP-Routing werden Routing-Protokolle verwendet, um Layer-3-Routinginformationen zu verteilen. Jeder Router führt grundlegende Schritte der Paketbereitstellung aus; zunächst führt er ein IP-Lookup auf seiner Routingtabelle durch, um seinen nächsten Hop zu bestimmen und die Pakete dann an den nächsten Hop weiterzuleiten. Diese Prozesse wurden für jeden Router im Netzwerk wiederholt, bis die Daten ihr endgültiges Ziel erreicht hatten. Darüber hinaus basiert die Weiterleitung nur auf der Zieladresse und die Routing-Suche wird in jedem Hop durchgeführt. So benötigt jeder Router auch eine vollständige Internet-Routing-Information und verbraucht viel Speicherplatz in seinem System.

In MPLS wird es "Label-Switching" verwenden, und das erste Gerät ist das einzige, das Routing-Lookup durchführt. Anstatt jedoch seinen nächsten Hop zu finden, findet er seinen Zielrouter und seinen vorbestimmten Weg von seinem Standort zum endgültigen Router.

Wie funktioniert MPLS?

Ein MPLS-Netzwerk besteht aus Label Switch Router (LSR), diese Router verstehen, wie ein MPLS funktioniert, daher sind sie derjenige, der beschriftete Pakete in das und aus dem MPLS-Netzwerk markiert und sendet. LSRs haben drei Arten, nämlich:

  • Ingress LSR - ein Provider Edge (PE) oder Label Edge Router (LER) ist der erste Router im MPLS-Netzwerk, der für das Einfügeetikett oder "Shim" am Kopf des Pakets verantwortlich ist und es im Netzwerk weiterleitet.  Es steht gegenüber den Customer Edge (CE) Routern, von denen die Daten stammen.

  • Egress LSR - ein Provider Edge (PE) oder Label Edge Router (LER) ist der letzte Router im MPLS-Netzwerk, der das beschriftete Paket am anderen Ende empfängt, das Label entfernt und an einen Customer Edge (CE) Router sendet.

  • Intermediate LSR - ein Provider(P) oder Intermediate Router, sind Transitrouter, die eingehende markierte Pakete empfangen, Operationen zum Wechseln von Labels durchführen und diese Pakete dann an die richtige Datenverbindung innerhalb des MPLS-Netzwerks weiterleiten.

Nachfolgend finden Sie ein einfaches MPLS-Netzwerk, das die grundlegenden Mitglieder zeigt:

Die drei Hauptfunktionen des LSR sind nachfolgend aufgeführt:

  • POP - Entfernen Sie das Label für ausgehende Pakete.
  • PUSH - wenn ein LSR unbenanntes Paket erhält, erstellt er einen Etikettenstapel und schiebt ihn in das Paket. Empfängt ein LSR dagegen ein etikettiertes Paket, drückt er ein oder mehrere Etiketten in den Etikettenstapel und schaltet das Paket aus.
  • SWAP - Ein LSR tauscht Etiketten aus, d.h. wenn er ein etikettiertes Paket erhält, ersetzt er oder tauscht einfach die Oberseite des Etikettenstapels gegen ein neues Etikett aus.

Ein weiteres wichtiges Konzept für die Funktionsweise eines MPLS ist der Label Switch Path oder LSP, technisch gesehen ist es der unidirektionale netzwerkweite Tunnel oder Pfad zwischen den LSRs innerhalb des MPLS-Netzwerks. Darüber hinaus ist dieser LSP sehr wichtig für den MPLS-Weiterleitungsmechanismus.

Darüber hinaus gibt es zwei Routing-Protokolle im MPLS-Netzwerk, die in der Industrie weit verbreitet sind. Erstens ist das Label Distribution Protocol oder LDP, es ist ein einfaches, nicht einschränkendes Protokoll, bei dem LSRs Etiketteninformationen von ihrem Nachbarn erhalten, was bedeutet, dass dies der Prozess ist, der eine schnellere Suche und Adressierung ermöglicht. Zweitens ist das Resource Reservation Protocol mit Traffic Engineering oder RSVP-TE, dieses Protokoll ist ein komplizierteres, da es Traffic Engineering unterstützt und mehr über Overhead verbraucht. Dieses Protokoll ermöglicht es MPLS jedoch, die Nutzung der Bandbreite im Netzwerk effizient zuzuweisen und zu maximieren, den Datenverkehr zu priorisieren und Staus zu vermeiden.

Damit ein MPLS-Netzwerk funktionieren kann, muss man auch die Forward Equivalence Class (FEC), Label Information Base (LIB) und die Label Forwarding Information Base (LFIB) kennen.

FEC, ist eine Gruppe oder ein Fluss von Paketen, die im gleichen LSP weitergeleitet werden und die gleiche Behandlung in Bezug auf die Weiterleitung haben, und dies bestimmt auch, wie Pakete mit dem gleichen Label zum gleichen gehören. Dies liegt daran, dass die Weiterleitungsbehandlung unterschiedlich sein kann und zu einem anderen FEC gehört. Insbesondere klassifiziert und ordnet die Ingress LSR Pakete zu, zu denen sie gehört.  Nachfolgend finden Sie einige Klassifizierungen von FECs:

  • IP-Präfix/ Host-Adresse
  • Layer-2-Schaltungen (ATM, Frame Relay, PPP, HDLC, Ethernet)
  • Gruppe von Adressen/Stellen-VPN
  • Bridge-/Switch-Instanzen-VSI
  • Tunnelschnittstelle Verkehrstechnik

LFIB, ist die Tabelle, mit der Router beschriftete Pakete weiterleiten, die aus ein- und ausgehenden Bezeichnungen für einen LSP bestehen. Diese ausgehenden und eingehenden Etiketten haben eine Bindung, die von der LIB bereitgestellt wird.  Eingehende Etiketten stammen von einer lokalen Bindung in einem bestimmten LSR, während die ausgehenden Etiketten von Remote-Bindungen stammen, die vom LSR aus allen möglichen Remote-Bindungen ausgewählt wurden.  Die LFIB wählt jedoch nur eines dieser ausgehenden Etiketten aus der gesamten Fernbindung in der LIB aus. Das gewählte Remote-Label hängt davon ab, welcher Pfad der beste ist, der in der Routingtabelle gefunden wird.

Daher müssen alle direkt verbundenen LSR eine LDP- oder Peer-Beziehung zwischen ihnen aufbauen, damit sie Label-Mapping-Meldungen über diese LDP-Sitzungen hinweg austauschen können. Ein Label-Mapping oder eine Bindung ist an FEC gebunden.  Die FEC ist ein Satz von Paketen, die auf einen bestimmten LSP abgebildet werden und über diesen LSP über das MPLS-Netzwerk weitergeleitet werden. Verschiedene Arten von Protokollen zur Verteilung von Etiketten.

Zusammenfassend lässt sich sagen, wie MPLS funktioniert, wenn alle LSRs die Labels für ein bestimmtes FEC und LDP bereits innerhalb des MPLS-Netzwerks eingerichtet oder zugeordnet wurden. Wenn ein Customer Edge (CE)-Router zunächst Daten oder ein Paket innerhalb eines MPLS-Netzwerks weiterleitet, führt der Ingress LSR eine Routing-Suche durch, ist der erste, der dem Paket ein Label zuweist, in seine Label Forwarding Information Base (LFIB) schaut und es dann entsprechend seinem begrenzten LSP, seiner Service-Klasse und seinem Ziel weiterleitet.  Zweitens, innerhalb des MPLS-Netzwerks, wenn ein Zwischen-PE dieses beschriftete Paket empfängt, führt es Label-Lookup, Label-Swapping und Weiterleitung durch. Wenn ein Paket zu mehreren Pes transportiert wird, wird das Label bei jedem Hop ausgetauscht.   Schließlich, wenn das Paket den Ausgang LSR erreicht, entfernt es das Label oder "Pop", dann wird ein Routing-Lookup verwendet, um das Paket aus dem MPLS-Netzwerk weiterzuleiten.

Siehe Abbildung unten:

  • MPLS-Etiketten können auch mehrfach gestapelt werden, wobei die Unterseite des Stapels das letzte Etikett im Stapel anzeigt, während das oberste Etikett dasjenige ist, das die Zustellung des Pakets steuert. Wenn es sein bestimmtes PE erreicht hat, wird das oberste Etikett "geknallt" und das zweite Etikett übernimmt das Paket und leitet es an das nächste Ziel.
  • In einigen Fällen ist es nicht notwendig, dass der Ingress LSR eines bestimmten LSP der erste Router ist, der einem Paket ein Label zuweist. Das Paket könnte beschriftet sein, dieser Fall wird als verschachtelter LSP bezeichnet, was bedeutet, dass es sich um einen LSP innerhalb eines LSP handelt. Somit wird es sich auch um eine Etikettenstapelung handeln.

WEIT VERBREITETE ANWENDUNGEN VON MPLS

- Verkehrstechnik
Einer der Vorteile von MPLS ist, dass es Traffic Engineering innerhalb der MPLS-Domäne ermöglicht. Verkehrstechnik ist ein Vorgang, bei dem der Datenverkehr so geroutet wird, dass die Verkehrsbelastung auf verschiedenen Verbindungen, Routern und Switches innerhalb des Netzwerks ausgeglichen wird. Durch die Zuordnung zu vordefinierten LSPs kann MPLS die Auslastung der verfügbaren Bandbreite maximieren, den Datenverkehr priorisieren, um Staus oder Engpässe zu vermeiden, schnelle Umleitungen und Kapazitätsplanung.

MPLS-Traffic Engineering arbeitet mit dem RSVP-TE, um die Bandbreite im Netzwerk zu verteilen. Wie bereits erwähnt, ist der LSP ein "Tunnel" zwischen Netzwerken und unter RSVP hat jeder LSP einen zugehörigen Bandbreitenwert. Wenn diese Bandbreite verfügbar ist, wird der LSP über eine Reihe von Links signalisiert. Dies ist wichtig für die Umleitung von Datenverkehr in einem überlasteten Netzwerk, denn bei der Verwendung eines eingeschränkten Routings nutzt RCVP-TE den kürzesten Weg mit der verfügbaren Bandbreite, um einen bestimmten LSP zu übertragen.

- Servicequalität (Qos)
Qos ist die Gesamtleistung eines Netzwerks, es ist ein garantiertes Leistungsniveau des Netzwerks, unterstützt durch ein Service Level Agreement (SLA) für verschiedene Kennzahlen wie Durchsatz, Paketverlust, Jitter und Latenz. Im Gegensatz zu IP-Netzwerken, die eine verbindungslose, aufwendigste Bereitstellung sind und den gesamten Datenverkehr, der innerhalb einer Verbindung durchläuft, unabhängig von seiner Bedeutung mit derselben Behandlung behandeln, ist MPLS ein verbindungsorientiertes Protokoll. Da sich MPLS zwischen L2 und L3 des OSI befindet, wurde das verbindungsorientierte QoS Legacy der L2-Technologien beibehalten. Dies ist ein großer Vorteil, den MPLS bieten kann, es kann Traffic Engineering mit effizienter Zuweisung der verfügbaren Bandbreite durchführen und gleichzeitig Qos bereitstellen, indem es die Bedeutung der verschiedenen Arten von Datenverkehr, die im Netzwerk durchlaufen, unterscheidet.

- Schnelle Umleitung (FRR)
Ein weiterer Vorteil der Verwendung von MPLS ist Fast Reroute, es ist ein extrem schneller Konvergenzmechanismus im Falle eines Verbindungsausfalls. FRR ermöglicht die Umleitung des Datenverkehrs auf den Backup-LSP mit einem schnellen Ausfall über die Zeit von 50 ms oder weniger. Im Vergleich zu einem normalen IP-Netzwerk, bei dem die On-Demand-Berechnung des besten Pfades nach einem Verbindungsausfall, der mehrere Sekunden dauern kann, erfolgt, erfolgt die MPLS FRR-Best Path-Berechnung, bevor ein Ausfall tatsächlich eintritt.  In einem MPLS FRR werden Backup-Routen in die Router Forward Information Base (FIB) installiert, die darauf warten, aktiviert zu werden. Außerdem treten während des Übergangs keine Routing-Schleifen auf.
    
- MPLS VPN
VPN oder Virtual Private Network, ist eine Technologie, die es ermöglicht, ein privates Netzwerk über eine öffentliche oder gemeinsame Infrastruktur zu integrieren. Es verbindet geografisch getrennte Standorte im öffentlichen Netz für die privaten Nutzer, die so kommunizieren können, als wären ihre Geräte direkt mit einem privaten Netz mit gleicher Privatsphäre und Sicherheit verbunden.
MPLS VPN wird von ISPs häufig verwendet und Unternehmen angeboten, um ihre Remote-Büros miteinander zu verbinden.  Aufgrund der eigenverantwortlichen Weiterleitung, die MPLS verwendet. MPLS VPN kann mit verschiedenen Kundengeräten sowie für den Betrieb an L@ und L# des OSI-Layers eingesetzt werden.
Auf Schicht 2 verwendet MPLS VPN Pseudodrähte oder Virtual Leases Lines (VLL), die Punkt-zu-Punkt-Schaltungen emulieren, VLL kann zur Verbindung verschiedener Medientypen wie Ethernet zu Frame Relay verwendet werden. Darüber hinaus verwendet MPLS VPN auch VPLS oder Virtual Private LAN Service, der einen Mehrpunkt-Switching-Service erstellt, mit dem eine große Anzahl von Endpunkten des Kunden zu einer einzigen Broadcast-Domäne verbunden werden kann, die die Funktion eines L2-Switch nachahmt. Diese Technologie wird auch verwendet, um eine vollmaschige L2-Schaltung zu vermeiden.

Auf Layer 3 verwendet MPLS VPN VRFs des Virtual Routing and Forwarding, die bei den Kunden-Edge-Routern etabliert sind. Diese Technologie ermöglicht es, dass mehrere geschützte Routinginstanzen einer Routingtabelle gleichzeitig mit demselben Router koexistieren.  Kunden werden innerhalb dieses VRF platziert und tauschen Routen mit dem Provider-Router in verschiedenen Routinginstanzen aus. VRFs sind für jedes VPN einzigartig, so dass andere VPNs, die das Netzwerk nutzen, für einander und andere CE-Geräte transparent sind.

Suchen Sie nicht das richtige Produkt - finden Sie es - nur hier im GBIC-SHOP. Jetzt vorbei schauen!

Übersicht über die Netzwerkprotokolle von Transceivern

Die Kommunikation zwischen zwei beliebigen Endpunkten basiert auf einer Standardsprache, die von beiden verstanden werden kann. In der Welt der Informationstechnologie werden diese Standards als Protokolle bezeichnet. Ein Protokoll ist eine Netzwerksprache, die zum Senden und Empfangen der Nachricht zwischen zwei Kommunikationsgeräten verwendet wird. Jedes Protokoll hat seine eigene Art, das Signal zu senden und zu empfangen, das als Verkapselung bezeichnet wird, aber am Ende ist es alles bis auf die Bits; 0s und 1s.
In diesem Artikel werden wir einige der am weitesten verbreiteten Netzwerkprotokolle besprechen, die zum Senden und Empfangen der Nachrichten auf Transceivern verwendet werden können. Datenraten und Anwendungen dieser Protokolle werden ebenfalls diskutiert, damit wir die grundlegenden Funktionsprinzipien der auf dem Markt erhältlichen Sender-Empfänger verstehen können.

Ethernet

Ethernet ist die am weitesten verbreitete Netzwerktechnologie. Ethernet ist ein mehrschichtiges Protokoll, das sich über die physikalische und Datenverbindungsschicht im OSI-Modell erstreckt. Ethernet findet seine Anwendung in jedem Netzwerk, unabhängig von seiner Größe und Größe. Von kleinen Büros bis hin zu großen Regierungsunternehmen ist Ethernet überall im Einsatz. Ethernet wurde erstmals 1980 eingeführt und 1983 vom IEEE (The Institute of Electrical and Electronic Engineers) standardisiert. Die ursprüngliche Version von Ethernet wurde entwickelt, um 2,94 Mbit/s Daten zu übertragen, seit der ersten Version hat Ethernet eine schnelle Entwicklung und Entwicklung erlebt. Heutzutage kann das Ethernet für 100 Gbps Datenraten genutzt werden.
Ethernet wird häufig in lokalen Netzwerken (LAN) und Metropolitan Area Networks (MAN) eingesetzt. Ungeschirmtes Twisted Pair (UTP) Kupferkabel wird für kürzere Entfernungen und Glasfaserkabel für längere Entfernungen verwendet. Ethernet ist unabhängig vom Trägermedium und die Struktur des Protokolls bleibt sowohl für Glasfaser- als auch für Kupferkabelübertragungen gleich.
Transceiver wie SFP, SFP+, GBIC, QSFP, QSFP+ und CFP etc. unterstützen den zu sendenden und zu empfangenden Ethernet-Verkehr. Eine breite Palette von ethernetunterstützten Transceivern ist bei CBO-IT erhältlich.

Fibre Channel

Fibre Channel (meist abgekürzt als FC) ist eine Technologie zur schnellen Datenübertragung. Fibre Channel findet seinen Haupteinsatz in Storage Area Networks (SAN). FC wird verwendet, um Daten zwischen Computerspeichern und Computersystemen oder Servern zu übertragen. Eingeführt im Jahr 1997, stellte FC einen Durchsatz von 200 Mega Bytes pro Sekunde (MBps) zur Verfügung, heute kann der Glasfaserkanal Datenübertragungsgeschwindigkeiten von bis zu 25600 MBps liefern. FC ist eine weit verbreitete Technologie, fast alle der High-End-Server und -Speicher, die heute verfügbar sind, haben Schnittstellen zur Unterstützung von FC.
Eine weitere Variante des Fibre Channel ist Fiber Channel over Ethernet (FCoE). FCoE verwendet Ethernet als Transportmedium, FC-Pakete werden über das Ethernet-Netzwerk gekapselt und bieten so Datenübertragungsgeschwindigkeiten, die der Geschwindigkeit des Ethernet-Netzwerks entsprechen.

Synchronous Optical Networking (SONET) und Synchronous Digital Hierarchy (SDH)

SONET und SDH sind technisch gesehen zwei Namen für eine einzige Technologie; der einzige Unterschied sind die Datenraten, die als Ersatz für die ältere Plesiochronous Digital Hierarchy (PDH) entwickelt wurde. SDH überträgt mehrere digitale Bitströme synchron über das Glasfaserkabel. SDH findet seine primäre Anwendung in optischen Fernnetzen, die zur Übertragung großer Mengen unterschiedlicher Daten verwendet werden. Mit der SDH-Technologie können Telefonate und digitale Daten über ein einziges Kabel übertragen werden, ohne dass es zu Störungen oder Synchronisationsproblemen kommt. Aufgrund dieser Eigenschaft ist SDH auch in Telekommunikationsnetzen weit verbreitet.

SONET wurde von Telcordia und dem American National Standards Institute (ANSI) als T1 standardisiert. 105 Norm. SONET bietet Datenraten im Bereich über 51,8 Mbit/s. SONET ist in Nordamerika und Kanada weit verbreitet.

SDH wurde vom European Telecommunications Standards Institute (ETSI) als Norm entwickelt und ist als Normen der International Telecommunication Union (ITU) G.707, G.783, G.784 und G.803 formalisiert. SDH ist das wichtigste Protokoll, das von der europäischen Welt verwendet wird. Die Basisdatenrate von SDH beträgt 155,52 Mbit/s.
SONET und SDH werden hauptsächlich über Glasfaser verwendet, aber für kürzere Entfernungen kann auch elektrischer Draht zur Signalübertragung verwendet werden.

InfiniBand

InfiniBand, meist abgekürzt mit IB, ist ein Kommunikationsstandard für die Computernetzwerke, der hauptsächlich im High-Performance- und High-Speed-Computing eingesetzt wird. Das Hauptmerkmal von InfiniBand ist der sehr hohe Durchsatz, die sehr geringe Latenzzeit, die sehr hohe Stabilität und die sehr hohe Zuverlässigkeit. InfiniBand kann entweder als direkte oder geschaltete Verbindung zwischen Servern und Speichersystemen sowie zur Verbindung verschiedener Speichersysteme verwendet werden, die eine besonders hohe Bandbreite erfordern. Im Direktverbindungsmodus sind zwei Endpunkte direkt miteinander verbunden und im geschalteten Verbindungsmodus befindet sich zwischen den beiden Verbindungsendpunkten ein InfiniBand-Switch. Die Datenraten, die mit der InfiniBand-Technologie erreicht werden können, können bis zu 290 Gbit/s betragen. Die Forschung und Entwicklung zur weiteren Erhöhung der Geschwindigkeiten ist im Gange.

Neben den oben genannten Protokollen und Technologien gibt es noch einige andere Protokolle, die verwendet werden. Einige sind proprietäre Protokolle, die vom Gerätehersteller entwickelt wurden, um nur in bestimmten Geräten verwendet zu werden, während andere standardisierte Protokolle für den allgemeinen Gebrauch verfügbar sind. Die Informationstechnologie-Industrie ist bestrebt, die Entwicklung von Protokollen fortzusetzen, die schnellere Datenübertragungsraten und eine hohe Zuverlässigkeit bieten.

Suchen Sie nicht das richtige Produkt - finden Sie es - nur hier im GBIC-SHOP. Jetzt vorbei schauen!

Was ist InfiniBand und wofür wird es verwendet?

EINFÜHRUNG:

InfiniBAnd (IB) ist eigentlich ein seit 1999 verwendeter Markenbegriff, der früher als System I/O bezeichnet wurde. InfiniBand wurde überraschend geprägt, als zwei Duelldesigns auf dem Markt fusionierten, dies geschah, nachdem man erkannt hatte, dass es der richtige Ansatz ist, um zukünftige Einschränkungen in der Branche zu verhindern, da die bestehenden Designs nicht mehr den Bedürfnissen zukünftiger Server entsprechen würden.

Die beiden konkurrierenden Designs waren: Zukünftige I/O - entwickelt von IBM, Compaq und Hewlett-Packard, und Next Generation I/O - entwickelt von Microsoft, Intel und Sun Microsystems.  In der Zuversicht, dass sowohl die Industrie als auch die Endverbraucher von der Fusion profitieren werden, gründeten sie die InfiniBand Trade Association oder IBTA, die derzeit über 220 Mitglieder hat.

Zukünftige I/O und Next Generation I/O sind Input/Output-Architekturen, die das traditionelle PCI- oder Peripheriekomponenten-Verbindungssystem ersetzen sollten. Warum muss der PCI-Bus ausgetauscht werden?  Hauptsächlich deshalb, weil der PCI-Bus zum Engpass wurde, der die Leistung von Hochgeschwindigkeits-Datenservern einschränkt, weil er auf etwa 500 Mbit/s nur für gemeinsame Daten beschränkt ist. PCI dominierte die Branche seit Anfang der 90er Jahre mit einem großen Upgrade im Berichtszeitraum: von 32 Bit/ 33 MHz auf 64 Bit/66 MHz. Der PCI-X, der die Technologie einen Schritt weiter auf 133 MHz brachte, wurde für eine längere Nutzung der PCI-Architektur in der Industrie projektiert. Allerdings wurde das Internet weltweit so populär, dass die Nachfrage stetig zunahm und fast keine Ausfallzeiten auftraten. Die Notwendigkeit, ständig erreichbar zu sein, zuverlässige Leistung mit ausfallsicherem System, das sind Dienstleistungen aus dem Web, Datenspeicherfunktionen des Internets, Anwendungen, Datenbankserver und Unternehmenssoftware-Systeme usw., hat den Spielplan der Marktteilnehmer verändert.  Darüber hinaus entscheiden sich viele dafür, den Speicher vom Server in isolierte Speichernetzwerke zu verlagern und Daten über fehlertolerante Speichersysteme zu verteilen - ein Trend in der Branche.  Solche Anforderungen erfordern mehr Bandbreite und das Bussystem hat das Niveau erreicht, das die PCI-Verbindungsarchitektur nicht mehr erfüllen kann.

So entwickelte IBTA das sogenannte InfiniBAnd. Was ist Infiniband?

InfiniBand ist eine Switch-basierte Punkt-zu-Punkt serielle I/O-Verbindungsarchitektur, die für das heutige System entwickelt wurde und die Anforderungen der nächsten Generation skalieren kann.  Es arbeitet mit einer Basisgeschwindigkeit von 2,5 Gb/s oder 10 GB/s pro Portverbindung in jede Richtung.  Es handelt sich um eine serielle Architektur mit niedriger Pinzahl, die Geräte auf der Leiterplatte als Komponenten-zu-Komponenten-Verbindung verbindet und "Bandwidth Out of the Box", Chassis-zu-Chassis-Verbindung, ermöglicht, wobei Entfernungen bis zu 17 m über gängige Twisted-Pair-Kupferdrähte zurückgelegt werden.  Im Vergleich zu herkömmlichen Glasfaserkabeln kann er Entfernungen von mehreren Kilometern und mehr zurücklegen. Seine Architektur beschrieb ein geschichtetes Hardwareprotokoll; Physical, Link, Network, Transport Layers und eine Softwareschicht zur Verwaltung der Initialisierung und Kommunikation zwischen Geräten.

Unterschiedliche Verwendungsmöglichkeiten von InfiniBAnd

RAS (Reliability, Availability, Serviceability) Anbieter

InfiniBand bietet RAS-Funktionen (Reliability, Availability, Serviceability), die in das InfiniBand integriert sind. RAS bezieht sich auf einen Stoff, der sowohl in der Box funktioniert als auch Bandwidth Out of the Box ermöglicht.  Aufgrund dieser RAS-Funktion wird prognostiziert, dass die InfiniBand-Architektur als gemeinsame I/O-Infrastruktur für die nächste Generation von Computerserver- und Speichersystemen im Herzen des Internets dienen kann. Dies wird daher die Systeme grundlegend verändern und die Internet-Infrastruktur miteinander verbinden.

Unterstützt Application Service Provider oder ASP

Das Internet, von der einfachen Online-Datensuchmaschine bis zur Unterstützung zahlreicher Anwendungen, schafft einen internationalen Markt für Medien-Streaming, Business-to-Business-Lösungen, E-Commerce und interaktive Portalseiten.  Die Anforderungen an die Zuverlässigkeit jeder Anwendung führten zu einem enormen Druck auf die Dienstleister. Application Service Provider oder ASP traten ein, eine Gruppe, die qualitativ hochwertige Dienste mit der Fähigkeit anbietet, in kurzer Zeit intensiv zu messen, um dem drastischen Wachstum des Internets trotz möglicher Überlastung gerecht zu werden, indem sie den Cluster zur Unterstützung der oben genannten Anforderungen nutzt.  Ein Cluster ist eine Gruppe von Servern, die durch Lastausgleichsswitches verbunden sind, die parallel arbeiten, um eine bestimmte Anwendung zu bedienen.  InfiniBand vereinfacht die Verbindung von Anwendungsclustern, indem es das Netzwerk mit einer funktionsreichen verwalteten Architektur verbindet oder verschmilzt. Es bietet native Cluster-Konnektivität, Geräte können angeschlossen werden und mehrere Pfade können mit zusätzlichen Switches auf der Fabric verwendet werden.

QoS oder Quality of Service (Dienstgüte)

InfiniBand kann gleichzeitig Transaktionen von hoher Bedeutung zwischen Geräten liefern und verarbeiten, die über die weniger wichtigen Elemente durch integrierte QoS- oder Quality of Service-Mechanismen priorisiert werden.

Skalierbarkeit für IPC- oder Interprozessorkommunikation

Die Switched-Funktion von InfiniBAnd bietet Verbindungssicherheit für IPC- oder Interprozessorkommunikationssysteme, indem sie mehrere Pfade zwischen den Systemen ermöglicht. Die Skalierbarkeit bleibt erhalten, da die vollständig konvertierbaren Verbindungen von einer einzigen Einheit verwaltet werden, die der Subnetzmanager ist. Mit der Multi-Cast-Unterstützung können einzelne Transaktionen an mehreren Zielen durchgeführt werden. InfiniBand diente somit als Rückgrat in den Fähigkeiten von IPC-Clustern, indem es es ermöglichte, dass mehrere Server auf einer einzigen Anwendung zusammenarbeiten, ohne dass eine sekundäre I/O-Verbindung erforderlich war, da es aufgrund der höheren Bandbreite (4X/12X) Verbindungen zur Verfügung gestellt werden konnte.

Storage Area Networks (SAN) vereinfacht

Dies sind Gruppen von komplexen Speichersystemen, die mit verwalteten Switches verbunden sind, um die Speicherung großer Datenmengen von mehreren Servern zu ermöglichen. Sie bieten zuverlässige Verbindungen zu einer großen Datenbank mit Informationen, die das Internet Data Center benötigt. Grundsätzlich werden SANs mit Fibre Channel Switches, Servern und Hubs aufgebaut, die über Fibre Channel Host Bus Adapters (HBA) verbunden sind. Aber die Entstehung von InfiniBAnd resultiert aus der Entfernung von Fiber Channel Network und ermöglicht es Servern, sich direkt mit einem Storage Area Network zu verbinden, wodurch der kostspielige HBA entfällt. Mit Funktionen wie der Remote DMA(RDMA)-Unterstützung, der gleichzeitigen Peer-to-Peer-Kommunikation und der End-to-End-Flusskontrolle überwindet InfiniBand durch seine Fabric-Topologie die Mängel des Fibre Channel, wie z.B. die Einschränkung von Daten, auf die einzelne Server zugreifen können, die durch den "Partitionsmechanismus" entstehen, oder manchmal auch als Zoneneinteilung oder Zäune ohne Hilfe eines kostspieligen und komplexen HBA bezeichnet.

SYNOPSIS:

Die InfiniBAnd-Technologie hat der Branche nicht nur eine Lösung für einen sich abzeichnenden Umstand geboten, sondern auch ihren unverzichtbaren Einsatz in der Gegenwart und für zukünftige Generationen bewiesen. Offensichtlich wächst die schnelle Akzeptanz von InfiniBAnd weiter und wird begrüßt, da Unternehmen und Verbraucher das Internet immer häufiger mit höherer Bandbreite nutzen. Ein Fortschritt, der durch die Vereinigung zweier konkurrierender Parteien ermöglicht wurde, die die Grenzen der bisherigen Technologie überwunden haben.

Suchen Sie nicht das richtige Produkt - finden Sie es - nur hier im GBIC-SHOP. Jetzt vorbei schauen!

CBO BlueOptics© Optical Transceiver Formfaktoren auf einen Blick

In der heutigen vernetzten Welt und Technologie steigt die Nachfrage nach höheren Geschwindigkeiten und niedrigeren Kosten. Die führenden Anbieter von Netzwerkgeräten arbeiten an der Entwicklung der zukünftigen Komponenten der Vernetzung. Sie konzentrieren sich hauptsächlich auf die Glasfaserlösungen, die die führenden Service Provider und Rechenzentren der Welt antreiben. Aufgrund des von Tag zu Tag zunehmenden Datenverkehrs ist der Bedarf an stabilen, schnellen und skalierbaren Netzwerkarchitekturen unerlässlich geworden.

Einer der Hauptbestandteile einer leistungsstarken und stabilen optischen Netzwerkarchitektur sind die optischen Transceiver. Sie sind für die optische Netzwerkarchitektur unerlässlich, da sie die Komponenten sind, die das optische Licht über das Kabel übertragen und umwandeln. Sie sind dazu bestimmt, Licht an einem Ende des Kabels zu senden und Licht am anderen Ende des Kabels zu empfangen. Am häufigsten arbeiten diese Sender-Empfänger bei der Übertragung von Licht auf einer Glasfaser und beim Empfang von Licht auf einer anderen Glasfaser für den Duplexbetrieb. Dieser Vorgang findet jedoch im gleichen kompakten Modul statt. Der Transceiver wandelt den elektrischen Eingang in optisches Licht um und sendet ihn dann mit Hilfe von Lasersendern oder LEDs über das optische Kabel nach unten. Auf der anderen Seite wandelt der Empfänger das optische Licht in einen elektrischen Eingang um.

Die Komponenten, die für die Lichtlenkung durch das optische Kabel verantwortlich sind, werden auch als Quellen für Glasfaser-Transceiver bezeichnet. Die am häufigsten verwendeten Quellen sind LEDs und VCSELs oder oberflächenemittierende Laser mit vertikalem Resonator. Obwohl sie den gleichen Zweck haben, elektrische Signale in optisches Licht umzuwandeln und umgekehrt, sind sie in ihrer Funktionsweise sehr unterschiedlich. Sie sind in der Tat kleine Halbleiterchips und emittieren Licht von der Oberfläche des Chips.

LEDs haben eine begrenzte Bandbreite und Entfernung und haben weniger Leistung als die VCSELs, hauptsächlich wegen ihres größeren Kerns. Aufgrund ihres größeren Kerns emittieren sie ein sehr breites spektrales Licht, das dann in der Faser selbst unter chromatischer Dispersion leidet. Aus diesem Grund sind sie nur für den Einsatz in Multimode-Fasern geeignet.
VCSELs hingegen haben einen kleineren Kern, der ein strafferes Licht abgibt, das nicht unter Farbstreuung leidet, was sie optimal für den Einsatz mit Singlemode-Fasern macht, aber sie können auch für multimodale Übertragungen verwendet werden.

Der Herstellungsprozess dieser beiden Typen ist ziemlich ähnlich. Die Herstellung von VCSELs ist jedoch teurer, da es schwierig ist, den Laserhohlraum im Inneren des Bauteils selbst herzustellen. Bei der Herstellung der VCSELs muss der Chip vom Halbleiterwafer getrennt und jedes Ende beschichtet werden, bevor der Laser getestet werden kann.

Transceiver sind in eine Reihe von Formfaktoren unterteilt, die in einem ziemlich ähnlichen standardisierten Gehäuse geliefert werden, sich aber in ihrer Funktionsweise und ihren Eigenschaften grundlegend unterscheiden.

Alle CBO BlueOptics© Transceiver werden nach den höchsten Industriestandards hergestellt. Ihre internen Komponenten werden von den branchenführenden Herstellern für optische Geräte wie Avago/Broadcom, Lumentum, Maxim Integrated, CyOptics oder Mitsubishi Electric für optische Laser bzw. integrierte Schaltungen hergestellt. CBO BlueOptics© Transceiver können so programmiert werden, dass sie mit Netzwerkgeräten von über 165 Anbietern kompatibel sind, darunter die führenden Marken wie Cisco, HPE, Extreme Networks, Dell, Juniper und Intel. Sie haben eine Garantie von 5 Jahren und einen lebenslangen Support für alle Probleme, die auf dem Weg dorthin auftreten können. Alle CBO BlueOptics© Transceiver sind für Übertragungsgeschwindigkeiten von bis zu 100GB/s ausgelegt und decken je nach Formfaktor eine Entfernung von bis zu 2KM für Multi-Mode-Fasern und 160KM für Single-Mode-Fasern ab. Alle CBO BlueOptics© Transceiver sind in der Lage, auch in den härtesten Teilen der Welt die maximale Leistung zu erbringen. Sie können bei Temperaturen unter 40°C und über 85°C einwandfrei funktionieren.

BlueOptics© Transceiver sind in mehrere Kategorien unterteilt:

o SFP Transceiver
o SFP+ Transceiver
o cSFP Transceiver
o SFP28 Transceiver
o QSFP Transceiver
o QSFP28 Transceiver
o CFP Transceiver
o CFP2 Transceiver
o CFP4 Transceiver
o X2 Transceiver
o XENPAK Transceiver
o XFP-Transceivern
o GBIC-Transceiver

Lassen Sie uns einen detaillierteren Blick auf ihre Eigenschaften werfen:

1.   SFP oder Small Factor Pluggable Optical Transceiver ist ein kleiner und kompakter optischer Transceiver, der für zuverlässige optische Verbindungen mit Netzwerkgeschwindigkeiten von 100Mb/s bis zu 4GB/s entwickelt wurde. Diese Transceiver bieten eine einfachere Fehlersuche und Wartung durch die optionale Schnittstelle Digital Diagnostics Monitoring (DDM) / Digital Optical Monitoring (DOM). Diese Schnittstelle bietet Echtzeit-Überwachungsoptionen zur Überwachung des Laservorspannungsstroms, der Versorgungsspannung sowie der Laserleistung und -temperatur. CBO BlueOptics© SFP-Transceiver sind für einen langlebigen Betrieb mit ca. 3.000.000.000 MTBF-Stunden ausgelegt. CBO BlueOptics© SFP-Transceiver gibt es mit Duplex- und Simplex-Glasfaseranschluss.
2.   SFP+ ist eine verbesserte Version des optischen SFP-Transceivers, der für Netzwerkgeschwindigkeiten von bis zu 10 GB/s geeignet ist. SFP+ Module sind auch für Fibre Channel Anwendungen verfügbar, die Datenraten von bis zu 16GB/s unterstützen. SFP+ Module finden sich in zwei verschiedenen Arbeitsmodi: Begrenzungsmodus und Linearmodus. Der Begrenzungsmodus wird am häufigsten verwendet, da sein Signalverstärker das verschlechterte empfangene optische Licht neu formt. SFP+ bietet auch die Möglichkeit, zwei SFP+ Ports mit Hilfe von Direct Attach Kabeln zu verbinden. CBO BlueOptics© SFP+ Transceiver gibt es mit LC Duplex und LC Simplex Glasfaserstecker und RJ45 Kupferverbinder.
3.    Der cSFP ist eine weitere Version des beliebten SFP Bidi-Transceivers, der zwei unabhängige bidirektionale Kanäle pro Port in einem SFP bietet. Es ist eine sehr gute Lösung für die volle Nutzung jeder verfügbaren Glasfaser und verdoppelt die Portdichte im Vergleich zu SFP Bidis.
4.   SFP28 ist eine weitere Version des SFP+-Moduls, die für Netzwerkgeschwindigkeiten von bis zu 25 GB/s ausgelegt ist. Sie sind für Multimode- und Singlemode- Anwendungen erhältlich und verfügen über einen LC-Duplexanschluss. Sie bieten auch die Schnittstelle Digital Diagnostics Monitoring (DDM) / Digital Optical Monitoring (DOM) für eine einfachere Fehlersuche. Diese Art von Transceiver wird üblicherweise mit 4 Datenkanälen von 25GB/s implementiert, um 100GB/s zu erreichen.
5.   QSFP oder der Quad Small Form-Factor Pluggable ist ein Transceiver, der Geschwindigkeiten von 40GB/s bis zu 56GB/s ermöglicht. Diese Transceiver werden hauptsächlich in Rechenzentrumsumgebungen eingesetzt und stellen Hochleistungs-Computernetzwerke dar. Sie nutzen die im IEEE 802.3bm Standard definierte 40GBASE-SR4- und LR4-Technologie und übertragen 4x850nm (SR4 für MMF) bzw. die Wellenlängen 1271nm, 1291nm, 1311nm, 1331nm (LR4 für SMF). Es gibt auch andere Varianten mit BIDI-Technologie, paralleler Single-Mode, ER4 und LX4/LM4-Technologie und mit MPO/MTP-Stecker oder LC-Duplex-Stecker.
6.   QSFP28 Transceiver werden hauptsächlich verwendet, um 100GB/s Ethernet-Lösungen bereitzustellen, indem 4x25GB/s mit den Hauptversionen mit 100GBASE-SR4, LR4, CWDM4 oder PSM4 Technologie übertragen werden, die den in QSFPs verwendeten Methoden gemeinsam ist, aber mit höherer Bandbreite.
7.    Der CBO BlueOptics© CFP Transceiver ist für eine 100GB/s Ethernet-Lösung mit großer Reichweite über ein Duplex Singlemode-Glasfaserkabel konzipiert. Es kann aber auch eine oder mehrere 40GB/s-Links unterstützen. Dieses CFP-Modul und seine Spezifikationen wurden in der Zeit entwickelt, als die 10GB Ethernet-Lösungen häufiger waren als die schnelleren. Heute wurde dieser Transceiver durch die Spezifikationen CFP2 und CFP4 ausgetauscht.
8.    Die CFP2-Transceiver sind auch für den Anschluss von Singlemode-Fasern mit großer Reichweite ausgelegt. Sie haben auch einen Duplex-Anschluss. CFP2s sind kleiner als die CFP-Transceiver, aber beide sind in Metallbehältern aufgebaut.
9.    CFP4 Transceiver sind die modernsten C-Form-Factor (CFP) Transceiver. Sie sind die kleinsten aller CFP-Transceiver, was ihre Handhabung und Installation erleichtert. Sie sind auch mit einem Duplex-Stecker ausgestattet und können Entfernungen von bis zu 10 Kilometern erreichen. Die Transceiver CFP, CFP2 und CFP4 sind nicht austauschbar.
10.    X2-Transceiver sind eine standardisierte Art von optischen Transceivern, die hauptsächlich in den 10GB Ethernet-Lösungen eingesetzt werden. Sie können sowohl in Ethernet- als auch in Fibre Channel-Anwendungen eingesetzt werden und werden in älteren Rechenzentrumsumgebungen und nicht in Service Provider-Umgebungen eingesetzt. Sie sind mit SC Duplex- oder Simplex-Steckverbindern ausgestattet.
11.    XENPAK-Transceiver werden mit SC-Duplex-Anschlüssen geliefert. Sie sind größer als die X2-Transceiver in ihrer Größe. Sie bieten auch Geschwindigkeiten von 1GB/s bis zu 10GB/s mit Multimode- und Singlemode-Fasern.
12.    Der XFP-Transceiver wurde im Jahr 2002 entwickelt. Er ist etwas größer als die Small Form-Factor Pluggable Plus Transceiver. Sie sind im laufenden Betrieb austauschbar und werden mit Duplex- oder Simplex-LC-Anschlüssen geliefert. Sie sind protokollunabhängig. Am häufigsten arbeiten sie bei 850 nm, 1310 nm oder 1550 nm Wellenlängen.
13.    GBIC steht für Gigabit Interface Converter und wird am häufigsten für Geschwindigkeiten von 100MB/s bis 4GB/s verwendet. Es kann mit Kupfer-, Singlemode- oder Multimode-Fasern betrieben werden. Es wird mit SC Duplex-, Simplex- oder Kupfer-Steckverbindern geliefert.

Alle CBO BlueOptics© Transceiver wurden nach den neuesten Standards entwickelt und sind vollständig MSA-konform. Der MSA-Standard ist ein Multi-Source-Agreement, bei dem die verschiedenen Hersteller von Netzwerkgeräten die Standardisierungen ihrer Transceiver festlegen. Alle CBO BlueOptics© Transceiver erfüllen auch die neuesten Industriestandards CE und RoHS. Dies garantiert eine gleichbleibende und konstante Qualität jeder hergestellten CBO BlueOptics© Komponente. Alle CBO BlueOptics© Transceiver sind in der Lage, Digital Diagnostics Monitoring (DDM) / Digital Optical Monitoring (DOM) für eine einfachere Fehlersuche und Wartung durchzuführen.

Die richtige Wahl des richtigen optischen Transceivers reduziert die Kosten und ist gleichzeitig das optimale Rezept für zukünftiges Netzwerkwachstum.

Abstimmbare DWDM-Laser - ein kurzer Überblick

Ein abstimmbarer Laser ist ein Laser, dessen Betriebswellenlänge kontrolliert verändert werden kann. Während alle Laserverstärkungsmedien kleine Verschiebungen in der Ausgangswellenlänge ermöglichen, ermöglichen nur wenige Lasertypen eine kontinuierliche Abstimmung über einen signifikanten Wellenlängenbereich.

Um optische Hochleistungsnetzwerke zu ermöglichen, werden DWDM-Systeme eingesetzt, die eine einzige Glasfaser für optische Signale mit mehreren verschiedenen Wellenlängen verwenden. Wellenlängenabstimmbare optische Transceiver werden immer wichtiger als Komponenten, die ROADM - Reconfigurable Optical Add/Drop Multiplexer - Funktionalität in Netzwerken der nächsten Generation ermöglichen. Diese Transceiver haben die Eigenschaft, dass ihre Wellenlängen zwischen verschiedenen DWDM-Kanälen umgeschaltet werden können, während sie im Netzwerk verwendet werden. Abstimmbare Sende-Empfänger sind nur in DWDM-Form verfügbar, da das CWDM-Netz zu breit ist. Typischerweise sind diese abstimmbaren Optiken für das C-Band 50GHz. Es können etwa 88 verschiedene Kanäle mit Intervallen von 0,4 nm eingestellt werden, was dem 50GHz-Band entspricht. Diese Optiken beginnen in der Regel von Kanal 16 bis 61, aber dies hängt vom Hersteller des Routers/Switch ab und welche Kanäle er unterstützt.

Funktionsprinzip
Mehrere einzelne Laser werden in einem Stück Silizium eingebaut.

Abstimmbarer Distributed Bragg Reflector (DBR) Laser mit verteiltem Bragg-Reflektor (DBR)
Eine der frühesten Arten von abstimmbaren Lasern ist der verteilte Bragg-Reflektorlaser. Modernere abstimmbare Geräte haben immer noch die gleichen Grundkonzepte und können als eine Weiterentwicklung der DBR-Laser betrachtet werden. Wie beim DFB-Laser führt ein DBR eine periodische Variation des Brechungsindex ein, die effektiv ein Bragg-Gitter oder einen Reflektor erzeugt. Die gespaltene Frontfläche des Gerätes fungiert als zweiter Spiegel. Nur die Wellenlängen in einem bestimmten Zusammenhang mit der Bragg-Periode überleben im Hohlraum. Die Abstimmung erfolgt durch Einspeisung von Strom in den Bragg-Reflektor. Dies führt zu einer Änderung des Brechungsindexes, wodurch sich der Bragg-Peak auf verschiedene Wellenlängen einstellt. Der Phasenabschnitt ist in erster Linie für die Feinabstimmung der Ausgangswellenlänge ausgelegt. Der Abstimmbereich dieser Vorrichtungen ist proportional zur maximalen Änderung des Brechungsindex, typischerweise unter 20 nm.

Gitterunterstützter Co-Richtungskoppler (GACC) Laser
Der gittergestützte codirektionale Koppler (GACC) Laser ist einem DBR im Betrieb sehr ähnlich. Der Zweck dieser Struktur ist es, den Abstimmbereich eines DBR zu erweitern. Das Abstimmungselement ist ein Paar vertikal gestapelter Hohlleiter mit unterschiedlichen Materialeigenschaften und einem Gitter. Diese Änderung führt zu einem größeren Abstimmbereich von über 60 nm.

Abgenommenes Gitter DBR (SG-DBR)
Das abgetastete Gitter DBR ist eine weitere Variante des DBR-Lasers, dessen Hauptunterschied das Vorhandensein eines Paares von Gitterspiegeln an beiden Enden des Hohlraums ist. Die Gitter werden periodisch abgetastet oder ausgeblendet, was zu einer Folge von gleichmäßigen kurzen Abständen führt.
gitternde Explosionen. Wie bei DBR können die Gitter durch Stromeinspeisung abgestimmt werden. Es kann nachgewiesen werden, dass durch differenziertes Abstimmen der Spiegel ein größerer Abstimmbereich erreicht werden kann als mit einem einfachen DBR.

Durchstimmbarer externer Hohlraumlaser (ECL)
Das Hauptmerkmal dieser Architektur besteht darin, dass die Wellenlängenauswahlvorrichtung, die typischerweise ein MEMS oder ein thermisch abstimmbarer Filter ist, aus dem Verstärkungshohlraum herausgefahren wird. Es gibt kein integriertes Gitter im Laserhohlraum wie bei einem DFB oder DBR. Abstimmbare Laser, die mit dieser Technik hergestellt werden, sind in der Regel sehr leistungsstark (13 dBm Ausgangsleistung) und haben eine hohe spektrale Reinheit (SMSR > 50 dB). Zu den Nachteilen gehört, dass eine ECL in der Regel sehr langsam von einer Wellenlänge zur anderen wechselt (in der Größenordnung von Sekunden), außerdem ist bei MEMS-gesteuerten ECL die mechanische Zuverlässigkeit ein Problem.

Die Betriebsfrequenz kann durch ein frequenzselektives Rückkopplungselement definiert werden, das durch die Anwendung von Wärme aus einem Stellglied thermo-optisch abgestimmt wird, ohne die Hohlraummodi im Wesentlichen abzustimmen. Die Konfiguration wird von der Betriebssystemsoftware gesteuert, die für das DWDM-System verwendet wird. Die thermische Kompensation von Laserresonatoren ist eine Anforderung an Komponenten, die innerhalb der engen absoluten Frequenzbänder der DWDM-Spezifikationen robust arbeiten müssen.

GERÄTE-ARCHITEKTUR

Wellenlängen-auswahl

Physikalische Umsetzung

Integration

Kaufmännisches Beispiel

S(S)G-DBR,

DS-DBR,

MGY

Passive WG Grating(s)

Current injection

Monolithic

JDSU,

Oclaro,

Finisar

DBR

Passive WG Grating(s)

Thermal

(microheater)

Monolithic

 

Distributed

Reflector

Passive WG Grating(s)

Thermal

(microheater)

Monolithic

Sumitomo

DFB Array

Active WG Grating

Thermal (TEC)

Hybrid (MEMS) coupling optics

Santur

DFB Array

Active WG Grating

Thermal (TEC)

Monolithic (power
combiner+SOA)

Furukawa

ECL

Surface normal grating
resonator (+50 GHz etalon)

Electro Optic (Liquid
Crystal)

Hybrid

Pirelli


ECL

Diffraction grating
(Littman or Littrow)

Micromechanical

Hybrid

Iolon

VCSEL

Cavity mode

Micromechanical

Monolithic or Hybrid

 

Einsatz von abstimmbaren DWDM-Lasern:
- Sparsam
Verwenden Sie Tunables, um die Anzahl der Linienkarten zu reduzieren, die für die Sicherung aller verschiedenen Wellenlängen in einem System benötigt werden.

- Dynamische Bereitstellung
Die Wellenlänge des abstimmbaren Senders kann nach dem Einsatz des Systems geändert werden.

- Rekonfigurierbare optische Add/Drop-Multiplexer (ROADMs)
Es wurde eine einfache, flexiblere Architektur für ROADMs vorgeschlagen, die auf der Verwendung von abstimmbaren Lasern und abstimmbaren Filtern basiert.

- Optische Querverbindungen
Abstimmbare Laser können Probleme mit der Wellenlängenblockierung in OXCs beseitigen.

- Dynamische Wiederherstellung
Wenn ein DWDM-Kanal ausfällt, kann ein abstimmbarer Laser den Dienst automatisch wiederherstellen.

Suchen Sie nicht das richtige Produkt - finden Sie es - nur hier im GBIC-SHOP. Jetzt vorbei schauen!

Unterkategorien

Seite 5 von 18