Start

Wie Transceiver- und Direct-Attach-Kabel Ihnen helfen, ein Green Data Center zu bauen

Angesichts des enormen Energiebedarfs, der für den Betrieb der Rechenzentren erforderlich ist, besteht eine der größten Herausforderungen in den heutigen Rechenzentren darin, die Kosten für den Stromverbrauch und die Kühlung zu senken, was schließlich auch die Voraussetzung für den Bau des grünen Rechenzentrums ist. Je höher der Stromverbrauch, desto höher die Energiekosten und desto größer der Bedarf an Wärmeabfuhr. Dies erfordert mehr Kühlung, was sogar zusätzliche Kosten verursacht. In diesen Situationen bietet die Hochgeschwindigkeits-LWL einen großen Vorteil gegenüber Kupfer, um die Betriebs- und Kühlenergie des Netzwerks zu reduzieren. Das grüne Rechenzentrum bedeutet, dass alle Beleuchtungs-, Elektro-, Mechanik- und Gerätekomponenten auf höchste Energieeffizienz und minimale Umweltbelastung ausgelegt sind.
Green Data Center konzentriert sich auf zwei Themen, die im regulären Rechenzentrum nicht behandelt werden. Einer ist die Leistung, die zum Betreiben der Anlage benötigt wird, der andere ist die Leistung, die zum Kühlen der Anlage benötigt wird. Ein reduzierter Energiebedarf senkt nicht nur den Energieverbrauch, sondern auch die Umwelt. Grüne Lösungen enthalten:

  • Effektivere Hardwarekomponenten und Softwaresysteme
  • Fortschrittliche Kühlsysteme
  • Natürliche Methoden zur Kühlung des Rechenzentrums
  • Lage in der Nähe hilfreicher natürlicher Ressourcen oder Umgebungen
  • Gut organisierte Server- und Rackanordnung für einen besseren Luftstrom

In Bezug auf Kupferkabel, optische Transceiver und direkt angeschlossene Kabel (DAC) bieten viele Vorteile bei der Beteiligung am Bau eines grünen Rechenzentrums. Typische optische Konnektivität, die durch die Installation von Transceivern und direkt angeschlossenen Kabeln erreicht wird, kann grüne Rechenzentrumsinstallationen verbessern, indem sie Elektronik mit hoher Portdichte und sehr geringem Strom- und Kühlbedarf verwendet. Darüber hinaus bietet ein optisches Netzwerk beste Weg- und Raumleistungen in Racks, Schränken und Trays, um eine hohe Kühleffizienz bei der Verbindung über Kupfer zu unterstützen. Alle diese Vorteile können durch die folgenden drei Punkte verkürzt werden.

1.    Geringerer Energiebedarf
Optische Sende-Empfänger benötigen im Vergleich zu Kupfer-Transceivern eine geringere Leistung. Kupfer beinhaltet analoge und digitale Signalverarbeitung für die Übertragung, diese Umwandlung von digital zu analog und umgekehrt benötigt im Vergleich zu optischen Medien erheblich viel Energie. Zum Beispiel benötigt ein 10G BASE-T Kupfer-Transceiver etwa 6 Watt Leistung. Ein ähnlicher 10G BASE-SR optischer Sender-Empfänger benötigt weniger als 1 Watt, um das Signal zu übertragen. Durch den Einsatz von optischen Transceivern als Kupferersatz können so an jedem Port etwa 5 Watt Leistung eingespart werden. Angenommen, Sie gehen von 1.000 Anschlüssen mit je 5 Watt aus, das sind 5 kW weniger Leistung bei Verwendung von optischen Transceivern.

2.    Geringerer Kühlleistungsbedarf
Das optische System benötigt weniger Switches und Line-Karten bei gleicher Bandbreite, wenn es mit Kupfer gleichgesetzt wird. Weniger Schalter und Linienkarten garantieren einen geringeren Energieverbrauch für die Kühlung. Zum Beispiel eine 48-Port optische Linienkarte, die den drei 16-Port Kupferlinienkarten entspricht. Es würde drei Kupfer-Chassis-Switches erfordern, um die gleiche Bandbreite wie ein optischer Chassis-Switch zu haben. Mehr das Kupferchassis schaltet die Folgen in Form von mehr Kühlleistung um.  

3.    Besserer Luftstrom
Typischerweise würde ein optisches Kabel mit einem Durchmesser von 0,7 Zoll 216 Fasern aufnehmen, was 108 bidirektionale 10G optische Schaltungen unterstützen kann, während 108 Kupferkabel einen Durchmesser von 5,0 Zoll haben würden. Die Überbelegung von Kupferkabeln in Wegen erhöht die Möglichkeit von Geräteschäden durch Blockierung der Luftkühlung und beeinträchtigt die Fähigkeit von Lüftungssystemen, Staub und Schmutz aufzunehmen. Optisches Kabel hingegen liefert eine bessere Systemdichte und Kabelführung und reduziert Luftstromblockaden im Rack und Schrank für eine bessere Kühlung.

Transceiver und Direct Attachment Cable (DAC)-Anordnungen sind die perfekte Wahl für Direktverbindungsanwendungen mit kurzer Reichweite. Häufig werden sie im Equipment Distribution Area (EDA) eingesetzt, wo Schränke und Racks Endgeräte aufnehmen und wo horizontale Verkabelungen aus dem Horizontal Distribution Area (HDA) an Patchpanels abgeschlossen werden. Für die Verbindung in Racks und zwischen den Rackreihen wird das Direct Attachment Cable (DAC) verwendet, um den Switch mit dem Server zu verbinden, den Storage zu wechseln und den Switch zu schalten. Abhängig von den verschiedenen Verbindungsanwendungen und Entfernungsanforderungen können Kupferkabel (DAC), aktive optische Kabel (AOC) oder optische Transceiver mit unterschiedlichen Übertragungslängen verwendet werden.

Da 10G-Netzwerke heute im Rechenzentrum üblicherweise installiert sind, werden 10G SFP+ DACs häufig in Interconnect-Anwendungen unter 15 Metern verwendet, wie z.B. beim Wechsel zum Server oder beim Wechsel zum Speicheranschluss im selben Rack. Und jetzt ist 25GbE beliebt und 25G Direct Attachment Kabelkonfektionen, wie z.B. SFP28 DACs, sind jetzt auf dem Markt erhältlich. Für 40GbE werden 40G QSFP+ DACs und AOCs verwendet. Offensichtlich sind für Backbone-Switches mehr Geschwindigkeit und höhere Bandbreite erforderlich.

Optische Transceiver oder DAC/AOC, alle sind vorteilhaft für den Aufbau eines grünen Rechenzentrums. Wie bereits erwähnt, sind für den Bau eines grünen Rechenzentrums drei Hauptpunkte erforderlich. Und mit Hilfe von optischen Transceivern oder DAC/AOC können wir diese erreichen. Zum Beispiel durch den Einsatz optischer Medien können wir die benötigte Energie einsparen. Da weniger Platz benötigt wird, um die gleiche Bandbreite über Glasfaser zu erreichen, da die Optik eine hohe Portdichte aufweist, können wir dadurch Kühlleistung sparen. Da Glasfaserkabel weniger sperrig sind, blockieren sie den Luftstrom in den Wegen nicht und ermöglichen uns einen besseren und effizienteren Luftstrom.

Markttrends für optische Verbindungshardware im Jahr 2017

Laut einer Studie war das Jahr 2015 für viele Anbieter in der optischen Kommunikationsindustrie ein Jahr der Produktion. Angetrieben von der gesamten Branche stieg der Markt für optische Verbindungshardware im Jahr 2015 an, obwohl er das aggressivste Rennen hat. Wird sich dieser Trend jedoch in den kommenden Jahren für den Hardwaremarkt für optische Verbindungstechnik fortsetzen? Die erwarteten Trends des Marktes für optische Verbindungstechnik im Jahr 2017 werden in diesem Artikel diskutiert.

Wo Bedarf besteht, gibt es einen Markt.

Im vergangenen Jahr wird die Entwicklung der optischen Verbindungstechnik vor allem durch die steigenden Anforderungen an die höhere Ethernet-Geschwindigkeit vorangetrieben. Hinter diesen Anforderungen verbirgt sich eine Vielzahl von fortschrittlichen Technologien und Anwendungen wie Cloud, Internet der Dinge (IoT) und virtuelle Rechenzentren (Virtualisierung). Der umfassende Ausbau des FTTX- und 4G-Netzes ist auch ein Treiber für den wachsenden Markt für optische Verbindungstechnik. Im Jahr 2017 wird die Anwendung fortschrittlicher Technologien und der Einsatz von Glasfasernetzen eindeutig weiterhin der größte Treiber des Marktes für optische Verbindungstechnik sein. Das Hauptmerkmal des Marktes für optische Verbindungshardware 2017 kann durch die drei Schlüsselwörter bestimmt werden: Hochgeschwindigkeit, Kompatibilität und hohe Dichte.

Hohe Geschwindigkeit

In den letzten Jahren hat sich offensichtlich gezeigt, dass nur schnelleres Ethernet wie 40G oder 100G den steigenden Anforderungen gerecht werden kann. Einige große Rechenzentren sind in den vergangenen Jahren auf 40G und 100G umgestiegen, obwohl es noch nicht allgemein angewendet wird. Laut Forschung werden 40G und 100G in den kommenden Jahren der wichtigste Entwicklungsbereich des Marktes sein, und 2017 könnte das Ausbruchjahr der 100G-Technologien sein. Im Bereich der optischen Verbindungstechnik wird der Umsatz des 100G-Hardwaremarktes ebenfalls hauptsächlich steigen.

Kompatibilität

Viele Rechenzentren halten aus Kostengründen den Migrationsplan von 40G auf 100G aufrecht. So fordert beispielsweise fast jedes Rechenzentrum optische Transceiver und DAC zur Zusammenschaltung. Und diese Produkte sollten mit den Schaltern kompatibel sein. Umgekehrt wurde der Switch-Markt bereits von großen Anbietern wie Cisco kontrolliert. Und diese markengebundenen optischen 100G-Transceiver und DACs sind in der Regel sehr teuer.
Glücklicherweise können Hersteller wie Fiberstre optische Transceiver der kompletten Serie mit einer lebenslangen Garantie anbieten, die vollständig mit dem Netzwerkkit kompatibel sind. Außerdem sind diese Produkte viel günstiger als die Original-Markenprodukte und haben die gleiche Leistung. Diese Drittanbieter-Transceiver bieten den Kunden mehr Wahlmöglichkeiten zu niedrigeren Preisen, was den Markt für optische Verbindungstechnik, insbesondere für 100G-Produkte, sehr wahrscheinlich fördern wird.

Hohe Dichte

Auch wenn die Preise für Produkte mit hoher Datenrate im Jahr 2016 sinken werden, gibt es noch verschiedene Probleme bei der optischen Verbindung zu lösen. Eine höhere Ethernet-Geschwindigkeit bedeutet mehr Kabel und Geräte, was zu einem dringenden Problem im Rechenzentrum wird, wo der Platz begrenzt ist. Die Vergrößerung des Rechenzentrums ist eine Methode. Für viele Rechenzentren gibt es jedoch eine wirtschaftliche Methode in der Zusammenschaltung, die die Verkabelungsdichte und die Portdichte erhöht. Die Anbieter erfüllen die Marktbedürfnisse, indem sie Optiken mit kleinem Formfaktor, hochdichte Netzwerk-Racksysteme und MPO-Produkte anbieten. Im Jahr 2016 bietet Fiberstore innovative LC- und MPO-Patchkabel mit hochdichten Push-Pull-Laschen an, die die Verkabelungsdichte und Flexibilität effektiv erhöhen können. Die hohe Dichte ist der unumkehrbare Trend sowohl für den Markt für Rechenzentren als auch für optische Verbindungshardware.

Wo es Markt gibt, gibt es Wettbewerb

Drei der offensichtlichsten Trends des Marktes für optische Verbindungshardware werden Hochgeschwindigkeit, Kompatibilität und hohe Dichte sein. Unterdessen, gefördert durch den zunehmenden Bedarf an höherer Ethernet-Geschwindigkeit, ist es sehr wahrscheinlich, dass der Markt für optische Verbindungshardware 2016 die Tendenz von 2015 beibehalten wird. Mit Ausnahme von Chancen wird sich der Wettbewerb auf dem Markt für optische Verbindungstechnik jedoch verschärfen. Mehr Anbieter wollen den großen Teil des Marktes für optische Verbindungshardware teilen. Durch die Bereitstellung von vollständig getesteten Produkten und den günstigsten Preis für optische Verbindungsprodukte ist Fiberstore bereit und bereit, sich den Herausforderungen und Chancen im Jahr 2016 zu stellen.

Was bedeutet Synchronous Optical Networking (SONET) und Synchronous Digital Hierarchy (SDH)?

Fiber Optic Network ist die Heimat für viele Funktionen und Technologien, die im Laufe der Jahre kontinuierlich gewachsen sind. Die Entwicklung dieser Technologien und Funktionen führte schließlich zur Entwicklung von SONET und SDH. SONET und SDH stehen für Synchronous Optical Networking und Synchronous Digital Hierarchy.

SONET ist ein Standard für den optischen Telekommunikationstransport. Es wird hauptsächlich in Daten- und Telefon-Switches in den Schichten Core und Access des Netzwerks eingesetzt. Es wurde von der Exchange Carriers Standards Association (ECSA) für das American National Standards Institute (ANSI) erstellt. ANSI setzt in den Vereinigten Staaten Industriestandards für die Telekommunikation. SONET ist in ANSI T1.105, ANSI T1.106 und ANSI Ta.117 spezifiziert. SDH wird vom European Telecommunications Standards Institute (ETSI) definiert und ist in den Normen der Internationalen Fernmeldeunion (ITU) G.707, G.783, G.784 und G.803 festgelegt.

SONET basiert auf einem grundlegenden Frame-Format und einer Geschwindigkeitsstruktur. Das von SONET verwendete Frame-Format ist das Synchronous Transport Signal oder STS. SONET hat eine Hierarchie der Signalisierungsgeschwindigkeit, was bedeutet, dass mehrere Low-Level-Signale zu High-Level-Signalen gemultiplext werden können, was bedeutet, dass das Multiplexen von drei STS-1-Signalen ein STS-3-Signal bildet.  

In den Jahren vor der Einführung von SONET verwendeten die optischen Netzwerke proprietäre Architekturen, Geräte, Multiplexing-Formate und Wartungsverfahren. Die Austausch-Carrier in der Netzwerkwelt waren damals jedoch die Vereinigten Staaten, Hongkong, Kanada, Korea und Taiwan, und alle benötigten eine Art Lösung für das Mischen von Geräte von Anbietern. So begann die Exchange Carriers Standards Association (ECSA) mit der Entwicklung einer Lösung zur Verbindung eines Fasersystems mit einem anderen und nannte den Standard SONET.

Damit wir SONET wirklich verstehen können, müssen wir die Bedeutung und die Unterschiede zwischen synchronem, asynchronem und plesiochronem Signal verstehen:

  • Bei synchronen Signalen erfolgt der digitale Übergang in den Signalen mit genau der gleichen Nennrate. Auch wenn es eine Zeitdifferenz zwischen den Übergängen zweier Signale geben kann, wäre diese in einem bestimmten Bereich. Diese Zeitdifferenz kann durch Jitter im Netzwerk verursacht werden. In einem synchronen Netzwerk sind alle Uhren mit einer primären Referenzuhr oder PRC verbunden und ihre Genauigkeit basiert auf dem atomaren Cäsiumstandard.
  • Bei asynchronen Signalen erfolgt der Übergang im Signal nicht in genau der gleichen Geschwindigkeit. Bei asynchronen Signalen ist die Zeitdifferenz zwischen den beiden Uhren viel größer als eine plesiochrone Differenz.
  • Wenn zwei digitale Signale Plesiochron sind, erfolgt der Übergang bei nahezu gleicher Nennrate. Um die Dinge ins rechte Licht zu rücken: Wenn zwei Netzwerke zusammenarbeiten müssen, können ihre Uhren von verschiedenen VRCs abgeleitet werden, und obwohl es sich um ultrapräzise Uhren handeln würde, können einige kleine Unterschiede zwischen ihnen bestehen. Dieser Unterschied wird auch als plesiochrone Differenz bezeichnet.

In den letzten Jahren liefen die Übertragungssysteme auf einer separaten und individuellen Uhr, d.h. sie waren asynchron. In der digitalen Übertragung ist der Begriff "Clocking" jedoch eine sehr wichtige Überlegung, wenn man bedenkt, dass "Clocking" die Verwendung einer Reihe von repetitiven Impulsen bedeutet, um die Bitrate der Daten konstant zu halten. In SONET, einem synchronen System, ist die durchschnittliche Frequenz aller Uhren die synchrone (die gleiche) oder plesiochrone (fast die gleiche).

SONET und SDH sind im Wesentlichen identisch. Sie wurden ursprünglich entwickelt, um leitungsgebundene Kommunikation aus einer Vielzahl von verschiedenen Quellen zu transportieren. Die Hauptschwierigkeit dabei, bevor SONET und SDH eingeführt wurden, war, dass die Synchronisationsquellen der verschiedenen Schaltungen unterschiedlich waren. Das bedeutet, dass jede Schaltung mit einer anderen Geschwindigkeit arbeitet, auch wenn diese Differenz minimal ist. SONET und SDH ermöglichten den gleichzeitigen Transport von vielen verschiedenen Schaltungen unterschiedlicher Herkunft innerhalb eines einzigen Framing-Protokolls. SONET und SDH sind als Transportprotokolle definiert. Sowohl SONET als auch SDH sind heute weit verbreitet. SONET wird in den Vereinigten Staaten, Kanada und SDH wird vor allem in Europa und im Rest der Welt verwendet.

Synchrone Vernetzung unterscheidet sich von der PDH oder Pleasiochronous Digital Hierarchy. Der Hauptunterschied besteht darin, dass die Raten, mit denen die Daten im gesamten Netzwerk übertragen werden, in SONET mit Hilfe von Atomuhren eng synchronisiert sind. Dies trägt dazu bei, die Pufferung der Netzelemente um ein Vielfaches zu reduzieren.
Die Protokolle SONET und SDH sind sehr ähnlich, wenn nicht sogar gleich. Die Begriffe, mit denen verschiedene Merkmale beschrieben werden, sind jedoch unterschiedlich und können manchmal verwirrend sein. Das von ihnen verwendete Protokoll ist eine hochkomplexe und multiplexierte Struktur, wobei der Header komplex zwischen den Daten integriert ist. Dadurch können die Daten schließlich eine eigene Bildrate haben. Diese Einbindung bietet eine sehr geringe Latenzzeit für die gekapselten Daten.

Die Multiplexfunktion von SONET ermöglicht es einem physikalischen Medium, mehrere Signale zu übertragen. Mit der Multiplexfunktion hat jeder Kunde die Illusion, auf seiner eigenen privaten Verbindung zu sein. Bei SONET ist das Multiplexing nicht statisch. Stattdessen ist das Multiplexing TDM, was für Time Division Multiplexing steht. Das bedeutet, dass der ein- und ausgehende Verkehr in einem Knoten exakt gleich ist und es keine Spitzenrate gibt. Mit TDM, ob ein Datenfluss stattfindet oder nicht, wird ein Rohr einer bestimmten Größe angegeben.



Bei der Beurteilung der Notwendigkeit von SONET müssen bestimmte Parameter bestätigt werden, und wenn einer von ihnen erforderlich ist, ist SONET die richtige Wahl:

 

  • - Umfassende Überwachung
  • - Ultraschnelle Schutzfunktionen
  • - Multiplexing-Skalierbarkeit
  • - Schnellste Übertragungsgeschwindigkeiten bis zu 10 GB/s
  • - Zuverlässige und weiträumige Übertragung
  • - Option für optische Verstärker und Regeneratoren
  • - Integration in die optische Schicht

 

Standardmäßig bietet SONET ein viel leistungsfähigeres Netzwerksystem als die älteren asynchronen Telekommunikationssysteme. Nachfolgend sind die Vorteile der Implementierung von SONET aufgeführt:

 

  • - Erhöhte Flexibilität bei der Konfiguration
  • - Erhöhte Bandbreitenverfügbarkeit
  • - Reduzierung der Anforderungen an die Netzwerkausrüstung
  • - Erhöhte Zuverlässigkeit
  • - SONET kann große Nutzlasten tragen (über 50Mb/s).
  • - Definition des synchronen Multiplexformats zur Übertragung von digitalen Signalen mit niedrigem Pegel
  • - Es bietet eine Reihe von Standards, die es ermöglichen, Produkte verschiedener Hersteller miteinander zu verbinden.
  • - Reduzierte Investitionskosten
  • - Zentralisierte Verwaltungsstelle

Switches und Hubs - Worin besteht der Unterschied?

Die beiden häufigsten Netzwerkgeräte, die verwendet werden, um Endpunkte miteinander zu verbinden, sind Hubs und Switches. Der Zweck der Installation dieser Geräte in einem Netzwerk ist es, die Verbindung zwischen den Endpunkten, Druckern, Servern und allen anderen Netzwerkressourcen herzustellen. Abgesehen von dieser gemeinsamen Nutzung von Hubs und Switches gibt es einen signifikanten Unterschied zwischen der Funktionsweise und der Implementierung dieser beiden Geräte. Dieser Artikel wird es Ihnen ermöglichen, die Unterschiede zwischen Hubs und Switches zu verstehen und ihre Funktionsweise kurz zu erklären.

Hubs

Ein Hub ist eine physikalische Schicht (Layer-1) Netzwerkgerät, das verwendet wird, um mehrere Ethernet-Geräte miteinander zu verbinden, um ein einziges Netzwerksegment zu bilden. Ein Netzwerksegment hat eine Broadcast-Domäne und eine Kollisionsdomäne. Eine Broadcast-Domäne ist ein Segment des Netzwerks, in dem die von einem beliebigen Endpunkt gesendeten Daten für alle anderen mit diesem Netzwerk verbundenen Endpunkte zugänglich sind. Ebenso ist eine Kollisionsdomäne ein Segment des Netzwerks, in dem die von einem beliebigen Endpunkt gesendeten Daten mit den von den anderen Endpunkten gesendeten Daten kollidieren können. Eine einzige Broadcast-Domäne und eine einzige Kollisionsdomäne machen Hubs anfällig für übermäßige Datenkollisionen und sehr wenig Sicherheit.
Es gibt eine Bandbreitenbeschränkung für Hubs, da die Bandbreite zwischen den Endpunkten geteilt wird, da die Anzahl der Geräte, die sich mit einem bestimmten Hub verbinden, zunimmt, die Bandbreite abnimmt und die Datenkollision zunimmt. Hubs sind nicht verwaltete und dumme Netzwerkgeräte, es gibt keine Software, die auf einem Hub installiert ist, der den Datenfluss verwaltet, Sie können den Hub direkt nach dem Auspacken verwenden, da er nicht konfiguriert werden muss. Aufgrund der Nicht-Managementfähigkeit werden Hubs typischerweise in Heimnetzwerken oder kleinen Büronetzwerken eingesetzt.

Schalter

Ein Switch ist eine Datenverbindungsschicht (Layer-2) Netzwerkgerät, das hauptsächlich für den gleichen Zweck wie ein Hub verwendet wird. Ein Switch kann mit Hilfe der VLAN-Technologie (Virtual Local Area Network) in mehrere Broadcast-Domänen aufgeteilt werden. Ein VLAN ist eine Gruppe von Switch-Ports, die von der Software des Switches als eine Broadcast-Domäne definiert werden. Im Falle eines VLANs sind die von einem beliebigen Endpunkt übertragenen Daten nur den Mitgliedern dieses VLANs zugänglich und nicht allen über diesen Switch verbundenen Endpunkten. Für die Kommunikation zwischen den verschiedenen VLANs ist ein Layer-3-Gerät (Switch oder Router) erforderlich.

Alle Ports eines Switches sind Teil einer bestimmten Kollisionsdomäne, so dass es bei einem 24-Port-Switch 24 verschiedene Kollisionsdomänen gibt. Kollisionen sind bei Switches deutlich geringer, da sie nur möglich sind, wenn ein Hub mit einem Switch-Port verbunden ist.
Switches sind als Managed Switches und als nicht verwaltete Switches erhältlich. Nicht verwaltete Switches erfordern keine Konfiguration und können als Plug-and-Play-Gerät verwendet werden. Die verwalteten Switches werden verwendet, um eine tiefere Kontrolle über die Leistungs- und Sicherheitsparameter des Switches zu erlangen. Große Unternehmen und Firmenbüros nutzen Managed Network Switches.

Layer-3-Switches sind ebenfalls verfügbar, diese Switches arbeiten auf der Netzwerkschicht des OSI-Modells und können Routing-Funktionen ausführen. Durch die Verwendung von Layer-3-Switches entfällt die Notwendigkeit, einen Router für das Inter-VLAN-Routing zu verwenden.
Tabelle 1 zeigt den grundlegenden Vergleich zwischen einem Switch und einem Hub:

Feature

Hub

Switch

Layer

Layer-1

Layer-2 and Layer-3

Manageability

Un-Managed

Managed

Data Transmission

Bits

Frames or Packets

Device Type

Passive (W/O Software)

Active

Transmission Mode

Half-Duplex

Full-Duplex

Broadcast Domains

1

1 or More

Collision Domains

1

Equal to No. of Ports

Table 1: Comparison of Hubs and Switches

 

Fazit

Angesichts der oben genannten Details kann man davon ausgehen, dass die Hubs in kleineren und weniger kritischen Netzwerken eingesetzt werden, in denen man Kompromisse bei der Geschwindigkeit, Effizienz und Sicherheit des Netzwerks eingehen kann. Der Hauptvorteil des Einsatzes von Hubs sind Kosteneinsparungen und einfache Installation. Auf der anderen Seite erfordern Switches für ihr Management qualifiziertes Personal, bieten aber Zuverlässigkeit, Effizienz, höhere Geschwindigkeiten und erhöhte Sicherheit der Netzwerkumgebung. Heute sind Hubs fast veraltet, nicht verwaltete Netzwerk-Switches haben die Hubs in kleinen Büros und Wohnungen ersetzt, während Managed Switches in fast allen Unternehmen, Behörden und Unternehmen eingesetzt werden.

Was sind die Hauptkomponenten eines lokalen Netzwerks (LAN)?

Bevor wir in den Local Area Networks tiefer graben, beginnen wir mit den Grundlagen. Ein lokales Netzwerk ist eine Gruppe von Geräten, die sich einen gemeinsamen Kommunikationsweg zum Internet teilen oder gemeinsam mit einem Server innerhalb eines bestimmten Ortes und einer bestimmten Entfernung verbunden sind, wie z.B. eine Hauptverwaltung oder eine Geschäftsstelle. Diese Geräte können auch Ressourcen im selben LAN untereinander teilen. Das Local Area Network kann in einem kleinen Büro mit zwei oder drei Personen und in einem großen Gebäude mit Hunderten von Personen eingesetzt werden. In den letzten Jahren nutzten lokale Netzwerke die Ethernet- und Wireless-Spezifikationen. Erst in den letzten Jahren haben die Local Area Networks die Nutzung von Glasfaserverbindungen eingeführt. Ethernet ist eine Spezifikation für die physikalische Verbindung des gesamten Netzwerks und der Geräte im LAN mit Hilfe von Kupferkabeln und die Wireless-Spezifikation verwendet Funkwellen, um die gleichen Geräte mit dem LAN zu verbinden.

Für eine erfolgreiche Verbindung und ein einwandfreies Funktionieren muss das lokale Netzwerk aus mindestens sechs wesentlichen Komponenten bestehen:

  • Ein Netzwerkadapter - dies ist ein Netzwerkadapter, oder am häufigsten bekannt als Netzwerkkarte (Network Interface Controller- NIC), der die Aufgabe hat, Daten in elektrische Signale zu konvertieren und umgekehrt. Obwohl heute jeder Computer diesen Netzwerkadapter in das Motherboard integriert hat, war dies bei der frühen Entwicklung der Computer nicht der Fall und Netzwerkkarten mussten separat gekauft und auf dem Motherboard installiert werden. Das Netzwerkzugriffselement seines Jobs wird als MAC oder Media Access Control bezeichnet, allgemein bekannt auch als physikalische Adresse eines Gerätes. Der MAC stellt die Seriennummer des Netzwerkadapters dar. Das drahtlose Äquivalent zur Netzwerkkarte wird als Wireless Network Interface Controller bezeichnet.
  • Ein drahtgebundenes Medium - Im Zeitalter des Ethernet hat jede drahtgebundene Netzwerkverbindung den Bedarf an Kabeln. Das am häufigsten verwendete Kabel in lokalen Netzwerken ist das RJ45-Ethernet-Kabel. Abgesehen davon sind andere Kabel, die in lokalen Netzwerken verwendet werden könnten, zweiachsige, geschirmte Twisted Pair, Multimode-Fasern (MMF) und Singlemode-Fasern (SMF) für optische Verbindungen. Wenn es um drahtlose Netzwerke geht, sind keine Netzwerkkabel erforderlich, da das drahtlose Gerät Radiowellen von seinem WNIC aus sendet.
  • Kabelstecker - Heute ist der am häufigsten verwendete Kabelstecker der RJ45. Zur Zeit verfügt jeder Computer der Welt standardmäßig über einen RJ45-Anschluss.
  • Stromversorgung - Sowohl verkabelte als auch drahtlose lokale Netzwerke benötigen Strom. Dies ist notwendig, da kabelgebundene Netzwerke die Energie nutzen, um elektrische Signale in Daten umzuwandeln, und drahtlose Netzwerke den Strom nutzen, um Datensignale in Radiowellen umzuwandeln.
  • Router/Switch- In kabelgebundenen Netzwerken kann ein Computer ohne die Hilfe einer Art Splitter nicht mit mehreren anderen Computern verbunden werden. Um die Rolle des Splitters zu spielen, wurde der Schalter entwickelt. Der Switch wiederholt die von einem Computer empfangenen Signale und sendet sie über andere Ports, die mit anderen Computern über ein Ethernet-Kabel im selben lokalen Netzwerk verbunden sind. Router sind komplexere Geräte, mit denen der Datenverkehr aus dem LAN und aus dem Internet oder in ein anderes LAN weitergeleitet wird. Switches verwenden MAC-Adressen, um die mit ihnen verbundenen Geräte zu unterscheiden, und Router verwenden IP-Adressen. Es gibt keinen drahtlosen Schalter entwickelt, aber das drahtlose Äquivalent eines Routers wird als drahtloser Router bezeichnet.
  • Eine Netzwerksoftware - diese Software, die auf jedem Gerät installiert ist, hat die Fähigkeit, die Daten in ein Paket zu konvertieren. Anschließend wird das Paket mit Hilfe einer Kombination aus MAC-Adresse und IP-Adresse an sein Ziel gesendet. Dieses Paket wird dann über verschiedene Switches und Router durch das Local Area Network geleitet, bis es das Ziel erreicht.

Das Local Area Network hat die Aufgabe, die Kunden mit dem Internet zu verbinden und ihnen die Bandbreite zur Verfügung zu stellen, die sie für eine schnelle und stabile Verbindung benötigen. Mit der Entwicklung neuer Technologien und Anwendungen und der weltweiten Verbreitung des Internets ist jedoch der Bedarf an Hochgeschwindigkeits-Internet über weite Strecken unerlässlich geworden. Die neue Technologie, die in lokalen Netzwerken verwendet wird, die eine hohe Bandbreite über das Internet über weite Entfernungen bietet, ist die Glasfaserlösung. Diese Lösung nutzt das optische Licht und die Glasfaser, um die Daten von einem Gerät zum anderen zu übertragen. Die Daten werden mit Hilfe von optischen Lasern, die in ein optisches Modul, auch Transceiver genannt, integriert sind, über ein optisches Kabel mit einer oder mehreren optischen Litzen im Inneren gesendet und empfangen. Dieses Kabel ist mit einem anderen Sender-Empfänger oder Netzwerkgerät verbunden, das das optische Licht in Daten umwandeln kann.

Auch wenn die Kosten für den Einsatz einer Glasfaserlösung viel höher sind, sind die Vorteile und Leistungssteigerungen enorm. Das offensichtlichste und wichtigste Merkmal von Glasfasernetzwerken ist die Bandbreite, die sie bereitstellen können. Auch wenn schwere Kupferverbindungen im Vergleich zu optischen Verbindungen wachsen und weiter entwickelt werden, um größere Entfernungen zu ermöglichen, werden sie langsam aber sicher durch optische Verbindungen ersetzt. Mit der heutigen Technologie können Glasfasergeräte mit Leichtigkeit ein Vielfaches mehr Bandbreite bereitstellen und gleichzeitig weniger Strom verbrauchen als die üblichen Kupferverbindungen. Ein weiterer wesentlicher Unterschied ist die Möglichkeit einer höheren Portdichte als bei Ethernet-Kabeln. Die Anzahl der optischen LC-Ports, die auf einem Netzwerkgerät ausgerichtet werden können, ist aufgrund ihrer größeren und umfangreicheren Größe viel größer als die Anzahl der RJ45-Ports. Wenn wir die MPO-Lösung in diese Gleichung einbeziehen, die in einem kleinen optischen Stecker sogar 12 Linien haben kann, ist der Himmel die Grenze.  

Damit die optische Verbindung im lokalen Netzwerk mit maximaler Leistung funktioniert, benötigen wir eine optische Ausrüstung. Die wichtigsten optischen Komponenten sind optische Transceiver und optische Kabel:

  • Der optische Sender-Empfänger ist ein Modul mit der Aufgabe, den elektrischen Eingang in optisches Licht umzuwandeln. Dieses Licht wird dann mit Hilfe von optischen Lasern (Chips) über das optische Kabel nach unten geschickt. Diese Transceiver können, je nach Formfaktor, Geschwindigkeiten von bis zu 100 GB/s bei Entfernungen bis zu 160 Kilometern erreichen. Sie werden häufig in einem Netzwerkgerät (einem Switch) installiert, und da sie im laufenden Betrieb austauschbar sind, ist ihre Installation einfach. Beachten Sie, dass optische Sender-Empfänger sehr empfindlich auf Staub und andere Partikel reagieren, weshalb ein sorgfältiger Umgang mit ihnen ein Muss ist.
  • Die optischen Sender-Empfänger senden die optischen Daten über ein optisches Kabel. In Glasfasernetzwerken sind die Kabel in zwei Segmente unterteilt: Multimodale und Singlemode-Glasfaserkabel. Multimode-Kabel werden aufgrund ihres größeren Kerns für Glasfaserverbindungen mit kurzer Reichweite verwendet und der Abstand hängt vom Typ der Faser selbst, OM1, OM2, OM3 oder OM4, ab. Singlemode-Kabel werden aufgrund ihres viel engeren Kerns in einer weitreichenden Glasfaserverbindung eingesetzt.

Glasfasernetze bieten im Vergleich zu Kupferverbindungen eine viel größere Entfernungsgrenze. Am häufigsten muss bei Kupferanschlüssen in regelmäßigen Abständen, etwa 100 Meter, ein Repeater oder Schalter installiert werden, um das Signal so zu verstärken, dass es nicht zu stark verschlechtert wird. Auf lange Sicht ist dies für die Unternehmen kostspielig und erfordert einen großen Aufwand für Installation und Wartung. Bei Glasfaserverbindungen ist die Übertragungsdistanz deutlich größer. Ein Singlemode-Kabel hat die Fähigkeit, in Kombination mit der richtigen Ausrüstung bis zu 160 Kilometer zurückzulegen, und 160 Kilometer reichen für eine direkte Verbindung vom primären Serverraum, in dem sich der Kern befindet, zum Endziel. Ein weiterer Vorteil für die Glasfaserverbindungen ist ihre Langlebigkeit. Auch wenn verschiedene körperliche Belastungen sie schädigen können, sind sie sehr widerstandsfähig gegen Hochfrequenzen und magnetische Störungen. Lichtwellenleiter sind nicht leitfähig und im Gegensatz zu den Kupferverbindungen leiten die Kabel im Falle eines Blitzeinschlags den Strom nicht zum Gerät und beschädigen es, so dass kein Blitzschutz eingesetzt werden muss. Schließlich sind Glasfaserkabel viel leichter als Kupferkabel, was den Transport und die Installation erleichtert.

Heute mit dem großen Bandbreitenbedarf entscheiden sich die Unternehmen für ein Upgrade auf Glasfasernetze, obwohl die Anschaffungskosten höher sind. Sie sind überzeugt, dass die Glasfasernetze langfristig die Zukunft der Vernetzung sind. Und mit Hilfe von Glasfasermedienkonvertern können sie ihr bestehendes Kupfer-Netzwerk nahtlos mit der neu eingesetzten Glasfaserlösung kommunizieren lassen.

Unterkategorien

Seite 17 von 21