Datenkommunikation Ethernet und RapidIO im Vergleich

Redakteur: Holger Heller

RapidIO tauscht, ähnlich wie Ethernet, Datenpakete über verschiedene Medien aus. Nun liegt ein Konzept für ein „verlustfreies Ethernet“ 
(DCE - Data Center Ethernet) vor. Ein Vergleich schafft Klarheit.

Anbieter zum Thema

RapidIO unterstützt den Datenaustausch und die Lese-/Schreib-Semantik und erlaubt die Steuerung und den Betrieb der Datenebene, um die gleiche physikalische Verbindung wie beim Ethernet zu nutzen. Speziell dafür entwickelt, die Latenz zu minimieren, eignet sich RapidIO dazu, in Hardware implementiert zu werden. RapidIO-Verbindungen garantieren die Zustellung von Datenpaketen, durch eine einfache Datenflusskontrolle und einen Fehlerwiederherstellungs-Mechanismus, selbst wenn Datenstaus und Übertragungsfehler auftreten.

Ethernet war traditionell ein „verlustbehaftetes“ Medium, das die Softwareunterstützung durch Protokolle benötigte, um den Datentransport zuverlässig auszuführen. Der übliche Kontrollmechanismus für den Datenfluss bei Ethernet waren Protokolle auf den Netzwerklagen, die die Übertragungsraten basierend auf der Erkennung von verlorenen Paketen steuern.

Kürzlich wurde das Konzept, des „verlustlosen Ethernet“ publiziert, das auch als „Data Center Ethernet“ (DCE) bekannt ist. Verlustloses Ethernet reduziert den Verlust von Datenpaketen durch Staus im Ethernet-Netzwerk, indem eine Datenflusskontrolle auf Verbindungsebene eingerichtet wird. Dies hat das Potenzial, den Wirkungsgrad des gesamten Netzwerks zu steigern.

Internet und Datenzentren bilden zwei Ethernet-Märkte

RapidIO garantiert die Datenpaketzustellung auf jeder Verbindung. Im Falle einer 100 m langen 10-GBit/s-Glasfaserverbindung kann die Datenwiederherstellung durch den Austausch von drei Steuersymbolen, die in ungefähr 2,5 µs auftreten können, erreicht werden. „Verlustloses“ Ethernet ist teilweise eine falsche Bezeichnung, weil Datenpakete immer noch auf Grund von Übertragungsfehlern verloren gehen können. Data Center Ethernet erfordert deswegen weiterhin die Auslagerung von Engines und/oder Softwarestacks, was Latenz zur Nachrichtenlieferung addiert.

Die Ethernet-Gemeinschaft teilt den Ethernet-Markt effektiv in die beiden Teilbereiche Internet und Datenzentren ein. Im Kontext von Internet erzielt die Kontrolle des Datenflusses auf Netzwerkebene, anders als die Datenflusssteuerung auf Verbindungsebene, einen höheren Datendurchsatz. Latenzen im Internet-Ethernet und die dynamische Netzwerktopologie machen die Kontrolle auf Netzwerkebene zur effektivsten Strategie der Datenflusssteuerung.

Die überwiegende Mehrheit der Ethernet-Technik ist das Internet-Ethernet. Die Internet-Technik hängt von der Datenverarbeitungsleistung in Form von Switch- und Router-Plattformen ab. Innerhalb dieser prägen Netzwerkprozessoren (NPUs) den Datenverkehr, um die Service-Level-Agreements (SLAs) zu erfüllen und Netzwerkprotokolle zu implementieren.

Kontrollmechanismen verhindern Datenverluste

In einer Internet-Router- oder -Switch-Plattform gibt es eine Menge von „Kurzbereichs“-Verbindungen zwischen einzelnen Chips. Die geringe Latenz dieser Kurzbereichs-Verbindungen kann durch einfache Datenflusskontrollmechanismen genutzt werden, den Verlust von Datenpaketen zu minimieren.

Switch-ICs für das Internet-Ethernet können die Funktionen unterstützen, die in den Switch- und Router-Plattformen vorgefunden werden. Die DCE-Switches mit geringerer Latenz können dies jedoch nicht. Bauteile, die direkt mit den Datea-Center-Ethernet-Switches verbunden werden, sind deshalb für diese Funktionen verantwortlich. Dies bedeutet eine signifikante Verlagerung von den einfachen Sende- und Empfangsarchitekturen, die die überwiegende Mehrheit der Internet-Ethernet-Technik für die Konsumenten charakterisieren.

Artikelfiles und Artikellinks

(ID:28378100)