Zum Hauptinhalt springen Zur Suche springen Zur Hauptnavigation springen
Service-Hotline: +49 (0) 9402- 93 8505 0

InfiniBand Netzwerkkarten


Kein Angebot mehr verpassen!

Erhalten Sie sofort Informationen über unsere neuesten Angebote. Melden Sie sich heute noch für unseren Newsletter an. Sie können den Newsletter jederzeit kostenlos abbestellen.

Newsletter abonnieren

Wir nutzen Brevo als Dienstleister für die Versendung unserer Newsletter. Im Rahmen dieser Anmeldung erklären Sie sich einverstanden, dass Ihre eingegebenen Daten an Brevo übermittelt werden. Bitte beachten Sie die Datenschutzbestimmungen und Allgemeinen Geschäftsbedingungen von Brevo.

Was versteht man unter einem InfiniBand Adapter?

infiniband Netzwerkkarte

Netzwerkkarten oder Netzwerkschnittstellenkarten, die in Servern verwendet werden, kommunizieren mit Switchen, Storage-Systemen, anderen Servern oder Clients. Da manche Verbindungen unterschiedliche Leistungen, Geschwindigkeiten oder Protokolle benötigen, gibt es auch verschiedene Arten von Netzwerkkarten – etwa RJ-45 Adapter, SFP+ NICs oder eben InfiniBand Karten.

Dabei bietet die InfiniBand-Netzwerktechnologie eine spezielle Lösung, wenn maximale Bandbreite, geringe Latenz und hohe Zuverlässigkeit gefragt sind. Denn das InfiniBand-Protokoll ist mehrschichtig, hocheffizient und ermöglicht eine Datenübertragung, die direkt über RDMA (Remote Direct Memory Access) erfolgt. Dadurch wird die CPU erheblich entlastet. Die Daten werden direkt zwischen den Arbeitsspeichern zweier Systeme übertragen – was zu deutlich niedrigeren Netzwerkübertragungsverzögerungen als beispielsweise bei Ethernet führt.

InfiniBand-Adapter verbinden sich physisch – genau wie „Standard-NICs“ – über die PCIe-Schnittstelle mit dem Host-System. Diese Architektur ermöglicht neben geringer Latenz auch hohe Bandbreite und gute Skalierbarkeit. Daher kommen PCIe InfiniBand Adapter häufig in Hochleistungsrechnern (HPC), KI- und Big-Data-Anwendungen (z.B. Storage-Clustering, KI-Training), wissenschaftlichen Berechnungen oder Simulationen zum Einsatz. Durch die hohen Transferraten und die verlustarme Kommunikation können auch große Datenmengen, rechenintensive Workloads oder parallele Prozesse effizient verarbeitet werden.

Auch im Storage-Bereich finden InfiniBand-Adapter häufig Anwendung: Sie ermöglichen einen schnellen und zuverlässigen Zugriff auf SAN-Systeme und Datenbanken. Die physische Verbindung erfolgt meist über Glasfaserkabel oder Twinax-Kabel und wird durch spezielle InfiniBand-Switches sowie passende Transceiver ergänzt.

Ähnlich wie RJ-45 NICs oder HBAs gibt es auch InfiniBand-Adapter in verschiedenen Ausführungen. InfiniBand PCIe Steckkarten sind sowohl als Low Profile als auch als Full Profile Versionen erhältlich. Für Blades oder Nodes kommen InfiniBand-Mezzanine-Adapter zum Einsatz. InfiniBand-Steckkarten werden auch häufig als Host Channel Adapter (HCA) bezeichnet – gelegentlich fälschlich auch als „QSFP-NICs“. Zwar ähneln sich QSFP-Adapter und InfiniBand-NICs optisch und beide arbeiten mit Hochgeschwindigkeitsnetzwerken, dennoch handelt es sich um unterschiedliche Steckkarten mit verschiedenen Protokollen und Einsatzzwecken.

Merkmale von InfiniBand NICs sind die Nutzung des InfiniBand-Protokolls (Technologie: RDMA; optional IPoIB für IP-basierte Kommunikation mit niedriger Latenz). Die Latenz ist extrem niedrig, der Durchsatz sehr hoch – je nach Generation 40, 100 oder sogar bis zu 400 Gbit/s. QSFP-NICs hingegen beschreiben primär den Steckertyp (Quad Small Form-factor Pluggable) und sind meist Ethernet-basiert. Manche Modelle unterstützen auch InfiniBand, jedoch ist das nicht die Regel. Auch bei QSFP-NICs ist die Latenz niedrig, der Durchsatz liegt typischerweise bei 40 Gbit/s.

InfiniBand vs. Ethernet

infiniband Netzwerkkarte

InfiniBand wird meist im Hochleistungsbereich verwendet – Ethernet hingegen eher für die Verbindung von Endgeräten. Ein wesentlicher Unterschied besteht bereits bei der Bandbreite: Während bei klassischen Ethernet-Verbindungen keine besonders hohen Bandbreitenanforderungen bestehen, bietet ein InfiniBand-Netzwerk eine Hochgeschwindigkeitsübertragung mit deutlich höherem Durchsatz. Die RDMA-Technologie sorgt dabei für eine starke CPU-Entlastung und ermöglicht schnellen Datenverkehr – auch bei großen Datenmengen oder parallelen Datenübertragungen.

Auch die Latenzzeiten von Ethernet und InfiniBand unterscheiden sich deutlich. Gerade bei Hochleistungsrechenzentren oder Echtzeitanwendungen (z.B. Finanztransaktionen) ist eine niedrige Latenz entscheidend. InfiniBand-Netzwerkkarten wurden speziell für extrem niedrige Latenzen entwickelt – klassische Ethernet-NICs, insbesondere TCP/IP-basierte Verbindungen, weisen deutlich höhere Latenzzeiten auf. InfiniBand nutzt ein leichtgewichtiges Protokoll mit Local Identifiers (LIDs), was den Overhead minimiert. Zudem können latenzkritische Daten priorisiert behandelt werden, und ein Flow-Control-System steuert die Datenflüsse präzise, um Überlastungen zu vermeiden.

Was die Zuverlässigkeit betrifft, gelten beide Technologien als stabil – mit jeweils unterschiedlichen Stärken. InfiniBand überzeugt durch hohe Stabilität auch in komplexen Rechenzentrumsumgebungen, bei hoher Last und parallelen Datenströmen. Ethernet hingegen bietet eine bewährte und kostengünstige Lösung für den breiten Einsatz. Die enorme Kompatibilität und moderne Standards mit 10, 25, 40 oder sogar 100 Gigabit machen Ethernet zu einer etablierten Praxis im Alltag.

Vorteile von InfiniBand

infiniband Netzwerkkarte

Wenn es um Leistungsfähigkeit, Latenz und skalierbare Verbindungslösungen geht, macht den InfiniBand-Karten keine andere Steckkarte etwas nach. Insbesondere im HPC-, Cloud-Computing-, KI-, Big-Data und Finanzbereich sowie bei Hochleistungs-Speicheranwendungen punkten Sie durch ihre hohe Bandbreite, Zuverlässigkeit und die geringen Latenzzeiten. Sie tragen aktiv dazu bei, eine hohe Servereffizienz sowie mehr Produktivität im Anwendungsbereich zu erreichen.

Dadurch, dass die Datenbewegung über RDMA (Remote Direct Memory Access) erfolgt, wird die CPU stark entlastet und kann andere Arbeitslasten effizient und ultraschnell verarbeiten. Das ist besonders relevant bei Simulationen, parallelen Algorithmen und großen Datenmengen, wie sie in modernen Rechenzentren und KI-Trainingsumgebungen auftreten.

InfiniBand NICs für Server günstig gebraucht kaufen

Genau wie bei RJ-45 Netzwerkkarten profitieren Sie auch beim Kauf von InfiniBand-Netzwerkkarten für Server von preiswerter, refurbished Hardware. Die Adapter sind technisch einwandfrei und nahezu neuwertig – jedoch um ein Vielfaches günstiger als vergleichbare Neuware.

Bei der Auswahl der gewünschten Karte sollten Sie auf folgende Punkte achten:

  • Kompatibilität zum Gerät
    Prüfen Sie, wie viele und welche Adapter in den vorhandenen Server eingebaut werden können (z.B. Low Profile oder Full Profile Slotblech) und welche Modelle sowie Schnittstellen (z.B. PCIe 3.0 x8 oder höher) zum Host-System kompatibel sind.
  • Geschwindigkeit der Datenübertragung
    Es gibt diverse InfiniBand-Netzwerkkarten für Server – je nach Bedarf mit 100, 200 oder sogar 400 Gigabit Datenübertragung pro Sekunde. Je datenintensiver die Anwendungen sind, desto höher sollte die Übertragungsrate gewählt werden.
  • Anzahl der Ports
    Die Anzahl der Ports sollte sich danach richten, wie viele Verbindungen gleichzeitig benötigt werden – etwa für parallele Datenströme oder redundante Pfade.
  • Besondere Funktionen
    Je nach Anwendungsfall kann es sinnvoll sein, auf spezielle Funktionen wie Virtual Protocol Interconnect (VPI), Multi-Host, Socket Direct, HDR-, EDR- oder FDR-Geschwindigkeiten sowie Unterstützung für PCIe 4.0 oder PCIe 5.0 zu achten.

InfiniBand-Geschwindigkeiten im Vergleich

Geschwindigkeit
Typische Anwendungen
Mögliche Workloads
25 Gbit/s Einstieg in HPC, Storage-Anbindung, parallele Verarbeitung Kleine HPC-Cluster, Storage Area Networks (SAN)
40 Gbit/s Midrange HPC, parallele Verarbeitung Videobearbeitung, Rendering, verteilte Datensysteme, ML mit kleinen/mittleren Modellen
100 Gbit/s und mehr High-End HPC, KI, Cloud-Scale Deep Learning Modelle, Echtzeit-Simulationen (z.B. Wetter), Bioinformatik

Für KI-Training mit mehreren GPUs sind Verbindungen unter 100 Gbit/s kaum noch sinnvoll, da sie schnell zu Engpässen führen können. Die tatsächliche Performance hängt zudem von Faktoren wie PCIe-Version, RDMA-Unterstützung, Switch-Architektur und dem eingesetzten Software-Stack ab.

Clever ist es auf jeden Fall, auf qualitativ hochwertige und kostengünstige Gebrauchthardware zu setzen – das schont sowohl den Geldbeutel als auch die Umwelt. Falls Sie den gewünschten InfiniBand-Adapter, passende Transceiver oder Switches nicht bei uns im Shop gefunden haben, zögern Sie nicht, uns zu kontaktieren.

Wir sind mit IT-Händlern weltweit vernetzt und können das gewünschte Modell sicher und preiswert beschaffen.