Vor einem Monat durfte ich im Rahmen eines Innovation-Events in der niederländischen Stadt s’-Hertogenbosch einen Großteil des aktuellen Line-ups der Supermicro KI-Server und KI-Storage-Systeme begutachten. Dazu gehörten KI-Rechner aus der X13-Serie genauso wie die erst kürzlich angekündigten E3.S.-Speicherlösungen. Ein Gesamtüberblick.
Supermicro beschreibt sich schon länger nicht mehr als reiner Hardware-Lieferant, sondern als IT-Gesamtlösungsanbieter, und das mit den Schwerpunkten Cloud, Künstliche Intelligenz, Speicher und 5G/Edge. Damit wird relativ schnell klar, dass es nicht mehr rein um die Maschinen geht, die Supermicro Tag für Tag selbst produziert und verschifft. Vielmehr handelt es sich um einen ganzheitlichen Ansatz, dem sich das US-amerikanische Unternehmen verschrieben hat. Und genau darum soll es in diesem Beitrag gehen: Um die neusten Modelle aus den Bereichen KI-Server und KI-Storage.
Supermicro KI-Server: Von mittelgroß bis Highend

„Accelerate Everything AI“, so lautet derSupermicro-Slogan zum Thema KI und den zugehörigen IT-Lösungen. Das beginnt bei mittelgroßen Systemen mit 4 eingebauten Grafikeinheiten und endet bei Systemen vom Format „Extra Large“, einem flüssigkeitsgekühlten Supercomputer mit der Bezeichnung SYS-821GE-821GE-TNHR.
Darin sorgen 8 NVIDIA HGX H100 GPUs -Grafikeinheiten für die notwendige Rechenpower, die für die KI-Disziplinen Training und Inferencing notwendig sind. Unterstützt werden die GPU-Komponenten von Intel Xeon Prozessoren der 4. Generation, für die nächste Generation von CPUs und GPUs sind diese Systeme auch schon entwickelt worden.
GPU-Server mit NVIDIA H100 für AI-Workloads
Selbstverständlich geht es auch ein gutes Stück kleiner. Dazu gehört beispielsweise der GPU SuperServer SYX-221GE-NR, der in einer Bauhöhe von 2U daher kommt, mit 4 NVIDIA H100 PCIe GPU’s und skalierbaren Intel Xeon Prozessoren der 4. Generation ausgestattet ist. Diese Systeme sind für Enterprise AI Inference & Training-Workloads vorgesehen. Auch hier sind den technischen Möglichkeiten nach oben hin kaum Grenzen gesetzt, wie die Modelle „Large“ und „Extra Large“ zeigen.
Neben diesen Highend-Maschinen für Training und Inferencing bietet Supermicro weitere Workload-optimierte Systeme, die in den Bereichen 3D-Design, Spieleentwicklung, Cloud Gaming/Streaming und anderen Disziplinen zum Einsatz kommen. Jedes mit den entsprechenden Konfigurationen und den dazu passenden Preisen.
KI-Storage-Systeme: X13, X12, SSG und ASG

X13, H13 und X12, das sind die entscheidenden Produktlinien, wenn es bei Supermicro um das Thema Storage geht. Hierbei dreht sich in Zeiten von Machine & Deep Learning vieles um das Thema Daten und Künstliche Intelligenz, aber natürlich nicht nur.
Denn auch das Analysieren und Bewerten von großen, unstrukturierten Daten wie Social-Media-Streams, tausenden von Videos und Millionen von Bildern stellt eine enorme Herausforderung an die hierfür benötigten Speichersysteme dar. Daher sind performante Speichereinheiten von immanenter Wichtigkeit, da große Datenmengen schnelle Storage-Systeme erfordern.
Hierfür kommen bei Supermicro im Wesentlichen 9 verschiedene Storage-Modellfamilien infrage, von X13/H13/X12 All-Flash NVMe bis zu X12/H12 1U Storage Server. Sämtliche Modelle unterscheiden sich im Wesentlichen in der Bauhöhe, in der Ausstattung und den verbauten Komponenten.
EDSFF-basierte SSD-Speicherbausteine für schnelle Speicherzugriffe
Eine Besonderheit für den Bereich KI/AI stellt die Supermicro Storage-Server-Familie mit den Modellbezeichnungen SSG und ASG dar. Sämtliche vier Modelle basieren auf dem Enterprise & Datacenter SSD Form Factor“ (EDSFF) E3.S.
Damit bieten diese Storage-Systeme eine höhere Speicherleistung bei gleichzeitig reduzierter Stromaufnahme und einer verbesserten Systemdichte. Ausgestattet sind die SSG- und ASG-Modelle wahlweise mit Intel Xeon und AMD EPYC-Prozessoren. In die Storage-Systeme mit einer 1U-Bauhöhe lassen sich bis zu 16 Speicherkomponenten vom Typ NVMe-SSD einbauen, in die 2U-Systeme passen 24 oder 32 SSD-Speicherbausteine.
Ein Blick in die Zukunft

Damit Supermicro für künftige Nachfragen an KI-Server und -Storage-Systemen gewappnet ist, hat das Unternehmen erst im August die Großserienproduktion des E3.S All-Flash-Storage-Portfolios angekündigt. Damit sollen PCIe-Laufwerke der 5. Generation sowie CXL-Module unterstützt werden, die speziell im Hinblick auf aufwändige KI-Trainings dringend erforderlich sind.
Aber auch das Erweitern der Supermicro KI-Lösungen um NVIDIA HGX H200 und MGX Grace Hopper passen in die Zukunft gerichtete Strategie. Damit sollen sich vor allem LLM-Anwendungen erheblich beschleunigen lassen, die gerade im Bereich der generativen KI unverzichtbar werden. Einen wesentlichen Beitrag hierzu liefert der im Vergleich zur Vorgängergeneration deutlich schnellere HBM3e-Speicher. Dieser liefert 8 Gigatransfer/Sekunde; der Vorgänger HBM3 schafft lediglich 6,4 GT/sek.
KI-Lexikon: Wichtige Begriffe der Künstlichen Intelligenz erklärt
Disclaimer: Für das Verfassen und Veröffentlichen dieses Blogbeitrags hat mich die Firma Supermicro beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.