Wenn die KI aus der Cloud kommt: AI-as-a-Service

geschätzter Leseaufwand: 3 Minuten

Klar, die Künstliche Intelligenz spielt eine immer größere Rolle, sodass Unternehmen gar nicht mehr umhin kommen, sich mit deren Möglichkeiten und Vorzügen zu beschäftigen. Für eine Runde ChatGPT reicht das Know-how sicherlich meist noch aus, aber was, wenn Disziplinen wie Machine und Deep Learning hinzukommen sollen, um auf diesem Weg sein eigenes Sprachenmodell (LLM oder SML) für die bevorzugte KI-Anwendung zu trainieren? Hierfür ist eine ganze Menge an Wissen und Erfahrung erforderlich – und auch eine gehörige Portion Rechenpower. Wie man an die herankommt, trotz einer nicht ausreichenden eigenen Infrastruktur, steht in diesem Beitrag.

Für das Trainieren und Inferenzieren von KI-Modellen ist ein enormer Rechenaufwand erforderlich, der sich mit den herkömmlichen Servern gar nicht oder nur mit langen Rechenzeiten bewerkstelligen lässt. Obendrein sind vor allem beim Trainieren von komplexen Modellen wie den LLMs (Large Language Model), wie sie beispielsweise im Kontext von ChatGPT genutzt werden, enorme Prozessorleistungen notwendig. Die sind sehr kostenintensiv und stehen daher in den typischen Rechenzentren von Unternehmen meist nicht zu Verfügung.

Supercomputer aus der Cloud: AI-as-a-Service

Diese Überlegungen standen auch bei NHN Cloud Corp, einer Tochtergesellschaft von NHN, Koreas führendem Cloud Service Provider (CSP), im Vordergrund. Daraus resultierte schließlich ein Dienst, der sich Artificial Intelligence-as-a-Service (AIaaS) nennt. Hierfür war natürlich ein Supercomputer vonnöten, den der CSP selbst entwickelt hat mit dem Ziel, KI-Anwendungen und -Services für Unternehmen zu ermöglichen, denen die hierfür erforderliche Infrastruktur nicht zur Verfügung steht. Adressiert werden damit jegliche Firmengrößen – von kleinen mit mittelgroßen bis zu ganz große Unternehmen, und selbst Behörden sollen diesen Cloud-Service in Anspruch nehmen können.

Herausgekommen ist ein Highend-Rechner, in den Intel Xeon Prozessoren der 4. Generation verbaut sind. Damit kommt dieser Supercomputer in Kombination mit den integrierten GPUs auf eine maximale Rechenleistung von 88,5 PetaFLOPS. Damit stünde der National AI Data Center-Rechner auf der Liste der 500 schnellsten Supercomputer der Welt auf Platz 14 – eingebettet zwischen einer HPE Cray-Maschine und dem Highend-Rechner des National Supercomputing Center, Sunway TaihuLight, der in Wuxi, China, steht.

Intel KI-Beschleuniger Intel AVX-512 und Intel DL Boost für noch mehr Leistung

Doch die Rechenleistung der Intel Xeon-Prozessoren und der verbauten GPUs alleine ergeben im KI-Kontext noch keine 88,5 PetaFLOPS. Denn speziell die in den CPUs integrierten KI-Beschleuniger wie Intel AVX-512 und Intel Deep Learning Boost (Intel DL Boost) verleihen den zugehörigen KI-Anwendungen einen enormen Anschub, was Trainings- und Inferenz-Leistung betrifft.

Damit lassen sich die Disziplinen Machine Learning und Deep Learning direkt auf dem NHN Supercomputer mühelos ausführen, und das aus der Cloud heraus, ohne eigene Hardware und Know-how in Sachen KI. Dabei setzt die verbesserte KI-Funktion Intel DL Boost auf eine geringere Rechengenauigkeit, was einen erhöhten Durchsatz ermöglicht, ohne dabei auf akkurate Ergebnisse verzichten zu müssen.

Hinzu kommt der Einsatz von kryptographischen CPU-Funktionen wie Intel QuickAssist Technology (Intel QAT). Damit lassen sich Daten und Anwendungen State-of-the-Art ver- und entschlüsseln sowie komprimieren. Das beschleunigt ebenfalls den Datentransfer, und das auf sehr sichere Art und Weise. 

Mehr als eine Verdoppelung der KI-Rechenleistung

Das Ergebnis des National AI Data Center Supercomputers kann sich durchaus sehen lassen. So kommt der Hochleistungsrechner in Kombination mit H100 GPU-Beschleunigern auf eine 2,5-fache Verdoppelung der Rechenleistung im Vergleich zu seinem Vorgänger. Obendrein sorgen Intel Data Center GPUs in Verbindung mit PCIe5 und DDR5-Speicher für einen deutlich erhöhten Datendurchsatz, was angesichts der enormen Datenmengen, die beim Trainieren von KI-Modellen anfallen, einen weiteren Leistungsschub bedeutet.

Disclaimer: Für das Verfassen und Veröffentlichen dieses Blogbeitrags hat mich die Firma Intel beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.