Seit 1990 gibt es ihn, den Grünen Punkt. Er steht wohl wie kein anderes Symbol für das nachhaltige Recycling, also das Wiederverwerten von Gegenständen, die entweder keinen Nutzen mehr haben oder unreparierbar sind. Dieser Makel haftet auch vielen IT-Systemen an, die man ja oft zu schnell entsorgt, anstatt ihnen ein neues Leben einzuhauchen. Dies will Intel verbessern (und tut das bereits seit etwa 6 Jahren), indem Server nur noch partiell mit neuen Komponenten versorgt werden.
Vor nicht einmal einem Jahr (Q3-2021) bestanden sämtliche Intel-eigenen Rechenzentren aus über 360.000 Server-Einheiten, die von über 3,3 Millionen Intel Xeon Prozessoren angetrieben wurden. Ihnen stehen mehr als 577 Petabyte Speicherkapazität zur Seite und etwa 660 Netzwerk-Anschlüsse, die sämtliche Komponenten miteinander verbinden.
Würde man diese Zentralrechner jedes Mal von Grund auf erneuern bzw. komplett austauschen, weil dies eine neue Prozessorgeneration verlangt, entstünde dadurch ungefähr alle zwei Jahre ein enormer Elektronikschrotthaufen, der ökologisch betrachtet nicht tolerierbar wäre.
[irp posts=“168007″ ]
Weg vom kompletten Rechneraustausch: Disaggregated Server-Design
Diesen Gedanken hatten auch die IT-Verantwortlichen bei Intel, und so entschied sich der Chiphersteller vor etwa 6 Jahren zur Abkehr vom klassischen Serverdesign. Die Idee dahinter war eigentlich simpel und naheliegend: Anstatt auf den Server-Motherboards die notwendigen Komponenten wie Prozessor, Arbeitsspeicher, Netzwerk-Bausteine und Festplattenanschlüsse als integriertes Ganzes zu betrachten, entschied man in Santa Clara, Kalifornien, CPU/DRAM von Netzwerk- und Festplatten-Komponenten zu entkoppeln. Damit war eine neue Server-Generation geboren, für mehr Nachhaltigkeit und weniger Elektronikschrott.
[irp posts=“160184″ ]
Damit müssen für ein Server-Upgrade buchstäblich nur noch ein paar Schrauben gelöst und die infrage kommenden Komponenten wie Prozessor und RAM ausgetauscht werden. Damit die neuen Komponenten weiterhin mit den verbleibenden Bausteinen harmonieren, befinden sich CPU und RAM auf einer Steckkarte, die sich nach dem Austausch wieder mit den PCI-Komponenten verbinden lassen. Damit kann man die verbauten Festplatten und SSD-Bausteine weiterhin verwenden, die im Allgemeinen längere Laufzeiten aufweisen.
Mehr als 220.000 disaggregierte Server sparen Geld und Energie
Seit der ersten Installation solch eines disaggregierten Servers konnte Intel bereits mehr als 220.000 Zentralrechner dieser Art bauen, und das in 13 verschiedenen Ausprägungen. Dazu zählen Single-Socket-Maschinen genauso wie 2-Sockel-Server mit unterschiedlichen Intel Xeon-Modellen. Damit lässt sich immer genau der Server konzipieren, der für die geplanten Workloads erforderlich ist. Das reicht von Speicher-intensiven Datenbank-Anwendungen bis zu Bandbreiten-hungrigen und IOPS-lastigen Applikationen.
Neben der längeren Nutzung bestimmter Komponenten wie Laufwerk und SSD-Bausteine, weisen die disaggregierten Server weitere ökologische Vorteile auf. So erfordern die CPU-/RAM-Module deutlich weniger Transportvolumen, was sich auf das Gewicht der Lieferungen auswirkt. Das erfordert weniger Transportmittel wie Schiffe und Flugzeuge, woraus sich ein geringerer CO2-Ausstoß ergibt. Und das führt wiederum zu einer deutlich besseren CO2-Bilanz.
[irp posts=“160150″ ]
Kostenersparnis inklusive
Abgesehen von den ökologischen Vorteilen dieser disaggregierten Server ergeben sich auch ökonomische Vorzüge gegenüber den traditionellen Server-Austausch-Programmen. So sparten erste Versuche, einen Server nicht mehr vollständig zu ersetzen (es wurden zumindest die Netzwerkkomponenten, die Netzteile und die Lüfter wiederverwendet) immerhin 17 Prozent an Kosten. Disaggregierte Server hingegen kommen auf einen Einsparfaktor von 44 Prozent, also fast die Hälfte im Vergleich zu einer Neuanschaffung.
Obendrein weist dieser Ansatz einen weiteren Vorteil auf. So müssen das Betriebssystem und weitere Software-Komponenten nicht neu installiert werden. Intel-interne Test zeigen, dass damit etwa Zweidrittel an Installationsaufwand vermieden werden kann.
Intel Rechenzentren im Laufe der letzten 30 Jahre
Die Intel Rechenzentren befinden sich – wenn man die Kühlungstechniken und -strategien betrachtet – mittlerweile in der dritten Generation. Begonnen hat das Ganze in den 1990ern mit ersten Kühlungsluftversuchen, woraus sich bei einem Serversystem, bestehend aus 42 Rackeinheiten, ein Energieaufwand von 5 Kilowatt ergab. Das entsprach einem PUE-Wert von mehr als 2.0.
Know-how: Power Usage Effectiveness (PUE) gibt an, wie es um die Energieeffizienz eines Rechenzentrums bestellt ist. Der PUE-Wert stellt die verbrauchte Energie eines Rechenzentrums ins proportionale Verhältnis zur Energieaufnahme der IT-Infrastruktur. Der optimale PUE-Wert liegt bei 1.0.
In den frühen 2000er Jahren wurden Serverräume nach wie vor mit Luft gekühlt, allerdings im Decken- und Bodenbetrieb. Zudem wurde unterschieden in warme und kalte Luft. Damit sank der PUE-Wert von 45U-Racksystemen auf beachtliche 1.4, was einer Energiezufuhr von 15 Kilowatt zugrunde lag.
Im Jahr 2013 wurde die dritte Generation der Kühlungssysteme eingeführt. Das ermöglichte eine Server-Dichte von 60 Rackeinheiten, die eine Energiezufuhr von gerade einmal 43 Kilowatt erforderten. Das entsprach bereits einem PUE-Wert von 1.06.
Und heute? Nun, da investiert Intel in Kooperationen mit Firmen wie Asetek, die eine Warmwasserkühlung bestimmter Komponenten wie dem Intel Compute Module HNS2600BPBLC ermöglicht. Damit lassen sich Rechenzentren teilweise effizienter kühlen als mit Luftkühlungstechniken.
Disclaimer: Für das Verfassen und Veröffentlichen dieses Blogbeitrags hat mich die Firma Intel beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand. Der Artikel basiert auf einem entsprechenden Intel-Blogpost.