Videoblog: Mit diesen Intel-Zutaten lassen sich KI-Modelle beschleunigen

geschätzter Leseaufwand: 3 Minuten

Mit den passenden Komponenten lassen sich KI-Modelle erheblich beschleunigen. Sei es beim initialen Trainieren eines KI-Modells, aber auch beim Inferenzieren der KI-Anwendung selbst. Für beide Disziplinen hat Intel die richtigen Zutaten in petto. Welche das sind, steht in diesem Beitrag, der auf dem Videointerview mit Frank Kuypers (am Ende des Beitrags) basiert.

Training vs. Inferenzierung: Darin unterscheiden sich beide KI-Disziplinen

Im Grunde ist es ganz trivial: Während der Trainingsphase wird ein neuronales Modell (das die KI-Anwendung auf geeignete Art und Weise repräsentiert) mit den entsprechenden Daten gefüttert. Das sind meist visuelle Objekte wie Bilder, mit denen der KI-Algorithmus versorgt wird.

Auf Basis dieses (hoffentlich sehr gut) trainierten Modells geschieht dann das sogenannte Inferencing. Dabei wird das Modell mit den zuvor trainierten Daten „konfrontiert“. Anhand dieser Inferenzierung lässt sich dann feststellen, wie gut das KI-Modell funktioniert und inwieweit es den Ansprüchen der geplanten KI-Anwendung genügt.

[irp posts=“168685″ ]

Intel-Komponenten unterstützen das Inferenzieren auf unterschiedliche Weise

Bei der Inferenzierung einer KI-Anwendung kommt es vor allem auf die Rechenleistung und die Kompatibilität des zugehörigen Rechnersystems an. Daher eignen sich skalierbare Intel Xeon Prozessoren sehr gut für das KI-Inferencing, wie sie in zahlreichen Rechenzentren, aber auch in Edge– und Cloud-Umgebungen zum Einsatz kommen. Hierbei spielt eine spezielle Funktion eine besondere Rolle, die sich Intel Deep Learning Boost nennt.

[irp posts=“168611″ ]

Damit lässt sich das Inferenzieren von KI-Anwendungen erheblich beschleunigen, indem eine Quantisierung von INT8-basierten Daten genutzt wird. Diese Beschleunigerfunktion ist sowohl in TensorFlow also auch in Intel OpenVINO integriert. TensorFlow stellt ein auf Machine und Deep Learning spezialisiertes Framework dar, das für Intel-Mikroprozessoren optimiert ist. Bei OpenVINO hingegen handelt es sich um eine dedizierte Inferencing-Engine, mit der sich trainierte Modelle deutlich schneller inferenzieren lassen.

Doch es geht noch ein gutes Stück weiter. Denn auch in der Cloud spielen Intel-basierte Prozessoren eine wichtige Rolle, die sich ebenfalls für das Inferenzieren eignen. Das stellt eine probate Möglichkeit dar, trainierte Daten ebenfalls per OpenVINO in die Inferenzierungsphase zu überführen. Das ist deutlich kostengünstiger, als Training und Inferencing auf GPU-Maschinen zu absolvieren. So bieten beispielsweise Intel und Microsoft gemeinsam die passenden Cloud-Instanzen, die für das Inferenzieren optimiert sind.

Diese Beschleuniger zu Trainingszwecken hat Intel in petto

Doch nicht nur für das Inferenzieren, sondern auch für das Trainieren von KI-Modellen bietet Intel die passenden Komponenten. So lassen sich in der AWS-Cloud spezielle KI-Beschleuniger zu Trainingszwecken nutzen. Die Rede ist von den Amazon-EC2-DL1-Instanzen, die 8 Gaudi-Akzeleratoren aufweisen, mit denen sich die Trainingssessions deutlich kostengünstiger durchführen kann, da diese sofort und ohne jegliche Anpassungen zur Verfügung stehen.

[irp posts=“168154″ ]

Im eigenen Rechenzentrum lässt sich zudem ein Hochleistungsrechner installieren, den die Firma Supermicro gemeinsam mit Intel entwickelt hat. Auch dort kommen die Habana AI-Beschleuniger zum Einsatz. Davon konnte ich mich erst kürzlich auf dem CloudFest 2022 überzeugen.

Aber natürlich macht Intel in Sachen KI-Beschleuniger nicht halt. So habe ich auf diesem Blog schon über die nächste Generation der Intel-GPU-Technik namens Intel Ponte Vecchio berichtet, über die Frank im Video spricht. Darauf werden wir allerdings noch ein wenig warten müssen, bis sie für die breitere Masse verfügbar sein wird.

[irp posts=“161114″ ]

Das vollständige Interview mit Frank Kuypers (Intel)

Disclaimer: Für das Verfassen und Veröffentlichen dieses Videoblogbeitrags hat mich die Firma Intel beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.

Schreibe einen Kommentar