KI-Algorithmen für das Trainieren und Inferenzieren von mächtigen KI-Modellen erfordern vor allem eins: eine enorme Rechenleistung. Diese steht im Rechenzentrum und auf Cloud-Servern meist beliebig zur Verfügung, doch auf lokalen Endgeräten wie Smartphone und Notebook meist nicht. Zudem steht auf mobilen Gerätschaften neben der Rechenpower ein weiteres Kriterium im Vordergrund: Die Energieaufnahme. Und die ist bei den Highend-Prozessoren und -GPUs sehr beachtlich. Spätestens da kommt eine Chipklasse namens NPU (Neural Processing Unit) ins Spiel.
Im Gegensatz zu den üblichen Central Processing Units (CPU) wie dem Intel Xeon Prozessor weisen NPUs (auch neuromorphe Prozessoren genannt) für das Ausführen von KI-Programmen diverse Vorteile auf. Dazu gehören unter anderem:
- Sie sind Turing-vollständig und damit universell programmierbar. Sie eignen sich ganz besonders für die Mustererkennung und Musteranalyse.
- Sie dienen unter anderem dem Aufbau von Convolutional Neural Networks (CNNs), die vor allem im Kontext der Generativen KI mehr und mehr an Bedeutung gewinnen.
- NPUs weisen im Gegensatz zur Von-Neumann-Architektur deutlich schmalere Flaschenhälse auf. Daher skalieren sie besonders gut.
- Neuromorphe Prozessoren rechnen sehr energieeffizient, da einzelne Neuronen lediglich ereignisgesteuert aktiv sind.
Dort kommen NPUs bereits zum Einsatz
In mobilen Geräten wie Smartphones werden NPUs bereits seit 2017 eingesetzt. Das begann seinerseits mit dem Huawei Kirin 970, gefolgt vom Qualcomm Snapdragon 855, der ein Jahr später die Siliziumwelt erblickte. Stand heute haben zahlreiche Highend-Smartphones eine NPU verbaut. Das gilt beispielsweise für die mobilen Endgeräte von Apple. Cupertino integriert bereits seit dem iPhone 8 unter der Bezeichnung „Neural Engine“ eine NPU-Einheit. Google wiederum spendiert ausgewählten Smartphones unter der Abkürzung „TPU“ (Tensor Processing Unit) bereits seit 2016 einen NPU-ähnlichen Chip.
Aber und gerade mobile Computer wie Laptops und Notebooks profitieren mehr und mehr von NPUs. So hat Intel beispielsweise Ende letzten Jahres mit dem Intel Core Ultra einen Prozessor vorgestellt, der mit einer eigenen NPU-Einheit ausgestattet ist. Kein Wunder also, dass Microsoft kurz nach dem Erscheinen des KI-Prozessors seine nächste Generation der Surface-Laptops angekündigt hat. Auf diesen Geräten sollen künftig Copilot-kompatible Programme wie Microsoft Teams installiert werden. Für eine höhere KI-Rechenleistung, weniger Stromverbrauch und einen verbesserten Datenschutz.
KI-Funktionen sollen Standardanwendungen beschleunigen und verbessern
Mithilfe der NPUs sollen Anwendungen mithilfe lokaler KI-Funktionen auf Geräten wie Smartphone und Notebook beschleunigt und verbessert werden – wenn das ohnehin nicht schon passiert. So kommen NPUs für eine schnellere und exaktere Gesichtserkennung beim Entsperren von iPhone & Co zum Einsatz. Aber auch mobile Bilder, die mit dem Smartphone aufgenommen werden, lassen sich mittels automatischer Farbkorrekturen und Anpassungen in Echtzeit verbessern. Das gilt für die Bildbearbeitung am Notebook mit NPU-Einheit gleichermaßen.
Ansonsten gibt es weitere Beispiele, wie sich der Einsatz von neuromorphen Prozessoren positiv auswirken wird. Ob das verbesserte Sprachassistenten wie Siri oder Alexa sind, exaktere und schnellere Online-Übersetzungen mit DeepL & Co. oder Videokonferenzen, bei denen sich die NPU um das automatische Protokollieren der Videogespräche kümmert – das und mehr ermöglichen NPUs. Und das Beste daran: Die Akkulaufzeiten profitieren ebenfalls von den NPUs, da diese deutlich stromsparender sind als CPU und GPU. Was gleichzeitig den Planeten freut.
Weitere KI-Lexikon-Begriffe
„L“ wie Long Short-Term Memory (LSTM)
„N“ wie Natural Language Processing