[KI-Lexikon] So kommt PyTorch im maschinellen Lernen zum Einsatz

geschätzter Leseaufwand: 2 Minuten

Das maschinelle Lernen (oder Machine Learning) ist eine komplexe Aufgabe, was das Trainieren von KI-Modellen betrifft. Um das Entwicklern und anderen KI-relevanten Personengruppen ein wenig leichter zu machen, hat Facebook bereits 2016 höchstpersönlich die Programmbibliothek PyTorch entwickelt. Zu dieser Bibliothek gibt es diverse Aspekte:

1. Wie der Name erahnen lässt, steht PyTorch in enger Verbindung mit der Programmiersprache Python. Das bedeutet im Umkehrschluss, dass Python-Programmierer nur eine kurze Einarbeitungszeit benötigen, um mit PyTorch vernünftig arbeiten zu können. PyTorch lässt sich darüber hinaus mit den Programmiersprachen C und CUDA nutzen.

2. PyTorch basiert auf der im Jahr 2002 entwickelten Programmierbibliothek Torch, die wiederum in Lua geschrieben ist.

3. Seit September 2022 ist PyTorch Teil der PyTorch Foundation, die wiederum der Linux Foundation angehört. Damit ist PyTorch mit einer Open Source-Lizenz verknüpft, lässt sich also im Allgemeinen kostenneutral nutzen.

Mit PyTorch neuronale Netze entwickeln

Die Idee hinter PyTorch ist relativ simpel: Mithilfe bereits entwickelter und programmierter Bibliotheken entstehen mit relativ geringem Aufwand neuronale Netze, wie sie in der künstlichen Intelligenz unverzichtbar sind. Hierbei übernehmen die einzelnen Funktionen ganz bestimmte Aufgaben, die sich ohne größere Anpassungen innerhalb des jeweiligen KI-Projekt ausführen lassen.

So können beispielsweise mit der Bibliothek AllenNLP Natural Language-Modelle konzipiert und entwickelt werden. GPyTorch wiederum erlaubt das Berechnen von zugrunde liegenden Gauß-Prozessen mithilfe der vorhandenen Grafikprozessoren (GPUs). Und für das Trainieren von neuronalen Netzen steht die Bibliothek ignite mit zahlreichen Funktionen zur Verfügung, die sich KI-Projekte integrieren lassen.

Das sind übrigens nur 3 von etwa 20 Programmierbibliotheken, die in PyTorch für das maschinelle Lernen von KI-Modellen zur Verfügung stehen.

Anwendungsbeispiele für PyTorch-Funktionen

PyTorch kommt also für das maschinelle Lernen von KI-Modellen zum Einsatz. Doch was sind in diesem Kontext die häufigsten Anwendungsbeispiele? Nun, dazu gehören die Objekterkennung (object detection), die semantische Segmentierung (semantic segmentation), Long Short-Term Memory (LSTM) und Transformer. Gerade letzteres spielt vor allem in der KI-Disziplin Deep Learning zur Texterkennung/-verarbeitung und bei der Bilderkennung eine wesentliche Rolle. Hierfür werden Teile von Eingangsdaten, mit denen ein KI-Modell gefüttert wird, in Beziehung zum restlichen Teil der Eingangsgrößen gebracht. Das trägt insgesamt zu einem besseren Verständnis des KI-Modells bei.

PyTorch kommt bei Microsoft, Google & Co. zum Einsatz

Da sich das Trainieren von KI-Modellen mithilfe des maschinellen Lernens mehr und mehr in die Cloud verschiebt, kommt PyTorch ganz explizit auf den großen Public Cloud-Plattformen zum Einsatz. Dazu gehört Pytorch in Microsoft Azure genauso wie PyTorch in Google Cloud. Und klar, dass auch IBM und Intel PyTorch unterstützen.

Weitere KI-Lexikon-Begriffe

„D“ wie Deep Learning

„G“ wie Generative AI

„G“ wie GPU

„I“ wie Inferencing

„L“ wie Large Language Model

„L“ wie Long Short-Term Memory (LSTM)

„M“ wie Machine Learning

„N“ wie Natural Language Processing

„N“ wie NPU (Neural Processing Unit)

„N“ wie Neuronale Netze

„O“ wie OpenVINO

„T“ wie TensorFlow

„T“ wie Training

Weitere Quellen zum Thema PyTorch

Wikipedia-Eintrag zu PyTorch

IBM: Was ist PyTorch?

PyTorch-Infos auf alexanderthamm.com

Ausführliche Infos zu PyTorch auf pytorch.org

Schreibe einen Kommentar