Der vom englischen Begriff „inferencing“ stammende deutsche Terminus „Inferenz“ hat vor allem damit zu tun, wie gut ein KI-Modell trainiert wurde. Denn die „Schlussfolgerungen“, die anhand eines trainierten Modells gezogen werden können, zeigen genau das: Die Güte eines KI-Trainings, mit dessen Hilfe (und den vorhandenen Daten) ein KI-Modell die Ergebnisse liefern kann, die von ihm erwartet werden.
So lernt beispielsweise ein autonomes Fahrzeug den Unterschied zwischen einer roten und grünen Ampel. Funktioniert das während eines ersten Testlaufs auch an Kreuzungen, die das Auto bisher noch nicht befahren ist, spricht man von einer positiven Inferenz, da das KI-Systems des Fahrzeugs die Ampelschaltung im Kontext erkennt und richtig bewertet.
Die KI-Inferenz kennt zahlreiche Anwendungsszenarien. Zu den bekanntesten zählen die großen Sprachmodelle (LLM), prädikative, also vorausschauende Analysen sowie das Erkennen von Cybervorfällen wie dem Einschleusen von Spammails oder gar kompromittierenden Nachrichten via E-Mail.
So ist es mithilfe geeigneter Large Language Modelle möglich, Texte zu interpretieren und zu verstehen, die dem KI-System vollkommen unbekannt sind. Aber auch das Vorhersagen bestimmter Ereignisse auf Basis früherer Daten zeigt, dass die Inferenzphase erfolgreiche abgeschlossen wurde. Das kommt beispielsweise bei der autonomen Wartung von Industrieanlagen wie Aufzügen zum Einsatz.
[Videochat] Axel Rogaischus (IBM) zu den Top-Themen auf der Hannover-Messe 2018
Weitere KI-Lexikon-Begriffe
„G“ wie GPU (Graphics Processing Unit)
„L“ wie Long Short-Term Memory (LSTM)
„N“ wie Natural Language Processing
„N“ wie NPU (Neural Processing Unit)