[KI-Lexikon] So kommt die LSTM-Technik in der KI zum Einsatz

geschätzter Leseaufwand: 2 Minuten

Das menschliche neuronale Netzwerk namens Gehirn ist einem computergesteuerten neuronalen Netz in einer Sache deutlich überlegen: Erlerntes Wissen lässt sich schneller und fokussierter anwenden, da wir selbst neue Aspekte schneller begreifen und in neues Wissen übertragen können. Hierbei hilft uns der Umstand, dass wir meist recht intuitiv unterscheiden können, ob ein neuer Parameter oder ein neues Datum relevant für die Lösung der Aufgabe ist – oder eben auch nicht. Der Grund hierfür ist ziemlich simpel: Wir können parallel denken und Daten gleichzeitig schneller verarbeiten, womit sich Standardprozessoren nach wie vor recht schwer tun.

Um Daten in computergesteuerten neuronalen Netzen effizienter und leistungsfähiger zu verarbeiten, haben die Informatiker Sepp Hochreiter und Jürgen Schmidhuber bereits 1997 Rekurrente Neuronale Netzwerke (RNN) entwickelt und eingeführt. Mit ihrer Hilfe war es erstmals möglich, einem neuronalen Netzwerk eine Art Gedächtnis zu verpassen. Damit konnten KI-Anwendungen auf bereits Gelerntes schneller und gezielter zurückgreifen.

Ergänzt um eine Technik namens LSTM (Long Short-Term Memory) konnten RNNs um ein eigenes Kurzzeitgedächnis erweitert werden, das Erlerntes über einen längeren Zeitraum speichern kann. Hierfür kommen vier Komponenten zum Einsatz: je ein Eingangs-, Vergess- und Ausgangstor sowie das Zellinnere mit seiner Verknüpfungslogik. Entscheidend dabei ist das Vergess- bzw. Erinnerungstor (Forget Gate), in dem mithilfe einer speziellen Logik Daten entweder gespeichert werden – oder eben auch nicht. Daraus entstehen Datenverknüpfungen, die ein KI-Anwendung beschleunigen und die Inferenzergebnisse verbessern können.

Die LSTM-Technik kommt in zahlreichen bekannten KI-Applikationen zum Einsatz. Dazu gehören die KI-gesteuerten Sprachassistenten wie Apple’s Siri und Amazon’s Alexa genauso wie die Übersetzungssoftware Google Translate, die beispielsweise auf diesem Blog zum Einsatz kommt.

Weitere Begriffe aus dem KI-Lexikon

„D“ wie Deep Learning

„G“ wie Generative AI

„G“ wie GPU

„I“ wie Inferencing

„L“ wie Large Language Model

„M“ wie Machine Learning

„N“ wie Natural Language Processing

„N“ wie NPU (Neural Processing Unit)

„N“ wie Neuronale Netze

„O“ wie OpenVINO

„P“ wie PyTorch

„T“ wie TensorFlow

„T“ wie Training

Weitere Infos zum Thema LSTM

So beschleunigt Numenta mithilfe von LSTM KI-Anwendungen

Wikipedia-Eintrag zu LSTM

LSTM einfach erklärt

LSTM in Videoform ausführlich erklärt

 

Schreibe einen Kommentar