[KI-Lexikon] Darum sind Large Language Modelle (LLM) in der KI unverzichtbar

geschätzter Leseaufwand: 2 Minuten

Im KI-Lexikon-Beitrag „Neuronale Netze“ steht es geschrieben: Die Methoden der Künstlichen Intelligenz orientieren sich maßgeblich an der Funktionsweise des menschlichen Gehirns. Das bedeutet vor allem, dass wir auf Basis unseres bestehenden Wissens Neues antizipieren und lernen.

Um das mithilfe eines Computersystems erreichen zu können, sind im Kontext NLP-basierter KI-Anwendungen (Natural Language Processing) große Datenmengen erforderlich, die es einer KI-Applikation wie ChatGPT überhaupt erst ermöglichen, auf Eingabedaten mit entsprechenden Ausgabedaten zu reagieren. Das ist die Stelle, an der große Sprachmodelle ins Spiel kommen. Sie werden gemeinhin als Large Language Modelle (oder einfach nur kurz LLM) bezeichnet.

LLM ermöglichen das selbstständige Lernen von KI-Anwendungen

Das Besondere an LLMs ist ihre Fähigkeit, anhand des Gelernten selbstständig Inhalte zu generieren, und das in Form von Texten. Stelle ich beispielsweise einer KI-App wie ChatGPT die Frage, wie die 10 erfolgreichsten Musiker:innen unserer Zeit heißen, spuckt das LLM folgende Namen aus:

Taylor Swift, BTS, Ed Sheeran, Bad Bunny, Ariana Grande, Drake, Billie Eilish, Justin Bieber, Post Malone und The Weeknd.

Natürlich kann man über das Ergebnis streiten (denn wo ist zB Freddie Mercury oder Bob Dylan in dieser Aufstellung), aber die Wahl der 10 erfolgreichsten Musiker:innen offenbart direkt die Schwäche vieler LLMs: Sie basieren oft auf einzelnen oder ausgewählten Quellen (in diesem Fall „SeatGeek“), was das Ergebnis verzerrt oder sogar falsch erscheinen lässt. Hierbei spricht man übrigens vom Halluzinieren eines LLMs.

Darüber landen nach wie vor sensible Daten in den LLMs dieser Welt, die dort entweder nichts zu suchen haben oder das Suchergebnis verfälschen. Daher ist es beim Einsatz eigener Daten immanent wichtig, die brisanten von den weniger brisanten Daten zu trennen. Eine effektive Methode hierfür sind darauf spezialisierte KI-Anwendungen selbst. Als Beispiel hierfür sei Prediction Guard genannt.

Nichtsdestotrotz sind ohne die großen Sprachmodelle keine KI-Anwendungen möglich, speziell in der Disziplin Generative KI. Denn gerade dort, wo mithilfe der künstlichen Intelligenz neue Anwendungen entstehen, sind LLMs unabdingbar. Das betrifft vor allem die drei großen Sprachmodelle GPT-4 von OpenAI, PalLM 2 von Google und Llama 3 von Meta.

Neben diesen eher für den kommerziellen Gebrauch entwickelten LLMs existieren auch nicht-kommerzielle Sprachmodelle wie BLOOM von Hugging Face, MPT-7B von databricks, Falcon 2 des Technology Innovation Institute (TII) und Vicuna-13B der LMSYS Org.

Weitere KI-Lexikon-Begriffe

„D“ wie Deep Learning

„G“ wie Generative AI

„G“ wie GPU

„I“ wie Inferencing

„L“ wie Long Short-Term Memory (LSTM)

„M“ wie Machine Learning

„N“ wie Natural Language Processing

„N“ wie NPU (Neural Processing Unit)

„N“ wie Neuronale Netze

„O“ wie OpenVINO

„P“ wie PyTorch

„T“ wie TensorFlow

„T“ wie Training

Weitere Infos zum Begriff LLM

Fraunhofer IESE

Amazon Web Services (AWS)

soutier.de

Red Hat

 

Schreibe einen Kommentar