Anwendungen, die auf der generativen Künstlichen Intelligenz (Generative AI oder GenAI) basieren, fußen auf großen, vortrainierten Sprachmodellen, den so genannten LLMs (Large Language Model). Diese Modelle decken zwar einen Großteil der beabsichtigten Anwendungsfälle ab, fußen allerdings meist auf recht generischen Daten.
Diese sind nicht immer topaktuell und zuverlässig. Ganz zu schweigen von der Datensicherheit, die in Zeiten der DSGVO und anderen Regularien von zentraler Bedeutung sein können. In diesem Kontext kommt eine Technik ins Spiel, die sich RAG (Retrieval-Augmented Generation) nennt. Dieser Beitrag stellt ihre Herangehensweise und Vorteile vor.
Der Erfolg einer sprachbasierten KI-Anwendung wie ChatGPT hängt von verschiedenen Faktoren ab. Hierzu zählt vor allem die Anzahl der Parameter, die es in einem vortrainierten Zustand in der zur Verfügung stehenden Datenbasis gibt. So verfügt zum Beispiel ChatGPT 4 über mehr als 170 Billionen Parameter, was die Leistungsfähigkeit dieser KI-Applikation eindrucksvoll erklärt. Vergleicht man das beispielsweise mit Google PaLM 2 mit seinen 10 bis 300 Milliarden Parametern, wird schnell klar, warum OpenAI mit ChatGPT derzeit das GenAI-Rennen anführt.
Doch gerade für Unternehmen, die verstärkt ihre eigenen GenAI-Anwendungen entwickeln bzw. entwickeln lassen wollen, kommt es gar nicht unbedingt auf die Größe der zugrunde liegenden Datenbasis an. Dort spielen nämlich ganz andere Aspekte eine übergeordnete Rolle. Das können die Aktualität der Daten, deren Zuverlässigkeit und ein Höchstmaß an Sicherheit sein, was den Datenschutz betrifft.
Das ist die Stelle, an der eine neue Technik namens Retrieval-Augmented Generation (RAG) ins Spiel kommt. RAG ergänzt im Grunde vorhandene, vortrainierte LLMs um zusätzliche Daten, die in externen Datenbanken, Dokumenten und weiteren Ressourcen zur Verfügung stehen. Daraus entsteht eine neue Grundlage für die Unternehmensanwendung, die sich beides zunutze machen kann.
Eine Kombination aus einem bereits bestehenden Large Language Modell (LLM) und den externen Daten, auf die via RAG-Framework zugegriffen wird. Dies kann das Unternehmen entweder selbst zur Verfügung stellen oder weitere externe Datenbasen nutzen. Dabei sollte man tunlichst darauf achten, dass es sich um zuverlässige, aktuelle und sichere Daten handelt.
RAG-basierte GenAI-Anwendungen weisen zahlreiche Vorteile auf
Aus dieser Ergänzung von Standard-LLMs um erweiterte Daten resultieren zahlreiche Vorteile. Zu den wesentlichen zählen:
1. Anstatt bereits existierende Large Language Modelle den eigenen Bedürfnissen und Anforderungen anzupassen, stellt der Einsatz von RAG-basierten Frameworks eine deutlich kostengünstigere Alternative dar. Obendrein verfügen viele Unternehmen nicht über das Know-how, vorhandene LLMs an ihre Bedürfnisse anzupassen.
2. KI-Experten gehen davon aus, dass die am Markt befindlichen LLMs zu einem gewissen Ausmaß „halluzinieren“, also falsche oder unerwartete Ergebnisse liefern. Entweder, weil die Datenbasis veraltet ist oder auf die Frage des Anwendenden (der sogenannte Prompt) keine passende Antwort gefunden werden kann. Per RAG angepasste Sprachmodelle liefern daher zuverlässigere Resultate. Darüber hinaus lassen sich auf diesem Weg weiterführende Quellen in die Datenbasis integrieren, was das Vertrauen in die GenAI-Anwendung erhöht.
3. Die Daten einer RAG-basierten GenAI-Anwendung garantieren eine höhere Aktualität, da sich nahezu in Echtzeit neueste Zahlen und Erkenntnisse integrieren lassen. Das geht sogar so weit, dass über spezielle Schnittstellen der Zugriff auf relevante Webseiten und Social-Media-Feeds möglich ist – für ein Höchstmaß an Aktualität.
4. Der Datenschutz nimmt auf Basis einer RAG-Implementierung deutlich zu. So können sich die erweiternden Daten auf einem Server im eigenen Rechenzentrum befinden, sodass diese geschützt sind vor fremden Zugriffen – sofern für den Schutz des Data Centers entsprechende Maßnahmen ergriffen werden.
Kaufempfehlungen, voraussehende Wartungsarbeiten und mehr
RAG-basierte GenAI-Anwendungen kommen in mehr und mehr Branchen zum Einsatz. Dazu gehören unter anderem der Onlinehandel und fertigende Unternehmen. So lassen sich mithilfe von RAG-Implementierungen beispielsweise Kaufverhalten und Markttrends quasi in Echtzeit analysieren, und das unter Zuhilfenahme von bekannten Suchmaschinen und sozialen Medien wie Facebook und Threads, auf denen Webanwender:innen ihre Spuren und Kaufpräferenzen hinterlassen.
Aber auch Wartungsarbeiten lassen sich auf Basis von RAG-basierten GenAI-Applikationen unmittelbarer und genauer planen und vorhersagen. Dabei hilft eine exakte Beschreibung der zum Einsatz kommenden Maschinen, die in den öffentlich verfügbaren LLMs gar nicht oder unzureichend vorhanden sind.
In einem zweiten Teil gehe ich konkret auf die vorhandenen Use Cases in Sachen RAG-GenAI-Applikationen und -Tools ein. So: Stay tuned…
Weitere Informationen zur RAG-Technologie
Auf der Webseite von Datascientest, einem umfangreichen Fortbildungsangebot, das sich unter anderem intensiv mit dem Thema Künstliche Intelligenz beschäftigt, findest du weitere nützliche Informationen zum Thema RAG. Also, was die Technologie zu bieten hat, wie sie funktioniert und welche weiteren Vorteile sich daraus ergeben. Und klar, noch mehr Anwendungsbeispiele findest du dort ebenfalls.
Disclaimer: Für das Verfassen und Veröffentlichen dieses Blogbeitrags hat mich die Firma Intel beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.