Definition Was ist Retrieval Augmented Generation (RAG)?

Von andi_dd 2 min Lesedauer

Anbieter zum Thema

Bei der Retrieval Augmented Generation (RAG) handelt es sich um eine Architektur, die ein Large Language Model (LLM) wie ChatGPT sinnvoll ergänzt. Sie sorgt dafür, dass das große Sprachmodell auf zusätzliche Quellen zugreift.

Grundlagenwissen zum IT-Business(Bild:  © adiruch na chiangmai - Fotolia.com)
Grundlagenwissen zum IT-Business
(Bild: © adiruch na chiangmai - Fotolia.com)

Mit einer Retrieval Augmented Generation (RAG) verbessern die Nutzer die Antwortqualität von ChatGPT und anderen Large Language Models. Eine RAG erweitert die Quellenbasis, die das LLM nutzt. Das führt dazu, dass ChatGPT und Co. auf einer fundierten Grundlage antworten können. Hierfür kommen auch interne Datenbanken und Dokumente infrage. Unternehmen integrieren zum Beispiel ihre sensiblen, firmeninternen Daten in das verwendete große Sprachmodell.

LLM mit RAG erweitern: Diese Zusatzquellen eignen sich

Die Kernfunktion von RAG besteht darin, zusätzliche Quellen an das Sprachmodell anzubinden. Hierbei kann es sich um öffentlich zugängliche oder interne Quellen handeln. Beispiele sind:

  • öffentliche Datenbanken
  • interne Dokumentensammlungen
  • interne Datenbanken
  • eigene, öffentlich zugängliche Websites

Bei der Anbindung dieser Quellen kommt es darauf an, welchen Zweck Anwender verfolgen. Zunehmend mehr Unternehmen verbessern ihre Effizienz, indem sie interne Daten in das Sprachmodell integrieren. Mitarbeiter müssen nicht mehr umständlich nach den gewünschten Informationen suchen, das Sprachmodell übernimmt diese Suche.

Qualität erhöhen: Das leistet die Retrieval Augmented Generation (RAG)

Grundsätzlich verbessert RAG die Leistungsfähigkeit von Sprachmodellen. Das gilt auch bei der Einbindung öffentlich zugänglicher Quellen. Momentan fallen ChatGPT und andere Anwendungen damit auf, dass sie bei komplexen Themen Falschinformationen verbreiten. Ein typisches Phänomen sind Halluzinationen, bei denen Sprachmodelle Informationen erfinden. Zudem besteht das Risiko, dass LLMs auf Fehlinformationen zurückgreifen. Mit der gezielten Anbindung seriöser Quellen lässt sich dieses Risiko reduzieren.

Retrieval Augmented Generation (RAG) mit internen Daten

Besonders wertvolle Dienste leistet die RAG bei der Nutzung interner Quellen. Anwender integrieren Dokumente und Daten, die aus nachvollziehbaren Gründen vor der öffentlichen Verwendung geschützt sind. Auf diese Weise binden Unternehmen zum Beispiel Kundendatenbanken, Produktdatenbanken und Personaldatenbanken ein. Die RAG-Architektur durchsucht diese Quellen, das LLM verarbeitet diese Daten.

Der Datensicherheit kommt hierbei eine zentrale Bedeutung bei. Im besten Fall nutzen Unternehmen und andere Institutionen ausschließlich die eigene IT-Infrastruktur, um den unberechtigten Zugriff Dritter zu verhindern. Zur Anbindung von Datenbanken eignen sich Open-Source-Bibliotheken wie LangChain und LlamaIndex. Auch eine eigene Programmierung ist möglich, so lassen sich benutzerspezifische Anforderungen erfüllen.

(ID:50066116)

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung