Retrieval‑Augmented Generation (RAG) mit Beispielen

Retrieval‑Augmented Generation (RAG) bezeichnet ein Verfahren, bei dem ein Large Language Model (LLM) während der Antwortgenerierung aktiv auf externe Wissensquellen zugreift. Im Gegensatz zu rein parametrischen Modellen, deren Wissen im Trainingsstand „eingefroren“ ist, kombiniert RAG generative Fähigkeiten mit aktuellen, domänenspezifischen Daten. Das System zerlegt eine Nutzeranfrage zunächst in einen semantischen Vektor und sucht damit in einer Vektordatenbank nach relevanten Dokumenten.

RAG kann aber auch Webseiten (Live‑Web‑Retrieval) oder andere externe Quellen einbeziehen, wenn diese als Teil des Retrieval‑Systems angebunden sind. Diese Dokumente werden anschließend als Kontext an das LLM übergeben, das daraus eine Antwort formuliert. Dadurch sinkt die Wahrscheinlichkeit von Halluzinationen erheblich, weil das Modell nicht „raten“ muss, sondern auf echte Quellen zurückgreift.

RAG ermöglicht zudem Transparenz, da die zugrunde liegenden Dokumente oder Webseiten referenziert werden können. Das Verfahren ist kosteneffizient, weil das LLM selbst nicht neu trainiert werden muss. Gleichzeitig bleibt das System flexibel: Aktualisierungen erfolgen durch das Ersetzen oder Ergänzen der Wissensbasis, nicht durch Modelltraining. RAG gilt daher als Schlüsseltechnologie für KI‑gestützte Unternehmensanwendungen, bei denen Aktualität, Datenschutz und Nachvollziehbarkeit essenziell sind.

Beispiele für Retrieval‑Augmented Generation

Unternehmensinterne Wissensdatenbank

Ein Mitarbeiter fragt: „Wie beantrage ich Sonderurlaub für Weiterbildung?“ Das LLM allein könnte nur allgemeine HR‑Regeln kennen. RAG hingegen ruft die aktuellen internen HR‑Richtlinien aus dem Intranet ab und liefert eine präzise, firmenspezifische Antwort — inklusive Formularlink und Prozessschritten.

Damit werden korrekte, aktuelle, interne Informationen statt generischer KI‑Antworten geliefert.

Technischer Support in der Industrie

Ein Servicetechniker fragt: „Welche Fehlermeldungen können beim Modell XJ‑400 auftreten und wie behebe ich sie?“ RAG durchsucht Wartungshandbücher, Serviceprotokolle und interne Tickets. Das LLM formuliert daraus eine verständliche Schritt‑für‑Schritt‑Anleitung.

Expertenwissen wird in Sekunden verfügbar, ohne dass das Modell auf proprietären Daten trainiert werden muss.

Kundenservice‑Chatbot

Ein Kunde fragt: „Warum wurde meine Bestellung #48392 verzögert?“ RAG ruft interne Logistikdaten ab:

  • Versandstatus
  • Lagerinformationen
  • Lieferantenmeldungen

Das LLM formuliert eine personalisierte Antwort.

Der KI‑gestützte Support antwortet dem Kunden mit echten Informationen statt mit generischen Phrasen.

RAG-Pipeline

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert