{"id":39497,"date":"2024-04-24T09:05:55","date_gmt":"2024-04-24T09:05:55","guid":{"rendered":"https:\/\/www.techopedia.com\/de\/?post_type=definition&p=39497"},"modified":"2024-04-26T07:40:00","modified_gmt":"2024-04-26T07:40:00","slug":"rag","status":"publish","type":"definition","link":"https:\/\/www.techopedia.com\/de\/definition\/rag","title":{"rendered":"Retrieval-Augmented Generation (RAG)"},"content":{"rendered":"

Was ist Retrieval-Augmented Generation (RAG)?<\/span><\/h2>\n

RAG steht f\u00fcr Retrieval-Augmented Generation, eine KI<\/a>-Entwicklungstechnik, bei der ein Large Language Model<\/a> (LLM) mit einer externen Wissensbasis verbunden wird, um die Genauigkeit und Qualit\u00e4t seiner Antworten zu verbessern.<\/p>\n

Zu den Arten von Quellen, mit denen LLMs mit RAG verbunden werden k\u00f6nnen, geh\u00f6ren Dokumentenspeicher, Dateien, APIs und Datenbanken.<\/p>\n

Techopedia erkl\u00e4rt die Bedeutung von RAG<\/span><\/h3>\n

\"\"<\/p>\n

LLMs nutzen Retrieval Augmented Generation<\/a>, um Informationen aus einer externen Wissensbasis zu extrahieren. Dadurch erh\u00e4lt das Modell Zugang zu aktuellen, dom\u00e4nenspezifischen Informationen, auf die es bei der Beantwortung von Benutzeranfragen in Echtzeit zur\u00fcckgreifen kann.<\/p>\n

Einer der Hauptvorteile dieses Ansatzes ist, dass das Wissen des Modells nicht auf Trainingsdaten mit einem bestimmten Stichtag beschr\u00e4nkt ist. Die Wissensbasis kann auch aktualisiert werden, ohne dass das Modell neu trainiert werden muss.<\/p>\n

Der Zugang zu einer externen Ressource verringert das Risiko von Halluzinationen<\/a>, bei denen ein LLM ein nachweislich falsches oder unwahres Ergebnis liefert. Gleichzeitig macht es der klare Link zu einer Wissensdatenbank den Nutzern leichter, die Quellen f\u00fcr die Behauptungen des Chatbots<\/a> einzusehen und auf Fakten zu \u00fcberpr\u00fcfen.<\/p>\n

Nachdem wir nun eine Definition f\u00fcr RAG dargelegt haben, wollen wir uns ansehen, wie sie funktioniert.<\/p>\n

Wie funktioniert Retrieval-Augmented Generation?<\/span><\/h2>\n

\"\"<\/p>\n

Im Gro\u00dfen und Ganzen besteht RAG aus zwei Hauptphasen: einer Abrufphase und einer Phase der Inhaltserstellung.<\/p>\n

In der Abrufphase verwendet ein Maschinenlernen<\/a> (ML) Algorithmus<\/a> die nat\u00fcrliche Sprachverarbeitung (NLP) der Eingabeaufforderung des Benutzers und identifiziert auf dieser Grundlage relevante Informationen aus seiner Wissensbasis.<\/p>\n

Diese Informationen werden dann an ein Generatormodell oder LLM weitergeleitet, das die Eingabeaufforderung des Benutzers und die w\u00e4hrend der Abfragephase gesammelten Daten verwendet, um eine relevante Antwort zu generieren, die der urspr\u00fcnglichen Eingabeabsicht entspricht. Das Verfahren beruht auf Natural Language Generation (NLG).<\/p>\n

Geschichte von RAG<\/span><\/h2>\n

Der Begriff Retrieval Augmented Generation wurde urspr\u00fcnglich in einem Forschungspapier<\/a> mit dem Titel Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks gepr\u00e4gt, das von Forschern des Facebook AI Research, des University College London und der New York University erstellt wurde.<\/p>\n

Darin wird das Konzept von RAG vorgestellt und beschrieben, wie es bei Aufgaben der Spracherzeugung eingesetzt werden kann, um spezifischere und genauere Ergebnisse zu erzielen.<\/p>\n

“Diese Arbeit bietet mehrere positive gesellschaftliche Vorteile gegen\u00fcber fr\u00fcheren Arbeiten: Die Tatsache, dass sie st\u00e4rker auf echtem Faktenwissen (in diesem Fall Wikipedia) basiert, f\u00fchrt dazu, dass sie bei Generationen, die mehr auf Fakten basieren, weniger “halluziniert” und mehr Kontrolle und Interpretierbarkeit bietet”, hei\u00dft es in dem Papier.<\/p>\n

Dar\u00fcber hinaus wurde in der Studie festgestellt, dass “RAG in einer Vielzahl von Szenarien mit direktem Nutzen f\u00fcr die Gesellschaft eingesetzt werden k\u00f6nnte, z. B. indem man es mit einem medizinischen Index ausstattet und ihm offene Fragen zu diesem Thema stellt oder indem man Menschen hilft, bei ihrer Arbeit effektiver zu sein.”<\/p>\n

RAG-Architektur<\/span><\/h2>\n

Die RAG-Architektur besteht aus einer Reihe von Kernkomponenten, die ihr Funktionieren erm\u00f6glichen. Diese sind wie folgt:<\/p>\n

<\/span>Web-Server\/Chatbot<\/strong><\/div>
\n

Der Webserver beherbergt die Chatbot-Schnittstelle, \u00fcber die Benutzer mit dem Sprachmodell interagieren k\u00f6nnen. Die Eingabeaufforderungen werden an ein Abfragemodell weitergeleitet.<\/p>\n<\/div><\/div>\n

<\/span>Spoiler title<\/div>
\n

Diese Wissensbasis\/Datenspeicherkomponente enth\u00e4lt Dateien, Bilder, Videos, Dokumente, Datenbanken, Tabellen und andere unstrukturierte Daten, die der LLM zur Beantwortung von Benutzeranfragen verarbeiten wird.<\/p>\n<\/div><\/div>\n

<\/span>Retrieval Model<\/strong><\/div>
\n

Das Retrieval-Modell analysiert die Eingabeaufforderung des Benutzers mit NLP und sucht in seiner Wissensbasis nach relevanten Informationen, bevor es sie an das Generierungsmodell weiterleitet.<\/p>\n<\/div><\/div>\n

<\/span>Generierungsmodell<\/strong><\/div>
\n

Das Generierungsmodell verarbeitet die anf\u00e4ngliche Eingabeaufforderung des Benutzers und sammelt dann mit dem Abfragemodell Informationen, um eine Antwort zu generieren, die \u00fcber die Chatbot-Schnittstelle an den Benutzer gesendet wird.<\/p>\n<\/div><\/div>\n

Anwendungsf\u00e4lle von RAG<\/span><\/h2>\n

\"\"<\/p>\n

RAG bietet viele potenzielle Anwendungsf\u00e4lle f\u00fcr Unternehmen. Im Folgenden werden wir einige der wichtigsten betrachten:<\/p>\n