{"id":39497,"date":"2024-04-24T09:05:55","date_gmt":"2024-04-24T09:05:55","guid":{"rendered":"https:\/\/www.techopedia.com\/de\/?post_type=definition&p=39497"},"modified":"2024-04-26T07:40:00","modified_gmt":"2024-04-26T07:40:00","slug":"rag","status":"publish","type":"definition","link":"https:\/\/www.techopedia.com\/de\/definition\/rag","title":{"rendered":"Retrieval-Augmented Generation (RAG)"},"content":{"rendered":"
RAG steht f\u00fcr Retrieval-Augmented Generation, eine KI<\/a>-Entwicklungstechnik, bei der ein Large Language Model<\/a> (LLM) mit einer externen Wissensbasis verbunden wird, um die Genauigkeit und Qualit\u00e4t seiner Antworten zu verbessern.<\/p>\n Zu den Arten von Quellen, mit denen LLMs mit RAG verbunden werden k\u00f6nnen, geh\u00f6ren Dokumentenspeicher, Dateien, APIs und Datenbanken.<\/p>\n LLMs nutzen Retrieval Augmented Generation<\/a>, um Informationen aus einer externen Wissensbasis zu extrahieren. Dadurch erh\u00e4lt das Modell Zugang zu aktuellen, dom\u00e4nenspezifischen Informationen, auf die es bei der Beantwortung von Benutzeranfragen in Echtzeit zur\u00fcckgreifen kann.<\/p>\n Einer der Hauptvorteile dieses Ansatzes ist, dass das Wissen des Modells nicht auf Trainingsdaten mit einem bestimmten Stichtag beschr\u00e4nkt ist. Die Wissensbasis kann auch aktualisiert werden, ohne dass das Modell neu trainiert werden muss.<\/p>\n Der Zugang zu einer externen Ressource verringert das Risiko von Halluzinationen<\/a>, bei denen ein LLM ein nachweislich falsches oder unwahres Ergebnis liefert. Gleichzeitig macht es der klare Link zu einer Wissensdatenbank den Nutzern leichter, die Quellen f\u00fcr die Behauptungen des Chatbots<\/a> einzusehen und auf Fakten zu \u00fcberpr\u00fcfen.<\/p>\n Nachdem wir nun eine Definition f\u00fcr RAG dargelegt haben, wollen wir uns ansehen, wie sie funktioniert.<\/p>\n Im Gro\u00dfen und Ganzen besteht RAG aus zwei Hauptphasen: einer Abrufphase und einer Phase der Inhaltserstellung.<\/p>\n In der Abrufphase verwendet ein Maschinenlernen<\/a> (ML) Algorithmus<\/a> die nat\u00fcrliche Sprachverarbeitung (NLP) der Eingabeaufforderung des Benutzers und identifiziert auf dieser Grundlage relevante Informationen aus seiner Wissensbasis.<\/p>\n Diese Informationen werden dann an ein Generatormodell oder LLM weitergeleitet, das die Eingabeaufforderung des Benutzers und die w\u00e4hrend der Abfragephase gesammelten Daten verwendet, um eine relevante Antwort zu generieren, die der urspr\u00fcnglichen Eingabeabsicht entspricht. Das Verfahren beruht auf Natural Language Generation (NLG).<\/p>\nTechopedia erkl\u00e4rt die Bedeutung von RAG<\/span><\/h3>\n
<\/p>\n
Wie funktioniert Retrieval-Augmented Generation?<\/span><\/h2>\n
<\/p>\n
Geschichte von RAG<\/span><\/h2>\n