{"id":24769,"date":"2024-05-02T14:38:51","date_gmt":"2024-05-02T14:38:51","guid":{"rendered":"https:\/\/www.techopedia.com\/nl\/?post_type=definition&p=24769"},"modified":"2024-05-24T03:21:25","modified_gmt":"2024-05-24T03:21:25","slug":"retrieval-augmented-generation-rag","status":"publish","type":"definition","link":"https:\/\/www.techopedia.com\/nl\/definitie\/retrieval-augmented-generation-rag","title":{"rendered":"Retrieval-Augmented Generation (RAG)"},"content":{"rendered":"

Wat is Retrieval-Augmented Generation (RAG)?<\/span><\/h2>\n

RAG staat voor Retrieval-Augmented Generation, een AI<\/a>-ontwikkelingstechniek waarbij een groot taalmodel (LLM<\/a>) wordt verbonden met een externe kennisbank om de nauwkeurigheid en kwaliteit van zijn antwoorden te verbeteren.<\/p>\n

De soorten bronnen waarmee LLM’s verbinding kunnen maken met RAG zijn onder andere documentopslagplaatsen, bestanden, API’s en databases.<\/p>\n

Techopedia legt uit wat RAG betekent<\/span><\/h3>\n

\"Retrieval-Augmented<\/p>\n

LLM’s gebruiken Retrieval Augmented Generation om informatie uit een externe kennisbank te kunnen halen. Hierdoor krijgt het model toegang tot actuele, domein-specifieke informatie, waarnaar het kan verwijzen wanneer het in realtime reageert op gebruikersvragen.<\/p>\n

Een van de belangrijkste voordelen van deze aanpak is dat de kennis van het model niet beperkt is tot trainingsgegevens met een bepaalde einddatum. De kennisbank kan ook worden bijgewerkt zonder dat het model opnieuw hoeft te worden getraind.<\/p>\n

Toegang tot een externe bron vermindert de kans op AI-hallucinaties, waarbij een LLM verifieerbaar onjuiste of onware uitvoer produceert. Tegelijkertijd maakt de duidelijke link naar een kennisbank het voor gebruikers makkelijker om de bronnen van de beweringen van de chatbot<\/a> te bekijken en te fact-checken.<\/span><\/p>\n

Nu we een definitie hebben uitgelegd voor het genereren van een retrieval augment, laten we eens kijken hoe het werkt.<\/p>\n

Hoe werkt Retrieval-Augmented Generation?<\/span><\/h2>\n

Op een hoog niveau heeft RAG twee hoofdfasen: een ophaalfase en een fase voor het genereren van inhoud.<\/p>\n

\"Hoe<\/p>\n

Tijdens de ophaalfase maakt een machine learning<\/a> (ML) algoritme gebruik van natuurlijke taalverwerking (NLP) van de prompt van de gebruiker en gebruikt dit om relevante informatie uit de kennisbank te identificeren.<\/p>\n

Deze informatie wordt vervolgens doorgestuurd naar een generatormodel of LLM, dat de prompt van de gebruiker en de gegevens die tijdens de ophaalfase zijn verzameld, gebruikt om een relevant antwoord te genereren dat overeenkomt met de oorspronkelijke prompt-intentie. Het proces is gebaseerd op natuurlijke taalgeneratie (NLG)<\/a>.<\/p>\n

Geschiedenis van RAG<\/span><\/h2>\n

De term Retrieval Augmented Generation werd oorspronkelijk bedacht in een onderzoekspaper<\/a> met de titel Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks, opgesteld door onderzoekers van Facebook AI Research, University College London en New York University.<\/p>\n

Deze paper introduceerde het concept van RAG en schetste hoe het gebruikt zou kunnen worden in taalgeneratie taken om meer specifieke en accurate output te produceren.<\/p>\n

Dit werk biedt verschillende positieve maatschappelijke voordelen ten opzichte van eerder werk: het feit dat het sterker gegrond is in echte feitelijke kennis (in dit geval Wikipedia) zorgt ervoor dat het minder ‘hallucineert’, met meer feitelijke generaties als resultaat, en biedt meer controle en interpreteerbaarheid,” aldus het paper.<\/span><\/p>\n

Daarnaast merkte het onderzoek op dat “RAG kan worden gebruikt in een breed scala aan scenario’s met direct voordeel voor de samenleving, bijvoorbeeld door het te begiftigen met een medische index en het open-domein vragen te stellen over dat onderwerp, of door mensen te helpen effectiever te zijn in hun werk”.<\/p>\n

RAG architectuur<\/span><\/h2>\n

De RAG architectuur heeft een aantal kerncomponenten die het mogelijk maken om te functioneren. Deze zijn als volgt:<\/p>\n

<\/span>Webserver\/ Chatbot<\/strong><\/div>
\n

De webserver host de chatbotinterface waar gebruikers kunnen communiceren met het taalmodel. Prompts worden doorgegeven aan een opvraagmodel.
\n<\/div><\/div>\n

<\/span>Spoiler title<\/div>
\n

Deze kennisbank\/ gegevensopslagcomponent bevat bestanden, afbeeldingen, video’s, documenten, databases, tabellen en andere ongestructureerde gegevens die het LLM verwerkt om te reageren op gebruikersvragen.
\n<\/div><\/div>\n

<\/span>Ophaalmodel<\/strong><\/div>
\n

Het ophaalmodel analyseert de vraag van de gebruiker met NLP en zoekt naar relevante informatie in zijn kennisbank, voordat het deze doorstuurt naar het ophaalmodel.
\n<\/div><\/div>\n

<\/span>Generatiemodel<\/strong><\/div>
\n

Het generatiemodel verwerkt de initi\u00eble vraag van de gebruiker en vervolgens wordt informatie verzameld met het opvraagmodel om een antwoord te genereren dat via de chatbotinterface naar de gebruiker wordt gestuurd.
\n<\/div><\/div>\n

Gebruik van RAG<\/span><\/h2>\n

RAG biedt veel potenti\u00eble gebruiksmogelijkheden voor bedrijven. Hieronder bekijken we enkele van de belangrijkste:<\/p>\n

\"Gebruik<\/p>\n