{"id":24769,"date":"2024-05-02T14:38:51","date_gmt":"2024-05-02T14:38:51","guid":{"rendered":"https:\/\/www.techopedia.com\/nl\/?post_type=definition&p=24769"},"modified":"2024-05-24T03:21:25","modified_gmt":"2024-05-24T03:21:25","slug":"retrieval-augmented-generation-rag","status":"publish","type":"definition","link":"https:\/\/www.techopedia.com\/nl\/definitie\/retrieval-augmented-generation-rag","title":{"rendered":"Retrieval-Augmented Generation (RAG)"},"content":{"rendered":"
RAG staat voor Retrieval-Augmented Generation, een AI<\/a>-ontwikkelingstechniek waarbij een groot taalmodel (LLM<\/a>) wordt verbonden met een externe kennisbank om de nauwkeurigheid en kwaliteit van zijn antwoorden te verbeteren.<\/p>\n De soorten bronnen waarmee LLM’s verbinding kunnen maken met RAG zijn onder andere documentopslagplaatsen, bestanden, API’s en databases.<\/p>\n LLM’s gebruiken Retrieval Augmented Generation om informatie uit een externe kennisbank te kunnen halen. Hierdoor krijgt het model toegang tot actuele, domein-specifieke informatie, waarnaar het kan verwijzen wanneer het in realtime reageert op gebruikersvragen.<\/p>\n Een van de belangrijkste voordelen van deze aanpak is dat de kennis van het model niet beperkt is tot trainingsgegevens met een bepaalde einddatum. De kennisbank kan ook worden bijgewerkt zonder dat het model opnieuw hoeft te worden getraind.<\/p>\n Toegang tot een externe bron vermindert de kans op AI-hallucinaties, waarbij een LLM verifieerbaar onjuiste of onware uitvoer produceert. Tegelijkertijd maakt de duidelijke link naar een kennisbank het voor gebruikers makkelijker om de bronnen van de beweringen van de chatbot<\/a> te bekijken en te fact-checken.<\/span><\/p>\n Nu we een definitie hebben uitgelegd voor het genereren van een retrieval augment, laten we eens kijken hoe het werkt.<\/p>\n Op een hoog niveau heeft RAG twee hoofdfasen: een ophaalfase en een fase voor het genereren van inhoud.<\/p>\n Tijdens de ophaalfase maakt een machine learning<\/a> (ML) algoritme gebruik van natuurlijke taalverwerking (NLP) van de prompt van de gebruiker en gebruikt dit om relevante informatie uit de kennisbank te identificeren.<\/p>\n Deze informatie wordt vervolgens doorgestuurd naar een generatormodel of LLM, dat de prompt van de gebruiker en de gegevens die tijdens de ophaalfase zijn verzameld, gebruikt om een relevant antwoord te genereren dat overeenkomt met de oorspronkelijke prompt-intentie. Het proces is gebaseerd op natuurlijke taalgeneratie (NLG)<\/a>.<\/p>\nTechopedia legt uit wat RAG betekent<\/span><\/h3>\n
<\/p>\n
Hoe werkt Retrieval-Augmented Generation?<\/span><\/h2>\n
<\/p>\n
Geschiedenis van RAG<\/span><\/h2>\n