{"id":31197,"date":"2024-06-13T18:07:35","date_gmt":"2024-06-13T18:07:35","guid":{"rendered":"https:\/\/www.techopedia.com\/nl\/?p=31197"},"modified":"2024-07-26T22:21:25","modified_gmt":"2024-07-26T22:21:25","slug":"wie-bouwt-de-volgende-llm","status":"publish","type":"post","link":"https:\/\/www.techopedia.com\/nl\/wie-bouwt-de-volgende-top-llm","title":{"rendered":"Wie gaat de volgende top-LLM ontwikkelen?"},"content":{"rendered":"

Het succes van ChatGPT<\/a> heeft geleid tot een goudkoorts op het gebied van large language models (LLM’s)<\/a>, een vorm van kunstmatige intelligentie (AI)<\/a> die statistische modellen en snelle analyses gebruikt om natuurlijk klinkende tekst en spraak te cre\u00ebren.<\/p>\n

LLM’s bestaan al een tijdje, maar hebben pas onlangs een punt bereikt waarop hun output volkomen menselijk lijkt. Dit heeft geresulteerd in een groot enthousiasme voor een reeks toepassingen, zoals chatbots<\/a>, contentcreatie en persoonlijke virtuele assistenten, maar ook in een wijdverbreide bezorgdheid dat hierdoor de grens tussen menselijke betrokkenheid en robotbetrokkenheid vervaagt in een steeds meer gedigitaliseerde wereld.<\/p>\n

Volgende golf van LLM’s: Bouwen op succes<\/span><\/h2>\n

Maar hoewel ChatGPT eerder dit jaar voor opschudding zorgde, met volgens recente schattingen zo’n 180 miljoen gebruikers, is het zeker niet de enige LLM in omloop. In technologiekringen leidt succes vaak tot concurrentie, en veel welgestelde bedrijven zijn er zeer in ge\u00efnteresseerd om AI zo normaal en natuurlijk mogelijk te laten lijken.<\/p>\n

Hier zijn dan enkele van de meer veelbelovende LLM-oplossingen die binnenkort bij een onderneming bij u in de buurt kunnen verschijnen.<\/p>\n

BERT<\/span><\/h3>\n

BERT, ook bekend als Bidirectionele Encoder Representations van Transformer, is de kampioen van Alphabet in de LLM-oorlogen<\/a>. Er wordt gezegd dat BERT zeer bedreven is in het cre\u00ebren van \u2018embeddings\u2019 \u2013 de wiskundige representaties waarmee modellen de betekenis van woorden en hun relaties met elkaar kunnen vastleggen en interpreteren. Dit betekent dat het tekst- of gesproken gegevens nauwkeurig kan doorgeven en een diep inzicht kan bieden in de semantische betekenis van zelfs langdurige communicatie.<\/p>\n

Om deze reden wordt BERT gezien als een toonaangevend ondersteuningsmodel voor natuurlijke taalverwerking (NLP) en andere vormen van machine learning (ML)<\/a>.<\/p>\n

Voor beide technieken is AI nodig om enorme hoeveelheden gegevens op te nemen en te begrijpen, met name de ongestructureerde gegevens die voorkomen in e-mails, chatgesprekken en andere vormen van menselijke interactie.<\/p>\n

BERT kan ook embeddings maken van tekst en cijfers om bijvoorbeeld namen en leeftijden te integreren, en het kan embedden samenvoegen met verschillende andere functies om multidimensionale gegevensinvoer te cre\u00ebren \u2013 dit alles stroomlijnt het trainingsproces en brengt meer flexibiliteit in de werking van het model.<\/p>\n

Tongyi Qianwen<\/span><\/h3>\n

In China heeft Alibaba Group ondertussen Tongyi Qianwen (\u201cDe waarheid zoeken door duizend vragen te stellen\u201d) uitgebracht, dat door sommige specialisten wordt omschreven als het antwoord van het bedrijf op ChatGPT.<\/a><\/p>\n

Gebaseerd op het eerdere Tongyi-voorgetrainde AI-framework, wordt Tongyi Qianwen ge\u00efntegreerd in een breed scala aan bedrijfsapplicaties van Alibaba, waaronder de DingTalk-communicatietool op de werkplek en de persoonlijke assistent TGenie, evenals tal van consumententoepassingen zoals e-commerce en entertainment. Er is ook een b\u00e8ta-API beschikbaar voor ontwikkelaars om aangepaste applicaties te bouwen voor een breed scala aan persoonlijke en professionele gebruiksscenario’s.<\/p>\n

Een van de meer intrigerende aspecten van Tongyi Qianwen is het potentieel voor multimodale functionaliteit, dat naar verwachting zal leiden tot geavanceerde beeldinterpretatie, tekst-naar-beeld- en zelfs tekst-naar-video-conversie. Volgens functionarissen van Alibaba zal dit, samen met de hyperscale cloudinfrastructuur van het bedrijf, naar verwachting een nieuw tijdperk in de AI-ontwikkeling inluiden.<\/p>\n

NeMo LLM<\/span><\/h2>\n

In termen van pure kracht lijkt de beste echter het NeMo-platform van Nvidia te zijn. Met de mogelijkheid om tijdens het trainingsproces tot 500 miljard aanpasbare parameters<\/a> te beheren, heeft het een enorme capaciteit om nauwkeurige voorspellingen te doen of de gewenste output correct te produceren met minimale aanwijzingen.<\/p>\n

Op deze manier moeten gebruikers hun modellen kunnen sturen om taken uit te voeren vari\u00ebrend van het samenvatten en parafraseren van teksten tot het vertellen van volledige verhalen, met minimale expertise in modeltraining of computertechnologie in het algemeen.<\/p>\n

Nvidia wil het NeMO-framework nu al naar een hoger niveau tillen door de parametercapaciteit te vergroten tot in het bereik van meerdere biljoenen. Het systeem kan snel en effici\u00ebnt zoeken naar optimale trainings- en inferentieparameters over meerdere gedistribueerde GTP-clusters met behulp van tools zoals geautomatiseerde gedistribueerde gegevensverwerking en hyperparametertools.<\/p>\n

Het ondersteunt ook een hoge trainingseffici\u00ebntie en brede aanpassing met behulp van technieken als tensor, data, pijplijn- en sequentieparallellisme, evenals selectieve actieve herberekening om het geheugenverbruik te verminderen.<\/p>\n

LLaMA<\/span><\/h3>\n

Groter is echter niet altijd beter bij het ontwikkelen van LLM-modellen, vooral als u niet over de middelen beschikt voor grootschalige architecturen<\/a>. Meta heeft een kleinere oplossing ge\u00efntroduceerd genaamd LLaMA (Large Language Model Meta AI) die ongeveer 65 miljard parameters bevat. Het idee is om een goedkope, kleinschalige ontwikkelomgeving te bieden, waardoor meer onderzoekers hun idee\u00ebn kunnen testen voordat ze deze in productieomgevingen vrijgeven.<\/p>\n

Deze kleinere getrainde modellen zijn sterker afhankelijk van tokens \u2013 in wezen stukjes woorden \u2013 die gemakkelijker te trainen en te verfijnen zijn dan uitgebreidere oplossingen.<\/p>\n

Hierdoor kunnen ontwikkelaars werkbare modellen maken voor gerichte gebruiksscenario’s en vervolgens code tussen projecten delen om hun veerkracht tegen vooroordelen, toxiciteit, hallucinaties en andere negatieve input te verbeteren waar alle LLM’s last van hebben. Momenteel geeft Meta alleen niet-commerci\u00eble licenties uit voor LLaMA om de onderzoeksgemeenschap de kans te geven richtlijnen te ontwikkelen voor verantwoord gebruik in alle omgevingen.<\/p>\n

Conclusie<\/span><\/h2>\n

Grote taalmodellen zullen voorlopig waarschijnlijk het leeuwendeel van de aandacht trekken op het gebied van AI. Zij zijn tenslotte degenen die de meest ‘mensachtige’ kenmerken vertonen, waardoor ze het meest intelligent lijken.<\/p>\n

De uitdaging op dit punt is om vaardigheden te ontwikkelen die verder gaan dan alleen schrijven en praten, om ze echt nuttig te maken in ons persoonlijke en professionele leven. Dit is een hele opgave, gezien de talloze cognitieve stappen die nodig zijn om te beslissen welke kleding je moet dragen of wat je als ontbijt wilt nemen.<\/p>\n

Naar alle waarschijnlijkheid zullen we alleen door LLM\u2019s te integreren met andere vormen van AI, zoals machine learning, neurale netwerken en deep learning, een punt bereiken waarop de technologie echt transformatief wordt.
\n

\n
\n

Referenties<\/span><\/h2>\n<\/div>\n
\n