Skip to content

Grounding

De praktijk om een AI alleen vanuit opgehaalde context te laten antwoorden, en hem te laten zeggen dat hij het niet weet als die context tekortschiet. Het tegenovergestelde van het model gaten laten dichten met training.

Grounding is de praktijk om een AI alleen te laten antwoorden vanuit de context die voor de huidige vraag is opgehaald, en hem te laten zeggen dat hij het niet weet wanneer die context ontbreekt of te dun is. Het is de discipline die van een spraakzaam model een bruikbare service-agent maakt.

Zonder grounding vult het model elk gat met plezier vanuit zijn algemene training. Prima als je vraagt naar de hoofdstad van Frankrijk. Gevaarlijk als je vraagt naar de contractvoorwaarden van een klant.

Waarom grounding de moeilijkere helft van RAG is

Retrieval zet de juiste stukjes voor de neus van het model. Grounding zorgt dat het model ze ook echt gebruikt. De twee worden vaak verward, en veel systemen doen het eerste goed en het tweede slecht.

Een gegronde model behandelt de opgehaalde context als het plafond van wat hij mag beweren. Staat in de context "dertig dagen voor retouren", dan zegt het model dertig dagen. Staat er niets over retourrecht op geopende artikelen, dan zegt het model dat hij die informatie niet heeft. Hij extrapoleert niet. Hij mengt er niet bij wat andere bedrijven gewoonlijk doen. Hij neemt niets aan.

Dat klinkt streng. Dat is het ook. Dat is het hele punt.

Hoe grounding wordt afgedwongen

Grounding wordt afgedwongen via prompting (het model expliciet vertellen binnen de opgehaalde context te blijven), systeemontwerp (scheiden van "wat de gebruiker vroeg" en "wat we weten") en evaluatie (het model testen op vragen waarbij het antwoord opzettelijk ontbreekt in de context, om te zien of hij hallucineert of weigert).

Modellen verschillen in hoe natuurlijk gegrond ze zijn. Recentere frontier-modellen zijn beter dan oudere, maar niet één is uit zichzelf perfect. Er is engineering werk overheen nodig.

Hoe ongegronde AI eruitziet

Een ongegronde AI voelt behulpzaam in een demo en onveilig in productie. Hij antwoordt op elke vraag. Hij schakelt zelden door. De antwoorden klinken gepolijst. En één keer per week of één keer per dag, afhankelijk van volume, vertelt hij een klant zelfverzekerd iets dat niet jouw beleid is. Tegen de tijd dat de service-manager het ziet, heeft de klant er al naar gehandeld.

In Keloa

In Keloa is grounding een centrale waarborg. De AI-agent krijgt de instructie om alleen vanuit je kennisbank te antwoorden, bronvermelding bij elke claim te geven, en door te schakelen wanneer retrieval mager terugkomt. Zie hoe de AI werkt voor de hele pijplijn.

Zie hoe dit werkt in het product.

Gratis Starter-plan, 50 AI-antwoorden, geen creditcard. In tien minuten ingericht.