Een kennisbank voor AI-klantenservice is iets anders dan een helpcentrum voor mensen. De AI-agent scant niet, gokt niet op basis van een screenshot en vult geen gaten met intuïtie. Hij kan alleen antwoorden met wat hij kan ophalen, in de woorden die je klant gebruikte, in een tekstdeel klein genoeg om te vinden. Deze gids gaat over hoe je content schrijft en structureert zodat de agent er echt mee kan werken, hoe je de hiaten vindt en hoe vaak je moet verversen.
Waarom faalt een helpcentrum voor mensen bij een AI-agent?
Een mens die je helpcentrum leest, brengt context mee die de pagina zelf niet bevat. Die persoon weet dat je product op drie manieren wordt genoemd. Hij scrolt langs de marketingintro naar de stappen. Hij leidt af dat "Instellingen" het tandwielicoon is.
Een AI-agent heeft niets daarvan. Hij werkt via ophalen. Als een klant een vraag stelt, doorzoekt het systeem je content, haalt de tekstdelen op die het meest relevant lijken, en het model antwoordt op basis van die delen. Wordt het juiste deel niet opgehaald, dan doet het model een van twee dingen, allebei slecht: het geeft een onvolledig antwoord, of het verzint een aannemelijk antwoord. Een analyse uit 2025 van fouten in ophaalsystemen stelde vast dat ophaalfouten ertoe leiden dat het model "onvolledige antwoorden geeft, informatie verzint om gaten te vullen, of onnodig afhaakt." Diezelfde analyse vond dat het op willekeurige plekken splitsen van tekst de link verbreekt tussen een definitie en de informatie die erbij hoort.
De vraag is dus niet "is ons helpcentrum goed." De vraag is "kan een ophaalsysteem zelfstandig het exacte antwoord vinden, zonder menselijke context om op te leunen." De meeste helpcentra zijn nooit voor die test gebouwd.
Wat maakt content vindbaar in plaats van decoratief?
Decoratieve content leest prettig voor een mens en levert een ophaalsysteem niets bruikbaars op. Vindbare content is het tegenovergestelde. Het verschil komt neer op een paar gewoontes.
Beantwoord de vraag in de eerste twee zinnen. Zet het antwoord bovenaan het artikel, vóór de achtergrond. Een ophaalsysteem dat het openingsdeel pakt, heeft het antwoord dan al te pakken. Achtergrond, randgevallen en screenshots komen daarna.
Gebruik de woorden die je klanten gebruiken. Interne teams benoemen dingen op hun eigen manier. Klanten niet. Het onderzoek van Nielsen Norman Group naar vindbaarheid is hier helder over: "noem een spade een spade, geen graafwerktuig." Schrijft een klant "terugbetaling" en zegt jouw artikel "terugboeking", dan moet het ophaalsysteem dat gat overbruggen, en soms lukt dat niet. Schrijf het artikel in klanttaal en voeg de synoniemen toe die klanten echt intypen.
Eén artikel, één vraag. Een artikel met de titel "Facturatie" dat terugbetalingen, facturen, abonnementswijzigingen en btw behandelt, zijn vier artikelen in één jas. Splits ze. Elk artikel moet één vraag volledig beantwoorden. Vraagt een klant naar terugbetalingen, dan wil je dat het systeem een terugbetalingsartikel vindt, geen facturatie-essay waarin het stuk over terugbetalen alinea zes is.
Schrap de inleidende ruis. Marketingintro's, "welkom bij ons helpcentrum", een herhaling van de missie. Niets daarvan helpt een ophaalsysteem en alles verdunt het deel dat er wel toe doet. Beknopte, scanbare content is ook betere content voor mensen: Nielsen Norman Group mat een herschreven site als 159% bruikbaarder dan het origineel, op 54% van het aantal woorden.
Hoe moet je artikelen structureren en in chunks splitsen?
Chunking is de stap waarin je artikelen worden opgedeeld in de kleine tekstdelen waar een ophaalsysteem doorheen zoekt. Vaak bepaal je de chunking niet zelf, dat doet het platform, maar hoe je schrijft, bepaalt hoe goed het gaat.
Een chunk die middenin een uitleg splitst, is een chunk die een definitie ophaalt zonder het voorbeeld, of een stap zonder de waarschuwing. Onafhankelijk onderzoek naar chunkingstrategieën liet zien dat de splitsmethode alleen al de ophaalprestatie tot negen procent kan veranderen, en dat de standaardinstellingen van populaire tools vaak slecht presteren. Het algoritme kun je vanuit de content niet repareren, maar je kunt wel zo schrijven dat elke redelijke splitsing nog steeds een op zichzelf staand tekstdeel oplevert.
In de praktijk betekent dat:
- Korte secties onder beschrijvende koppen. Een kop als "Een terugbetaling aanvragen" zet de woorden vooraan waar een klant op zoekt. Een kop als "Meer informatie" zet niets vooraan.
- Op zichzelf staande secties. Elke sectie moet kloppen als het het enige is dat wordt opgehaald. Vermijd "zoals hierboven genoemd" en "zie de vorige sectie." Het ophaalsysteem heeft de vorige sectie misschien niet.
- Schrijf voluit waar je naar verwijst. Vervang "het doet dit automatisch" door "het systeem verwerkt de terugbetaling automatisch." Verwijswoorden die naar een alinea twee schermen hoger wijzen, breken als die alinea weg is.
- Lijsten en stappen boven dichte tekst. Een genummerde procedure overleeft chunking beter dan een tekstblok, omdat elke stap al een losse eenheid is.
Het doel is dat elk tekstdeel, los uit het artikel gelicht en alleen gelezen, nog steeds iets beantwoordt. Dat is meteen een goede definitie van een sterk artikel. Wil je de onderliggende werking, dan leggen onze glossariumpagina over de kennisbank en de pagina over grounding uit hoe ophalen en bronvermelde antwoorden samenhangen.
Hoe vind en vul je de hiaten?
Je kunt de hele kennisbank niet vooraf schrijven, en dat moet je ook niet proberen. De hiaten laten zich zien zodra de agent live staat.
Het snelste signaal is het gedrag van de agent zelf. Als hij niet kan antwoorden, is dat een geregistreerde gebeurtenis, en het is de eerlijkste backlog die je ooit krijgt. Haal de vragen op waar de agent escaleerde, twijfelde of zei dat hij het niet wist. Cluster ze. De grootste clusters zijn je volgende tien artikelen, gerangschikt op echte vraag in plaats van giswerk.
Het tweede signaal zijn de antwoorden die technisch wel gegeven zijn, maar fout of mager. Die zijn lastiger te zien, want er ging niets luid mis. Bekijk wekelijks een steekproef van de gesprekken van de agent. Lees er twintig willekeurig. Je vindt antwoorden die klopten maar uit een verouderd artikel waren samengesteld, of die klopten maar de ene cruciale nuance misten. Elk daarvan is een contentcorrectie of een nieuw artikel.
Het derde signaal is je menselijke team. De vragen die medewerkers keer op keer beantwoorden, die nooit op papier kwamen omdat iedereen het antwoord al kende, zijn puur hiaat. Vraag het team één keer per maand: wat heb je deze week uitgelegd dat nergens is opgeschreven.
Hoe vaak moet je een kennisbank verversen?
Een kennisbank is geen lancering, het is een doorlopend proces. Verouderde content is erger dan ontbrekende content, want de agent haalt die met overtuiging op en serveert hem.
Een werkbaar ritme heeft drie lagen. Gebeurtenisgestuurde updates gebeuren op dezelfde dag dat er iets verandert: een prijs, een beleid, een functie, een verwijderde integratie. Die kunnen niet op een cyclus wachten, want de agent blijft de oude versie aanhalen tot het artikel verandert. Een maandelijkse reviewronde werkt de hiaten-backlog uit de agentlogs en de steekproeven door. Een kwartaalaudit leest de hele kennisbank op drift, het trage soort, waarbij niets brak maar het product veranderde en het artikel niet meebewoog.
Koppel het ritme aan eigenaarschap. Elk artikel heeft één eigenaar en een datum van laatste controle. Een artikel dat niemand bezit, is een artikel waarvan niemand merkt dat het verouderd is.
Hoe Keloa dit aanpakt
We hebben de AI-agents van Keloa gebouwd vanuit de aanname dat de kennisbank het product is, geen accessoire. De agents antwoorden op basis van je eigen content en vermelden voor elk antwoord de bron, zodat jij en de klant allebei zien uit welk artikel een reactie kwam. Die bronvermelding is meteen een debugtool: een fout antwoord wijst rechtstreeks naar het artikel dat aandacht nodig heeft.
Kan de agent niet antwoorden, dan improviseert hij niet. Hij zegt het, en hij registreert de vraag. Die geregistreerde hiaten worden je contentbacklog, gerangschikt op hoe vaak klanten er echt tegenaan lopen. We laten de agent liever een vraag aan een mens overdragen dan gokken, want een gok ondermijnt vertrouwen sneller dan een overdracht dat ooit zal doen. Het resultaat is een cyclus: de agent laat zien wat ontbreekt, jij schrijft het, de agent wordt beter en de supportkosten blijven voorspelbaar. Onze prijzen zijn daar omheen gebouwd, afgerekend per reactie, zodat een betere kennisbank je kosten verlaagt in plaats van verhoogt.
Veelgestelde vragen
Heb ik een enorme kennisbank nodig voordat ik een AI-supportagent lanceer? Nee. Een kleine, accurate kennisbank verslaat een grote, verouderde. Begin met de twintig vragen die je team het vaakst beantwoordt, helder geschreven, en laat de geregistreerde hiaten van de agent je vertellen wat je daarna schrijft. Volume zonder accuratesse geeft de agent alleen meer manieren om fout te zitten.
Kan de AI-agent pdf's, oude tickets en interne documenten gebruiken? Vaak wel, maar behandel die als grondstof, niet als afgewerkte content. Pdf's en ticketdraden bevatten lay-outruis, achterhaalde antwoorden en ontbrekende context die het ophalen schaden. De beste resultaten komen uit content geschreven als losse artikelen, één vraag per stuk, in klanttaal.
Wat is chunking en moet ik dat zelf beheren? Chunking is het opdelen van je artikelen in kleine tekstdelen die een ophaalsysteem kan doorzoeken. Het platform regelt meestal de techniek. Jouw taak is op zichzelf staande secties schrijven onder beschrijvende koppen, zodat elke redelijke splitsing nog een tekstdeel oplevert dat zelfstandig iets beantwoordt.
Hoe voorkom ik dat de agent verouderde antwoorden geeft? Maak updates gebeurtenisgestuurd voor alles wat klantgericht is, een prijs- of beleidswijziging gaat er dezelfde dag in. Voeg een maandelijkse review en een kwartaalaudit toe, en geef elk artikel een eigenaar en een datum van laatste controle. Een agent serveert verouderde content met overtuiging, dus de oplossing is de content vers houden, niet het model bijstellen.
Hoe weet ik of mijn kennisbank echt werkt voor de AI-agent? Houd drie cijfers in de gaten: hoe vaak de agent escaleert omdat hij niet kan antwoorden, hoe vaak klanten ontevreden terugkomen na een antwoord, en wat je steekproeven opleveren. Clusteren de escalaties rond dezelfde onderwerpen, dan heb je specifieke hiaten om te vullen, geen kapotte agent.