Skip to content

Deflectiepercentage is de verkeerde metric. Wat je in plaats daarvan moet meten.

12 mei 2026·6 min leestijd·Keloa
metricsai-supportcsatdeflection

Elke AI-supportleverancier laat je in 2026 binnen de eerste minuut van een demo een deflection-dashboard zien. Groot groen getal, meestal in de 60%-iets, soms 70%-iets. Het verhaal is dat de AI de meeste tickets heeft afgehandeld, zodat je mensen dat niet hoefden te doen. De conclusie die de slide je in duwt: je moet het product kopen.

We hebben er genoeg van gezien om het rechttoe rechtaan te zeggen: het deflectiepercentage, zoals de meeste leveranciers het berekenen, is een marketinggetal. Het zegt heel weinig over of jouw klanten geholpen zijn. Erger nog, het kan stilletjes omhoog gaan terwijl je CSAT zakt, en het dashboard noemt dat alsnog een succes. Hier is wat er mis is, en wat je in plaats daarvan moet bijhouden.

Wat deflectiepercentage eigenlijk meet

Een "deflection" zou een ticket moeten zijn dat geen mens nodig had. In de praktijk berekenen leveranciers het op een van de volgende drie manieren, alle drie even vleiend:

  • Self-service-vermijding. Een bezoeker is in het helpcenter geweest en heeft daarna geen chat geopend of ticket ingediend. Tel dat als deflection. Dit telt mensen die zijn weggegaan omdat ze de juiste pagina niet konden vinden.
  • Alleen-bot-gesprek. De AI antwoordde en de gebruiker vroeg niet om een mens. Tel dat als deflection. Dit telt mensen die de bot hebben opgegeven en jullie oprichter rechtstreeks hebben gemaild.
  • Geen vervolg binnen N uur. De AI antwoordde en de gebruiker schreef niet terug binnen 24, 48 of 72 uur. Tel dat als deflection. Dit telt de klant die een verkeerd antwoord kreeg en wegliep.

Geen van deze definities is hetzelfde als "het probleem van de klant is opgelost." Alle drie gaan ze omhoog wanneer je de AI agressiever maakt, wanneer je de overdracht naar een mens verstopt, of wanneer je de drempel verhoogt zodat de bot vragen beantwoordt die hij niet zou moeten beantwoorden. Het dashboard beloont precies het gedrag waar klanten over klagen.

We zien dit ook in echte implementaties. Een stuk uit 2026 bij CXToday citeerde meerdere supportleiders bij wie de CSAT binnen weken zakte na een op deflection gerichte AI-uitrol. De oorzaak was bijna altijd hetzelfde. De bot beantwoordde vragen die hij had moeten escaleren. Klanten die geen mens konden vinden, gaven het op. Het dashboard stond op groen.

Drie metrics die moeilijker te verfraaien zijn

Als deflectiepercentage het calorievrije getal is, wat is dan het echte ding.

1. Hercontactpercentage binnen 48 uur

Dit is de belangrijkste AI-support-metric en bijna geen enkele leverancier opent ermee. De definitie is simpel: van de klanten die een AI-only-interactie hadden, welk percentage neemt binnen 48 uur opnieuw contact op over hetzelfde probleem.

Als je "deflectiepercentage" 70% is en je 48-uurs hercontactpercentage 25%, dan defleer je niet, dan stel je uit. Dezelfde klant is terug, geïrriteerder, en heeft nu alsnog een mens nodig. Het werk is alleen verschoven naar de toekomst en naar een slechter humeur.

Goede benchmarks voor retail-mkb: onder de 10% hercontact is uitstekend, 10-15% is prima, alles boven de 20% betekent dat je AI problemen verbergt in plaats van ze oplost. Hou het bij per onderwerp. Hercontact op "waar is mijn bestelling" moet bijna nul zijn. Hercontact op "refund van één specifieke regel uit een meerregelige bestelling" mag hoger zijn, want dat is een lastigere vraag.

2. CSAT gesplitst op alleen-AI versus mens-aangeraakt

CSAT als gemiddelde is nutteloos zodra AI in de mix zit. Het gemiddelde verbergt de waarheid. Wat telt, is het gat tussen twee cohorten:

  • Klanten van wie de hele interactie via AI ging.
  • Klanten die op enig moment een mens kregen.

Is het gat klein (zeg 0 tot 4 punten), dan doet je AI wat AI moet doen: de vragen afhandelen die hij goed kan en uit de weg gaan voor de rest. Is het gat groot (10+ punten), dan beantwoordt je AI vragen die hij niet zou moeten beantwoorden, of de overdracht naar een mens is gebroken. De manier om dit te repareren is niet door de bot harder te tunen. Het is door de confidence-drempel voor overdracht te verlagen, zodat de bot minder vragen beantwoordt, maar de antwoorden die hij geeft kloppen.

Een Notch-studie uit 2026 over 200 mid-market supportteams vond dat de mediane alleen-AI-CSAT zeven punten lager lag dan mens-aangeraakt. De top-10%-teams hadden dat gat onder de 3 punten gebracht. Dat gat is het werk.

3. Kosten per opgelost ticket, per onderwerp

Niet "kosten per resolutie." We hebben in een andere post al uitgelegd waarom door de leverancier gedefinieerde resoluties niet hetzelfde zijn als jouw klant die geholpen is. Kosten per opgelost ticket, fatsoenlijk gemeten, is je totale supportkost (AI-factuur, mensen op de loonlijst, tool stack) gedeeld door het aantal tickets waarbij het probleem van de klant ook echt is opgelost en de klant niet binnen 48 uur is teruggekomen.

De interessante move is om dit op te knippen per onderwerp. De meeste teams ontdekken dan drie patronen:

  • AI duidelijk goedkoper: ordertracking, retourbeleid, leverwindow, accounttoegang. Pure feitelijke opzoeking. Stuur dit alles naar de bot.
  • AI iets goedkoper: productpas-vragen, simpele troubleshooting, eenvoudige refunds. De moeite van automatiseren waard, maar de besparing is kleiner dan het deflection-dashboard suggereerde.
  • AI duurder: complexe retouren, custom orders, alles met uitzonderingen. De bot maakt er een potje van, een mens lost het op. Je betaalt voor beide. Route dit direct naar een mens.

Zodra je die kaart hebt, verschuift je automatiseringsstrategie van "alles defleren" naar "automatiseren waar de rekensom klopt."

De dashboards die je nu hebt liegen een beetje

Het is niet helemaal de schuld van de leveranciers. Deflectiepercentage is makkelijk te berekenen, makkelijk te graphen, en makkelijk in een sales deck te zetten. Hercontactpercentage vraagt dat je twee gesprekken van dezelfde klant aan elkaar koppelt, vaak verspreid over twee dagen. Een CSAT-split vraagt dat je de juiste mensen de juiste vraag stelt. Kosten-per-opgelost-per-onderwerp vraagt om een categorisatie die de meeste teams niet streng genoeg toepassen.

Maar de consequentie van het feit dat het makkelijke getal de standaard is, is dat AI-supportteams worden beoordeeld op een metric die maar losjes correleert met of klanten tevreden zijn. We hebben liever dat iedereen, onze klanten incluis, kijkt naar metrics die wél correleren met retentie, herhaalaankoop en mond-tot-mond.

Bij Keloa leveren we de drie metrics hierboven mee in de standaardrapporten. Niet omdat ze ons product er beter uit laten zien dan andermans dashboards. Dat doen ze in de eerste maand niet. Ze laten het er eerlijker uitzien, en dat is een ander argument en het argument dat we willen voeren.

Wat dit voor jou betekent

Draai je nu al een AI-supporttool, dan is de test simpel. Vraag je leverancier om het 48-uurs hercontactpercentage per onderwerp van de afgelopen 60 dagen, opgesplitst naar alleen-AI of mens-aangeraakt. Kan dat niet, dan heb je geen meetprobleem, dan heb je een leveranciersprobleem. De metric bestaat, de data bestaat, de afwezigheid ervan is een keuze.

Evalueer je nu, vraag deze cijfers dan in de demo. De leverancier die ze zonder aarzelen oproept en je net zo goed de gaten als de successen laat zien, is degene om serieus te nemen.

Wil je zien hoe deze rapporten er in het wild uitzien, boek een demo van 20 minuten en we draaien ze tegen een voorbeeldworkspace. Of begin met het Free Starter-plan, koppel je helpcenter en kijk de eerste paar weken naar je eigen hercontactpercentage. Dat getal is, eenmaal gezien, moeilijk weer te vergeten.

Wil je zien hoe dit werkt in ons product?

Gratis Starter-plan, 50 AI-antwoorden, geen creditcard. In tien minuten ingericht.