Skip to content

Hallucinatie

Als een AI vol vertrouwen iets beweert wat niet in zijn bronnen staat en niet klopt. De grootste faalmodus van generatieve AI in klantenservice.

Een hallucinatie is wanneer een AI vol vertrouwen iets beweert wat niet in zijn bronnen staat en niet klopt. Het kan een verzonnen beleid zijn, een verkeerde productspecificatie, een uitgevonden retourtermijn, een niet-bestaande functie, of een bronvermelding die naar een pagina wijst die niet bevat wat de AI beweerde. Het antwoord leest vloeiend. De inhoud klopt niet.

Hallucinaties zijn veruit de grootste reden dat teams aarzelen om AI op echte klantgesprekken te zetten, en die voorzichtigheid is terecht.

Waarom hallucinaties voorkomen

Taalmodellen voorspellen het volgende waarschijnlijke woord op basis van de vorige woorden. Meestal is het volgende waarschijnlijke woord ook het juiste woord. Soms, vooral als de vraag op de rand van de trainingsdata ligt of als de relevante feiten ontbreken in de context, is het volgende waarschijnlijke woord vloeiende onzin.

Zonder retrieval vult het model het gat met de eerste het beste patroon dat past. Met retrieval maar zonder grounding kan het model wegdrijven van de opgehaalde stukjes terug naar zijn training. Zonder bronvermelding ziet niemand welk van de twee het deed. Die combinatie veroorzaakt zelfverzekerde verkeerde antwoorden.

Hoe je ze beperkt

Hallucinaties zijn niet volledig uit te bannen. Je kunt ze fors terugbrengen met vier praktijken. Eén: haal elke keer dat de AI een antwoord genereert uit echte, actuele bronnen op. Twee: grond het model. Geef de instructie alleen vanuit opgehaalde context te antwoorden en anders te zeggen dat hij het niet weet. Drie: eis bronvermelding zodat elke claim te controleren is. Vier: stel een vertrouwensdrempel in zodat de AI bij twijfel doorschakelt naar een mens.

Een goed gebouwde service-AI zegt veel vaker "ik weet het niet, ik haal er een collega bij" dan een slecht gebouwde AI ooit twijfel zou toegeven. "Ik weet het niet" zeggen is een onderschatte AI-functie.

Wat de klant ziet

Een goed systeem faalt zichtbaar: geen antwoord, een korte verontschuldiging, een aanbod voor een mens. Een slecht systeem faalt onzichtbaar: een zelfverzekerd verkeerd antwoord waar de klant naar handelt, en een gefrustreerde escalatie later wanneer de werkelijkheid niet overeenkomt met wat de AI beloofde. Dat tweede schaadt vertrouwen meer dan helemaal geen AI.

In Keloa

In Keloa gebruiken we RAG om antwoorden aan jouw bronnen te koppelen, grounding om het model eerlijk te houden en bronvermelding zodat elke claim controleerbaar is. Twijfelt de AI-agent, dan zegt hij dat en geeft over. Zie hoe de AI werkt voor de waarborgen.

Zie hoe dit werkt in het product.

Gratis Starter-plan, 50 AI-antwoorden, geen creditcard. In tien minuten ingericht.