Over kostenreductie, kwetsbaarheid en de ontwerpkeuzes die je nu moet maken
In eerdere artikelen heb ik uitgewerkt wat AI-first betekent: niet AI ergens tegenaan plakken, maar fundamenteel herontwerpen wat je levert. En ik heb beschreven waar vakmanschap heen gaat als AI het voorbereidende werk overneemt. Maar er is een vraag die ik in die stukken heb laten liggen. Een vraag die in vrijwel elk adviesgesprek terugkomt, en die minder comfortabel is dan de ontwerpvraag.
Die vraag is: wat gebeurt er als je rekensom niet meer klopt?
Ik adviseer organisaties over de inzet van AI in klantcontact en bredere dienstverlening. Mijn overtuiging is dat AI het meeste oplevert als het menselijk vermogen vergroot – meer kwaliteit, meer vakmanschap, meer waarde voor klant en organisatie. Maar in de praktijk zie ik dat AI-trajecten vaak primair worden gedreven door iets anders: kostenreductie. En dat is niet per definitie verkeerd. Maar het brengt risico’s met zich mee die zelden expliciet op tafel komen.
Dit stuk gaat over die risico’s. Over de verschillende redenen waarom organisaties naar AI grijpen, over wat er misgaat als je niet doorrekent wat je aan het doen bent, en over de concrete ontwerpkeuzes waarmee je voorkomt dat je je probleem alleen maar in de tijd verschuift.
Vier typen organisaties, vier verschillende uitgangspunten
Als ik kijk naar de organisaties die ik spreek, zie ik grofweg vier patronen in hoe ze naar AI kijken. Die patronen bepalen niet alleen hun aanpak, maar ook hun risicoprofiel.
Type 1: Waarde-retoriek, kosten-realiteit. Deze organisaties zeggen dat ze AI inzetten voor betere dienstverlening, maar het echte doel is kostenreductie. Minder FTE, lagere cost per interaction, een betere ratio op papier. Daar is op zich niets mis mee – zolang je er eerlijk over bent. Het probleem ontstaat als de interne communicatie niet klopt. Als medewerkers wordt verteld dat AI ‘meer betekenisvol werk’ oplevert terwijl de stuurinformatie puur op kosten zit. Dan verdwijnt vertrouwen, en wordt adoptie minimaal of mechanisch. De AI werkt, maar de organisatie niet.
Type 2: Noodgedwongen herstructurering. Dit zijn organisaties met een reëel kostenprobleem. De arbeidsmarkt is krap, de loonkosten stijgen, de marges staan onder druk. AI is voor hen geen strategische keuze maar een noodzaak. Ze grijpen naar automatisering omdat ze niet anders kunnen. Dit is misschien wel de meest kwetsbare groep. Ze investeren volop in het verlagen van hun cost per interaction, vaak onder tijdsdruk, en hebben weinig ruimte om te experimenteren. Als de technologie niet levert wat is beloofd, of als de kosten ervan stijgen, valt hun businesscase om. En dan hebben ze geïnvesteerd in een transformatie die het probleem niet heeft opgelost.
Type 3: Duurzaam onderscheidend. Een kleinere groep organisaties kijkt fundamenteel anders. Die vraagt niet ‘hoe worden we goedkoper’ maar ‘hoe blijven we relevant’. Dat is de groep waarvoor de AI-first drieluik is geschreven: eerst herontwerpen wat je levert, dan pas bepalen wie of wat het uitvoert. Het is ook de groep waarvoor de transformatie het zwaarst is. Want je kunt niet ontwerpen voor onderscheidend vermogen als je tegelijkertijd alles automatiseert wat beweegt. Dat vraagt keuzes die op korte termijn geld kosten.
Type 4: Nieuwkomers die korter op de bal zitten. Tot slot zijn er de entrepreneurs en startende bedrijven die niet vastzitten aan bestaande structuren. Die kijken naar de latente behoefte van klanten en vullen die met AI op een manier die gevestigde spelers niet kunnen of willen. Ze hoeven niet te transformeren – ze beginnen bij nul. Daarmee zitten ze de komende jaren dichter op de werkelijke klantbehoefte dan organisaties die bezig zijn hun bestaande model om te bouwen.
Elk type heeft zijn eigen logica. Maar de risico’s zitten niet gelijk verdeeld. Type 1 en 2 zijn het meest kwetsbaar – en dat zijn precies de organisaties die het vaakst naar AI grijpen.
De dubbele kwetsbaarheid van AI als kostenmodel
Er zijn twee aannames die in veel AI-businesscases impliciet worden meegegeven, maar zelden worden uitgesproken.
De eerste is dat AI effectief genoeg zal zijn. Dat de automatisering doet wat wordt beloofd. Dat de chatbot de gesprekken afvangt. Dat de agent assist daadwerkelijk afhandeltijd verlaagt. In de praktijk valt dat regelmatig tegen. Niet omdat de technologie niet werkt, maar omdat de context complexer is dan het model aankan, omdat de kennisbasis niet op orde is, of omdat klanten zich niet gedragen zoals het ontwerp veronderstelt. Als je businesscase leunt op 40% deflectie en je haalt 15%, heb je een probleem.
De tweede is dat AI goedkoop zal blijven. De huidige prijzen van AI-modellen zijn in veel gevallen niet kostendekkend. Grote aanbieders subsidiëren hun modellen om marktaandeel te veroveren. Prijsstructuren, licentiemodellen en marges zijn in beweging. Wat vandaag een structurele kostenverbetering lijkt, kan morgen een verschoven kostenrisico blijken. Zodra AI structureel onderdeel wordt van je kernproces, verschuift je kostenbasis van mens naar model. En modellen hebben prijsmodellen die je niet in de hand hebt.
Elk van deze aannames afzonderlijk is al een risico. Samen creëren ze een dubbele kwetsbaarheid: je hebt geïnvesteerd in een transformatie die niet levert wat je verwachtte, en de kosten ervan stijgen terwijl je er al van afhankelijk bent.
Efficiëntie is niet het probleem. Onuitgesproken kwetsbaarheid is dat wel.
Wat ik doe voordat ik een businesscase bespreek
In mijn werk begin ik daarom niet bij tooling of technologie, maar bij diagnose. Voordat je kunt bepalen of AI de juiste interventie is, moet je weten wat er daadwerkelijk gebeurt in je klantcontact.
Dat betekent drie dingen concreet uitwerken.
Ten eerste: welke vragen komen er binnen, en welke kun je voorkomen? Een substantieel deel van het klantcontact in veel organisaties is herhaalverkeer dat voortkomt uit onduidelijke communicatie, gebrekkige processen of slechte informatievoorziening. Dat los je niet op met een chatbot – dat los je op aan de bron. Zonder dat inzicht automatiseer je symptomen.
Ten tweede: welke vragen kun je verschuiven naar een beter kanaal? Niet elk contactmoment hoeft door een mens afgehandeld te worden. Maar ook niet elk contactmoment is geschikt voor automatisering. De vraag is welk kanaal bij welk type interactie past – en dat is een ontwerpvraag, geen technologievraag.
Ten derde: waar zit echte frictie in het proces? Wat kost tijd? Waar gaan dingen mis? Waar escaleert het onnodig? Dat is de informatie die je nodig hebt om te bepalen waar AI daadwerkelijk waarde toevoegt – en waar het alleen complexiteit verplaatst.
Om die vragen te beantwoorden heb je data nodig. Niet steekproeven en buikgevoel, maar gestructureerd inzicht in al je interacties. Conversational intelligence – het geautomatiseerd analyseren en scoren van alle gesprekken – is wat mij betreft een basisvoorwaarde. Niet als nice-to-have, maar als fundament onder elke beslissing die je neemt. Als je dat niet kunt, stuur je blind.
De financiële werkelijkheid onder ogen zien
Pas als je weet wat er speelt, kun je de financiële vraag stellen. En die vraag is concreter dan veel organisaties prettig vinden.
Hoeveel euro per gewerkt uur kom je tekort? Wat is je tijdshorizon? Wat zijn je transitiekosten – niet alleen de licenties, maar ook de implementatie, de training, de tijdelijke productiviteitsdip, de interne uren? Wanneer begint het terug te verdienen? En wat zijn de doorlopende kosten als het eenmaal draait?
Die berekening levert drie mogelijke uitkomsten op.
Het kan niet uit. Dan moet je niet beginnen. Dat klinkt simpel, maar het is verrassend vaak de conclusie die niet wordt getrokken, omdat het momentum van het AI-verhaal sterker is dan de financiële discipline.
Het kan misschien uit. Dan benoem je de risico’s expliciet. Wat zijn de aannames? Wat als de deflectie tegenvalt? Wat als de kosten stijgen? Is er een terugvalscenario? Dit is geen pessimisme – dit is professioneel risicomanagement.
Het kan uit onder de huidige condities. Dan komt de volgende vraag. Niet: hoe maximaliseren we dit? Maar: hoe voorkomen we dat we ons probleem alleen in de tijd verschuiven?
Het ontkoppelpunt: wie bezit wat?
En hier komen we bij wat ik in recente gesprekken steeds vaker tegenkom, en wat ik beschouw als de belangrijkste architectuurkeuze voor organisaties die AI structureel inzetten.
In de kern gaat het om drie lagen: de interface (waarmee je klant in contact komt), de kennislaag (de informatie die je antwoorden stuurt), en de redeneermotor (het taalmodel dat de taal genereert). De meest gangbare opzet is dat organisaties hun eigen kennis ontsluiten via een RAG-architectuur – Retrieval Augmented Generation, waarbij het model niet uit zijn eigen training antwoordt maar uit jouw kennisbronnen – en een LLM als redeneermotor gebruiken.
De strategische vraag is: wie bezit welke laag?
Als je interface, kennis en model in één ecosysteem integreert, koop je gemak. Je hebt één leverancier, één contract, één integratie. Maar je koopt ook afhankelijkheid. Als die leverancier zijn prijzen verhoogt, zijn voorwaarden wijzigt of zijn strategie verandert, zit je vast. Je kunt niet switchen zonder je hele stack te herbouwen.
De organisaties die ik het meest weerbaar zie, zijn degenen die deze lagen bewust scheiden. Ze houden de interface en de kennislaag in eigen hand, en gebruiken het taalmodel als een vervangbaar onderdeel. Niet alles in één stack. Daarmee blijft het model een commodity – iets wat je kunt wisselen als de prijs-kwaliteitverhouding verschuift – in plaats van een singlepoint of dependency.
Niet elk bedrijf heeft de middelen om dit volledig door te voeren. Dat begrijp ik. Maar dan moet je die afhankelijkheid expliciet meewegen in je businesscase. Niet als voetnoot, maar als risicofactor. Want als je hele klantinteractie afhankelijk is van één leverancier, is dat geen technisch detail. Dat is een machtsvraag.
Automatiseren mag – maar ontwerp het als infrastructuur
AI wordt steeds meer een basislaag onder werk. En basislagen ontwerp je niet alleen op efficiëntie. Die ontwerp je op aanpasbaarheid.
Dat betekent dat je bij elke AI-implementatie drie vragen stelt die niets met technologie te maken hebben, maar alles met weerbaarheid.
Wat gebeurt er als de prijsstructuur verandert? Heb je een terugvalscenario, of ben je dan overgeleverd aan de goodwill van je leverancier?
Wat gebeurt er als de effectiviteit tegenvalt? Heb je nog de interne kennis en capaciteit om bij te sturen, of heb je die afgebouwd in de verwachting dat AI het overneemt?
Wat gebeurt er als interne expertise verdwijnt? Als je het voorbereidende werk, de analyse, het kwaliteitsoordeel hebt geautomatiseerd – wie begrijpt dan nog wat er gebeurt als het misgaat?
Dat zijn geen doemscenario’s. Dat zijn ontwerpeisen.
Waar dit toe leidt
Ik ben niet tegen kostenreductie. Soms is die noodzakelijk, en soms is AI het juiste middel daarvoor. Ik ben ook niet tegen automatisering. Integendeel – ik geloof dat AI klantcontact fundamenteel kan verbeteren.
Maar ik geloof ook dat we als sector te makkelijk meegaan in businesscases die er op papier goed uitzien maar waarvan de aannames kwetsbaar zijn. Dat we te weinig doorvragen op wat er gebeurt als de condities veranderen. En dat we te laat nadenken over de afhankelijkheden die we ondertussen creëren.
Verantwoord adviseren betekent voor mij: eerst begrijpen wat er werkelijk speelt, dan doorrekenen of het uit kan, en vervolgens zo ontwerpen dat je niet gevangen raakt in je eigen oplossing.
Niet elke organisatie zal dat willen horen. Maar dat is het verschil tussen een advies dat verkoopt en een advies dat klopt.
-- dit bericht is eerder gepubliceerd op LinkedIn