Van 'kan het?' naar 'mag het?': wat de EU AI Act betekent voor klantcontact

Gepubliceerd op 15 juli 2025 om 08:57

Sinds augustus 2024 is de EU AI Act van kracht. Het eerste mondiale wetgevingskader dat niet alleen kijkt naar wát AI kan, maar vooral naar welk risico dat met zich meebrengt. Voor organisaties die AI in klantcontact inzetten is dit geen revolutie, maar wél een reality check. Want wat jarenlang gold als “technische innovatie” of “handige efficiencywinst” wordt nu ineens onder een juridisch en maatschappelijk vergrootglas gelegd.

Waarom dit mij bezighoudt
In mijn werk adviseer ik organisaties over hoe ze de service aan hun klanten beter kunnen maken. Daar komt bijna altijd technologie bij kijken — en met de komst van AI: steeds slimmere, betere en goedkopere technologie. Vaak schrijf en spreek ik over de vraag: wat kán er? Wat kan AI ons brengen aan snelheid, gemak, personalisatie?

Maar nu wil ik een stap verder zetten: niet alleen kijken naar wat kan, maar ook naar wat mag. Want eerlijk is eerlijk: van de EU AI Act wist ik tot voor kort ook niet veel. Tot ik me erin verdiepte en ontdekte hoeveel het betekent voor de manier waarop we AI inzetten richting klanten.

Wat regelt de AI Act?
De wet introduceert een risicogebaseerde aanpak. Simpel gezegd: hoe groter de impact op burgers, hoe zwaarder de eisen. Er zijn vier niveaus:

  • Verboden (unacceptable risk) — denk aan sociale scoring of manipulatieve AI.

  • Hoog risico — bijvoorbeeld AI in gezondheidszorg of financiële advisering.

  • Beperkt risico — waar de meeste klantcontacttoepassingen zoals chatbots en voicebots onder vallen.

  • Minimaal risico — generieke tools zoals spamfilters.

Voor klantcontactorganisaties betekent dit: transparantie, documentatie en teamkennis worden verplicht. Geen ‘leuk als we tijd hebben’, maar ‘moet op orde zijn’.

Transparantie als harde eis
Vanaf februari 2025 moet duidelijk zijn dat een klant met een AI-systeem praat. Geen slimme formuleringen als “digitaal assistentje” of “virtuele collega” meer zonder uitleg. De klant moet weten: hier praat ik met een machine, en als ik dat wil, kan ik naar een mens. Dat raakt niet alleen compliance, maar ook hoe je je merk presenteert.
Dit sluit aan bij wat ik in analyses regelmatig tegenkom: veel contactmomenten ontstaan doordat klanten niet begrijpen wat er gebeurt in hun proces. Als AI-transparantie verplicht wordt, dwingt dat organisaties om helderder te communiceren — niet alleen over de AI, maar over hun hele service.

Documentatie: bewijs wat je doet
Organisaties moeten loggen welke interacties plaatsvinden, welke beslissingen AI neemt, en waar data vandaan komt. Voor veel bedrijven betekent dat een forse professionaliseringsslag.
Voor organisaties die conversational intelligence inzetten is dit eigenlijk goed nieuws: wat jarenlang werd gezien als ‘leuk om te hebben’ — het systematisch analyseren van alle klantinteracties — wordt nu compliance-vereiste. Eindelijk krijgt data-gedreven verbeteren de status die het verdient.

AI-geletterdheid: niet alleen tech, ook team
Opvallend en vaak onderschat: de AI Act verplicht niet alleen ontwikkelaars, maar ook gebruikers van AI om hun personeel op te leiden. Wie met AI-systemen werkt, moet snappen hoe ze functioneren, waar risico’s zitten, en wanneer escalatie naar een mens nodig is. Dit vraagt om een organisatiebrede inspanning — compliance is geen IT-feestje.
Dit raakt precies aan wat ik vaak zie: organisaties die AI inzetten zonder dat hun teams begrijpen wanneer het wel of niet werkt. De wet maakt training verplicht, maar slimme organisaties zagen dit al als randvoorwaarde voor effectieve AI-inzet.

Human-in-the-loop: waarom menselijke betrokkenheid cruciaal blijft
Een belangrijk principe in de AI Act is dat er bij AI-systemen met grote impact altijd menselijke betrokkenheid vereist is. Bijvoorbeeld bij besluiten over krediet, zorg of sancties moet er een mogelijkheid zijn voor menselijke controle of ingrijpen.
In klantcontact is dat relevanter dan veel organisaties denken. Want ook als een AI beslist dat een klant geen recht heeft op iets, moet er een menselijke route zijn voor bezwaar of herziening. Automatisering mag geen zwart gat worden. Ik zie dit vaak als blinde vlek bij bedrijven: AI mag ondersteunen, maar niet de eindbeslisser zijn waar het gaat om ingrijpende klantimpact.

2 augustus 2025: de volgende hobbel komt eraan
Naast de transparantie-eisen van februari is augustus 2025 een belangrijke tweede mijlpaal. Dan gebeurt er twee dingen:

  1. Governance-regels worden actief.
    Het Europese AI Office en nationale toezichthouders starten met handhaven en controleren. Met andere woorden: vanaf dat moment wordt het menens.

  2. Regels voor General-Purpose AI (GPAI) modellen.
    Denk aan systemen als ChatGPT, Claude, DALL·E of Midjourney. Deze modellen moeten transparantie bieden over hoe ze getraind zijn, technische documentatie aanmaken en beleid hebben om EU-auteursrechten te respecteren.

Impact voor klantcontact?
Als je chatbots of voicebots gebruikt die op GPAI-modellen draaien, moet je als organisatie straks kunnen aantonen dat jouw leveranciers compliant zijn. Hoewel GPAI-providers tot augustus 2027 de tijd hebben om volledig te voldoen, geldt voor jou nu al: weet wie je in huis haalt.
Bottom line: augustus 2025 betekent strengere controle en documentatie-eisen, óók voor jou als klantcontactorganisatie.
Dit raakt precies aan waar ik in mijn advieswerk op hamer: technologie is niet alleen iets dat je ‘gewoon inplugt’. Je bent als organisatie mede verantwoordelijk voor hoe leveranciers hun technologie inzetten. Augustus 2025 wordt geen IT-kwestie, maar een directiekwestie.

Tot slot: een reality check voor ons allemaal
Ik zie de AI Act als een moment van bezinning. We praten vaak over technologie als middel om doelen te bereiken, maar staan zelden stil bij de grenzen die we onszelf (en elkaar) opleggen.

Voor wie net als ik meer wil begrijpen van de inhoud en implicaties van de wet, raad ik twee bronnen aan:

De EU AI Act wil ervoor zorgen dat AI-systemen veilig, transparant en betrouwbaar zijn zodat burgers erop kunnen vertrouwen.
Dat is het: vertrouwen creëren door veiligheid en transparantie af te dwingen.