Anti Bring Your Own AI

Gepubliceerd op 13 december 2025 om 12:15

Ja. Anti.

Nee, je hoeft niet iedereen z’n eigen AI te laten gebruiken. Net zo min als je ooit hebt gezegd: zoek zelf maar een tekstverwerker uit of gebruik gewoon de spreadsheet die jij prettig vindt. Dat hebben we ooit bewust gecentraliseerd. Niet omdat Excel zo geweldig is, maar omdat samenwerken, beveiliging en continuïteit dat vereisen.

En toch doen we nu alsof AI een uitzondering is.

Iedere medewerker z’n eigen copiloot. Iedere afdeling z’n favoriete model. Iedere “AI-goeroe” weer enthousiast achter het volgende shiny ding aan.

Alsof snelheid automatisch vooruitgang betekent.

Het probleem zit niet in AI, maar in hoe we erover praten

Laat ik helder zijn: ik ben niet tegen experimenteren met AI. Integendeel. Wat mij stoort, is hoe weinig er wordt nagedacht over wat dit betekent voor organisaties.

We rennen massaal achter nieuwe modellen en tools aan, roepen dat iedereen “AI-first” moet werken, maar slaan een paar fundamentele vragen over:

  • Hoe werken we straks nog samen?
  • Wie is eigenaar van kennis en output?
  • Wat gebeurt er met security en compliance?
  • En: wat organiseren we eigenlijk collectief, en wat laten we individueel?

 

Het valt me op hoe vaak vrijheid voor individuen wordt gepresenteerd als dé oplossing, terwijl organisaties juist functioneren bij samenhang, afspraken en herhaalbaarheid. Dat spanningsveld wordt te makkelijk genegeerd.

Dat is geen visie. Dat is technologieverliefdheid.

Maar alles dichtzetten werkt óók niet

Tegelijkertijd is het andere uiterste net zo problematisch.

Ik zie organisaties die eindeloos vergaderen over beleid, maanden doen over keuzes, en uiteindelijk een “officiële” AI-copilot aanbieden waar niemand echt blij van wordt. Te traag. Te beperkt. Te weinig relevant voor het dagelijkse werk.

Het resultaat laat zich raden:

  • Lage adoptie
  • Weinig vernieuwing
  • En uiteindelijk: shadow AI

 

Dan gaan mensen het tóch gebruiken.

Maar dan zonder afspraken.

Zonder toezicht.

Zonder leervermogen.

En voor je het weet ben je formeel keurig georganiseerd, terwijl je data via slimme assistenten op telefoons, privé-accounts en browsertools alsnog weglekt.

BYO AI is geen oplossing, maar een symptoom

Bring Your Own AI klinkt aantrekkelijk. Vrijheid. Autonomie. Innovatie.

In de praktijk zie ik vooral:

  • Versnippering van tools en werkwijzen
  • Inconsistente output (“welke AI heeft dit eigenlijk gegenereerd?”)
  • Onbedoeld delen van gevoelige informatie
  • En een IT- en securityafdeling die structureel achter de feiten aanloopt

 

Niet omdat mensen onverstandig zijn, maar omdat je ze opzadelt met een verantwoordelijkheid die eigenlijk collectief georganiseerd moet worden.

BYO AI is vaak geen bewuste strategie, maar een gevolg van het ontbreken ervan.

Tegelijk: centrale controle heeft ook een prijs

Een volledig gecentraliseerde aanpak heeft duidelijke voordelen:

  • Je weet welke tools gebruikt worden
  • Je kunt security en compliance beter borgen
  • Samenwerken wordt eenvoudiger
  • Training en support zijn overzichtelijk

 

Maar als je doorschiet, krijg je andere problemen:

  • Mensen voelen zich beperkt
  • Innovatie vertraagt
  • En de écht gemotiveerde medewerkers zoeken alsnog hun eigen weg

 

Strakke controle zonder aantrekkelijk alternatief creëert precies datgene wat je wilde voorkomen.

De echte vraag: waar en hoe organiseer je vrijheid?

De discussie gaat dus niet over vrijheid versus controle.

Die tegenstelling is te simpel.

De echte vraag is:

  • Waar geef je vrijheid?
  • Waar wil je standaardisatie?
  • En waarom?

Niet elke AI-toepassing is even risicovol. Niet elke vorm van experiment hoeft meteen productie-impact te hebben. En niet alles wat vandaag handig is, moet morgen structureel onderdeel worden van je landschap.

Zodra je dat erkent, kun je AI gaan ontwerpen in plaats van alleen faciliteren of verbieden.

 

Twee paden, met voorspelbare bijwerkingen

Te veel vrijheid (BYO AI):

  • Hoge energie, snelle experimenten
  • Maar ook versnippering, compliance-risico’s en kennisverlies

 

Te veel controle (alles centraal):

  • Veilig, overzichtelijk, beheersbaar
  • Maar risico op lage adoptie en shadow AI

 

Beide paden werken… tot ze dat niet meer doen.

Wat wél werkt: bewuste ontwerpkeuzes

Wat ik in de praktijk zie werken, is geen compromis, maar een ontwerpvraagstuk.

Een paar startpunten:

1. Denk in risicoklassen, niet in tools

Niet elke AI-toepassing hoeft hetzelfde regime. Brainstormen is iets anders dan klantdata verwerken. Maak dat expliciet.

2. Bied goede, centrale alternatieven

Als je wilt dat mensen geen eigen tools gebruiken, moet je iets beters aanbieden dan “dat mag niet”.

3. Organiseer experimenten bewust

Sandboxen, pilots, afgebakende omgevingen. Laat zien dat vernieuwing welkom is, maar niet vrijblijvend.

4. Neem BYOD serieus

AI zit al op telefoons, browsers en assistenten. Formeel “secure” zijn is niet genoeg als je dat negeert.

5. Maak het een gesprek, geen reglement

Beleid zonder begrip werkt averechts. Mensen moeten snappen waarom keuzes gemaakt worden.

Tot slot

Nee, je hoeft geen Bring Your Own AI-organisatie te zijn.

Maar je moet ook niet doen alsof AI iets is wat je volledig kunt dichtregelen.(En dus hoef je ook niet Anti te zijn 😉)

De organisaties die hier volwassen mee omgaan, maken heldere keuzes:

  • Wat organiseren we samen?
  • Waar laten we ruimte?
  • En hoe zorgen we dat we leren van wat er gebeurt?

 

AI is geen individuele gadget. Maar het is ook geen puur IT-vraagstuk. Het is organisatieontwerp.

En dat vraagt iets anders dan achter de hype aanlopen.

 

-- dit bericht is eerder gepubliceerd op LinkedIn