Statecraft

Mei 2026 · essay

De staat aan de knoppen

AI in een apparaat dat zijn eigen aannames niet meer kan bevragen

door Jacob Huibers · Read in English →

Een besluit in een teamskamer

In het voorjaar van een interim-opdracht bij een gemeente kreeg ik een besluit ter ondertekening voorgelegd. Het besluit ging over de aanschaf van een AI-tool. Het stuk was zorgvuldig opgesteld. Het bevatte een pagina over de leverancier, een pagina over de kosten, twee pagina’s over de juridische verankering inclusief een verwijzing naar de Europese AI-verordening, een pagina over de implementatieplanning, en een halve pagina over verwachte efficiëntiewinst. Wat het stuk niet bevatte, was een beoordeling van wat het instrument zou doen aan de uitvoering. Niet de uitvoering als procesbeschrijving, maar de uitvoering als plek waar mensen oordelen vellen over andere mensen onder schaarste, onzekerheid en discretionaire ruimte.

Ik vroeg in het MT of de medewerkers zelf hadden meegelezen op het besluit. Het antwoord was dat dit operationeel niet wenselijk was geweest, omdat de aanbestedingsprocedure al ver gevorderd was en de leverancier vertrouwelijkheid had geëist. Ik vroeg of het instrument was getest tegen historische dossiers waarvan we wisten dat zij fout waren afgehandeld. Het antwoord was dat dat type test in de offerte niet was gespecificeerd, en dat de leverancier dit als optioneel had aangeboden tegen meerprijs. Ik vroeg of de uitvoerders na implementatie het instrument zouden kunnen overrulen wanneer hun professionele oordeel afweek. Het antwoord was dat dit in beginsel kon, maar dat het instrument was bedoeld om “de subjectiviteit uit het proces te halen”, en dat afwijkingen automatisch een audit-trail zouden vereisen.

Het besluit haalde mijn handtekening niet. Wat ik in dat MT-overleg zag, en wat ik in de maanden erna nog driemaal in andere vorm zag terugkomen, is wat dit paper bespreekt. AI komt het Nederlandse openbaar bestuur binnen via een apparaat dat zijn eigen aannames al niet meer kan bevragen. Wat in een gezonde organisatie een diagnostisch hulpmiddel had kunnen worden, wordt onder de huidige condities een instrument dat de bestaande dissociatie versterkt en haar in algoritmische vorm vastlegt.

De vraag van Bostrom

In NRC van 25 april 2026 schreef Bas Heijne een essay over zijn ontmoeting tien jaar eerder met de Zweedse filosoof Nick Bostrom, auteur van Superintelligence (2014).¹ Bostrom had toen al de zorg geformuleerd die nu de publieke discussie domineert: wanneer machines intelligenter worden dan mensen, hoe voorkomen we dan dat zij zich tegen ons keren? Zijn antwoord was dat we kunstmatige intelligentie vanaf het begin onze menselijke waarden moesten meegeven. Heijne herinnert zich dat hij tijdens het interview begon te jeuken bij dat antwoord. Welke waarden, vroeg hij zich af, en de waarden van welke mensen?

Wat Heijne in het essay vervolgens beschrijft, en wat hij goed beschrijft, is hoe Bostrom’s vraag werd geadopteerd door een Silicon Valley-cultuur waarin de antwoorden niet door breed beraad maar door een specifieke groep ondernemers werden ingevuld. Elon Musk, Peter Thiel, Alexander Karp, Sam Altman en hun verwanten hebben Bostrom’s idee, dat ooit was om de machine menselijk te maken voor het te laat was, in feite omgekeerd. Zij zijn mensen steeds meer als machines gaan zien, vatbaar voor herprogrammering, met de samenleving als een verzameling computers die in de juiste handen herstart kan worden. Heijne haalt de auteurs van Muskisme (2026) aan, die het zo formuleren: Musk ziet de maatschappij en de staat als een verzameling computers, en als je de samenleving wilt veranderen moet je de juiste computers in handen krijgen en die herprogrammeren.²

Heijne sluit zijn essay af met een observatie die voor dit paper als kompas dient. Het is volgens hem niet de machine die ons in ons bestaan bedreigt. Het is de mens die aan de knoppen zit. De Statecraft-bijdrage aan deze observatie is dat in een specifiek apparaat, het Nederlandse openbaar bestuur, “de mens aan de knoppen” geen anonieme abstractie is. Hij of zij zit in een specifieke architectuur, met specifieke selectiemechanismen, specifieke prikkels en specifieke blinde vlekken. Wat AI bij de Nederlandse overheid wordt, hangt niet af van de leveranciers die haar verkopen, en niet af van de Europese AI-verordening die haar reguleert. Het hangt af van het apparaat dat haar adopteert, en dat apparaat heeft eigenschappen die ik in eerdere Statecraft-publicaties heb beschreven en die hier opnieuw werkzaam zijn.

Tussen utopie en dystopie

Op de pagina vóór het essay van Heijne staat in dezelfde editie van NRC een ander stuk over hetzelfde onderwerp.³ Koert van Mensvoort, directeur van het Next Nature Museum in Eindhoven, schetst daarin een hoopvol toekomstbeeld voor 2030. In zijn beeld is de robot een ecosysteem geworden waarmee de mens vervlochten is, terwijl AI de systemen draaiende houdt en de mens de ruimte krijgt voor wat de Japanners ikigai noemen, een reden om ‘s ochtends op te staan. De homo faber maakt plaats voor de homo ludens, de spelende mens. Een verpleger verdient meer dan een chirurg, een goede ober meer dan een notaris, omdat menselijke aanwezigheid in een geautomatiseerde wereld de schaarse luxe is geworden.

Tussen de twee pagina’s gebeurt op redactioneel niveau wat in het bestuurlijke debat over AI op grotere schaal gebeurt. Aan de ene zijde een utopisch toekomstbeeld waarin AI ruimte schept voor menselijke bezieling. Aan de andere zijde een dystopisch toekomstbeeld waarin de mens aan de knoppen het bestaan van anderen bedreigt. Beide stukken zijn op zichzelf doordacht. Beide stukken werken met hetzelfde materiaal, de opkomst van AI als technologie en als sociaal-politiek fenomeen. Wat tussen de twee stukken letterlijk wegvalt, omdat de pagina aan beide zijden bedrukt is en de tussenzone niet bestaat als ruimte, is de plek waar het werk wordt gedaan. De zone waar een ambtenaar in een uitvoeringsorganisatie aan een loket zit met een AI-tool naast haar, een afdelingshoofd een AI-besluit voorbereidt voor een MT, een gemeentesecretaris een aanbestedingsprocedure beoordeelt op haar effect op haar uitvoering. Die zone is in het publieke debat over AI in Nederland systematisch ondervertegenwoordigd. Niet omdat zij minder belangrijk is dan utopie of dystopie. Maar omdat haar register, het register van de werkpraktijk in een specifieke organisatie, zich slecht laat exporteren naar een opiniestuk en zich slecht laat illustreren door een museum-directeur of een essayist.

Wat in deze tussenzone werkelijk gebeurt, is empirisch in beeld bij één Nederlandse instantie met de mandaat en de discipline om dat te doen, en dat is de Algemene Rekenkamer. Wat de Rekenkamer in haar AI-onderzoek van 2024 en 2025 ziet, hoort tussen de twee NRC-pagina’s te staan. Tegenover Mensvoort’s hoopvolle perspectief en Heijne’s verontrustende analyse staat de pagina die ontbreekt: de pagina van wat er nu in de uitvoering daadwerkelijk gebeurt. Die pagina is voor het Statecraft-debat de meest urgente. Zij is geen vooruitblik en geen waarschuwing. Zij is de huidige stand van zaken in een apparaat dat over deze stand van zaken zelf onvoldoende beraadt.

Wat de Algemene Rekenkamer ziet

In oktober 2024 publiceerde de Algemene Rekenkamer haar focusonderzoek Focus op AI bij de rijksoverheid.⁴ Het onderzoek inventariseerde 433 AI-systemen bij zeventig overheidsorganisaties. De meeste systemen, 167 in totaal, waren op het moment van onderzoek nog lopende experimenten. Acht en tachtig procent van de organisaties gebruikte niet meer dan drie AI-systemen. Slechts vijf procent van de systemen was geregistreerd in het openbare Algoritmeregister. De meest gebruikte toepassingen waren kennisverwerking en inspectie en handhaving. De organisaties die het meest met AI werkten waren de politie en het UWV.

Wat de Rekenkamer aanwees als kernprobleem was niet de schaal van het AI-gebruik, maar de afwezigheid van zicht op wat het AI-gebruik deed. Bij vijfendertig procent van de in gebruik zijnde systemen was niet bekend of het systeem de verwachting waarmaakte. In een aanzienlijk deel van de gevallen was vooraf niet bepaald wat het doel van het systeem was, of wanneer het als een succes zou worden beschouwd. De Rekenkamer signaleerde bovendien een prikkel bij organisaties om de risico’s van AI-systemen laag in te schatten, omdat een hoog-risico-classificatie onder de Europese AI-verordening tot strenge eisen leidt. Dertig systemen waren als hoog-risico aangemerkt, maar het werkelijke aantal was naar oordeel van de Rekenkamer hoger.

Een halfjaar later, in mei 2025, keerde de Rekenkamer in haar Verantwoordingsonderzoek 2024 op een specifieker terrein terug.⁵ Drie risicomodellen waren onderzocht, twee bij de Belastingdienst en Dienst Toeslagen en een bij het UWV. Het algoritme van het UWV werd grotendeels akkoord bevonden. De algoritmes van de Belastingdienst en de Dienst Toeslagen voldeden niet aan de AVG. Bij het systeem van Dienst Toeslagen, dat ouders moest opsporen die veel kinderopvangtoeslag zouden moeten terugbetalen ten opzichte van hun inkomen en die dus mogelijk hulp konden gebruiken, waarschuwde de Rekenkamer dat de informatie uit het begeleidingstraject zou kunnen worden gebruikt voor toezicht of fraudebescherming, en dat het niet uitgesloten was dat de ene groep meer of minder kans had om hulp aangeboden te krijgen dan de andere. Bij het algoritme van de Belastingdienst voor de opsporing van carrouselfraude bleek dat persoonsgegevens onvoldoende werden beschermd.

Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens, schreef in juli 2024 in de Volkskrant dat op bijna elke plek waar de Autoriteit onderzoek doet, discriminerende systemen worden ontdekt waarvan een goede onderbouwing van de gebruikte risico-indicatoren ontbreekt.⁶ AI-onderzoeker Joris Krijger wierp in dezelfde periode de vraag op of de Nederlandse overheid wel voldoende ethische infrastructuur heeft om afwegingen te maken tussen efficiëntie en eerlijkheid in algoritmische besluitvorming. Het collegelid van de Rekenkamer Ewout Irrgang reageerde dat de verantwoordelijkheid voor algoritmische besluiten altijd bij mensen ligt, en dat de Rekenkamer in 2022 met een toetsingskader is begonnen dat sindsdien is uitgebreid en aangescherpt.

Wat deze rapporten samen tonen, is dat AI in de Nederlandse publieke sector op een aanzienlijke schaal is geadopteerd voordat de organisaties die haar adopteren zicht hebben op wat zij doet. Dat is op zichzelf geen Nederlands verhaal, en het is niet uniek voor AI als technologie. Het is wel een specifiek geval van een patroon dat in eerdere Statecraft-publicaties is beschreven, en het is nuttig om die verbanden expliciet te maken.

Hoe de gedissocieerde organisatie AI absorbeert

In de reeks Gedissocieerde Organisaties heb ik vier symptomen beschreven van uitvoeringsorganisaties waarin de evidente fout niet meer kan landen.⁷ Onder elk van die vier symptomen werkt AI niet als correctie maar als versterker.

De reputatie-architectuur, het eerste symptoom, dwingt organisaties om aankondigbare resultaten te produceren voordat de inhoudelijke beoordeling is gedaan. Een AI-tool die efficiëntiewinst belooft, levert precies het type aankondigbare resultaat dat in deze logica wordt gewaardeerd. De aankondiging van de implementatie kan plaatsvinden voordat het instrument is getest tegen reële uitvoeringsdossiers, en haar bestuurlijke baten kunnen worden verzilverd op een eerdere datum dan haar materiële effecten zich aandienen. Dat de Rekenkamer bij vijfendertig procent van de in gebruik zijnde systemen geen oordeel kan geven over hun prestaties, is geen toeval. Het is wat een reputatie-architectuur als bijproduct produceert: aangekondigde implementaties zonder de instrumenten om hun werking te evalueren.

De reproductie naar binnen, het tweede symptoom, dwingt organisaties om hun topkader te selecteren op mobiliteit en zichtbaarheid eerder dan op inhoudelijk gewicht. AI-besluitvorming is bij uitstek een onderwerp waarover topfunctionarissen kunnen spreken zonder de uitvoering in de diepte te kennen. Wie in een ABD-rotatie van drie tot vier jaar functies bekleedt, leert AI als bestuurlijk thema in dezelfde algemene termen kennen waarin alle thema’s zich aandienen. De inhoudelijke kennis van wat een specifiek algoritme doet aan een specifieke uitvoering, vraagt om jaren ervaring in dat ene dossier, en die ervaring zit zelden meer in de top. Het gevolg is dat AI-besluiten worden gemaakt in een register dat haar eigen abstracties als inhoud verkoopt.

De opgenomen schuld zonder integratie, het derde symptoom, biedt het meest expliciete bewijs dat AI in de Nederlandse publieke sector geen onschuldige nieuwkomer is.⁸ De toeslagenaffaire was in haar kern een AI-affaire. Het systeem dat in de jaren 2014 tot 2019 tienduizenden ouders als fraudeur classificeerde, was een algoritme. De Fraude Signalering Voorziening, het CAF-team en de zwarte lijsten die uit deze constructies voortkwamen, werkten met risico-indicatoren waaronder etniciteit een proxy-functie vervulde. Wat in 2020 als hersteloperatie werd opgezet, heeft de algoritmische dimensie van het oorspronkelijke probleem niet als leeronderwerp behandeld. Het werd opgevangen in afzonderlijke trajecten over vooringenomenheid, register-verplichtingen en ethische frameworks. De Belastingdienst en Dienst Toeslagen, waar de affaire ontstond, hebben in 2024 nog steeds algoritmes in gebruik die volgens de Algemene Rekenkamer niet aan de AVG voldoen. De single-loop respons heeft het apparaat gepatcht, niet de aannames waaronder het apparaat in 2014 algoritmes inzette als instrument voor het classificeren van burgers.

De performatieve volwassenheid, het vierde symptoom, is in de Nederlandse AI-respons inmiddels in volle wasdom.⁹ Het Algoritmekader, het Algoritmeregister, het Toetsingskader algoritmes van de Rekenkamer, de Europese AI-verordening, het Impact Assessment Mensenrechten en Algoritmes, de Data Protection Impact Assessments, de toezichtsfuncties die bij Autoriteit Persoonsgegevens en Rijksinspectie Digitale Infrastructuur zijn ondergebracht. Geen van deze instrumenten is op zichzelf onverstandig. Hun gezamenlijke werking levert een laag van compliance-architectuur waaronder de feitelijke besluitvorming over AI in uitvoeringsorganisaties zich kan stabiliseren zonder dat de inhoudelijke kolom haar nog raakt. Een organisatie die in 2024 een AI-systeem heeft geadopteerd zonder zicht op haar prestatie, kan in 2026 door alle vereiste assessments lopen en het systeem in gebruik houden, omdat de assessments primair het proces van adoptie toetsen en niet het effect van het systeem op de uitvoering.

Naast de vier symptomen werkt de sociologische dimensie die ik in De diplomademocratie van het apparaat heb beschreven, in het AI-dossier in scherpe vorm.¹⁰ De vraag van Bostrom, welke waarden en van welke mensen, wordt in een Nederlands uitvoeringsapparaat in de praktijk beantwoord door wie er nu al aan tafel zit. De directies digitalisering, de chief information officers, de adviesfirma’s die de aanbestedingen begeleiden, de academische experts die in adviesraden plaatsnemen, de bestuursadviseurs die het politieke draagvlak organiseren, behoren overwegend tot één sociologische laag. Dat is niet een politiek bezwaar. Het is een institutioneel feit. Wanneer aan de tafel waar AI-besluiten vallen, alleen mensen zitten die zelf van AI optimistisch zijn omdat zij de schaal van haar uitwerking op de balie en de wijk niet dagelijks meemaken, krijgt de optimistische invulling structureel meer ruimte dan de pessimistische. Niet uit kwade wil. Maar uit een sociologische zwaartekracht die het apparaat zelf produceert.

Wie er aan de knoppen zit

Heijne stelt aan het einde van zijn essay dat het de mens aan de knoppen is die ons bestaan bedreigt, niet de machine. In het Nederlandse uitvoeringsapparaat is “de mens aan de knoppen” een rij specifieke posities. Het hoofd van de directie informatiehuishouding bij een ministerie. De chief information officer van een uitvoeringsorganisatie. De directeur digitalisering van een gemeente. De inkoopadviseur die de aanbesteding begeleidt. De jurist die de AI-verordening interpreteert. De externe consultant die de implementatieroadmap voorbereidt. De projectleider die het systeem in productie neemt. Op het moment dat een AI-systeem effect heeft op een burger, is de keten van mensen die aan de knoppen hebben gezeten al lang en specialistisch.

Wat in deze keten ontbreekt, is een vertegenwoordiger van wie het werk doet. De parkeercontroleur, de bijstandsconsulent, de jeugdbeschermer, de toezichthouder kinderopvang, de medewerker administratief-juridische ondersteuning bij de Belastingdienst. Deze functionarissen zien wat het systeem doet wanneer het in productie is, en zij hebben de kennis om voor implementatie te zeggen wat het systeem niet ziet. Zij zitten in de huidige besluitvorming over AI op een aanzienlijke afstand van de tafel waar de besluiten vallen. Hun signaal komt aan in een register dat de tafel niet automatisch herkent. Wanneer het signaal aankomt en wordt vertaald, draagt het de afdruk van de vertaler eerder dan van de uitvoerder.

Heijne haalt het werk van Quinn Slobodian en Ben Tarnoff aan over Peter Thiel en Alexander Karp van Palantir. De auteurs van Muskisme beschrijven hoe Palantir haar diensten niet langer aanbiedt als opstapje naar een betere toekomst maar als manier om jezelf te verdedigen tegen bedreigingen in een gevaarlijke wereld.¹¹ De staat moet afhankelijk worden gemaakt van Palantir-technologie, in de logica van haar eigenaren, omdat zij de complexiteit niet zelf kan dragen. In de Nederlandse context werkt deze logica via een minder zichtbare vorm. Niet één leverancier dwingt een onmisbaarheid af. De gezamenlijke werking van AI-leveranciers, consultants, IT-bureaus en compliance-functies produceert een afhankelijkheid waarin de uitvoeringsorganisatie haar eigen oordeel over wat zij doet, niet meer zonder hun bemiddeling kan formuleren. Ook dit is een vorm van gedissocieerdheid. Niet de buitenkant herschrijft de binnenkant, zoals in de reputatie-architectuur. Een externe technologische infrastructuur herschrijft het oordeelsvermogen van wie het werk doet.

Wat zou werken

Wie zoekt naar een respons op de adoptie van AI in de Nederlandse publieke sector, vindt twee dominante redeneringen. De eerste is technologisch optimistisch en pleit voor versnelde implementatie om productiviteitswinst te behalen voordat de internationale concurrentie definitief uitloopt. De tweede is regulatoir en pleit voor strengere toepassing van de AI-verordening en uitgebreider toezicht. Beide redeneringen voeden de cyclus die ik heb beschreven, omdat geen van beide aan het apparaat zelf werkt waarmee implementatie en toezicht worden uitgevoerd.

Drie ontwerpkeuzes zijn op zichzelf niet revolutionair, maar gaan tegen de huidige praktijk in. De eerste is dat de uitvoering aan tafel zit voordat een AI-besluit valt, niet erna. Een vertegenwoordiger van de werkvloer, gekozen op kennis en ervaring en niet op vertegenwoordigingstitel, hoort deel uit te maken van de besluitvormingsketen vanaf de eerste verkenning van een leverancier. Wat zij in zou brengen, is wat een offerte zelden bevat: de specifieke uitvoeringsdossiers waaraan het instrument zou moeten worden getest, de specifieke afwijkingen die de uitvoering nu zelf opvangt, de specifieke contexten waarin het instrument volgens haar oordeel niet zou moeten worden ingezet. Dat een aanbestedingsprocedure deze inbreng moeilijk maakt, is een procedure-vraagstuk. Het is geen reden om de inbreng achterwege te laten, want het kostenverschil van implementatie zonder versus met deze inbreng is op de middellange termijn aanzienlijk in het voordeel van de tweede.

De tweede is dat de vraag “welke aannames bevestigt dit instrument” expliciet wordt gesteld voordat het instrument wordt geïmplementeerd. Een AI-tool voor risicoprofilering bevestigt de aanname dat risico vooraf laat zich kwantificeren en optimaliseren via patronen in historische data. Of die aanname werkelijk toepasbaar is op de specifieke beslissingen waarin het instrument zal worden ingezet, is geen technologische vraag. Het is een vraag over de aard van het werk. Vergelijkbare vragen liggen bij andere AI-toepassingen. Een tool voor automatische tekstgeneratie bevestigt de aanname dat de waarde van een tekst primair in haar inhoud ligt en niet in het denken dat haar voortbracht. Een tool voor automatische besluitvorming bevestigt de aanname dat de discretionaire ruimte waarin het besluit wordt genomen, een variabele is die uit het proces gehaald moet worden in plaats van een waarde die er dragend in is. Niet elk van deze aannames hoeft fout te zijn. Maar zonder dat zij worden geëxpliciteerd, is implementatie een vorm van filosofische gehoorzaamheid aan wat de leverancier denkt dat het werk is.

De derde is dat extern toezicht directe brontoegang krijgt op de output van AI-systemen, niet alleen op hun implementatie. Dit principe heb ik in het inleidend paper van Gedissocieerde Organisaties algemeen geformuleerd, en het werkt voor AI in een specifieke vorm.¹² De Algemene Rekenkamer kan toetsen of een AI-systeem aan haar toetsingskader voldoet. Wat zij niet zonder directe brontoegang kan, is verifiëren of het systeem in productie ook werkelijk doet wat de implementatie-rapportages beweren. Het verschil tussen die twee is in een gedissocieerde organisatie groot, en in een sterk geautomatiseerd uitvoeringsproces neemt het verschil eerder toe dan af. Dezelfde logica geldt voor lokale rekenkamers ten opzichte van gemeentelijke AI-implementatie, en voor parlementaire enquêtecommissies die in de toekomst onvermijdelijk over algoritmische schade in een hersteloperatie zullen moeten oordelen.

Geen van deze drie keuzes vraagt om een nieuwe wet of een nieuwe code. Wat de Europese AI-verordening en de Nederlandse uitwerking ervan al beschikbaar maken, is voldoende voor wie ze in deze richting wil interpreteren. Wat de drie keuzes vragen is een ander gewicht in de dagelijkse besluitvorming, en dat gewicht ligt bij de gemeentesecretaris, de directeur uitvoering, de secretaris-generaal en de interim-bestuurder die in het MT-overleg de handtekening niet zet.

Wat in het komende boek De Richting van de Beweging als de Aiki-methode wordt beschreven, is hier opnieuw bruikbaar.¹³ De menselijke neiging om AI als technologische oplossing te zien voor inhoudelijke problemen, is sterk en zij wordt door de marktdruk van leveranciers en de bestuurlijke druk van efficiëntie gevoed. Aiki ontkent deze neiging niet en forceert haar niet. Zij wordt omgeleid via een ontwerp waarin de uitvoering haar oordeel kan leveren voordat de leverancier haar oplossing levert. Dat is ongemakkelijk voor wie het besluit neemt, want het verlengt de besluitvorming en het bemoeilijkt de aankondigbaarheid. Op de middellange termijn levert het organisaties die hun AI-implementaties kunnen dragen, in plaats van AI-implementaties die hun organisaties dragen.

De open vraag

Heijne sluit zijn essay in een sombere toon. The Economist, schrijft hij, roept inmiddels op tot strenge regulering nadat zij jarenlang de vrije markt boven overheidsbemoeienis stelde. Het is rijkelijk laat, maar beter laat dan nooit. Mensvoort sluit de zijne in een speelse toon: het grote spelen is eindelijk begonnen. Voor het Nederlandse uitvoeringsapparaat ligt de kern van de zaak ergens anders dan op een van beide plekken. De vraag is niet primair of de regulering van AI in haar Europese vorm afdoende is, en zij is ook niet primair of het utopisch perspectief van de homo ludens binnen handbereik komt. De vraag is of een gedissocieerd apparaat een nieuw instrument verstandig kan adopteren, of dat het apparaat zijn eigen dissociatie via dat instrument zal reproduceren.

Wat ik in mijn opdrachten heb geleerd, is dat het antwoord per organisatie verschilt en dat het verschil niet vooraf vastligt. Een gemeentesecretaris die in haar selectie van een AI-tool de uitvoering aan tafel haalt, een directeur die de aannames van het instrument expliciet maakt, een rekenkamer die haar toetsing op output baseert in plaats van op proces, leveren samen een implementatie waarin het instrument zijn werk doet zonder de organisatie ervan te beroven. Een gemeentesecretaris die de uitvoering buitenlaat, een directeur die de aannames laat liggen, een rekenkamer die haar toetsing op proces baseert, leveren een implementatie waarin het instrument zich onmisbaar maakt en de organisatie zich aan haar vastbindt. Het verschil tussen de twee is op het moment van besluitvorming klein, en op de middellange termijn groot.

Heijne’s slotzin past op deze conclusie. Het is gewoon de mens die aan de knoppen zit. In het Nederlandse openbaar bestuur is die mens niet anoniem. Wie deze paper heeft gelezen, weet welke posities ik bedoel. Voor de mensen op die posities is dit paper geschreven. Voor wie eraan wil bijdragen dat de adoptie van AI niet de cyclus voortzet die in eerdere papers van Statecraft is beschreven, ligt het werk niet in een nieuw governance-document, en het ligt niet in de keuze tussen de utopie van Mensvoort en de waarschuwing van Heijne. Het ligt in de pagina die tussen de twee in de krant van 25 april 2026 ontbrak, en die zich op honderd plekken in het Nederlandse uitvoeringsapparaat dagelijks afspeelt. Het ligt in de eerstvolgende keer dat een AI-besluit op het bureau komt, en de vraag is wie er aan tafel zit voordat het besluit valt.


Voetnoten

¹ Bas Heijne, “We zijn verwikkeld in een oorlog van allen tegen allen”, NRC, opinieartikel, 25 april 2026. Voor het oorspronkelijke werk van Bostrom zie Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2014. Het Future of Humanity Institute aan de Universiteit van Oxford, waar Bostrom directeur was, werd in april 2024 opgeheven.

² Quinn Slobodian en Ben Tarnoff, Muskisme: een gids voor de verbijsterden, 2026, geciteerd in Heijne (2026). Voor een uitgebreidere bespreking zie het interview met de auteurs in NRC van dezelfde periode.

³ Koert van Mensvoort, “In 2030 maakt AI ruimte voor de spelende mens”, NRC, opinieartikel in de serie Wat als het góéd gaat met AI in 2030?, 25 april 2026. Het stuk staat in dezelfde editie van NRC als het essay van Heijne (zie noot 1), op de pagina ervoor. Mensvoort is directeur van het Next Nature Museum in Eindhoven.

⁴ Algemene Rekenkamer, Focus op AI bij de rijksoverheid, 16 oktober 2024. Online: https://www.rekenkamer.nl/publicaties/rapporten/2024/10/16/focus-op-ai-bij-de-rijksoverheid. Voor de bestuurlijke reactie van de staatssecretaris van BZK zie de bijgevoegde brief van dezelfde datum.

⁵ Algemene Rekenkamer, Resultaten verantwoordingsonderzoek 2024 ministerie van Financiën, mei 2025, in het bijzonder de paragrafen over de algoritmes van de Belastingdienst en de Dienst Toeslagen. Het Verantwoordingsonderzoek 2024 bij het ministerie van Sociale Zaken en Werkgelegenheid behandelt het UWV-algoritme.

⁶ Aleid Wolfsen, “Discriminerende algoritmes worden bij vrijwel elke overheid aangetroffen”, de Volkskrant, opiniestuk, juli 2024. Voor de reactie van Ewout Irrgang namens de Algemene Rekenkamer zie het weblog van de Rekenkamer, Als het aankomt op algoritmen, zijn de problemen van het Rijk breder dan alleen discriminatie, 1 augustus 2024. Voor het werk van Joris Krijger zie zijn proefschrift en publicaties bij het Lectoraat AI & Ethiek aan de Hogeschool Rotterdam.

⁷ Voor de vier symptoom-papers en de afsluitende synthese zie de Statecraft-reeks Gedissocieerde Organisaties (april-mei 2026): De reputatie-architectuur, De reproductie naar binnen, De opgenomen schuld zonder integratie, De performatieve volwassenheid, en Synthese: het herstel van inhoudelijk gewicht.

⁸ Voor de algoritmische dimensie van de toeslagenaffaire en de rol van de Fraude Signalering Voorziening (FSV), zie onder meer het rapport van de Parlementaire ondervragingscommissie Kinderopvangtoeslag, Ongekend onrecht, december 2020, en de daaropvolgende publicaties van de Autoriteit Persoonsgegevens over etniciteit als risico-indicator (2020-2022).

⁹ Voor de uitwerking van performatieve volwassenheid als geïnstitutionaliseerde inversie zie Jacob Huibers, De performatieve volwassenheid: Waarom meer code, meer toezicht en meer compliance de dissociatie verergeren in plaats van helen, symptoom-paper IV in de reeks Gedissocieerde Organisaties, Statecraft, mei 2026.

¹⁰ Jacob Huibers, De diplomademocratie van het apparaat: Hoe een sociologische scheidslijn binnen de uitvoering de gedissocieerde organisatie verzwaart, Statecraft, mei 2026. Het paper bouwt voort op Mark Bovens en Anchrit Wille, Diplomademocratie: Opleiding als nieuwe scheidslijn, uitgebreide en herziene editie, Prometheus, 2026 (eerste editie Bert Bakker, 2011).

¹¹ Heijne (2026), citerend uit Slobodian en Tarnoff (2026). De aangehaalde formulering is dat Palantir-diensten worden aangeboden niet als opstapje naar een betere toekomst maar als manier om jezelf te verdedigen tegen bedreigingen in een gevaarlijke wereld. Joseph Conrad, Heart of Darkness, 1899, wordt door Heijne aangehaald via de notitie van Mr. Kurtz, “Exterminate all the brutes”, als kritiek op de hoogmoed van de Verlichting.

¹² Jacob Huibers, Gedissocieerde organisaties: Waarom evidente fouten niet meer landen, en wat dat van publiek herstel vraagt, Statecraft, april 2026, sectie “Verbinding als interventie”, subitem “directe brontoegang voor toezicht”.

¹³ Voor de Aiki-methode als ontwerpprincipe in plaats van interventietechniek zie De Richting van de Beweging: Interim-Management in de Publieke Sector, manuscript in voorbereiding, hoofdstuk 10.


Colofon

“De staat aan de knoppen” is een Statecraft-publicatie naar aanleiding van de NRC-editie van 25 april 2026, waarin op aansluitende pagina’s een hoopvol toekomstbeeld van Koert van Mensvoort en een verontrustende analyse van Bas Heijne over AI verschenen. Het paper bouwt voort op de afgesloten reeks Gedissocieerde Organisaties (april-mei 2026) en op het paper De diplomademocratie van het apparaat (mei 2026). Het is geen onderdeel van een doorlopende reeks, maar zelfstandig leesbaar en in haar diagnose verwant. Het ontstaat uit de waarneming dat de adoptie van AI in de Nederlandse publieke sector op dit moment in haar formatieve fase verkeert, en dat de keuzes die nu worden gemaakt over jaren onomkeerbaar zullen blijken.

Statecraft is het platform van Jacob Huibers voor strategische reflectie op publieke uitvoering. De inhoud sluit aan bij het komende boek De Richting van de Beweging: Interim-Management in de Publieke Sector (manuscript in voorbereiding).

Reactie en tegenspraak via Statecraft.nl.


Jacob Huibers is interim-manager met ruim twintig jaar ervaring in de Nederlandse publieke sector. Hij werkte als clustermanager, clusterdirecteur en kwartiermaker bij gemeenten van vijftigduizend tot ruim tweehonderdduizend inwoners en bij regionale samenwerkingsverbanden.